Mistral представляє Mistral 3: нове покоління відкритих моделей для корпоративного та Edge AI

MpostMediaGroup

Коротко

Mistral щойно випустила Mistral 3 — нову лінійку з 10 відкритих моделей, призначених для роботи на всьому: від споживчого хмарного середовища до ноутбуків, дронів і роботів.

Mistral Introduces Mistral 3: Versatile Family Of 10 Open-Weight Models

Стартап у сфері ШІ Mistral презентував Mistral 3 — нове покоління своїх моделей, що включає три компактні, високопродуктивні щільні моделі з 14B, 8B та 3B параметрами, а також Mistral Large 3 — свою найпередовішу модель на сьогодні, яка є розрідженою системою mixture-of-experts, навченою на 41B активних та 675B загальних параметрах. Усі моделі доступні за ліцензією Apache 2.0, надаючи розробникам відкритий доступ із підтримкою кількох стиснених форматів для розподілених AI-додатків.

Моделі Ministral розроблені для потужної ефективності співвідношення продуктивність/вартість, а Mistral Large 3 позиціонується серед провідних відкритих моделей із донавчанням інструкціям. Навчена з нуля на 3 000 NVIDIA H200 GPU, Mistral Large 3 стала першим релізом mixture-of-experts компанії після серії Mixtral і є значним кроком уперед у попередньому навчанні. Після донавчання вона відповідає топовим відкритим моделям із донавчанням інструкціям за загальними запитами й демонструє розширене розуміння зображень, а також покращені багатомовні діалогові можливості.

Mistral Large 3 дебютувала на #2 in the OSS non-reasoning models category and #6 місці у загальному рейтингу LMArena. Базова й інструктивна версії випущені за Apache 2.0, пропонуючи надійну платформу для налаштування підприємствами та розробниками, а версію для reasoning заплановано випустити згодом.

Партнерство Mistral з NVIDIA, vLLM і Red Hat для покращення доступності й продуктивності Mistral 3

Mistral Large 3 стала надзвичайно доступною для open-source-спільноти завдяки співпраці з vLLM та Red Hat. Контрольна точка у форматі NVFP4, оптимізована через llm-compressor, дозволяє ефективне виконання на системах Blackwell NVL72 або на одному вузлі 8×A100 чи 8×H100 за допомогою vLLM.

Розробка передових open-source AI-моделей базується на ґрунтовній оптимізації апаратного та програмного забезпечення, досягнутій у партнерстві з NVIDIA. Усі моделі Mistral 3, включаючи Large 3 та Ministral 3, були навчені на GPU NVIDIA Hopper, використовуючи високошвидкісну пам’ять HBM3e для масштабних задач. Підхід співдизайну NVIDIA інтегрує апаратне забезпечення, програмне забезпечення і моделі для забезпечення ефективного інференсу за допомогою TensorRT-LLM та SGLang у всій лінійці Mistral 3, підтримуючи виконання з низькою точністю.

Для розрідженої архітектури mixture-of-experts Large 3 NVIDIA реалізувала Blackwell attention і MoE-ядра, додала розділену подачу/декодування та співпрацювала над спекулятивним декодуванням, що дозволяє розробникам обробляти довгі контексти та високонавантажені робочі процеси на системах GB200 NVL72 та інших. Моделі Ministral також оптимізовані для розгортання на DGX Spark, ПК та ноутбуках RTX, а також пристроях Jetson, забезпечуючи стабільний високопродуктивний досвід від дата-центрів до edge-додатків. Mistral висловлює подяку vLLM, Red Hat та NVIDIA за підтримку й співпрацю.

Ministral 3: Розширена продуктивність AI для edge та локальних розгортань

Лінійка Ministral 3 призначена для edge- та локальних розгортань, пропонується у трьох варіантах — 3B, 8B та 14B параметрів. Кожен розмір доступний у базовій, instruct та reasoning-версіях, усі з підтримкою розуміння зображень та випущені під ліцензією Apache 2.0. Завдяки вбудованим мультимодальним і багатомовним можливостям, сімейство Ministral 3 забезпечує універсальні рішення для корпоративних і розробницьких застосувань.

Серія пропонує виняткове співвідношення вартість/продуктивність серед open-source моделей, а instruct-версії відповідають або перевершують аналогічні моделі, генеруючи значно менше токенів. Для сценаріїв, де точність має вирішальне значення, reasoning-версії можуть виконувати розширені обчислення, щоб досягти провідної точності у своїй вазі, наприклад, 85% на AIME ’25 із моделлю 14B.

Mistral 3 наразі доступна через Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI та Together AI, а незабаром з’явиться на NVIDIA NIM та AWS SageMaker.

Mistral залишається провідним учасником європейської екосистеми AI-моделей та open-source ініціатив, хоча її найновіша флагманська модель все ще поступається провідним галузевим конкурентам за продуктивністю, швидкістю та вартістю. Менші версії Ministral можуть стати більш практичною альтернативою, пропонуючи гнучкі варіанти для різноманітних сценаріїв використання й розгортання на різних пристроях.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів