Mistral kehrt mit der Frontier-AI-Familie zurück, die direkt mit DeepSeek konkurriert

Decrypt

Decrypts Zentrum für Kunst, Mode und Unterhaltung.


Entdecke SCENE

Das französische KI-Startup Mistral, oft als europäischer Außenseiter in einem von amerikanischen Giganten und chinesischen Aufsteigern dominierten Feld abgetan, hat aufgeholt: Am Dienstag veröffentlichte das Unternehmen seine bislang ehrgeizigste Version, die der Open-Source-Konkurrenz ernsthaft Konkurrenz macht. (Oder in diesem Fall: gar kein Geld.)

Die 4-Modell-Familie reicht von handlichen Assistenten bis hin zu einem hochmodernen System mit 675 Milliarden Parametern, alle unter der freizügigen Apache 2.0 Open-Source-Lizenz. Die Modelle stehen öffentlich zum Download bereit—jeder mit geeigneter Hardware kann sie lokal ausführen, modifizieren, feinabstimmen oder darauf aufbauende Anwendungen entwickeln.

Das Flaggschiff-Unternehmen, Mistral Large 3, verwendet eine sparsames Mixture-of-Experts-Architektur, bei der pro Token nur 41 Milliarden der insgesamt 675 Milliarden Parameter aktiviert werden. Diese technische Entscheidung ermöglicht es, in der Spitzengruppe mitzuspielen, während die Inferenz näher an einem 40-Milliarden-Parameter-Berechnungsprofil liegt.

Mistral Large 3 wurde von Grund auf mit 3.000 NVIDIA H200 GPUs trainiert und erreichte Platz zwei unter den Open-Source-Modellen ohne Reasoning auf dem LMArena-Leaderboard.

Das Benchmark-Duell mit DeepSeek erzählt eine komplexe Geschichte. Laut den Benchmarks von Mistral schlägt das beste Modell DeepSeek V3.1 in mehreren Metriken, liegt aber beim neueren V3.2 auf LMArena um einige Punkte zurück.

Bei Aufgaben zu Allgemeinwissen und Experten-Reasoning kann die Mistral-Familie mithalten. DeepSeek hat die Nase vorn bei reiner Coden-Geschwindigkeit und mathematischer Logik. Aber das ist zu erwarten: Diese Veröffentlichung enthält keine Reasoning-Modelle, daher ist in deren Architektur keine Chain-of-Thought eingebettet.

Die kleineren “Ministral”-Modelle werden für Entwickler interessant. Drei Größen—3B, 8B und 14B Parameter—gibt es jeweils als Basis- und Instruct-Variante. Alle unterstützen Vision-Input nativ. Das 3B-Modell erregte die Aufmerksamkeit des KI-Forschers Simon Willison, der anmerkte, dass es vollständig im Browser über WebGPU ausgeführt werden kann.

Wer das ausprobieren möchte: Dieser Hugginface-Space ermöglicht das lokale Laden und Interagieren über die Webcam als Input.

Eine kompetente, vision-fähige KI in einer Datei von etwa 3 GB eröffnet Möglichkeiten für Entwickler mit Effizienzbedarf—oder auch für Hobbyisten: Drohnen, Roboter, offline laufende Laptops, eingebettete Systeme in Fahrzeugen usw.

Erste Tests zeigen eine gespaltene Persönlichkeit über die Produktlinie hinweg. In einem schnellen Test erschien uns das Mistral 3 Large als gut für konversationelle Fließfähigkeit. Manchmal erinnert das Format an GPT-5 (ein ähnlicher Sprachstil und eine Vorliebe für Emojis), aber mit einem natürlicheren Rhythmus.

Mistral 3 Large ist auch recht locker in Sachen Zensur und damit die bessere Option für schnelles Rollenspiel im Vergleich zu ChatGPT, Claude oder Gemini.

Für Aufgaben im Bereich natürliche Sprache, kreatives Schreiben und Rollenspiel empfinden Nutzer die 14B-Instruct-Variante als ziemlich gut, aber nicht herausragend. Reddit-Threads auf r/LocalLLaMA weisen auf Wiederholungsprobleme und gelegentliche Überbeanspruchung von Standardphrasen aus den Trainingsdaten hin, aber die Fähigkeit des Modells, langen Content zu generieren, ist ein Pluspunkt—besonders bei dieser Größe.

Entwickler, die lokale Inferenz nutzen, berichten, dass die 3B- und 8B-Modelle gelegentlich in Schleifen geraten oder formelhafte Ausgaben erzeugen, insbesondere bei kreativen Aufgaben.

Allerdings ist das 3B-Modell so klein, dass es auf schwacher Hardware wie Smartphones laufen kann und für spezifische Zwecke trainiert/feinabgestimmt werden kann. Die einzige Konkurrenz in diesem Bereich ist derzeit die kleinste Version von Googles Gemma 3.

Die Unternehmensadoption läuft bereits an. HSBC gab am Montag eine mehrjährige Partnerschaft mit Mistral bekannt, um generative KI in den gesamten Betrieb zu integrieren. Die Bank wird selbst gehostete Modelle auf eigener Infrastruktur betreiben und interne technische Kompetenzen mit Mistral-Expertise kombinieren. Für Finanzinstitute, die sensible Kundendaten gemäß DSGVO verarbeiten, ist der Reiz eines in der EU ansässigen KI-Anbieters mit offenen Gewichten offensichtlich.

Mistral und NVIDIA haben gemeinsam einen NVFP4-komprimierten Checkpoint entwickelt, der es ermöglicht, Large 3 auf einem einzigen Knoten mit acht der besten Karten laufen zu lassen. NVIDIA behauptet, dass das Ministral 3B etwa 385 Token pro Sekunde auf einer RTX 5090 erreicht, mit über 50 Token pro Sekunde auf Jetson Thor für Robotikanwendungen. Das bedeutet, das Modell ist sehr effizient und schnell in der Inferenz und liefert raschere Antworten, ohne die Qualität zu beeinträchtigen.

Eine reasoning-optimierte Version von Large 3 soll laut Ankündigung bald erscheinen. Bis dahin behalten DeepSeek R1 und andere chinesische Modelle wie GLM oder Qwen Thinking einige Vorteile bei expliziten Reasoning-Aufgaben. Aber für Unternehmen, die Spitzenfähigkeiten, offene Gewichte, mehrsprachige Stärke in europäischen Sprachen und einen Anbieter wollen, der nicht unter chinesisches oder amerikanisches Sicherheitsrecht fällt, sind die Optionen gerade von null auf eins gestiegen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare