Das von Microsoft unterstützte Mistral startet eine europäische KI-Cloud, um mit AWS und Azure zu konkurrieren

Nehmen Sie an der Veranstaltung teil, der Unternehmensführer seit fast zwei Jahrzehnten vertrauen. VB Transform bringt die Menschen zusammen, die eine echte KI-Strategie für Unternehmen entwickeln. Mehr erfahren
Mistral AI , das französische Startup für künstliche Intelligenz, kündigte am Mittwoch eine umfassende Erweiterung seiner KI-Infrastruktur an, die das Unternehmen als Europas Antwort auf die amerikanischen Cloud-Computing-Giganten positioniert und gleichzeitig neue Denkmodelle vorstellt, die mit den fortschrittlichsten Systemen von OpenAI konkurrieren.
Das in Paris ansässige Unternehmen stellte Mistral Compute vor, eine umfassende KI-Infrastrukturplattform, die in Zusammenarbeit mit Nvidia entwickelt wurde und europäischen Unternehmen und Regierungen eine Alternative zu US-amerikanischen Cloud-Anbietern wie Amazon Web Services , Microsoft Azure und Google Cloud bieten soll. Dieser Schritt stellt für Mistral einen bedeutenden strategischen Wandel von der reinen Entwicklung von KI-Modellen hin zur Kontrolle des gesamten Technologie-Stacks dar.
„Dieser Schritt in die KI-Infrastruktur stellt einen transformativen Schritt für Mistral AI dar, da er es uns ermöglicht, einen wichtigen Bereich der KI-Wertschöpfungskette anzusprechen“, sagte Arthur Mensch, CEO und Mitgründer von Mistral AI. „Mit diesem Wandel geht die Verantwortung einher, sicherzustellen, dass unsere Lösungen nicht nur Innovation und KI-Einführung vorantreiben, sondern auch Europas technologische Autonomie wahren und zu seiner Führungsrolle in Sachen Nachhaltigkeit beitragen.“
Parallel zur Infrastrukturankündigung stellte Mistral seine Magistral- Reihe von Denkmodellen vor – KI-Systeme, die schrittweises logisches Denken ermöglichen, ähnlich wie das o1-Modell von OpenAI und das chinesische DeepSeek R1 . Guillaume Lample, Chefwissenschaftler bei Mistral, betont jedoch, dass sich der Ansatz des Unternehmens in entscheidenden Punkten von dem der Konkurrenz unterscheidet.
„Wir haben alles von Grund auf neu gemacht, im Grunde, weil wir unser Fachwissen erweitern und Flexibilität in unserem Tun erreichen wollten“, erzählte mir Lample in einem Exklusivinterview. „Wir haben es tatsächlich geschafft, mit der verstärkten Online-Reinforcement-Learning-Pipeline wirklich sehr effizient zu sein.“
Im Gegensatz zu Wettbewerbern, die ihre Denkprozesse oft verbergen, zeigen Mistrals Modelle den Nutzern ihren gesamten Gedankengang an – und zwar in der Muttersprache des Nutzers und nicht standardmäßig auf Englisch. „Hier wird dem Nutzer der gesamte Gedankengang in seiner eigenen Sprache präsentiert, sodass er ihn lesen und prüfen kann, ob er Sinn ergibt“, erklärte Lample.
Das Unternehmen hat zwei Versionen herausgebracht: Magistral Small , ein Open-Source-Modell mit 24 Milliarden Parametern, und Magistral Medium , ein leistungsfähigeres proprietäres System, das über die API von Mistral verfügbar ist.
Die Modelle zeigten während des Trainings überraschende Fähigkeiten. Besonders bemerkenswert ist, dass Magistral Medium seine multimodalen Denkfähigkeiten – die Fähigkeit zur Bildanalyse – beibehielt, obwohl sich der Trainingsprozess ausschließlich auf textbasierte Mathematik- und Programmierprobleme konzentrierte.
„Wir haben etwas festgestellt – nicht unbedingt durch Zufall, aber absolut unerwartet –: Wenn man am Ende des Reinforcement-Learning-Trainings den ursprünglichen Bildencoder wieder anschließt, sieht man plötzlich, quasi aus dem Nichts, dass das Modell in der Lage ist, Schlussfolgerungen über Bilder zu ziehen“, sagte Lample.
Die Modelle verfügten zudem über ausgefeilte Funktionen zum Funktionsaufruf. Sie führten automatisch mehrstufige Internetsuchen und Codeausführungen durch, um komplexe Abfragen zu beantworten. „Sie sehen ein Modell, das dies tut, nachdenkt und dann erkennt: Okay, diese Informationen könnten aktualisiert werden. Lassen Sie mich eine Websuche durchführen“, erklärte Lample. „Es sucht im Internet, gibt dann die Ergebnisse aus und sagt: Vielleicht ist die Antwort nicht in diesem Ergebnis enthalten. Lassen Sie mich noch einmal suchen.“
Dieses Verhalten entwickelte sich ganz natürlich und ohne spezielles Training. „Es ist etwas, das man als Nächstes tun kann, aber wir haben festgestellt, dass es eigentlich ganz natürlich passiert. Daher war es eine sehr schöne Überraschung für uns“, bemerkte Lample.
Das technische Team von Mistral meisterte erhebliche technische Herausforderungen und schuf damit einen Durchbruch in der Trainingsinfrastruktur, wie Lample es beschreibt. Das Unternehmen entwickelte ein System für „Online-Reinforcement-Learning“, das es KI-Modellen ermöglicht, sich kontinuierlich zu verbessern und gleichzeitig Antworten zu generieren, anstatt sich auf bereits vorhandene Trainingsdaten zu verlassen.
Die wichtigste Innovation bestand in der Echtzeit-Synchronisierung von Modellaktualisierungen über Hunderte von Grafikprozessoren (GPUs). „Wir haben einen Weg gefunden, das Modell über GPUs zu zerlegen. Also von GPU zu GPU“, erklärte Lample. Dadurch kann das System Modellgewichte über verschiedene GPU-Cluster hinweg innerhalb von Sekunden aktualisieren, anstatt der normalerweise benötigten Stunden.
„Es gibt keine vergleichbare Open-Source-Infrastruktur, die das richtig umsetzen kann“, bemerkte Lample. „Es gibt zwar viele vergleichbare Open-Source-Versuche, aber sie sind extrem langsam. Hier haben wir uns stark auf die Effizienz konzentriert.“
Der Trainingsprozess erwies sich als deutlich schneller und kostengünstiger als herkömmliches Vortraining. „Es war deutlich günstiger als herkömmliches Vortraining. Auf anderen GPUs dauert das Vortraining Wochen oder Monate. Hier sind wir weit davon entfernt. Es war so, als würde ich davon abhängen, wie viele Leute wir darauf ansetzen. Aber es dauerte eher deutlich weniger als eine Woche“, sagte Lample.
Die Mistral-Compute- Plattform wird auf 18.000 der neuesten Grace-Blackwell-Chips von Nvidia laufen und zunächst in einem Rechenzentrum im französischen Essonne untergebracht sein. Eine Expansion in ganz Europa ist geplant. Nvidia-CEO Jensen Huang bezeichnete die Partnerschaft als entscheidend für die technologische Unabhängigkeit Europas.
„Jedes Land sollte KI für sein eigenes Land und in seinem Land entwickeln“, sagte Huang bei einer gemeinsamen Ankündigung in Paris. „Mit Mistral AI entwickeln wir Modelle und KI-Fabriken, die als souveräne Plattformen für Unternehmen in ganz Europa dienen, um Intelligenz branchenübergreifend zu skalieren.“
Huang prognostizierte, dass sich Europas KI-Rechenkapazität in den nächsten zwei Jahren verzehnfachen werde. Über 20 KI-Fabriken seien auf dem gesamten Kontinent geplant. Mehrere dieser Anlagen würden über eine Kapazität von mehr als einem Gigawatt verfügen und möglicherweise zu den größten Rechenzentren der Welt gehören.
Die Partnerschaft geht über die Infrastruktur hinaus und umfasst die Zusammenarbeit von Nvidia mit anderen europäischen KI-Unternehmen und dem Suchmaschinenunternehmen Perplexity zur Entwicklung von Schlussfolgerungsmodellen in verschiedenen europäischen Sprachen, in denen Trainingsdaten oft begrenzt sind.
Mistral Compute geht auf zwei wichtige Aspekte der KI-Entwicklung ein: Umweltauswirkungen und Datensouveränität. Die Plattform stellt sicher, dass europäische Kunden ihre Informationen innerhalb der EU-Grenzen und unter europäischer Gerichtsbarkeit aufbewahren können.
Das Unternehmen arbeitet mit der französischen Nationalen Agentur für ökologischen Wandel und Carbone 4, einem führenden Klimaberatungsunternehmen, zusammen, um den CO2-Fußabdruck seiner KI-Modelle während ihres gesamten Lebenszyklus zu bewerten und zu minimieren. Mistral plant, seine Rechenzentren mit dekarbonisierten Energiequellen zu betreiben.
„Indem wir uns für Europa als Standort für unsere Werke entscheiden, ermöglichen wir es uns, von weitgehend dekarbonisierten Energiequellen zu profitieren“, heißt es in der Mitteilung des Unternehmens.
Erste Tests deuten darauf hin, dass Mistrals Reasoning-Modelle eine konkurrenzfähige Leistung bieten und gleichzeitig einen häufigen Kritikpunkt an bestehenden Systemen – die Geschwindigkeit – berücksichtigen. Aktuelle Reasoning-Modelle von OpenAI und anderen Anbietern benötigen oft mehrere Minuten, um auf komplexe Abfragen zu reagieren, was ihren praktischen Nutzen einschränkt.
„Was die Leute an diesem Denkmodell normalerweise nicht mögen, ist, dass es zwar intelligent ist, aber manchmal viel Zeit in Anspruch nimmt“, bemerkte Lample. „Hier sieht man das Ergebnis tatsächlich in nur wenigen Sekunden, manchmal in weniger als fünf Sekunden, manchmal sogar noch schneller. Und das verändert das Erlebnis.“
Der Geschwindigkeitsvorteil könnte sich für die Einführung in Unternehmen als entscheidend erweisen, wo minutenlanges Warten auf KI-Antworten zu Engpässen im Arbeitsablauf führt.
Durch seinen Vorstoß in den Infrastrukturbereich steht Mistral in direkter Konkurrenz zu den Technologiegiganten, die den Cloud-Computing-Markt dominieren. Amazon Web Services , Microsoft Azure und Google Cloud kontrollieren derzeit den Großteil der Cloud-Infrastruktur weltweit, während neuere Akteure wie CoreWeave speziell bei KI-Workloads an Boden gewonnen haben.
Der Ansatz des Unternehmens unterscheidet sich von der Konkurrenz durch das Angebot einer vollständigen, vertikal integrierten Lösung – von der Hardware-Infrastruktur über KI-Modelle bis hin zu Software-Services. Dazu gehören Mistral AI Studio für Entwickler, Le Chat für die Unternehmensproduktivität und Mistral Code für Programmierunterstützung.
Branchenanalysten sehen Mistrals Strategie als Teil eines breiteren Trends zur regionalen KI-Entwicklung. „Europa muss seine KI-Infrastruktur dringend ausbauen, wenn es global wettbewerbsfähig bleiben will“, bemerkte Huang und schloss sich damit den Bedenken europäischer Politiker an.
Die Ankündigung erfolgt vor dem Hintergrund zunehmender Besorgnis europäischer Regierungen über ihre Abhängigkeit von amerikanischen Technologieunternehmen bei kritischer KI-Infrastruktur. Die Europäische Union hat 20 Milliarden Euro für den Bau von KI-Gigafabriken auf dem gesamten Kontinent bereitgestellt, und die Partnerschaft von Mistral mit Nvidia könnte dazu beitragen, diese Pläne zu beschleunigen.
Mistrals Ankündigung, sowohl Infrastruktur- als auch Modellfunktionen bereitzustellen, unterstreicht den Anspruch des Unternehmens, eine umfassende KI-Plattform zu werden und nicht nur ein weiterer Modellanbieter zu sein. Mit Unterstützung von Microsoft und anderen Investoren hat das Unternehmen über eine Milliarde US-Dollar eingesammelt und sucht weiterhin nach zusätzlichen Mitteln, um seinen erweiterten Tätigkeitsbereich zu unterstützen.
Lample sieht jedoch noch größere Möglichkeiten für die Modellierung von Schlussfolgerungen. „Wenn ich mir die internen Fortschritte anschaue und einige Benchmarks betrachte, konnte das Modell über insgesamt etwa sechs Wochen hinweg wöchentlich eine Genauigkeit von 5 % erzielen“, sagte er. „Es verbessert sich also sehr schnell. Es gibt unzählige kleine Ideen, die die Leistung verbessern könnten.“
Der Erfolg dieser europäischen Herausforderung der amerikanischen KI-Dominanz könnte letztlich davon abhängen, ob den Kunden Souveränität und Nachhaltigkeit so wichtig sind, dass sie von etablierten Anbietern abwandern. Zumindest im Moment haben sie die Wahl.
Wenn Sie Ihren Chef beeindrucken möchten, ist VB Daily genau das Richtige für Sie. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI tun – von regulatorischen Veränderungen bis hin zu praktischen Implementierungen. So können Sie Ihre Erkenntnisse teilen und so den ROI maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat