Ein Bundesrichter hat vorübergehend das Pentagon daran gehindert, Anthropic auf die schwarze Liste zu setzen, und festgestellt, dass dies verfassungswidrige Vergeltung darstellt; der IPO-Plan des 380-Milliarden-Dollar-AI-Riesen geht weiter.
Die US-AI-Industrie hat kürzlich einen richtungsweisenden juristischen Sieg errungen. Die kalifornische Bundesrichterin Rita Lin erließ am vergangenen Donnerstag (26.3.) eine vorläufige einstweilige Verfügung, um die Trump-Regierung daran zu hindern, den AI-Riesen Anthropic auf die Liste der Versorgungsrisiken zu setzen. Diese Entscheidung stellt eine direkte Herausforderung an die Anordnung des Pentagon und des Verteidigungsministers Pete Hegseth dar; die Richterin äußerte sich in ihrem Urteil scharf und stellte fest, dass es äußerst ironisch sei, dass die Regierung ein in den USA ansässiges Unternehmen mit der Bezeichnung „potenzieller Gegner“ und „Subversiver“ belegt.
Rita Lin betonte, dass die bestehende Rechtslage diese „orwellianische“ Logik des Verwaltungsakts nicht stützt. Das Verwaltungssystem betrachtet ein Unternehmen nur aufgrund seiner abweichenden Stellungnahme als Bedrohung für die nationale Sicherheit, was offensichtlich über die Grenzen der Ermächtigung hinausgeht. Das Gericht forderte die Bundesregierung auf, die entsprechenden Beschränkungen sofort zu stoppen und bis zum 6. April einen Bericht über die Einhaltung vorzulegen, der die konkreten Schritte zur Aufhebung der Verfügung beschreibt.
Im Kern dieser juristischen Auseinandersetzung steht die Frage, ob die Regierung im Namen der nationalen Sicherheit Rache für abweichende Meinungen übt. Laut den vom Gericht veröffentlichten Informationen beruhen die Maßnahmen des Verteidigungsministeriums (auch bekannt als Kriegsministerium) gegen Anthropic weitgehend auf öffentlichen Äußerungen des Unternehmens in den Medien und nicht auf einer gründlichen technischen Sicherheitsbewertung. Die Richterin stellte fest, dass die Bestrafung von Anthropic das öffentliche Interesse an der Haltung der Regierung zu ihren Verträgen weckte, was eine verfassungswidrige Vergeltungsmaßnahme darstellt. Bei einer Anhörung am Dienstag in San Francisco stellte Rita Lin in Frage, ob die Schwelle, nach der das Unternehmen als „Bedrohung“ definiert wird, nicht zu niedrig sei.
Sie ist der Ansicht, dass es unangemessen ist, wenn das Pentagon Bedenken hinsichtlich der technologischen Kontrolle hat, und stattdessen einfach die Nutzung des Claude-Modells einstellen könnte, anstatt mit einem beleidigenden und zerstörerischen „Versorgungsrisiko“-Etikett zu reagieren. Diese Entscheidung hat vorübergehend die Zusammenarbeit zwischen Anthropic und Bundesauftragnehmern wiederhergestellt und einen rechtlichen Schutzschirm für zukünftige AI-Unternehmen geschaffen, die unter Druck der Regierung stehen.
Der Auslöser für diesen Konflikt war ein 200-Millionen-Dollar-Vertrag, den Anthropic im Juli 2025 mit dem Pentagon unterzeichnete. Damals vereinbarten beide Seiten, dass Claude das erste AI-Modell sein würde, das auf einem geheimen Netzwerk betrieben werden durfte.
Die Zusammenarbeit zerbrach jedoch im Februar 2026. Das Verteidigungsministerium versuchte, die Vertragsbedingungen neu zu verhandeln und forderte Anthropic auf, alle Einschränkungen aufzuheben, sodass das Militär Claude für alle legitimen Zwecke nutzen könnte. Anthropic, das sich stets für die Sicherheit der AI einsetzt, hielt an seinen Grundsätzen fest und weigerte sich, seine Technologie für tödliche autonome Waffensysteme sowie für großflächige Überwachungsmaßnahmen gegen US-Bürger einzusetzen. Die Unternehmensführung war der Meinung, dass die aktuellen AI-Modelle in diesen sensiblen Bereichen noch nicht über ausreichende Sicherheit und Genauigkeit verfügen; ein unüberlegter Einsatz auf dem Schlachtfeld oder zur Überwachung könnte katastrophale Folgen haben.
Daraufhin eskalierte die Situation schnell, und die Reaktion des Verwaltungssystems zeigte starke persönliche Emotionen. Am 24. Februar erteilte Verteidigungsminister Hegseth Anthropic ein Ultimatum und drohte, dass sofortige Sanktionen verhängt würden, wenn die Einschränkungen nicht aufgehoben würden. Nachdem Anthropic sich geweigert hatte, Kompromisse einzugehen, kritisierte Präsident Trump am 27. Februar in einem Beitrag auf Truth Social das Unternehmen öffentlich als „radikale Linke, ein wachsendes Unternehmen“ und beschuldigte es, das Verteidigungsministerium einschüchtern zu wollen, bevor er alle Bundesbehörden anordnete, die Produkte von Anthropic nicht mehr zu verwenden.
In der Folge bezeichnete Hegseth die Position von Anthropic als „ein Meisterwerk von Arroganz und Verrat“ und veröffentlichte offiziell das Etikett des Versorgungsrisikos. Diese extreme Maßnahme, die normalerweise ausländischen Geheimdiensten oder Terrororganisationen vorbehalten ist, wurde erstmals auf ein in den USA ansässiges Technologieunternehmen angewendet. Experten sind der Meinung, dass diese Waffeisierung des Rechts die Ungeduld des Verwaltungssystems widerspiegelt, wenn es vor den Herausforderungen der technologischen Ethik steht.
Trotz der politischen und rechtlichen Turbulenzen zeigt Anthropic auf dem Kapitalmarkt eine starke Leistung und präsentiert eine bemerkenswerte Resilienz. Daten bis 2025 zeigen, dass Anthropic einen Marktanteil von 32 % im Unternehmens-AI-Markt hat, was OpenAIs 25 % übertrifft und das Unternehmen an die Spitze der Branche stellt. In einer kürzlich abgeschlossenen Finanzierungsrunde über 30 Milliarden Dollar im Februar wurde die Bewertung dieses AI-Sterns auf 380 Milliarden Dollar angehoben, angeführt von dem Staatsfonds MGX.
Gleichzeitig haben Technologie-Giganten wie Alphabet, Google, Amazon, Microsoft und Nvidia enge Partnerschaften mit Anthropic aufgebaut, deren Investitionen und Infrastrukturgeschäfte sich auf mehrere zehn Milliarden Dollar summieren. Die Unterstützung dieser Silicon-Valley-Riesen gibt Anthropic die wirtschaftliche Basis, um politischen Druck zu widerstehen.
Das jüngste Urteil des Gerichts ebnete den Weg für Anthropic in den öffentlichen Markt. Insider berichteten, dass Anthropic die IPO-Planung (Initial Public Offering) beschleunigt, mit dem frühesten möglichen Börsengang im Oktober 2026 und einer prognostizierten Kapitalaufnahme von über 60 Milliarden Dollar. Derzeit wurden Goldman Sachs, JPMorgan und Morgan Stanley als potenzielle Underwriter-Berater aufgeführt.
Rechtsfachleute weisen darauf hin, dass, sollten die Verbotsverfügungen der Regierung weiterhin bestehen, Anthropics Marktanteil erheblich sinken und das Vertrauen der Investoren schwer beschädigt werden könnte. Jetzt, da das Gericht das Verbot für verfassungswidrig erklärt hat, wurde das Geschäft von Anthropic geschützt. Dies sendet auch ein Signal an den Markt: Der Einsatz von AI-Sicherheits- und Ethikstandards durch Unternehmen sollte rechtlich geschützt werden und nicht als Vorwand für Regierungsunterdrückung dienen.
Außerhalb der juristischen Auseinandersetzungen hat Anthropic nicht mit der Expansion seiner Infrastruktur aufgehört. Google plant, ein 5-Milliarden-Dollar-Datenzentrum in Texas zu unterstützen und dieses vollständig an Anthropic zu vermieten. Dieses 2.800 Hektar große Gelände wird von Nexus Data Centers betrieben und soll bis Ende 2026 etwa 500 Megawatt (MW) Stromkapazität bereitstellen, ausreichend, um den Strombedarf von 500.000 Haushalten zu decken, mit dem Potenzial, in Zukunft auf 7,7 Gigawatt (GW) zu erweitern. Das Projekt befindet sich an einem strategisch günstigen Standort in der Nähe wichtiger Erdgasleitungen und kann vor Ort mit Gasturbinen autonom mit Strom versorgt werden, was eine hohe Zuverlässigkeit der AI-Computing-Leistung sicherstellt. Diese großangelegte Infrastrukturinitiative zeigt, dass die Technologiebranche fest entschlossen ist, langfristig in AI-Infrastruktur zu investieren.
Darüber hinaus berichten ausländische Medien, dass innerhalb des US-Militärs eine Abhängigkeit von dem Claude-Modell entstanden ist. Selbst nachdem das Weiße Haus strenge Verbote erlassen hat, hat das US-Zentralkommando (CENTCOM) in einer kürzlichen Luftangriffsoperation gegen den Iran weiterhin auf Anthropics AI-Modell für Unterstützung im Einsatz zurückgegriffen. Dies zeigt eine Diskrepanz zwischen den politischen Vorgaben der Regierung und den Anforderungen der Frontlinien.
Die Exekutive hat es aus politischen Gründen als Risiko eingestuft, während die operativen Einheiten aufgrund der technologischen Vorteile auf es angewiesen sind. Der Bau des Datenzentrums und die praktische Anwendung beweisen die Bedeutung von Anthropic. Mit der Wiederherstellung ihrer Identität als Bundesauftragnehmer wird dieser AI-Riese weiterhin ein Gleichgewicht zwischen technologischer Ethik und nationalen Interessen anstreben und sich möglichen Regierungseinsprüchen in der Zukunft stellen.