Der Richter kritisiert die US-Armee wegen Verfassungswidrigkeit! Fordert die Aufhebung des Risikostatus für die Lieferkette von Anthropic, Bericht vor dem 6. April.

CryptoCity

Ein Bundesrichter hat vorübergehend das Pentagon daran gehindert, Anthropic auf die schwarze Liste zu setzen, und festgestellt, dass dies verfassungswidrige Vergeltung darstellt; der IPO-Plan des 380-Milliarden-Dollar-AI-Riesen geht weiter.

Das Justizsystem schlägt hart gegen das Pentagon, Richter kritisiert „orwellische“ Etikettierung als verfassungswidrig

Die US-AI-Industrie hat kürzlich einen richtungsweisenden juristischen Sieg errungen. Die kalifornische Bundesrichterin Rita Lin erließ am vergangenen Donnerstag (26.3.) eine vorläufige einstweilige Verfügung, um die Trump-Regierung daran zu hindern, den AI-Riesen Anthropic auf die Liste der Versorgungsrisiken zu setzen. Diese Entscheidung stellt eine direkte Herausforderung an die Anordnung des Pentagon und des Verteidigungsministers Pete Hegseth dar; die Richterin äußerte sich in ihrem Urteil scharf und stellte fest, dass es äußerst ironisch sei, dass die Regierung ein in den USA ansässiges Unternehmen mit der Bezeichnung „potenzieller Gegner“ und „Subversiver“ belegt.

Rita Lin betonte, dass die bestehende Rechtslage diese „orwellianische“ Logik des Verwaltungsakts nicht stützt. Das Verwaltungssystem betrachtet ein Unternehmen nur aufgrund seiner abweichenden Stellungnahme als Bedrohung für die nationale Sicherheit, was offensichtlich über die Grenzen der Ermächtigung hinausgeht. Das Gericht forderte die Bundesregierung auf, die entsprechenden Beschränkungen sofort zu stoppen und bis zum 6. April einen Bericht über die Einhaltung vorzulegen, der die konkreten Schritte zur Aufhebung der Verfügung beschreibt.

Im Kern dieser juristischen Auseinandersetzung steht die Frage, ob die Regierung im Namen der nationalen Sicherheit Rache für abweichende Meinungen übt. Laut den vom Gericht veröffentlichten Informationen beruhen die Maßnahmen des Verteidigungsministeriums (auch bekannt als Kriegsministerium) gegen Anthropic weitgehend auf öffentlichen Äußerungen des Unternehmens in den Medien und nicht auf einer gründlichen technischen Sicherheitsbewertung. Die Richterin stellte fest, dass die Bestrafung von Anthropic das öffentliche Interesse an der Haltung der Regierung zu ihren Verträgen weckte, was eine verfassungswidrige Vergeltungsmaßnahme darstellt. Bei einer Anhörung am Dienstag in San Francisco stellte Rita Lin in Frage, ob die Schwelle, nach der das Unternehmen als „Bedrohung“ definiert wird, nicht zu niedrig sei.

Sie ist der Ansicht, dass es unangemessen ist, wenn das Pentagon Bedenken hinsichtlich der technologischen Kontrolle hat, und stattdessen einfach die Nutzung des Claude-Modells einstellen könnte, anstatt mit einem beleidigenden und zerstörerischen „Versorgungsrisiko“-Etikett zu reagieren. Diese Entscheidung hat vorübergehend die Zusammenarbeit zwischen Anthropic und Bundesauftragnehmern wiederhergestellt und einen rechtlichen Schutzschirm für zukünftige AI-Unternehmen geschaffen, die unter Druck der Regierung stehen.

Anthropic weigerte sich, eine Kriegsmaschine zu werden, und wurde aufgrund der Einhaltung ethischer Standards der AI bestraft

Der Auslöser für diesen Konflikt war ein 200-Millionen-Dollar-Vertrag, den Anthropic im Juli 2025 mit dem Pentagon unterzeichnete. Damals vereinbarten beide Seiten, dass Claude das erste AI-Modell sein würde, das auf einem geheimen Netzwerk betrieben werden durfte.

Die Zusammenarbeit zerbrach jedoch im Februar 2026. Das Verteidigungsministerium versuchte, die Vertragsbedingungen neu zu verhandeln und forderte Anthropic auf, alle Einschränkungen aufzuheben, sodass das Militär Claude für alle legitimen Zwecke nutzen könnte. Anthropic, das sich stets für die Sicherheit der AI einsetzt, hielt an seinen Grundsätzen fest und weigerte sich, seine Technologie für tödliche autonome Waffensysteme sowie für großflächige Überwachungsmaßnahmen gegen US-Bürger einzusetzen. Die Unternehmensführung war der Meinung, dass die aktuellen AI-Modelle in diesen sensiblen Bereichen noch nicht über ausreichende Sicherheit und Genauigkeit verfügen; ein unüberlegter Einsatz auf dem Schlachtfeld oder zur Überwachung könnte katastrophale Folgen haben.

Daraufhin eskalierte die Situation schnell, und die Reaktion des Verwaltungssystems zeigte starke persönliche Emotionen. Am 24. Februar erteilte Verteidigungsminister Hegseth Anthropic ein Ultimatum und drohte, dass sofortige Sanktionen verhängt würden, wenn die Einschränkungen nicht aufgehoben würden. Nachdem Anthropic sich geweigert hatte, Kompromisse einzugehen, kritisierte Präsident Trump am 27. Februar in einem Beitrag auf Truth Social das Unternehmen öffentlich als „radikale Linke, ein wachsendes Unternehmen“ und beschuldigte es, das Verteidigungsministerium einschüchtern zu wollen, bevor er alle Bundesbehörden anordnete, die Produkte von Anthropic nicht mehr zu verwenden.

In der Folge bezeichnete Hegseth die Position von Anthropic als „ein Meisterwerk von Arroganz und Verrat“ und veröffentlichte offiziell das Etikett des Versorgungsrisikos. Diese extreme Maßnahme, die normalerweise ausländischen Geheimdiensten oder Terrororganisationen vorbehalten ist, wurde erstmals auf ein in den USA ansässiges Technologieunternehmen angewendet. Experten sind der Meinung, dass diese Waffeisierung des Rechts die Ungeduld des Verwaltungssystems widerspiegelt, wenn es vor den Herausforderungen der technologischen Ethik steht.

  • Verwandte Nachrichten: Nationale Sicherheit vs. Ethik: Anthropic weigert sich, Sicherheitsbeschränkungen von Claude zu entfernen, und konfrontiert das US-Verteidigungsministerium

Der Kapitalmarkt setzt auf Vertrauen, die Bewertung des 380-Milliarden-Dollar-Riesen treibt die IPO-Pläne im Oktober voran

Trotz der politischen und rechtlichen Turbulenzen zeigt Anthropic auf dem Kapitalmarkt eine starke Leistung und präsentiert eine bemerkenswerte Resilienz. Daten bis 2025 zeigen, dass Anthropic einen Marktanteil von 32 % im Unternehmens-AI-Markt hat, was OpenAIs 25 % übertrifft und das Unternehmen an die Spitze der Branche stellt. In einer kürzlich abgeschlossenen Finanzierungsrunde über 30 Milliarden Dollar im Februar wurde die Bewertung dieses AI-Sterns auf 380 Milliarden Dollar angehoben, angeführt von dem Staatsfonds MGX.

Gleichzeitig haben Technologie-Giganten wie Alphabet, Google, Amazon, Microsoft und Nvidia enge Partnerschaften mit Anthropic aufgebaut, deren Investitionen und Infrastrukturgeschäfte sich auf mehrere zehn Milliarden Dollar summieren. Die Unterstützung dieser Silicon-Valley-Riesen gibt Anthropic die wirtschaftliche Basis, um politischen Druck zu widerstehen.

  • Verwandte Nachrichten: Anthropic verklagt die Regierung! Beschuldigt die Trump-Regierung der Vergeltung und der Blockade von Claude, 37 AI-Forscher solidarisieren sich

Das jüngste Urteil des Gerichts ebnete den Weg für Anthropic in den öffentlichen Markt. Insider berichteten, dass Anthropic die IPO-Planung (Initial Public Offering) beschleunigt, mit dem frühesten möglichen Börsengang im Oktober 2026 und einer prognostizierten Kapitalaufnahme von über 60 Milliarden Dollar. Derzeit wurden Goldman Sachs, JPMorgan und Morgan Stanley als potenzielle Underwriter-Berater aufgeführt.

Rechtsfachleute weisen darauf hin, dass, sollten die Verbotsverfügungen der Regierung weiterhin bestehen, Anthropics Marktanteil erheblich sinken und das Vertrauen der Investoren schwer beschädigt werden könnte. Jetzt, da das Gericht das Verbot für verfassungswidrig erklärt hat, wurde das Geschäft von Anthropic geschützt. Dies sendet auch ein Signal an den Markt: Der Einsatz von AI-Sicherheits- und Ethikstandards durch Unternehmen sollte rechtlich geschützt werden und nicht als Vorwand für Regierungsunterdrückung dienen.

Bau eines 5-Milliarden-Dollar-Datenzentrums in Texas, Fronttruppen ignorieren das Verbot und nutzen Claude weiterhin

Außerhalb der juristischen Auseinandersetzungen hat Anthropic nicht mit der Expansion seiner Infrastruktur aufgehört. Google plant, ein 5-Milliarden-Dollar-Datenzentrum in Texas zu unterstützen und dieses vollständig an Anthropic zu vermieten. Dieses 2.800 Hektar große Gelände wird von Nexus Data Centers betrieben und soll bis Ende 2026 etwa 500 Megawatt (MW) Stromkapazität bereitstellen, ausreichend, um den Strombedarf von 500.000 Haushalten zu decken, mit dem Potenzial, in Zukunft auf 7,7 Gigawatt (GW) zu erweitern. Das Projekt befindet sich an einem strategisch günstigen Standort in der Nähe wichtiger Erdgasleitungen und kann vor Ort mit Gasturbinen autonom mit Strom versorgt werden, was eine hohe Zuverlässigkeit der AI-Computing-Leistung sicherstellt. Diese großangelegte Infrastrukturinitiative zeigt, dass die Technologiebranche fest entschlossen ist, langfristig in AI-Infrastruktur zu investieren.

Darüber hinaus berichten ausländische Medien, dass innerhalb des US-Militärs eine Abhängigkeit von dem Claude-Modell entstanden ist. Selbst nachdem das Weiße Haus strenge Verbote erlassen hat, hat das US-Zentralkommando (CENTCOM) in einer kürzlichen Luftangriffsoperation gegen den Iran weiterhin auf Anthropics AI-Modell für Unterstützung im Einsatz zurückgegriffen. Dies zeigt eine Diskrepanz zwischen den politischen Vorgaben der Regierung und den Anforderungen der Frontlinien.

  • Verwandte Nachrichten: The Wall Street Journal: Nach Trumps Erlass des Verbots gegen Anthropic, setzt die US-Operation gegen den Iran weiterhin auf Claude

Die Exekutive hat es aus politischen Gründen als Risiko eingestuft, während die operativen Einheiten aufgrund der technologischen Vorteile auf es angewiesen sind. Der Bau des Datenzentrums und die praktische Anwendung beweisen die Bedeutung von Anthropic. Mit der Wiederherstellung ihrer Identität als Bundesauftragnehmer wird dieser AI-Riese weiterhin ein Gleichgewicht zwischen technologischer Ethik und nationalen Interessen anstreben und sich möglichen Regierungseinsprüchen in der Zukunft stellen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare