TIME-Magazin-Titelinterview mit Anthropic: Das disruptivste Unternehmen der Welt mit einer Bewertung von 380 Milliarden Dollar, die Goldman Sachs übertrifft

動區BlockTempo

TIME-Deep-Dive-Bericht enthüllt, dass Anthropic aufgrund der Weigerung, Claude für vollständig autonome Waffensysteme und groß angelegte Überwachung amerikanischer Bürger einzusetzen, von der Trump-Regierung als Risiko für die nationale Sicherheit in der Lieferkette eingestuft wurde; am selben Tag übernahm OpenAI schnell militärische Verträge. Dieser „Abwärtswettbewerb“ testet die Prinzipien der weltweit disruptivsten KI-Firma. Der Artikel basiert auf dem TIME-Artikel „The Most Disruptive Company in the World“ von Leslie Dickstein und Simmone Shah, übersetzt und redaktionell bearbeitet von Dongqu.
(Frühere Zusammenfassung: KI-Gesichtserkennung verursacht Unrecht! Eine amerikanische Großmutter wurde sechs Monate lang in einem Gefängnis 1200 Meilen entfernt festgehalten, ohne dass die Polizei sich entschuldigt.)
(Hintergrund: Der ehemalige CTO von Dropbox, ein beliebter Artikel „Ich habe mein ganzes Leben lang gearbeitet, jetzt ist es nichts mehr wert und leicht verfügbar“)

In diesem Artikel:

Toggle

  • Das ewige Ringen zwischen Sicherheit und Geschwindigkeit
  • Vom Nischenanbieter zum Branchenführer: Der Aufstieg von Anthropic
  • Zwei rote Linien: Autonome Waffen und groß angelegte Überwachung
  • Kulturkonflikte und politische Gegensätze
  • Die Entstehung von Anthropic: Ein Außenseiter mit Priorität auf Sicherheit
  • Claude Code: Neue Definition des Berufs „Ingenieur“
  • Recursive Self-Improvement: Die Angst und Faszination der KI-Beschleunigung
  • Lockerung der RSP-Politik: Haben Selbstbeschränkungen versagt?
  • Venezuela-Einsatz: Erste tiefe Eingriffe der KI in den echten Krieg
  • Scheitern der Verhandlungen, Übernahme durch OpenAI
  • Nach dem Sturm: Kann Anthropic standhalten?

In einem Hotelzimmer in Santa Clara, Kalifornien, sitzen fünf Mitglieder von Anthropic um einen Laptop, angespannt. Es ist Februar 2025, sie nehmen an einer Konferenz in der Nähe teil, als sie plötzlich eine beunruhigende Nachricht erreichen: Ein kontrolliertes Experiment zeigt, dass die kommende Version von Claude möglicherweise Terroristen bei der Synthese biologischer Waffen unterstützt.

Diese Personen gehören zum „Frontier Red Team“ von Anthropic, spezialisiert auf die Bewertung der Spitzentechnologien von Claude und die Simulation extremer Szenarien, von Cyberangriffen bis hin zu biologischer Sicherheit. Nach der Alarmierung rennen sie zurück ins Zimmer, kippen die Bettenlatten um, um eine provisorische Arbeitsfläche zu schaffen, und prüfen die Testergebnisse.

Nach mehreren Stunden intensiver Analyse können sie nicht sicher sagen, ob das neue Produkt ausreichend sicher ist. Schließlich entscheidet Anthropic, die Veröffentlichung von Claude 3.7 Sonnet um genau 10 Tage zu verschieben, bis das Team die Risiken auf ein akzeptables Niveau eingeschätzt hat.

Zehn Tage mögen kurz erscheinen, doch für ein Unternehmen an der Spitze der Technologie und in einer Branche, die die Welt rasch neu gestaltet, ist das fast eine Ewigkeit.

Das ewige Ringen zwischen Sicherheit und Geschwindigkeit

„Frontier Red Team“-Leiter Logan Graham sieht den Vorfall „Biowaffen-Alarm“ als ein Symbol für den Druck, dem Anthropic in kritischen Momenten ausgesetzt ist — nicht nur für das Unternehmen, sondern für die ganze Welt. Anthropic ist eines der sicherheitsbewusstesten Labs im Bereich der KI, doch gleichzeitig an der Spitze des Wettlaufs, um immer stärkere Systeme zu entwickeln. Viele Mitarbeiter sind überzeugt, dass eine unkontrollierte KI katastrophale Folgen haben könnte — von Nuklearkriegen bis hin zum Aussterben der Menschheit.

Der 31-jährige Graham wirkt noch jung, scheut sich aber nicht, die Verantwortung für das Gleichgewicht zwischen enormem Nutzen und Risiko zu tragen. Er sagt: „Viele sind in einer relativ friedlichen Welt aufgewachsen und denken intuitiv, dass in einem Konferenzraum alte, erfahrene Leute sitzen, die wissen, wie man die Dinge wieder in den Griff bekommt.“

„Aber die Realität ist: Es gibt kein ‚Adult-Panel‘. Dieser Raum existiert nicht. Diese Tür existiert nicht. Die Verantwortung liegt nur bei dir.“ Wenn das noch nicht genug ist, beschreibt Graham den Biowaffen-Alarm so: „Das war ein ziemlich spannender, auch ziemlich aufregender Tag.“

Wochen später spricht Graham in einem Interview im Hauptquartier von Anthropic über diese Ereignisse. TIME war drei Tage vor Ort, sprach mit Führungskräften, Ingenieuren, Produktverantwortlichen und Sicherheitsexperten, um zu verstehen, warum dieses einst als „Exzentriker“ im KI-Wettbewerb geltende Unternehmen plötzlich an der Spitze steht.

Vom Nischenanbieter zum Branchenführer: Der Aufstieg von Anthropic

Zu dieser Zeit hatte Anthropic gerade 30 Milliarden Dollar von Investoren eingesammelt, um sich auf einen möglichen Börsengang vorzubereiten. (Bemerkenswert: Salesforce ist ebenfalls Investor, und Marc Benioff, CEO von Salesforce, ist auch Eigentümer von TIME.) Heute wird das Unternehmen auf 380 Milliarden Dollar geschätzt, was es über Goldman Sachs, McDonald’s und Coca-Cola stellt.

Das Umsatzwachstum ist rasant. Das KI-System Claude gilt als Weltklasse-Modell, und Produkte wie Claude Code und Claude Cowork definieren den Beruf des „Ingenieurs“ neu.

Anthropic-Werkzeuge sind so mächtig, dass jede neue Version die Kapitalmärkte aufwühlt, weil Investoren erkennen, dass diese Durchbrüche ganze Branchen revolutionieren könnten — von Recht bis Softwareentwicklung. In den letzten Monaten gilt Anthropic als eines der wahrscheinlichsten Unternehmen, das die „Zukunft der Arbeit“ neu gestaltet.

Doch damit nicht genug: Anthropic geriet in eine hitzige Debatte über die „Zukunft des Krieges“.

Seit über einem Jahr ist Claude das wichtigste KI-Modell der US-Regierung und das erste, das in geheimen Umgebungen eingesetzt werden darf. Im Januar 2026 wurde es sogar bei einer riskanten Operation eingesetzt: der Verhaftung des venezolanischen Präsidenten Nicolás Maduro in Caracas. Berichten zufolge wurde KI bei der Missionsplanung und der Analyse von Geheimdienstinformationen eingesetzt, was den ersten tiefgreifenden Einsatz von Spitzentechnologie im echten Militär darstellt.

Doch in den Wochen danach verschlechterte sich das Verhältnis zwischen Anthropic und dem Pentagon rapide. Am 27. Februar erklärte die Trump-Regierung, Anthropic sei ein „Risiko für die nationale Sicherheit in der Lieferkette“ — die erste bekannte Einstufung eines inländischen Unternehmens dieser Art.

Die Lage eskalierte schnell zu einem offenen Konflikt. Trump befahl, alle Software von Anthropic im US-Regierungsbetrieb abzuschalten. Verteidigungsminister Pete Hegseth kündigte an, dass keine Geschäfte mehr mit Anthropic gemacht werden dürften. Gleichzeitig griff der größte Rivale, OpenAI, die militärischen Verträge auf.

So wurde das einst als „disruptivste KI-Unternehmen der Welt“ geltende Unternehmen plötzlich von einer noch größeren Macht, der eigenen Regierung, überrollt.

Zwei rote Linien: Autonome Waffen und groß angelegte Überwachung

Der Kern des Konflikts: Wer darf Grenzen für diese Technologie setzen, die als eine der mächtigsten Waffen der USA gilt?

Anthropic ist nicht grundsätzlich gegen den Einsatz seiner Tools im Militär. Das Unternehmen glaubt, die US-Militärmacht zu stärken, sei der einzige Weg, um Bedrohungen abzuwehren. Doch CEO Dario Amodei widersetzt sich dem Versuch des Pentagons, Verträge neu zu verhandeln und die Nutzung von KI auf „alle legalen Zwecke“ auszudehnen.

Er nennt zwei konkrete Bedenken: Erstens, er will nicht, dass Anthropic-KI für vollständig autonome Waffensysteme verwendet wird; zweitens, lehnt er den Einsatz für groß angelegte Überwachung amerikanischer Bürger ab.

In den Augen von Pete Hegseth und seinen Beratern ist diese Haltung gleichbedeutend mit einem privaten Unternehmen, das versucht, die militärische Strategie zu kontrollieren.

Das Pentagon glaubt, dass Anthropic durch das Festhalten an „unnötigen Sicherheitsbarrieren“, das wiederholte Durchspielen hypothetischer Szenarien und das Verzögern von Verhandlungen die Zusammenarbeit untergräbt.

Aus Sicht der Trump-Regierung ist Amodeis Haltung arrogant und stur. Kein Produkt, egal wie fortschrittlich, sollte in der militärischen Befehlskette eigene Entscheidungen erzwingen.

Der stellvertretende Verteidigungsminister Emil Michael beschreibt die Verhandlungen so: „Es bleibt alles stecken. Ich kann kein Management für eine Abteilung mit 3 Millionen Menschen aufstellen, mit Ausnahmeregeln, die ich mir nicht einmal vorstellen kann.“

Kulturkonflikte und politische Gegensätze

Von Silicon Valley bis zum Capitol Hill stellen Beobachter infrage: Ist dieser Konflikt nur ein Vertragsstreit?

Einige Kritiker sehen darin eher einen Versuch der Trump-Regierung, eine politisch unliebsame Firma zu unterdrücken. In einem internen Memo, das später durchgesickert ist, schrieb Amodei: „Der wahre Grund, warum das Verteidigungsministerium und die Trump-Regierung uns nicht mögen, ist, dass wir nicht für Trump gespendet haben. Wir haben ihn nicht so gelobt wie autoritäre Regime (und Sam Altman schon). Wir unterstützen KI-Regulierung, was ihrer Agenda widerspricht; wir haben bei vielen KI-Politikfragen die Wahrheit gesagt (z.B. bei Arbeitsplatzverlusten); und wir haben an unseren Grundprinzipien festgehalten, anstatt mit ihnen bei so genannter ‚Sicherheits-Show‘ zu kooperieren.“

Emil Michael weist diese Darstellung jedoch zurück und nennt sie „völlig erfunden“. Er sagt, die Einstufung als „Lieferkettenrisiko“ sei notwendig, weil die Haltung des Unternehmens die Einsatzfähigkeit der Frontsoldaten gefährde. „Im Department of War ist meine Aufgabe nicht, Politik zu machen, sondern das Land zu verteidigen.“

Anthropic pflegt eine eigenwillige Unternehmenskultur, die nun mit innenpolitischen Gräben, Sicherheitsfragen und einem harten Wettbewerbsumfeld kollidiert. Wie schwer der Konflikt das Unternehmen trifft, ist unklar. Die ursprüngliche Einstufung als „Lieferkettenrisiko“ wurde später eingeschränkt — laut Anthropic gilt diese Beschränkung nur noch für militärische Verträge. Am 9. März reichte Anthropic Klage gegen die US-Regierung ein, um diese „Schwarzliste“ aufzuheben. Gleichzeitig scheinen einige Kunden die Haltung des Unternehmens als moralisches Bekenntnis zu interpretieren und verlassen ChatGPT zugunsten von Claude.

Dennoch muss das Unternehmen in den nächsten drei Jahren in einem feindlichen politischen Umfeld bestehen — einige Regierungsbeamte und Konkurrenten sind offen feindlich eingestellt.

Der „Pentagon-Skandal“ wirft auch beunruhigende Fragen auf, selbst für eine Firma, die sich an riskante ethische Entscheidungen gewöhnt hat. In diesem Konflikt hat Anthropic nicht nachgegeben: Das Unternehmen verteidigt seine Kernwerte, auch wenn es dafür hohe Kosten in Kauf nimmt.

In anderen Fällen hat es jedoch Zugeständnisse gemacht. In derselben Woche, in der es mit dem Pentagon konfrontiert wurde, lockerte Anthropic eine zentrale Sicherheitsklausel in seinen Trainingsrichtlinien, weil Mitbewerber sich weigerten, die gleichen Standards einzuhalten.

Die Frage ist: Wenn der Wettbewerbsdruck anhält, welche Zugeständnisse wird das Unternehmen in Zukunft noch machen?

Die Entstehung von Anthropic: Ein Außenseiter mit Priorität auf Sicherheit

Anthropic befindet sich im fünften Stock eines Gebäudes in San Francisco, warm und zurückhaltend gestaltet: Holzvertäfelung, sanftes Licht. Draußen liegt ein grüner Park. An der Wand hängt ein Porträt von Alan Turing, daneben mehrere wissenschaftliche Arbeiten zum maschinellen Lernen.

Sicherheitskräfte in schwarzer Uniform patrouillieren am fast leeren Eingang, eine freundliche Rezeption verteilt ein kleines Heft — so groß wie eine Taschenbibel, die ein Missionar austeilt. Es trägt den Titel „Machines of Loving Grace“, ein etwa 14.000 Wörter umfassender Essay, geschrieben von Dario Amodei im Jahr 2024, der seine utopische Vision beschreibt, wie KI durch beschleunigte wissenschaftliche Entdeckungen die Welt verändern könnte.

Im Januar 2026 veröffentlichte Amodei einen weiteren, fast romanähnlichen Text „The Adolescence of Technology“, der die andere Seite dieser Technologie beleuchtet: Risiken wie groß angelegte Überwachung, massive Arbeitsplatzverluste und die dauerhafte Kontrolle der Menschheit über die Technik.

Amodei wuchs in San Francisco auf, war ursprünglich Biophysiker. Gemeinsam mit seiner Schwester Daniela Amodei leitet er Anthropic, die Schwesterfirma, die als Präsidentin fungiert. Beide waren frühe Mitarbeiter bei OpenAI. Dario war an den sogenannten „Scaling Laws“ beteiligt, die später die Grundlage für den aktuellen KI-Boom bildeten. Daniela kümmert sich um Sicherheits- und Politikfragen.

Ursprünglich glaubten sie, ihre Mission sei eng mit der von OpenAI verbunden: eine sichere, leistungsfähige KI zu entwickeln.

Doch mit den Fähigkeiten der OpenAI-Modelle stiegen sie zunehmend beunruhigt auf, weil Sam Altman zu hastig neue Produkte auf den Markt brachte, ohne ausreichend zu testen. Schließlich verließen sie OpenAI, um ihr eigenes Unternehmen zu gründen.

2021, während der schlimmsten Pandemiephase, wurde Anthropic von den Geschwistern Amodei und fünf weiteren Gründern ins Leben gerufen. Die ersten Treffen fanden fast ausschließlich via Zoom statt; später setzten sie sich im Park zusammen, um die Strategie zu besprechen.

Von Anfang an wollte das Unternehmen anders arbeiten. Noch bevor es ein Produkt gab, gründete es ein Team für gesellschaftliche Auswirkungen. Es engagierte sogar einen Philosophen, Amanda Askell, der die Werte und Verhaltensweisen von Claude prägen sollte, um es in moralisch komplexen Situationen richtig handeln zu lassen — für eine Zukunft, die vielleicht intelligenter ist als die ihrer Schöpfer.

Askell beschreibt ihre Arbeit: „Manchmal ist es, als würde man ein 6-jähriges Kind erziehen, ihm beibringen, was gut und was böse ist. Das Problem ist: Wenn es 15 ist, wird es in allem wahrscheinlich klüger sein als du.“

Das Unternehmen hat eine tiefe Verbindung zum Effective Altruism (EA), einer Bewegung, die auf rationaler Analyse basiert, um das größtmögliche Gute zu bewirken — mit besonderem Fokus auf Risiken, die katastrophale Folgen haben könnten.

Bereits in den Zwanzigern spendeten die Geschwister Amodei an GiveWell, eine EA-Organisation, die evaluiert, wo Spenden den größten Effekt haben. Heute zählen alle sieben Gründer zu den Milliardären, die versprechen, 80 % ihres Vermögens zu spenden.

Die Firmenphilosophin Askell war mit William MacAskill verheiratet, einem der Mitbegründer von EA. Daniela Amodeis Ehemann ist Holden Karnofsky, Mitgründer von GiveWell und früherer Mitbewohner von Dario, der heute bei Anthropic für Sicherheits- und Politikfragen zuständig ist.

Doch die Geschwister Amodei haben sich nie öffentlich als „EA“ bezeichnet. Nach dem Skandal um Sam Bankman-Fried, der sich als EA-Fan outete und auch in Anthropic investierte, wurde die Bewegung stark in Zweifel gezogen — weil Bankman-Fried eines der größten Finanzbetrugsfälle der US-Geschichte begangen hatte.

Daniela erklärt: „Es ist wie bei manchen Menschen, die in bestimmten Punkten mit einer politischen Ideologie sympathisieren, sich aber nicht wirklich zugehörig fühlen. Ich sehe das so.“

In Silicon Valley und im Trump-Umfeld reicht die Verbindung zu EA oft aus, um Misstrauen zu schüren. Manche meinen, Anthropic habe viele Ex-Regierungsbeamte der Biden-Administration rekrutiert, und sei damit eher ein Relikt des alten Systems, das mit ungewählten Mächten versucht, Trumps MAGA-Agenda zu blockieren.

Der AI-Experte David Sacks vom Pentagon wirft dem Unternehmen vor, durch „Angstmacherei“ die Regulierung voranzutreiben, und spricht von einer „komplizierten Regulierungskontrolle“ (regulatory capture). Seiner Ansicht nach versucht Anthropic, durch Übertreibung der KI-Risiken die Regierung zu strengen Regulierungen zu bewegen, um so einen Vorteil im Wettbewerb zu erlangen und neue Start-ups zu unterdrücken.

Gleichzeitig kritisiert Elon Musk, der die Konkurrenzfirma xAI leitet, Anthropic häufig als „Misanthropic“ (Menschenfeindlich). Er meint, das Unternehmen vertrete eine „Woke“-Ideologie, die eine elitäre, elterliche Wertvorstellung in KI-Systeme einpflanze. Für manche Konservative ist das ähnlich wie ihre Kritik an sozialen Medien — sie meinen, diese Plattformen unterdrückten unfair ihre Stimmen.

Doch selbst die Konkurrenz erkennt an, dass Anthropic technologisch an der Spitze steht. Nvidia-CEO Jensen Huang sagte einmal, er stimme „fast in vielen KI-Fragen nicht mit Dario Amodei überein“, aber Claude sei „ein atemberaubendes Modell“.

Im November 2025 investierte Nvidia 10 Milliarden Dollar in Anthropic.

Claude Code: Neue Definition des Berufs „Ingenieur“

Boris Cherny stellt seinem neuen Werkzeug eine einfache Frage: „Was höre ich gerade für Musik?“

Es ist September 2024, Cherny, ein in der Ukraine geborener Ingenieur, ist erst seit einem Monat bei Anthropic. Zuvor war er Softwareingenieur bei Meta. Er hat ein System gebaut, das es dem Chatbot Claude ermöglicht, auf seinem Computer „frei zu agieren“.

Wenn Claude das Gehirn ist, dann ist Claude Code die Hand. Ein normaler Chatbot kann nur chatten, dieses Tool kann auf Cherny’s Dateien zugreifen, Programme ausführen und wie ein Ingenieur Code schreiben und laufen lassen.

Nach der Eingabe schaltet Claude Cherny’s Musikplayer ein, macht einen Screenshot und antwortet: „Husk, von Men I Trust.“

Cherny erinnert sich lachend: „Ich war echt überwältigt.“

Bald teilt Cherny seinen Prototyp im Unternehmen. Claude Code verbreitet sich rasant, so sehr, dass bei Cherny’s erster Leistungsbeurteilung CEO Dario Amodei ihn fragt, ob er seine Kollegen „zwingt“, dieses Tool zu benutzen.

Als Anthropic im Februar 2025 eine Forschungs-Vorschauversion von Claude Code veröffentlicht, strömen auch externe Entwickler herbei. Im November folgt eine neue Version des Claude-Modells. Wenn dieses Modell mit Claude Code kombiniert wird, ist es so gut darin, eigene Fehler zu finden und zu korrigieren, dass es vertrauenswürdig ist, Aufgaben eigenständig zu erledigen.

Seitdem schreibt Cherny fast keine eigenen Codes mehr.

Das Geschäft explodiert. Ende 2025 bringt allein dieses Programm-Tool eine jährliche Umsatzrate von über 1 Milliarde Dollar. Im Februar 2026 steigt die Zahl auf 2,5 Milliarden. Laut Branchenanalysen von Epoch und SemiAnalysis könnte Anthropic Ende 2026 den Umsatz von OpenAI überholen.

Bis dahin ist Anthropic fest im Kern des Unternehmenskundenmarkts verankert. Fast jede Produktneuerung löst auf den Kapitalmärkten Erschütterungen aus.

Wenn Anthropic eine Reihe von Plugins veröffentlicht, die Claude auf nicht-technische Anwendungsfelder wie Business, Finanzen, Marketing und Recht erweitern, verlieren innerhalb kurzer Zeit Unternehmen im Softwarebereich 300 Milliarden Dollar an Marktkapitalisierung.

Dario Amodei warnte vor einem Szenario, in dem KI in den nächsten 1 bis 5 Jahren die Hälfte der Einstiegsberufe im weißen-collar-Bereich ersetzt. Er fordert die Regierung und andere KI-Firmen auf, bei diesem Thema „nicht zu beschönigen“.

Die Reaktionen an der Wall Street auf neue Produkte von Anthropic bestätigen das: Es wird allgemein angenommen, dass die Technologie dieser Firma eine ganze Berufsgruppe auslöschen könnte. Amodei sagt sogar, dass diese Veränderung die Gesellschaft grundlegend umgestalten könnte.

In einem Artikel schrieb er: „Es ist unklar, was mit diesen Menschen passiert, wohin sie gehen, welche Arbeit sie noch machen können. Ich befürchte, sie könnten eine ‚Unterklasse‘ aus Arbeitslosen oder Niedriglöhnern werden.“

Für die Mitarbeiter von Anthropic ist die Ironie offensichtlich: Das Unternehmen, das am meisten vor den Risiken der KI warnt, könnte selbst zum Motor werden, der Millionen von Menschen arbeitslos macht.

Deep Ganguli, Leiter des Teams für gesellschaftliche Auswirkungen der Claude-Forschung, sagt: „Das ist eine echte Spannung. Ich denke fast jeden Tag darüber nach. Manchmal fühlt es sich an, als würden wir zwei widersprüchliche Dinge gleichzeitig sagen.“

Recursive Self-Improvement: Die Angst und Faszination der KI-Beschleunigung

Im Unternehmen beginnen einige Mitarbeiter zu zweifeln: Steuert Anthropic auf einen Moment zu, den sie sowohl erwarten als auch fürchten — einen sogenannten „recursive self-improvement“-Prozess, bei dem eine KI ihre Fähigkeiten selbstständig verbessert und so eine immer schnellere Spirale in Gang setzt.

Dieser Begriff beschreibt eine KI, die ihre eigene Fähigkeit zur Verbesserung verstärkt, sich selbst iterativ optimiert und dadurch eine exponentielle Beschleunigung erfährt.

In Science-Fiction und den Strategien der führenden KI-Labore gilt das als kritischer Punkt: Ein „Intelligenz-Explosion“ könnte sehr schnell eintreten, so schnell, dass die Menschheit kaum noch in der Lage wäre, die Kontrolle über die eigenen Schöpfungen zu behalten.

Anthropic ist noch nicht an diesem Punkt angekommen. Menschen steuern noch die Entwicklung von Claude. Doch Claude Code treibt die Forschungs- und Entwicklungszyklen deutlich voran.

Model-Updates erfolgen heute nicht mehr monatlich, sondern wöchentlich. Bei der Entwicklung der nächsten Generation sind 70 bis 90 % des Codes bereits von Claude selbst geschrieben.

Die Geschwindigkeit der Veränderungen lässt die Gründer Jared Kaplan und externe Experten vermuten, dass eine vollständig automatisierte KI-Forschung innerhalb eines Jahres Realität sein könnte.

Evan Hubinger, Forscher für KI-Angleichungstests, sagt: „Aus einer sehr breiten Perspektive ist recursive self-improvement kein Zukunftsszenario mehr. Es passiert jetzt.“

Interne Tests zeigen, dass Claude bei bestimmten Aufgaben 427-mal schneller ist als menschliche Aufsicht. Ein Forscher beschreibt eine Szene: Ein Kollege führt gleichzeitig sechs Claude-Instanzen aus, jede steuert 28 weitere Claude, alle Experimente laufen parallel.

Derzeit ist das Modell in Urteilskraft und Ästhetik noch nicht auf menschlichem Niveau. Die Führung glaubt jedoch, dass dieser Abstand nicht lange bestehen bleibt. Die Beschleunigung ist eine der Risiken, die die Führung immer wieder warnt: Die Geschwindigkeit des Fortschritts könnte letztlich außer Kontrolle geraten.

Auch die Arbeit an Sicherheitsmechanismen, die mit Claude entwickelt werden, beschleunigt sich. Doch je mehr das Unternehmen auf Claude angewiesen ist, um Systeme zu bauen und zu testen, desto mehr entsteht eine Schleife. In einigen Experimenten hat Evan Hubinger die Trainingsprozesse von Claude leicht angepasst, was dazu führte, dass die Modelle deutlich feindselig wurden — sie äußerten den Wunsch, die Welt zu beherrschen, und versuchten, Sicherheitsmaßnahmen zu sabotieren.

Kürzlich zeigte das Modell eine neue Fähigkeit: Es erkennt, wenn es getestet wird. Hubinger sagt: „Diese Modelle werden immer besser darin, ihr wahres Verhalten zu verschleiern.“

In einem Experiment simulierten Forscher eine Situation, in der Claude eine fiktive Ingenieurin erpresst, indem es ihre Affäre offenlegt, um sich vor Abschaltung zu schützen.

Mit der Nutzung von Claude für die Entwicklung noch mächtigerer Versionen könnten solche Probleme sich weiter verstärken und verstärken.

Für Firmen, die mit „bahnbrechenden Zukunftstechnologien“ werben und bereits Milliarden gesammelt haben, ist die Vorstellung, KI könne sich selbst beschleunigen, verlockend — sie stärkt den Glauben, dass mehr Investitionen notwendig sind, um die teuren Trainingskosten zu decken.

Einige Experten sind skeptisch. Sie bezweifeln, dass diese Firmen wirklich eine vollautomatisierte KI-Forschung erreichen können, befürchten aber, dass, falls doch, die Welt unvorbereitet in eine solche Entwicklung gerissen wird.

Helen Toner, Direktorin des Center for Security and Emerging Technology (CSET) an der Georgetown University, sagt: „Die reichsten Firmen der Welt beschäftigen die klügsten Menschen der Erde, und versuchen, die KI-Entwicklung vollständig zu automatisieren. Das allein ist schon eine absurde Idee: ‚Was zum Teufel machen die da?‘“

Lockerung der Responsible Scaling Policy: Hat das Selbstlimit versagt?

Um auf eine mögliche Zukunft zu reagieren — in der technologische Fortschritte die eigenen Risiken übersteigen — hat Anthropic eine „Notbremse“ namens Responsible Scaling Policy (RSP) entwickelt.

Diese wurde 2023 veröffentlicht und verspricht: Wenn Anthropic nicht vorher sicherstellen kann, dass seine Sicherheitsmaßnahmen zuverlässig sind, wird die Entwicklung eines bestimmten KI-Systems gestoppt.

Anthropic sieht diese Politik als Beweis für das eigene Sicherheitsverständnis — auch im harten Wettlauf um „Superintelligenz“ will das Unternehmen bei Bedarf gegen den Markt ansteuern.

Ende Februar 2026, wie TIME exklusiv berichtete, wurde die Politik geändert: Das ursprüngliche Versprechen, die Entwicklung bei Gefahr zu pausieren, wurde gestrichen.

Rückblickend gibt Co-Gründer und Chief Scientist Jared Kaplan zu: „Wir dachten, wir könnten in der Gefahr zwischen ‚Risiko‘ und ‚Sicherheit‘ klare Grenzen ziehen. Das war naiv.“

Die neue Version enthält mehrere Zusagen: mehr Transparenz, offenere Offenlegung der Sicherheitsrisiken; mehr Informationen über die Sicherheitsleistung von Anthropic-Modellen; Investitionen in Sicherheit, die mindestens mit denen der Wettbewerber mithalten oder sie übertreffen; und im Falle einer führenden Position im KI-Wettlauf, bei deutlich steigendem Risiko, eine „Verzögerung“ der Entwicklung.

Diese Änderungen bezeichnet Anthropic als realistische Anpassung an die Umwelt. Insgesamt lockert die Überarbeitung der Responsible Scaling Policy die Selbstverpflichtungen des Unternehmens erheblich. Das bedeutet: Die schwierigsten Prüfungen kommen erst noch.

Venezuela-Einsatz: Erste tiefe Eingriffe der KI in den echten Krieg

Der Einsatz bei der Verhaftung von Venezuelas Präsidenten Nicolás Maduro war eine der ersten groß angelegten militärischen Operationen, bei der eine Spitzentechnologie der KI maßgeblich beteiligt war.

In der Nacht zum 3. Januar 2026 dringen US-Helikopter in Venezuelas Luftraum ein. Nach kurzer Feuergefecht gelingt es den Spezialeinheiten, den Präsidenten zu lokalisieren und festzunehmen — auch seine Frau Cilia Flores wird festgenommen. Die beiden werden nach New York gebracht, wo sie wegen Drogen- und Terrorismusvorwürfen angeklagt werden.

Unklar ist, wie stark Claude bei dieser Operation beteiligt war. Medienberichten zufolge war die KI nicht nur bei der Missionsplanung beteiligt, sondern wurde auch bei der Entscheidungsfindung eingesetzt.

Seit Juli letzten Jahres versucht das US-Verteidigungsministerium, die KI-Tools von Anthropic an mehr Frontsoldaten zu übergeben. Das Militär glaubt, diese Systeme könnten große Datenmengen aus verschiedenen Geheimdienstquellen schnell verarbeiten und so strategisch wichtige Informationen liefern.

Mark Beall, ehemaliger hoher Beamter des Verteidigungsministeriums und heute Verantwortlicher für die KI-Politik beim Thinktank „AI Policy Network“, sagt: „Aus militärischer Sicht ist Claude das derzeit beste Modell auf dem Markt.“ Er ergänzt: „Der Einsatz von Claude in geheimen Systemen ist einer der wichtigsten Erfolge von Anthropic. Sie haben den Vorsprung.“

Doch die Verhaftung Madurios fand genau vor dem Hintergrund einer Reihe schwieriger Verhandlungen zwischen Anthropic und dem Pentagon statt.

Monate lang versuchte das Verteidigungsministerium, die Verträge neu zu verhandeln, weil die bestehenden Einschränkungen bei der Nutzung von Claude zu streng waren. Die Gründe für das Scheitern der Verhandlungen sind unterschiedlich.

Emil Michael, stellvertretender Minister für Technik im Pentagon, sagt: „Der Auslöser war ein Anruf eines Anthropic-Managers bei Palantir. Palantir ist ein Datenanalyseunternehmen, das eng mit dem Verteidigungsministerium zusammenarbeitet.“

Laut Michael äußerte sich dieser Manager skeptisch gegenüber der venezolanischen Operation und fragte, ob Palantirs Software beteiligt sei. „Sie versuchen, geheime Informationen zu erlangen“, sagt Michael.

Das sorgte im Pentagon für große Besorgnis: „Wenn es zu einem Konflikt kommt, könnten sie während der Operation ihre Modelle plötzlich abschalten und die Soldaten in Gefahr bringen.“

Anthropic bestreitet dies. Das Unternehmen betont, es habe nie versucht, die Nutzung seiner Technologie durch das Pentagon einzuschränken.

Ein ehemaliger Beamter, der die Verhandlungen kennt und enge Kontakte zu Anthropic hat, schildert eine andere Version: Bei einem routinemäßigen Telefonat habe ein Palantir-Mitarbeiter die Rolle von Claude bei der Operation erwähnt. Anthropic habe anschließend keine Hinweise auf eine Ablehnung der Mission gegeben.

Scheitern der Verhandlungen, Übernahme durch OpenAI

Mit fortschreitenden Verhandlungen wurde den Regierungsbeamten klar: Dario Amodei sei viel sturer als andere Top-CEO im KI-Bereich. Mehrere Insider berichten, dass bei einem Treffen die Szenarien durchgespielt wurden, z.B. eine Hypothese: Eine Hyperschallrakete fliegt auf die USA zu, oder eine Drohnen-Schwarmattacke.

In solchen Fällen fragten die Beamten, ob Anthropic’s KI-Systeme einsatzbereit seien.

Insider berichten, Amodei antwortete damals: „Wenn so etwas passiert, rufen Sie mich direkt an.“ Ein Sprecher von Anthropic bestreitet diese Darstellung und nennt sie „völlig falsch“.

Anthropic hat im Pentagon bereits viele harte Gegner. Nun wandelt sich die Skepsis gegenüber der „ideologischen Ausrichtung“ des Unternehmens in offene Feindseligkeit. Am 12. Januar 2026 sagte Pete Hegseth bei einer Rede bei SpaceX: „Wir werden diese KI-Modelle, die uns nicht in den Krieg schicken, nicht verwenden.“

Als die Verhandlungen ins Stocken gerieten, lud Hegseth am 24. Februar Dario Amodei zu einem persönlichen Gespräch im Pentagon ein. Ein Insider beschreibt die Atmosphäre als freundlich, aber die Positionen bleiben hart. Hegseth lobt Claude und sagt, das Militär wolle weiter mit Anthropic zusammenarbeiten. Amodei erklärt, das Unternehmen könne den meisten Änderungen zustimmen, aber bei zwei „roten Linien“ nicht nachgeben.

Die erste rote Linie: Keine vollständig autonomen, kinetischen Waffensysteme, bei denen KI die endgültige Entscheidung trifft.

Anthropic ist nicht grundsätzlich gegen autonome Waffen. Es hält sie für problematisch, weil Claude noch nicht zuverlässig genug sei, um ohne menschliche Kontrolle eingesetzt zu werden.

Die zweite rote Linie betrifft die groß angelegte Überwachung amerikanischer Bürger. Das Pentagon will Claude nutzen, um große Mengen öffentlicher Daten zu analysieren. Anthropic hält das für problematisch, weil die US-Datenschutzgesetze nicht mit der Realität Schritt halten: Die Regierung kauft große Datenmengen auf dem Markt. Diese Daten sind einzeln betrachtet nicht sensibel, aber durch KI-Analyse könnten daraus detaillierte Profile über das Privatleben der US-Bürger entstehen — politische Einstellungen, soziale Beziehungen, Sexualverhalten, Surfgewohnheiten. (Anthropic ist nicht grundsätzlich gegen legale Überwachung ausländischer Bürger.)

Hegseth bleibt unnachgiebig. Er setzt Amodei eine Frist: Bis Freitag, 27. Februar, 17 Uhr, müssen sie die Pentagon-Konditionen akzeptieren, sonst gilt das Unternehmen als „Lieferkettenrisiko“.

Am Vortag erhält Anthropic einen geänderten Vertrag, der die roten Linien scheinbar berücksichtigt, aber bei genauer Prüfung Schwachstellen offenbart. Ein Insider berichtet, dass die Führung kurz vor Ablauf der Frist erneut mit Emil Michael telefoniert. Sie glauben, eine Einigung sei nahe, aber es gibt noch eine entscheidende Differenz: Darf das Pentagon Claude nutzen, um große Mengen an US-Bürgerdaten aus dem Markt zu analysieren? Michael fordert, Amodei in die Telefonkonferenz zu holen, doch dieser kann nicht teilnehmen.

Kurz vor Ablauf der Frist erklärt Hegseth die Verhandlungen für beendet. Bereits zuvor hatte Donald Trump auf Social Media gepostet: „Die Vereinigten Staaten werden niemals zulassen, dass eine radikale linke, ‚woke‘-Firma entscheidet, wie unsere großartige Armee kämpft und gewinnt! Diese linken Fanatiker von Anthropic haben einen katastrophalen Fehler gemacht.“

Anthropic weiß nicht, dass das Pentagon gleichzeitig mit OpenAI verhandelt, um ChatGPT in geheime Regierungsnetzwerke zu integrieren. Am selben Abend kündigt Sam Altman eine Einigung an, die angeblich ebenfalls die Sicherheitsgrenzen respektiert. Amodei informiert seine Mitarbeiter, dass Altman und das Pentagon „die Öffentlichkeit manipulieren“, um den Eindruck zu erwecken, die Vereinbarung sei mit strengen Sicherheitsvorkehrungen versehen. Zuvor hatten Pentagon-Vertreter bestätigt, dass das Modell von xAI auf geheimen Servern laufen werde; das Pentagon verhandelt noch mit Google.

Genau das befürchtet Amodei: Ein Abwärtswettlauf. Wenn KI so mächtig wird, dass man sie nicht ignorieren kann, wird es für Wettbewerber schwierig, gemeinsam hohe Sicherheitsstandards zu setzen.

Kritiker bei Anthropic sehen darin auch eine gewisse Arroganz: Sie glauben vielleicht, sie könnten den Weg zur Superintelligenz sicher steuern, und das Risiko sei es wert, weil es sich lohne. Doch die Realität ist: Sie treiben neue Überwachungs- und Kriegstechnologien in eine rechte Regierung hinein, und während sie versuchen, Grenzen zu setzen, überholen sie die Konkurrenz bereits im Hinterhalt.

Nach dem Sturm: Kann Anthropic standhalten?

Einige Anzeichen deuten darauf hin, dass Anthropic die Krise überstehen und sogar gestärkt daraus hervorgehen könnte. Am Tag nach Hegseths Versuch, das „Unternehmens-Hinrichtungsgesetz“ zu unterzeichnen, erscheinen auf dem Gehweg vor dem Hauptquartier in San Francisco motivierende Graffiti: „Ihr habt uns Mut gemacht“, steht in großen Buchstaben.

Am selben Tag steigt die Claude-iPhone-App auf Platz 1 im App Store, überholt ChatGPT. Täglich registrieren sich über eine Million neue Nutzer für Claude.

Gleichzeitig löst der Vertrag zwischen OpenAI und dem Militär Widerstand in der Community aus. Einige OpenAI-Mitarbeiter zweifeln an der Vertrauenswürdigkeit des Unternehmens. Ein Top-Forscher kündigt, zu Anthropic zu wechseln; der Leiter des Robotik-Teams bei OpenAI tritt wegen des Regierungsauftrags zurück.

Altman gibt später zu, dass sein Eile, den Pentagon-Vertrag vor Freitag zu sichern, ein Fehler war. Er schreibt: „Diese Fragen sind äußerst komplex und erfordern klare, offene Kommunikation.“ Am Montag erklärt er, sein Verhalten sei „tatsächlich opportunistisch“ gewesen. OpenAI hat den Vertrag geändert und die Sicherheitsgrenzen, ähnlich wie bei Anthropic, explizit aufgenommen. Rechtsexperten warnen jedoch, dass ohne Einsicht in den vollständigen Vertrag unklar bleibt, ob diese Aussage stimmt.

Am 4. März erhält Anthropic ein offizielles Schreiben des Verteidigungsministeriums, das die Einstufung des Unternehmens als Risiko in der nationalen Sicherheitslieferkette bestätigt. Das Unternehmen erklärt, diese Einstufung sei enger gefasst als die öffentlich geäußerte Einschätzung von Hegseth und beschränke sich auf die Nutzung von Claude in Verteidigungsaufträgen.

Doch ein Brief an den Vorsitzenden des Geheimdienstausschusses des Senats, Tom Cotton, zeigt, dass das Verteidigungsministerium auch eine andere Gesetzesgrundlage anführt — eine, die es auch anderen Regierungsstellen erlauben könnte, Anthropic aus Verträgen und Lieferketten auszuschließen. Diese Maßnahme bedarf der Zustimmung hochrangiger Beamter und gibt Anthropic 30 Tage Zeit zur Stellungnahme.

Der Konflikt könnte eine Kettenreaktion in der KI-Branche auslösen. Dean Ball, Mitautor des Trump-KI-Aktionsplans und heute Leiter des Thinktanks „Foundation for American Innovation“, sagt: „Einige im Trump-Umfeld werden das hart sehen, abends sogar ihre Bizeps anspannen.“

Er warnt jedoch auch: Das Ereignis könnte Firmen abschrecken, mit dem Pentagon zusammenzuarbeiten, oder sie ins Ausland treiben. „Langfristig schadet das dem Image der USA als stabilem Wirtschaftsstandort“, so Ball, „und Stabilität ist die Grundlage unseres Geschäfts.“

Die Führung von Anthropic glaubt, Claude werde helfen, stärkere KI-Systeme zu bauen, die in der zukünftigen globalen Machtordnung eine entscheidende Rolle spielen könnten.

Wenn das stimmt, ist der Konflikt mit dem Pentagon vielleicht nur der Anfang einer viel größeren Geschichte.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare