Update: Anthropic zieht gegen US-Regierung vor Gericht
Im Streit um den militärischen Einsatz von künstlicher Intelligenz reicht Anthropic Klage gegen das Pentagon ein. Das KI-Unternehmen wehrt sich juristisch gegen die Einstufung als "Lieferkettenrisiko für die nationale Sicherheit", die es von wichtigen Regierungsaufträgen ausschliesst.
Update vom 10.03.2026: Der Konflikt zwischen Anthropic und dem US-Verteidigungsministerium eskaliert. Anthropic beharrt auf seinem Standpunkt, dass seine KI-Modelle weder zur Massenüberwachung von Menschen in den USA noch in autonomen Waffensystemen zum Einsatz kommen dürfen. Das Pentagon forderte hingegen die Rechte für "jede rechtmässige Nutzung" ein.
Daraufhin stufte die US-Regierung das Unternehmen als "Lieferkettenrisiko für die nationale Sicherheit" ein. Gegen diese Massnahme wehrt sich Anthropic nun mit juristischen Mitteln. Wie die Nachrichtenagentur "Reuters" schreibt, reichte das Unternehmen Klage bei einem Bundesgericht in Kalifornien ein, um die Aufnahme auf die schwarze Liste zu blockieren. In der Klageschrift bezeichnet Anthropic die Einstufung als rechtswidrig und sieht darin eine Verletzung seiner Rechte auf freie Meinungsäusserung sowie auf ein faires Verfahren.
Die Einstufung einer US-Firma als "Supply-Chain Risk to National Security" gilt als äusserst ungewöhnlich, wie swissinfo.ch berichtet. Sie schliesst das Unternehmen faktisch von zukünftigen Regierungsaufträgen aus. In einer entsprechenden Anordnung wies US-Präsident Donald Trump alle US-Bundesbehörden an, die Nutzung von Anthropic-Technologie einzustellen. Ironischerweise besass Anthropic als bisher einzige KI-Firma eine Freigabe für die als vertraulich eingestufte Nutzung seiner Software im US-Militär.
ChatGPT-Entwickler OpenAI hat inzwischen eine Vereinbarung mit dem Pentagon geschlossen. OpenAI willigte zwar in die Bedingungen des Ministeriums ein, doch auch dieser Deal sorgt für Unruhe. Aus Protest gegen die Zusammenarbeit trat am Wochenende die Robotik-Chefin von OpenAI, Caitlin Kalinowski, von ihrem Amt zurück, wie swissinfo.ch weiter berichtet.
Anthropic-Chef Dario Amodei verteidigt derweil die Position seines Unternehmens. Er warnt, künstliche Intelligenz ermögliche es, über das Netz verstreute Daten einzelner Menschen automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen. Zugleich sei die Technologie noch nicht verlässlich genug für den Einsatz in autonomen Waffen.
Originalmeldung vom 02.03.2026:
Pentagon bricht mit Anthropic - und setzt auf OpenAI
Anthropic ist nicht mehr im Geschäft mit dem US‑Verteidigungsministerium: Das Pentagon hat die Kooperation offiziell beendet und das Unternehmen als "Lieferkettenrisiko für die nationale Sicherheit" eingestuft, wie "SRF" berichtet. Hintergrund ist laut "Reuters" ein Konflikt zwischen den beiden Parteien: Anthropic wollte der Forderung des Pentagons nicht nachkommen, die Sicherheitsprotokolle in seinen KI-Systemen aufzuheben, die den Einsatz der Technologie für autonome Waffen und inländische Überwachung verhindern.
Die heutigen KI-Systeme seien für autonome Waffensysteme oder Massenüberwachung "einfach nicht zuverlässig genug". Pentagon-Sprecher Sean Parnell betonte, dass die Modelle nur "für alle rechtmässigen Zwecke" genutzt würden und nicht für inländische Überwachung oder autonome Waffen ohne menschliches Eingreifen. Dennoch könnten sich die Systeme in neuen Szenarien unvorhersehbar verhalten, was bei Waffeneinsätzen zu "Missionsversagen oder unbeabsichtigter Eskalation" führen könne.
Laut "Reuters" drohte das Pentagon dem KI-Unternehmen, bei Nichtbefolgung der Forderungen die Partnerschaft zu beenden. Mit Ablauf des Ultimatums wurde die Drohung Wirklichkeit: Das Pentagon stellte die Zusammenarbeit mit Anthropic ein.
Aus einer Mitteilung von Verteidigungsminister Pete Hegseth auf der Plattform X geht hervor, dass Anthropic seine Dienste dem Pentagon nur noch für maximal sechs weitere Monate anbietet, um einen Übergang zu einem, laut Hegseth, "besseren und patriotischeren Service" zu gewährleisten.
OpenAI setzt klare Bedingungen für KI‑Nutzung
Nun hat dafür ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem US-Verteidigungsministerium getroffen, wie "Die Zeit" berichtet. Das Unternehmen habe dazu klare Bedingungen aufgestellt: Verboten seien unter anderem inländische Massenüberwachung, die Steuerung autonomer Waffen und automatisierte Entscheidungen mit weitreichenden Folgen. OpenAI behält die Kontrolle über seine Systeme und kann den Vertrag bei Verstössen kündigen, wie es weiter heisst.
Die Vereinbarung erlaube die Nutzung "für alle legalen Zwecke", solange geltendes Recht eingehalten werde. Anders als Anthropic soll OpenAI diese Bedingungen akzeptiert haben - weshalb das Pentagon dem Unternehmen den Zuschlag erteilte. Gleichzeitig äusserte OpenAI laut Bericht Solidarität mit Anthropic und forderte, das Unternehmen nicht als "Lieferkettenrisiko" einzustufen.
Übrigens: Eine Ankündigung von Anthropic sorgte Ende Februar für einen Kurssturz bei IBM: Das KI-Unternehmen will mit seinem Werkzeug Claude Code die Modernisierung der Programmiersprache Cobol automatisieren - mehr dazu lesen Sie hier.
Protonmail-Daten überführen US-Demonstranten
Ihr Schweizer Microsoft Partner für digitale Verwaltung & Souveränität
Update: Anthropic zieht gegen US-Regierung vor Gericht
Probelauf für die E-ID
Angriffe mit Banking-Trojanern nehmen stark zu
So verschärft KI das Problem von Kinderfotos im Netz
Abraxas baut neue Steuerlösung für Graubünden
Ein Tag im Leben eines Enshittificators
Sharenting im Zeitalter der KI