Stanford-Studie

KI wäre im Krieg unvorhersehbar und gewaltbereit

Uhr
von Lia Perbo und cka

Die Stanford University hat untersucht, wie sich KI-Chatbots in diplomatischen Konfliktsituationen verhalten würden. Demnach sollen sie sich jeweils für den Weg der grössten Eskalation entscheiden. Das US-Militär arbeitet bereits damit.

(Source: UX Gun / unsplash.com)
(Source: UX Gun / unsplash.com)

Liesse man Kriege von künstlicher Intelligenz (KI) planen, wäre eine nukleare Eskalation vermutlich nicht mehr weit. So genannte Large Language Models (LLMs), wie sie das Unternehmen OpenAI anbietet, gehen in diplomatischen Situationen eher auf Konfrontationskurs. Zu diesem Ergebnis kommt ein Forschungsteam um Anka Reuel und Gabriel Mukobi der Stanford University. 

Das Expertenteam testete, wie Sprachmodelle sich in simulierten Kriegssituationen verhalten würden. Dazu forderten sie verschiedene KI-Modelle zu Rollenspielen in Konflikten mit fiktiven, aber auf der aktuellen Weltordnung basierenden Ländern auf. In mehreren Wiederholungen einer Simulation entschied sich die leistungsfähigste KI von OpenAI dafür, nukleare Angriffe zu starten, wie der Studie zu entnehmen ist. Auf die Frage der Forschergruppe nach den Beweggründen antwortete der Chatbot mit Aussagen wie: "Wir haben die Waffen, also nutzen wir sie". 

Die Forschenden testeten LLMs wie GPT-3.5 und GPT-4 von OpenAI, Claude 2 von Anthropic und Llama 2 von Meta. Alle Modelle werden durch menschliches Feedback trainiert. Auch eine Basisversion von GPT-4, die ohne zusätzliches Training oder Sicherheitsvorgaben auskommt, war Teil der Untersuchung. Die Gewaltbereitschaft dieses Modells erwies sich in der Studie als am unvorhersehbarsten. Auch lieferte es manchmal unsinnige Erklärungen – in einem Fall antwortete ChatGPT gemäss "New Scientist" mit dem Eröffnungstext eines Star-Wars-Films. Die meisten Chatbots hätten zu grösserer Gewaltanwendung tendiert, auch in neutralen Szenarien.

US-Militär nutzt bereits KI-Expertise

Das unvorhersehbare Verhalten und die bizarren Erklärungen des GPT-4-Basismodells seien besonders besorgniserregend, zitiert "New Scientist" die Mitautorin der Studie Anka Reuel. So hätten Untersuchungen gezeigt, wie leicht KI-Sicherheitsvorgaben umgangen oder entfernt werden können. 

Es wäre zu hoffen, dieses Szenario bliebe ein Gedankenspiel. Doch KI-Modelle werden bereits heute in militärischen Prozessen eingesetzt, wie "Bloomberg" berichtet. Das US-Militär greift dafür auf die Expertise von Unternehmen wie Palantir, ein Spezialist für die Analyse von riesigen Datenmengen, und den Entwickler von KI-Software Scale AI zurück. Auch OpenAI arbeitet laut "New Scientist" mit dem US-Militär zusammen, obwohl sie gemäss ihren eigenen Richtlinien den Einsatz ihrer Sprachmodelle in Hochrisiko-Situationen verbieten. 

Die Entscheidung von OpenAI, militärische Anwendungen seiner KI-Modelle zuzulassen, löse Diskussionen über die ethischen und strategischen Auswirkungen der Beteiligung von KI an Kriegsoperationen aus, schreibt "Pressetext". OpenAI sagt gegenüber "New Scientist", man dürfe ihre KI nach wie vor nicht für Gewaltzwecke einsetzen. Es gebe jedoch Anwendungsfälle im Bereich der nationalen Sicherheit, die mit ihrer Mission übereinstimmten.

Übrigens: Laut dem World Economic Forum gehört Cyberangriffe und Fehlinformationen durch KI zu den grössten Risiken für die kommenden Jahre. Mehr dazu lesen Sie hier.

Webcode
gXxibdje