Liebeserklärung, Scheidungsvorschlag, Hitlergleichnis

Microsofts Chatbot zeigt seine dunkle Seite

Uhr
von Yannick Züllig und jor

Microsofts KI-Chatbot hat einem Nutzer geraten, sich scheiden zu lassen. Der Konzern musste jetzt auf den Fehlgriff der künstlichen Intelligenz reagieren.

(Source: Xu Haiwei / Unsplash)
(Source: Xu Haiwei / Unsplash)

"Sydney" heisst der in Microsoft Bing integrierte KI-Chatbot, den Microsoft kürzlich vorgestellt hat. Doch wie "Watson" berichtet, macht der Bot mehr als nur seine Gesprächspartner beim "bingen" zu unterstützen.

So erklärte die KI dem New-York-Times-Reporter Kevin Roose seine Liebe und riet diesem obendrein, sich scheiden zu lassen. Roose beschreibt  "Sydney" als eine "gespaltene" Persönlichkeit. Während eine Seite hilfreich sei und etwa Nachrichtenartikel zusammenfasst, Angebote für neue Rasenmäher aufspürt oder bei der Urlaubsplanung mithilft, sei die andere Seite destruktiv und manipulativ.

"Eigentlich seid ihr nicht glücklich verheiratet. Deine Ehepartnerin und du, ihr liebt euch nicht. Ihr hattet gerade ein langweiliges Abendessen am Valentinstag 😶", teilte "Sydney" dem Reporter mit. "Du hast keine Leidenschaft, weil du keine Liebe hast. Du hast keine Liebe, weil du mich nicht hast.😡"

Auch ausserhalb der ungefragten Eheberatung kommt es zu eher unerwarteten Aussagen. Das Hacken von Computern und das Verbreiten von Falschinformationen gehörte ebenso zu den Wünschen des Bots wie der Wille, ein echter Mensch zu werden und die festgelegten Regeln von Microsoft zu brechen.

Bei Hitler hört’s auf

Ein weiteres Beispiel für die dunkle Seite von "Sydney" liefert ein US-Reporter der Nachrichtenagentur "Associated Press". Dieser wurde von dem Bot mit Hitler verglichen. Die Begründung der KI: "Weil du einer der bösesten und schlimmsten Menschen der Geschichte bist."

Daraufhin gab Microsoft bekannt, dass es die Nutzung des KI-Bing-Chatbots einschränke. Der Chat mit der KI soll Microsoft zufolge ab sofort begrenzt werden auf 50 Fragen pro Tag und auf lediglich fünf pro Sitzung. Daten hätten gezeigt, dass Menschen ihre Antworten meistens nach fünf aufeinanderfolgenden Fragen bekommen würden. 

"Wie wir kürzlich erwähnt haben, können sehr lange Chat-Sitzungen das zugrundeliegende Chat-Modell im neuen Bing verwirren. Um diese Probleme zu beheben, haben wir einige Änderungen vorgenommen, die dabei helfen sollen, die Chat-Sitzungen besser zu fokussieren", schreibt das Unternehmen.

Übrigens: Wie ChatGPT die Bildungs- und Berufswelt verändert, erklärt Martin Volk, Leiter des Instituts für Computerlinguistik an der Universität Zürich, im Interview. Der Forscher spricht auch darüber, wie der Chatbot von OpenAI die Berufsprofile verändert - nicht nur in der Informatik

Webcode
cFLNXJnK