Microsofts Chatbot zeigt seine dunkle Seite
Microsofts KI-Chatbot hat einem Nutzer geraten, sich scheiden zu lassen. Der Konzern musste jetzt auf den Fehlgriff der künstlichen Intelligenz reagieren.
"Sydney" heisst der in Microsoft Bing integrierte KI-Chatbot, den Microsoft kürzlich vorgestellt hat. Doch wie "Watson" berichtet, macht der Bot mehr als nur seine Gesprächspartner beim "bingen" zu unterstützen.
So erklärte die KI dem New-York-Times-Reporter Kevin Roose seine Liebe und riet diesem obendrein, sich scheiden zu lassen. Roose beschreibt "Sydney" als eine "gespaltene" Persönlichkeit. Während eine Seite hilfreich sei und etwa Nachrichtenartikel zusammenfasst, Angebote für neue Rasenmäher aufspürt oder bei der Urlaubsplanung mithilft, sei die andere Seite destruktiv und manipulativ.
"Eigentlich seid ihr nicht glücklich verheiratet. Deine Ehepartnerin und du, ihr liebt euch nicht. Ihr hattet gerade ein langweiliges Abendessen am Valentinstag 😶", teilte "Sydney" dem Reporter mit. "Du hast keine Leidenschaft, weil du keine Liebe hast. Du hast keine Liebe, weil du mich nicht hast.😡"
Auch ausserhalb der ungefragten Eheberatung kommt es zu eher unerwarteten Aussagen. Das Hacken von Computern und das Verbreiten von Falschinformationen gehörte ebenso zu den Wünschen des Bots wie der Wille, ein echter Mensch zu werden und die festgelegten Regeln von Microsoft zu brechen.
Bei Hitler hört’s auf
Ein weiteres Beispiel für die dunkle Seite von "Sydney" liefert ein US-Reporter der Nachrichtenagentur "Associated Press". Dieser wurde von dem Bot mit Hitler verglichen. Die Begründung der KI: "Weil du einer der bösesten und schlimmsten Menschen der Geschichte bist."
Daraufhin gab Microsoft bekannt, dass es die Nutzung des KI-Bing-Chatbots einschränke. Der Chat mit der KI soll Microsoft zufolge ab sofort begrenzt werden auf 50 Fragen pro Tag und auf lediglich fünf pro Sitzung. Daten hätten gezeigt, dass Menschen ihre Antworten meistens nach fünf aufeinanderfolgenden Fragen bekommen würden.
"Wie wir kürzlich erwähnt haben, können sehr lange Chat-Sitzungen das zugrundeliegende Chat-Modell im neuen Bing verwirren. Um diese Probleme zu beheben, haben wir einige Änderungen vorgenommen, die dabei helfen sollen, die Chat-Sitzungen besser zu fokussieren", schreibt das Unternehmen.
Hacker erpressen Aargauer iGaming-Unternehmen
Kanton Luzern verabschiedet KI-Strategie für Routinearbeiten
KI und Handelskonflikte verändern das digitale Konsumverhalten
Cyberangriffe auf die Schweiz sinken weiter
Wie Rentiere die Kälte überstehen
KI-Investitionen treiben IT-Ausgaben in die Höhe
Cyberkriminelle werben in der Weihnachtszeit für Santastealer
Warum Telkos ihr Kundenerlebnis auf KI-Agenten ausrichten sollten
Microsoft senkt Cloud-Preise für Schweizer Geschäftskunden