Allzu menschliche KI
 
  Die Kombination aus künstlicher Intelligenz und Robotik verspricht mehr als nur den nächsten grossen Hype. KI bekommt einen Körper und das bedeutet, dass sie mithilfe von Sensoren und Aktoren, also antriebstechnischen Baueinheiten, mehr und mehr in der Lage sein wird, selbstständig Informationen aus ihrer Umwelt aufzunehmen, zu verarbeiten und darauf zu reagieren. Das weckt grosse Hoffnungen, die durchaus berechtigt sind. Denn eine verkörperte KI, die aus eigenen Erfahrungen lernt, könnte echte, dringende Probleme lösen. Zum Beispiel: den Mangel an Fachkräften in der Pflege, in der Produktion und in handwerklichen Berufen. Ausserdem könnten KI-getriebene Roboter dereinst einen lang gehegten Traum wahr werden lassen – den vom humanoiden Heinzelmännchen, das nicht nur stumpfsinnig vor sich hin werkelt und Staub saugt, sondern auch die Wäsche wäscht, das Bad putzt und bei Bedarf auch soziale Funktionen ausübt, etwa Witze reisst, nach dem Befinden seiner Besitzer fragt, sich deren Gejammer geduldig anhört und vielleicht sogar Verständnis simuliert.
Sollte es dereinst so weit kommen, dürfte das Verhältnis zwischen Mensch und Maschine allerdings noch weitaus komplizierter werden, als es heute schon ist. Kompliziert ist diese Beziehungskiste deswegen, weil wir Menschen kaum anders können, als Dinge – ebenso wie Tiere, Naturgewalten oder auch Götter – zu vermenschlichen. Das kann zwar harmlos sein, wenn wir uns zum Beispiel bei ChatGPT für eine hilfreiche Antwort bedanken oder einen fehleranfälligen Sprachassistenten beschimpfen. Die Anthropomorphisierung von KI und Robotern kann aber auch problematische Züge annehmen.
Die Hersteller von grossen Sprachmodellen nutzen unseren Drang, Objekten menschliche Eigenschaften zuzuschreiben, gezielt aus. Sie entwickeln ihre Systeme so, dass sie sich möglichst menschenähnlich verhalten. Neuerdings spuckt ChatGPT in seinen Antworten zum Beispiel jede Menge Emojis aus. Die Absicht dahinter liegt auf der Hand: Je humanoider ein Bot wirkt, desto eher weckt er Vertrauen und desto eher sind die User bereit, ihre Interaktion mit dem System fortzusetzen und eine Bindung damit einzugehen.
Das kann in vielerlei Hinsicht gefährlich werden. Auf Vertrauen beruhende Beziehungen leben mitunter von geteilten Geheimnissen – und wer einer KI sensible Informationen anvertraut, setzt seine Privatsphäre aufs Spiel. Zudem besteht die Gefahr, dass das Prinzip der Verantwortung verschwimmt: Wer muss Rechenschaft ablegen, wenn ein KI-Roboter Schaden anrichtet und die Hersteller, Betreiber und Entwickler die Schuld mit dem Argument von sich weisen, die KI habe auf nicht beabsichtigte Weise und vor allem eigenständig entschieden?
Solche Gefahren lassen sich immerhin minimieren, etwa durch kluge Regulierungen und Standards. Und bis es so weit kommt, dass eine allzu menschenähnliche KI den Alltag prägt und für zwischenmenschliche Verwirrung sorgt, dürfte es noch dauern. Es bleibt also noch etwas Zeit, um sich zu überlegen, was wir von verkörperter KI erwarten, was wir von dem, was uns als Menschen ausmacht, mit den Maschinen teilen wollen und welche menschlichen Qualitäten sowie Abgründe wir wohl besser für uns behalten sollten.
 
 
Schweizer Bevölkerung vertraut KI etwas mehr und dem Datenschutz etwas weniger
 
Meerschweinchen frisst verschiedene Snacks
 
Update: Bundesrat will Social-Media-Plattformen regulieren
 
Sens eRecycling führt 70'000 Tonnen Wertstoffe zurück in Rohstoffkreislauf
 
Schweizer KMUs verlieren Vertrauen in ihre Cybersicherheit
 
Delta Logic zeigt, wie KI die Rechtspflege verändert
 
Einladung zum Webinar: Wie KI, Robotik und Drohnen unser Vertrauen herausfordern
 
Schweizer ICT-Industrie setzt an der Gitex in Dubai Akzente
 
HSG, ETH und Zurich tüfteln an KI-Lösungen für die Versicherungsbranche
 
 
 
 
 
 
 
 
 
 
 
 
