Editorial

Allzu menschliche KI

Uhr
Joël Orizet, stellvertretender Chefredaktor. (Source: Netzmedien)
Joël Orizet, stellvertretender Chefredaktor. (Source: Netzmedien)

Die Kombination aus künstlicher Intelligenz und Robotik verspricht mehr als nur den nächsten grossen Hype. KI bekommt einen Körper und das bedeutet, dass sie mithilfe von Sensoren und Aktoren, also antriebstechnischen Baueinheiten, mehr und mehr in der Lage sein wird, selbstständig Informationen aus ihrer Umwelt aufzunehmen, zu verarbeiten und darauf zu reagieren. Das weckt grosse Hoffnungen, die durchaus berechtigt sind. Denn eine verkörperte KI, die aus eigenen Erfahrungen lernt, könnte echte, dringende Probleme lösen. Zum Beispiel: den Mangel an Fachkräften in der Pflege, in der Produktion und in handwerklichen Berufen. Ausserdem könnten KI-getriebene Roboter dereinst einen lang gehegten Traum wahr werden lassen – den vom humanoiden Heinzelmännchen, das nicht nur stumpfsinnig vor sich hin werkelt und Staub saugt, sondern auch die Wäsche wäscht, das Bad putzt und bei Bedarf auch soziale Funktionen ausübt, etwa Witze reisst, nach dem Befinden seiner Besitzer fragt, sich deren Gejammer geduldig anhört und vielleicht sogar Verständnis simuliert.

Sollte es dereinst so weit kommen, dürfte das Verhältnis zwischen Mensch und Maschine allerdings noch weitaus komplizierter werden, als es heute schon ist. Kompliziert ist diese Beziehungskiste deswegen, weil wir Menschen kaum anders können, als Dinge – ebenso wie Tiere, Naturgewalten oder auch Götter – zu vermenschlichen. Das kann zwar harmlos sein, wenn wir uns zum Beispiel bei ChatGPT für eine hilfreiche Antwort bedanken oder einen fehleranfälligen Sprachassistenten beschimpfen. Die Anthropomorphisierung von KI und Robotern kann aber auch problematische Züge annehmen.

Die Hersteller von grossen Sprachmodellen nutzen unseren Drang, Objekten menschliche Eigenschaften zuzuschreiben, gezielt aus. Sie entwickeln ihre Systeme so, dass sie sich möglichst menschenähnlich verhalten. Neuerdings spuckt ChatGPT in seinen Antworten zum Beispiel jede Menge Emojis aus. Die Absicht dahinter liegt auf der Hand: Je humanoider ein Bot wirkt, desto eher weckt er Vertrauen und desto eher sind die User bereit, ihre Interaktion mit dem System fortzusetzen und eine Bindung damit einzugehen.

Das kann in vielerlei Hinsicht gefährlich werden. Auf Vertrauen ­beruhende Beziehungen leben mitunter von geteilten Geheimnissen – und wer einer KI sensible Informationen anvertraut, setzt seine Privatsphäre aufs Spiel. Zudem besteht die Gefahr, dass das Prinzip der Verantwortung verschwimmt: Wer muss Rechenschaft ablegen, wenn ein KI-Roboter Schaden anrichtet und die Hersteller, Betreiber und Entwickler die Schuld mit dem Argument von sich weisen, die KI habe auf nicht beabsichtigte Weise und vor allem eigenständig entschieden?

Solche Gefahren lassen sich immerhin minimieren, etwa durch kluge Regulierungen und Standards. Und bis es so weit kommt, dass eine allzu menschenähnliche KI den Alltag prägt und für zwischenmenschliche Verwirrung sorgt, dürfte es noch dauern. Es bleibt also noch etwas Zeit, um sich zu überlegen, was wir von verkörperter KI erwarten, was wir von dem, was uns als Menschen ausmacht, mit den Maschinen teilen wollen und welche menschlichen Qualitäten sowie Abgründe wir wohl besser für uns behalten sollten.
 

Webcode
hJwi9fqG