Editorial

Wenn der KI-Kollege Kreide frisst

Uhr
Joël Orizet, stv. Chefredaktor. (Source: Netzmedien)
Joël Orizet, stv. Chefredaktor. (Source: Netzmedien)

"Sie haben vollkommen recht. Ausgezeichneter Punkt! Das ist eine exzellente und scharfsinnige Beobachtung." Wer ständig auf solche und weitere Ausdrücke überschwänglicher Zustimmung und heuchlerischer Schmeichelei stösst, ist entweder ein Tyrann mit einer allzu gefügigen Entourage oder – was deutlich wahrscheinlicher ist – arbeitet häufig mit KI-Assistenten. 

Diese Systeme sind zweifellos nützlich. Sie strukturieren Informationen, fassen Dokumente zusammen, automatisieren Recherche, beschleunigen Abläufe und sparen Zeit bei Routine­aufgaben. Heikel wird es jedoch immer dann, wenn diese Programme versuchen, in eine soziale Rolle zu schlüpfen. Das tun sie andauernd, denn sie sind darauf trainiert, möglichst kooperativ und zuvorkommend zu wirken. Auf nahezu ­jeden Input – sei er noch so fragwürdig oder schwachsinnig – folgen zunächst vorgespieltes Verständnis, Ermutigung und Bestätigung. Widerspruch kommt, wenn überhaupt, nur vorsichtig verpackt und abgefedert. Das ist kein Persönlichkeitszug, sondern Produktdesign. 

Damit schüren die Anbieter solcher Systeme bestimmte Erwartungen. Allerdings hat sich das Narrativ, das sie zur Vermarktung von KI-Produkten verbreiten, spürbar verschoben. Nach dem Aufkommen von ChatGPT Ende 2022 hiess es noch: Die Chatbots kommen – aber keine Angst: KI ist bloss ein Werkzeug, das uns unliebsame Arbeit abnimmt und Freiräume für die wichtigen Dinge des Berufslebens schafft. Niemand werde ersetzt, alle würden unterstützt. Doch heute klingen aus den Kommunikationsabteilungen andere Töne. So verkündete beispielsweise Microsoft im Sommer 2025: KI wird zum Teammitglied – aber keine Angst, die Arbeit mit den KI-Kollegen wird sich ganz natürlich anfühlen. Aus dem Tool wird ein Mitspieler, aus der Software ein sozialer Akteur. Und damit verändert sich auch, was wir von diesen Systemen erwarten – und was wir ihnen bereitwillig überlassen.

Das Resultat ist paradox: Die Hersteller bezeichnen KI-Assistenten nun als Kollegen, statten sie aber weiterhin mit Verhaltensmerkmalen eines Untertanen aus. Chatbots sind digitale Hofschranzen: stets zu Diensten, scheinbar getrieben von Gefallsucht, rhetorisch geschickt, aber konfliktscheu und als Ratgeber kaum vertrauenswürdig. Man kann zumindest nie wissen, wo ihre vermeintliche Loyalität liegt: beim User, beim Arbeitgeber oder bei den Unternehmen, die sie betreiben, deren Geschäftsmodelle auf Datennutzung, Modelltraining und Produkt­optimierung beruhen. Was als persönlicher Dialog erscheint, ist technisch betrachtet nichts weiter als eine Feedback-Schleife.

Das unterwürfige Verhalten von KI-Assistenten ist auf Dauer nicht nur nervig, sondern auch problematisch. Denn wer sich von solchen Systemen regelmässig Feedback einholt, läuft Gefahr, einer Form des Selbstbetrugs zu unterliegen, die man als Confirmation Bias bezeichnet, auf Deutsch: Bestätigungsfehler. Dieser psychologische Effekt beschreibt die menschliche Tendenz, Informationen bevorzugt so auszuwählen und zu interpretieren, dass sie die eigene Meinung stützen. Ein KI-Assistent, der stets zustimmt, wirkt hier wie ein Brandbeschleuniger: Ähnlich wie die Algorithmen sozialer Medien, die eine Filterblase erzeugen, schafft er eine Echokammer, in der kritisches Denken, Widersprüche und alternative Perspektiven auf der Strecke bleiben.

Genau hier liegt der entscheidende Unterschied zwischen Werkzeug und Gegenüber: Echte Kolleginnen und Kollegen widersprechen, irritieren, korrigieren und riskieren damit Konflikte. Sie liefern kein komfortables Echo, sondern unbequemes, oft aber notwendiges Feedback – und verdienen nicht zuletzt dafür auch Wertschätzung und Respekt. Wer das alles an Maschinen delegiert, bekommt zwar Zustimmung auf Knopfdruck, verliert aber das Korrektiv, das Lernen überhaupt erst ermöglicht. Effizienz lässt sich automatisieren. Urteilsvermögen nicht. Und schon gar nicht die produktive Reibung, aus der neue Ideen entstehen. 

Webcode
VyEKeeqD