Weshalb man das Denken nicht Maschinen überlassen sollte

Wer künstliche Intelligenz (KI) nutzt, kennt das Problem: Manchmal erzählt die Maschine den grössten Blödsinn und ist von der eigenen Antwort auch noch absolut überzeugt. Was bei Menschen oft als positiv wahrgenommen wird (Stichwort SABTA: Sicheres Auftreten bei totaler Ahnungslosigkeit), ist bei einer KI inakzeptabel. Insbesondere wer KI-Systeme in Unternehmen einsetzt, muss sich auf deren Antworten verlassen können.
Solche Fantastereien von Large Language Models (LLM) wie ChatGPT & Co. werden als "Halluzinationen" bezeichnet. Die Ursache dafür liegt in der Art, wie diese Systeme ihre Antworten generieren: Anders als etwa ein deterministischer Taschenrechner sind die Antworten der KI das Resultat von Zufallsprozessen. Dies führt ganz natürlicherweise zu falschen oder inkonsistenten Antworten, wie Tobias Häberlein, Departementsleiter Informatik an der Fernfachhochschule Schweiz, erklärt. Im Interview geht er darauf ein, warum sich das Problem der KI-Halluzinationen zwar nicht vermeiden, aber immerhin minimieren lässt.
KI-Halluzinationen werfen auch haftungsrechtliche, datenschutzrechtliche und reputationsbezogene Fragen auf. Wer trägt bei Halluzinationen die rechtliche Verantwortung – der Entwickler des Systems oder die Personen, die es nutzen? David Schneeberger, Anwalt für KI, Datenschutz und digitale Geschäftsmodelle, liefert in seinem Beitrag Antworten.
Was aber ist zu tun, wenn man nicht weiss, wann man den Antworten der Maschine vertrauen kann und wann nicht? Das wichtigste Gegenmittel, um sich gegen die Tücken der KI zu wappnen, ist kritisches Denken, wie Kalaidos-Dozent Yoshija Walter schreibt. In seinem Beitrag erklärt er, wie man das Denken nicht komplett der Maschine überlässt.
Eines sollte man dabei nie vergessen: Es ist einfach, einen KI-Output zu hinterfragen, dem man nicht zustimmt. Viel schwieriger ist es, kritisch zu sein, wenn die Maschine die eigene Meinung bestätigt – obwohl sie in solchen Fällen genauso falsch liegen könnte. Kritisches Denken sollte keinen An-Aus-Schalter haben und muss stattdessen zur Grundhaltung werden – jetzt mehr denn je.

Autoknacker benutzen neuerdings Software

Zu viele Provider? Zeit für Konsolidierung.

Edgewind – Innovative KI- und Blockchain-Transformation für Unternehmen

Weshalb man das Denken nicht Maschinen überlassen sollte

KI benötigt eine souveräne Infrastruktur

Schlüsselkriterien für die Skalierung von KI

Warum sich Misstrauen lohnt

Zwischen digitalem Fortschritt und menschlichem Verhalten

Umfrage unter 3.400 IT-lern beleuchtet Cybercrime-Lage
