SPONSORED-POST ChatGPT

Die Bedeutung des kritischen Denkens oder was Immanuel Kant schon wusste

Uhr

ChatGPT und andere allgemeine KI werden die Interaktion zwischen Organisationen und ihren Kunden verändern. Ob zum Guten oder nicht, steht und fällt mit der menschlichen Fähigkeit, Informationen kritisch zu bewerten. Egal, ob sie vom Chatbot oder von Menschen stammen.

(Source: Macrovector/Freepik.com)
(Source: Macrovector/Freepik.com)

Eine schweizerische Versicherungsgesellschaft kombiniert ihren eigenen Chatbot via API mit ChatGPT und experimentiert mit den Möglichkeiten, die sich daraus ergeben. Im Gegensatz dazu verbietet etwa die italienische Datenschutzbehörde die Verwendung von ChatGPT aufgrund möglicher Datenschutzverletzungen gleich komplett.
Seit der Lancierung des Sprachmodells GPT 3.5 am 20. November 2022, auf dem der Chatbot ChatGPT basiert, und der Version 4 am 14. März 2023 überschlagen sich die Ereignisse: Künstliche Intelligenz ist plötzlich überall. Und man kann zweifelsohne davon ausgehen, dass Chat­GPT jegliche textbasierte Interaktion zwischen Menschen und Organisationen beeinflussen wird. Besonders den Kundensupport dürfte KI revolutionieren. Mit vermeintlich geringem Aufwand wird es nun möglich, etwa teuren First Level Support in einem Umfang zu automatisieren, wie es vor ChatGPT undenkbar gewesen wäre. Mit dem durchschlagenden Erfolg allgemeiner KI und ihrer freien Verfügbarkeit ergeben sich naturgemäss wieder neue, noch zu lösende Probleme. Einmal abgesehen von den aktuell unbeantworteten Fragen rund um den Datenschutz und die maschinelle Verarbeitung personenbezogener, auch sensibler, Daten etwa im Versicherungsumfeld, stellt sich eine viel wichtigere: Wie kommt ein Chatbot wie ChatGPT überhaupt auf seine Antworten? Und sind diese fair, transparent und ethisch ver­tretbar?

Explainable AI

Das Konzept der Explainable AI (XAI) zielt darauf ab, die Entscheidungen von KI-Modellen zu verstehen und zu erklären. Die Nachvollziehbarkeit und Transparenz ist für Unternehmen, die ihren Kundendienst durch allgemeine KI produktiv automatisieren wollen, gleichermassen wichtig wie für die User, die sich sicher sein möchten, dass sie eine adäquate Antwort auf ihr Problem erhalten. 
Entwickler können diese Transparenz und Nachvollziehbarkeit durch den Einsatz von XAI-Technologien wie Entscheidungsbäumen oder anderen Visualisierungen sicherstellen. Aber auch wenn die Nachvollziehbarkeit gegeben ist, kann die allgemeine KI nur so gut sein wie die Daten, mit denen sie gefüttert wurde, und so ethisch wie die Menschen, die sie programmiert haben. «Garbage in, Garbage out» gilt in diesem Zusammenhang halt eben auch. Hieraus ergeben sich weitere Fragestellungen: Ist der User von seinem Wissen und seinen kognitiven Fähigkeiten her in der Lage, ein durch den «KI-Kundendienst» zu lösendes Problem korrekt zu formulieren? Anders gefragt: Versteht der User sein Problem überhaupt selbst? Und falls nicht, wie können Chatbots «erkennen», dass der User das Problem nicht korrekt beschrieben hat und ihn auf alternative Lösungen hinweisen?
Es ist ausserdem wichtig, zu erkennen, dass Kommunikation grundsätzlich missverständlich sein kann. Das gilt sowohl für die Kommunikation zwischen Menschen als auch für die Kommunikation zwischen einem Menschen und einem Chatbot wie ChatGPT.
Es wird also aktuell bei der Nutzung von KI kein Weg daran vorbeiführen, sich weiterhin «seines Verstandes ohne Leitung eines anderen zu bedienen», wie der Philosoph Immanuel Kant schon im Zeitalter der Aufklärung im Jahr 1784 schrieb (Kasten). Denn wenn wir aufhören, selbst zu denken und nicht mehr hinterfragen, was uns der Chatbot eloquent entgegenschmettert, könnte der Weg der Menschen gar in die voraufgeklärte Zeitrechnung zurückführen, in welcher der Glaube wichtiger als das Wissen war.
Und im Fall unserer Schweizer Versicherung könnten sich aus einem gutgemeinten Chatbot-Experiment Beratungsfehler mit rechtlichen Konsequenzen ergeben.


Was Kant schon wusste

Das Zeitalter der Aufklärung definiert Immanuel Kant als «Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit». Diese Unmündigkeit sei selbstverschuldet, wenn die Ursache derselben «nicht am Mangel des Verstandes, sondern der Entschliessung und des Mutes liegt, sich seiner ohne Leitung eines andern zu bedienen». Also auf Faulheit und Feigheit fusst.
Kant lässt sich insofern ohne Weiteres auf unseren Umgang mit allgemeiner KI im Jahr 2023 anwenden: Es ist bequem und einfach, mit einem kurzen Prompt aus ChatGPT einen plausibel klingenden, praktisch fehlerfreien Text herauszukitzeln. Die Versuchung, zu glauben, was dort steht, ist es ebenso. Aber die wahre Herausforderung ist es, herauszufinden, was wirklich wahr ist. Wer dies unterlässt, handelt fahrlässig. 

Webcode
4kDfWfoe