Sind Sie schlauer als ein Chatbot?
Das Onlinespiel "Bot or Not" stellt Spieler vor die Frage: Sprechen sie gerade mit einem anderen Menschen oder mit einem Chatbot? Ein Turing-Test im Chatfenster sozusagen. Das dafür verantwortliche New Yorker Studio will damit zum Nachdenken über Fragen rund um Datenschutz anregen.
Können Maschinen denken? Diese Frage stellte bereits der Computerpionier Alan Turing in seiner 1950 erschienenen Arbeit "Computing Machinery and Intelligence". So eine Frage kann sehr schnell in philosophische Debatten abdriften: Wie definiert man überhaupt "Denken"?
Um diesen Fallstrick zu umgehen, schlug Turing einen praktischen, systematischen Test vor. Diesen kennt man heute als Turing-Test. Der Versuch beruft sich auf ein fiktives Spiel, das Turing "The Imitation Game" nannte. Das Spiel funktioniert folgendermassen:
Ein Mann und eine Frau sitzen in unterschiedlichen Räumen. Sie sehen sich nicht; sie hören sich nicht. Kommunizieren können sie nur über Textnachrichten. Eine Person wird mit einem X, die andere mit einem Y bezeichnet.
Eine dritte Person stellt nur Fragen an X oder Y und soll so herausfinden, welche Person wer ist. Aber: Nur eine Person beantwortet die Fragen aufrichtig. Der Mann versucht dem Fragesteller vorzugaukeln, dass er die Frau ist. Natürlich kann man das Spiel auch umdrehen und die Frau soll vorgeben, ein Mann zu sein. Wichtig ist einfach, dass jeweils nur eine Person sich selber ist.
Ein Turing-Test im Chatfenster
Turing schlägt nun vor, eine der Personen durch einen Computer zu ersetzen. Kann der Fragesteller den Menschen dann noch von der Maschine unterscheiden? Falls nicht, so Turing, falls also die Maschine überzeugende menschliche Antworten liefere, dann müsse man anerkennen, dass sie denken kann.
Wer nun denkt, einen Menschen von einem Computer zu unterscheiden sei doch einfach, kann es gleich selbst ausprobieren. Das Online-Game "Bot or Not" ist eine Abwandlung des Turing-Tests. Der Spieler ist zugleich Fragesteller und der, der Fragen beantworten muss.
Das Spielfeld ist ein simples Chatfenster. Der Spieler wird entweder mit einem menschlichen Spieler oder einem Chatbot gepaart. Durch reines Ausfragen muss der Spieler nun herausfinden, ob er mit einer echten Person spricht oder nicht. Falls ja, wird der echte Gegenspieler mit derselben Herausforderung konfrontiert sein.
Das Problem mit täuschend echten Chatbots
Das Spiel wurde von Foreign Objects entwickelt. Ein New Yorker Design- und Entwicklerstudio, das nach eigenen Angaben von vier ausländischen (engl. "foreign") MIT-Studenten gegründet wurde.
Das Spiel, schreiben die Entwickler, soll den Spieler dazu anregen, nicht nur über die Menschlichkeit seines Gegenspielers, sondern auch über die eigene Menschlichkeit nachzudenken.
Täuschend echte Chatbots könnten zwar sehr nützlich sein. Sie könnten auch für boshafte Zwecke genutzt werden. Etwa für Scams, um an persönliche Daten heranzukommen. Das Onlinespiel soll etwas mehr Bewusstsein für dieses Problem generieren.
Wie überlistet man die künstliche Intelligenz – oder eben nur Schein-Intelligenz – hinter dem Chatbot? Lisa Vaas von Sophos beispielsweise schlägt vor, den Gegenspieler nach dem Mädchennamen seiner Mutter zu fragen. Denn wer ausser einem Bot, der nicht darauf programmiert wurde, hat auf diese Frage keine Antwort?
Ein weiterer Tipp, dieser kommt von der Netzmedien-Redaktion, ist: Bezug nehmen auf vorherige Chatnachrichten. Chatbots – zumindest die gängigen Modelle und die in diesem Spiel, scheinen jeweils nur die aktuellste Nachricht zu lesen. Wer etwas schreibt und anschliessend ein "Was denken Sie?" daran hängt, hat damit bereits einen soliden Bot-Fänger.
Wenn Maschinen denken können ...
Noch funktionieren Tricks wie diese. So wie die Technologie sich weiter entwickelt, ist es jedoch nicht auszuschliessen, dass Computer eines Tages tatsächlich eine menschliche Konversation täuschend echt imitieren können.
Wenn dieser Tag kommt, hat der Turing-Test ausgedient. Wie lassen sich Mensch und Maschine dann noch unterscheiden? Vielleicht so:
Die Szene stammt aus dem Film "Blade Runner" von Ridley Scott aus dem Jahr 1982 – basierend auf dem Buch "Do Androids Dream of Electric Sheep?" von Philip K. Dick (1968). In dieser fiktiven Zukunftswelt hilft der sogenannte Voight-Kampff-Test, Androiden, also künstliche Menschen, zu erkennen.
Der ganze Test zielt darauf ab, emotionale Reaktionen zu erzeugen. Wenn man die Maschine nicht mehr durch das Denkvermögen vom Menschen unterscheiden kann, erkennt man sie vielleicht durch die Unfähigkeit, etwas zu empfinden.
Und was ist, wenn auch ein Test à la Voight-Kampff ausgedient hat? Sollte dieser Tag tatsächlich kommen, muss wohl ein Umdenken folgen. Vielleicht wird dann die Frage "Können Maschinen denken oder fühlen?" nicht mehr wichtig sein. Möglicherweise kommt an ihrer Statt eine andere Frage auf: "Spielt diese Unterscheidung überhaupt noch eine Rolle?"
Und warum KI zwar Musik komponieren, aber keine Bücher schreiben kann, erfahren Sie hier.