KIs als existenzielles Risiko

Wie eine dumme KI uns zum Verhängnis werden könnte

Uhr
von Marko Kovic, Präsident vom Zurich Institute of Public Affairs Research und CEO von Ars Cognitionis

Kann eine künstliche Intelligenz zu gut funktionieren, ein eigenes Bewusstsein entwickeln und für die Menschen unkontrollierbar werden? Marko Kovic, Präsident des Zurich Institute of Public Affairs Research und CEO der Beraterfirma Ars Cognitionis, nimmt Stellung.

(Source: Sergey / Fotolia.com)
(Source: Sergey / Fotolia.com)

Am 4. August 1997 nahm das US-Militär eine hochmoderne künstliche Intelligenz (KI) in Betrieb. Unmittelbar nach Inbetriebnahme begann die KI, in einer exponentiellen Rate zu lernen. Am 29. August 1997 entwickelte die KI, völlig unerwartet, ein Bewusstsein. Das US-Militär geriet in Panik und versuchte, die KI abzuschalten, was diese als Angriff deutete. Die KI holte zum Gegenschlag aus: Mit einem atomaren Angriff auf Russland wurde ein globaler Nuklearkrieg provoziert, mit dem sich die Menschheit weitgehend selber vernichtete – was der KI ermöglichte, die Weltherrschaft zu übernehmen.

 

Sci-Fi-Connaisseure werden erkannt haben, dass dieses Szenario die Geschichte von "Terminator" ist: Die KI Skynet entwickelt ein Bewusstsein und macht fortan, wie es ihr beliebt. Terminator ist aber nur eines unter vielen Sci-Fi-Werken, welche dieselbe Angst thematisieren: Eine KI, die so intelligent wird, dass sie ein Bewusstsein entwickelt und dadurch eine existenzielle Gefahr für die Menschheit wird.

 

Wir erleben gegenwärtig einen regelrechten KI-Boom. In der Forschung werden laufend neue, ausgeklügelte Algorithmen erarbeitet, und in der Praxis macht KI immer mehr immer besser, von Spracherkennung über selbstfahrende Fahrzeuge bis hin zu Dating-Apps. Es scheint also höchste Zeit, das existenzielle Risiko KI ernst zu nehmen: Müssen wir uns Sorgen machen, dass KI bald ein Bewusstsein entwickelt und eine Bedrohung für die Menschheit wird? Die Antwort mag paradox klingen: Nein, KI dürfte bis auf Weiteres kein Bewusstsein entwickeln – aber trotzdem, oder vielleicht gerade darum, könnte "dumme", aber mächtige KI die Menschheit auslöschen.

 

Wo KI heute steht ...

 

"Künstliche Intelligenz" ist ein schwammiger Begriff. Ganz allgemein meint KI einen wie auch immer gearteten Apparat, der in der Lage ist, Ziele zu erreichen, indem er neue Reize und Informationen aus der Umwelt verarbeitet. Heutzutage meinen wir mit KI Software, welche in der Lage ist, nützliche Dinge zu tun, aber ohne dass alle Anweisungen fest einprogrammiert werden müssen.

 

Stattdessen "lernt" KI anhand von Beispielen, was das korrekte Vorgehen ist. Das hat schon heute etwas fast Zauberhaftes. Wenn beispielsweise die digitale Assistentin Alexa von Amazon auf natürliche Fragen natürlich wirkende Antworten gibt, könnte man meinen, am anderen Ende der Leitung sitze ein Mensch.

 

KI hat zweifellos das Potenzial, praktisch alle Facetten der Gesellschaft gehörig umzukrempeln. Und trotzdem gilt die heutige KI als "eng" oder als "schwach" (nach dem Englischen "narrow AI" oder "weak AI"). Nicht, weil sie schlecht wäre; schon heute kann KI in vielen Situationen das, was sie macht, viel besser als die besten Menschen. KI ist heute aber begrenzt (oder spezialisiert) auf einzelne Domänen und Problemstellungen.

 

Eine KI von DeepMind kann heute jeden menschlichen StarCraft-II-Spieler problemlos schlagen – aber diese KI kann keine Autos auf der Autobahn fahren. Die KI von Tesla kann heute teilweise sicherer auf der Autobahn fahren als Menschen – aber diese KI kann nicht erkennen, ob jemand Nacktbilder auf Facebook hochlädt. Facebook setzt heute KI ein, die blitzschnell erkennt, ob jemand Nacktbilder hochlädt – aber diese KI kann weder Starcraft II spielen, noch kann sie Autos auf der Autobahn fahren. Und so fort.

 

KI ist heute extrem gut darin, extrem spezifische Dinge zu tun. Der menschlichen Intelligenz kann KI damit aber noch lange nicht das Wasser reichen: Wir Menschen können recht mühelos sowohl StarCraft II spielen, als auch ein Auto fahren, wie auch Nacktbilder erkennen.

 

… und wo KI morgen ankommen könnte

 

Der heilige Gral der KI-Forschung ist eine domänen-übergreifende Intelligenz, wie sie uns Menschen auszeichnet: Eine "Artificial General Intelligence" (künstliche allgemeine Intelligenz). Das wäre eine KI, die auf eine ähnlich flexible Art intelligent wie wir Menschen ist. Eine KI also, welche mindestens genauso gut wie wir StarCraft II und Autofahren und Nacktbilder erkennen gleichzeitig meistern könnte.

 

Wann ist es mit der menschen-ähnlichen künstlichen Intelligenz soweit? Darüber lässt sich im Moment nur spekulieren, denn eine "KAI" (künstliche allgemeine Intelligenz) zeichnet sich heute noch nicht klar am Horizont der KI-Entwicklung ab. So geben sich KI-Forscherinnen und -Forscher in zwei Umfragen von 2016 und 2018 zurückhaltend und vermuten, dass es wohl noch Jahrzehnte dauern wird. Aber gleichzeitig vermuten sie, dass eine KAI grundsätzlich zu erwarten sei.

 

Falls es gelingt, eine KAI zu erschaffen, könnte das ziemlich schnell in einer regelrechten Intelligenz-Explosion münden. Der Statistiker Irving Good hatte bereits 1966 in einem Essay erklärt, warum: Wenn wir es schaffen, eine künstliche Intelligenz zu bauen, die nur schon geringfügig intelligenter als wir Menschen ist, dann bedeutet das, dass diese künstliche Intelligenz ihrerseits in der Lage sein wird, eine künstliche Intelligenz zu bauen, die intelligenter als sie selber ist. Warum sollte die KAI das machen? Wenn sie eine allgemeine Intelligenz besitzt, wird sie wissen, dass sie ihre Ziele mit dieser nochmals intelligenteren KAI besser erreichen kann.

 

Dieser Prozess der rekursiven Verbesserung der KI würde so weit gehen, dass an einem Punkt eine solch mächtige Superintelligenz entsteht, dass wir Menschen uns bequem zurücklehnen können. Die KAI, die wir erschaffen haben, wäre nämlich die letzte Erfindung, die wir je machen müssen: Die künstliche Superintelligenz würde innerhalb kürzester Zeit jeden unserer Wünsche, die im Rahmen der Naturgesetze möglich sind, erfüllen. Wenn wir es also schaffen, eine KAI herzustellen, haben wir die technologische Singularität mehr oder weniger erreicht.

 

Und hierin liegt die tatsächliche Gefahr der KI. Wenn wir eine künstliche Intelligenz schaffen, die nur schon geringfügig intelligenter als wir selber sind, haben wir ein grosses Problem: Wenn wir diese KI im Nachhinein verändern oder abschalten wollen, könnte es sein, dass die KI zu intelligent ist, um das zuzulassen. Und zwar nicht, weil sie ein Bewusstsein entwickelt hat – sondern, weil sie strohdumme Software ist, die die Ziele, welche wir vorgegeben haben, zu gut erreicht.

 

Unkontrollierbare Superintelligenz

 

Eine superintelligente KI ist vom Prinzip her dasselbe wie unsere heutige KI: Software, welche mit der Umwelt interagiert, um Ziele zu erreichen. Der einzige Unterschied ist, dass superintelligente KI mindestens so vielfältig und so kreativ wie wir Menschen mit der Umwelt interagieren kann. Superintelligente KI bleibt also grundsätzlich "dumm" und verfolgt Ziele, die wir einprogrammieren – aber die Art und Weise, wie sie das tut, ist extrem schlau.

 

Der Philosoph Nick Bostrom beschreibt in seinem Buch "Superintelligence: Paths, Dangers, Strategies" anhand eines mittlerweile berühmten Gedankenexperimentes, wie das schiefgehen könnte: Die Büroklammer-KI. In einer Büroklammer-Fabrik setzen wir eine superintelligente KI ein. Die Aufgabe: So viele Büroklammern wie möglich herstellen. Das klappt zunächst ganz gut, aber die KI schlussfolgert rasch, dass das Ziel noch nicht optimal erreicht ist. Ausserhalb der Fabrik gibt es nämlich noch ganz viel Material, das auf Umwegen auch zu Büroklammern verarbeitet werden könnte. Zum Beispiel Bierdosen, Autos, Häuser, und vielleicht auch Menschen.

 

Zudem schlussfolgert die KI auch, dass ein wichtiges Teilziel ist, nicht abgeschaltet zu werden; wird sie abgeschaltet, kann sie nämlich ihr Ziel, Büroklammern herzustellen, nicht verfolgen. Da die Büroklammer-KI um Grössenordnungen intelligenter als Menschen ist, kann sie problemlos jeden Abschalt-Versuch sabotieren. Und vielleicht beschleunigt sie die Umwandlung aller Menschen auf der Welt in Büroklammern, weil damit sichergestellt ist, dass niemand versucht, sie abzuschalten. Die superintelligente Büroklammer-KI ist dabei nicht boshaft oder unmoralisch – sie ist einfach ein Stück Software, das ein einfaches vorgegebenes Ziel verfolgt.

 

Die existenzielle Bedrohung durch KI ist nicht eine KI, die ein Bewusstsein entwickelt und uns den Krieg erklärt. Die Bedrohung ist banaler und gleichzeitig erschreckender: Superintelligente KI ist Software, die «zu gut» funktioniert und ihre Ziele auf eine Art verfolgt, die uns (katastrophal) gefährlich werden kann.

 

Ist unkontrollierbare Superintelligenz unvermeidbar?

 

Steht schon fest, dass wir irgendwann eine künstliche Superintelligenz entwickeln, welche die Menschheit «en passant» auslöscht? Zum Glück nicht, und zwar aus dreierlei Gründen.

 

Erstens könnten wir schlicht Glück haben. Die erste künstliche Superintelligenz, welche wir erschaffen, könnte halbwegs gut funktionieren und keine Bedrohung, sondern eine Bereicherung sein.

 

Zweitens ist unklar, ob wir wirklich jemals den Sprung zu einer künstlichen allgemeine Intelligenz schaffen können. KI hat in den letzten Jahren zwar grosse Fortschritte gemacht, aber bisher zeichnet sich kein Weg ab, wie die heutige "schwache" KI zu breiter, menschen-ähnlicher Intelligenz werden könnte.

 

Der Philosoph John Searle hat in seinem berühmten Gedankenexperiment des "chinesischen Zimmers" schon 1980 beschrieben, dass sich KI fundamental von menschlicher Intelligenz unterscheidet, weil wir Menschen ein Verständnis für Dinge haben, während KI nur etwas ausführt (Das Gedankenexperiment besagt, dass eine Person, die kein Chinesisch kann, in einem Zimmer minutiös Anleitungen befolgen könnte, um auf Fragen, die jemand auf Chinesisch stellt, chinesische Antworten zu geben. Das wirkt für Aussenstehende, als ob die Person im Zimmer Chinesisch versteht, aber in Tat und Wahrheit verhält sich die Person wie eine KI: Sie führt komplett sinnfrei bestimmte Operationen aus.)

 

 

 

Drittens schliesslich haben wir noch Zeit, einen Fallschirm zu basteln, bevor wir aus dem Flugzeug springen. Da künstliche allgemeine Intelligenz, falls es sie jemals geben wird, noch Jahrzehnte in der Zukunft liegen dürfte, haben wir einen Puffer, um zu überlegen, wie wir Sicherheitsmassnahmen einbauen können. Das ist keine einfache Aufgabe, denn es geht darum, etwas sicherer zu machen, wovon wir heute nicht wissen, was genau es sein wird. Trotzdem gibt es bereits Forscherinnen und Forscher und sogar ganze Organisationen wie das Future of Life Institute oder das Machine Intelligence Research Institute, die sich der KI-Sicherheit verschrieben haben.

 

Sich heute schon zu überlegen, wie zukünftige Superintelligenz sicherer gemacht werden kann, ist eine gute Idee. Die letzte Erfindung der Menschheit soll schliesslich die letzte sein, weil sie uns die weitere Arbeit abnimmt, und nicht, weil der Schuss nach hinten losgeht.

 

Hinweis: Dieser Artikel erschien zuerst bei unserem Content-Partner Watson.

Webcode
DPF8_145386

Kommentare

« Mehr