Pascal Kaufmann im Interview

Warum künstliche Intelligenz noch gar nicht so intelligent ist

Uhr

Big Data findet in unterschiedlichsten Bereichen Anwendung, so etwa auch in der Entwicklung von künstlicher Intelligenz. Gerade für ein kleines Land wie die Schweiz sei dieser Ansatz jedoch nicht besonders Erfolg versprechend. Heutige KI sei auch nicht besonders intelligent, sagt Pascal Kaufmann, CEO von Mindfire und Gründer des KI-Zentrums Lab42.

(Source: © Thomas Egli, all rights reserved)
(Source: © Thomas Egli, all rights reserved)

Am diesjährigen WEF haben Sie . Ziel sei es, eine KI auf menschlichem Niveau zu entwickeln. Was bedeutet das konkret?

Pascal Kaufmann: Dies bedeutet, dass wir auf eine neue Generation von KI-Algorithmen abzielen, die Aufgaben lösen können, die heutige Ansätze aus dem Machine- oder Deep-Learning-Bereich nicht lösen können. Die meisten Aufgaben, die einem Menschen nämlich einfach fallen, erscheinen für Maschinen schier unlösbar und umgekehrt: Das Ergreifen und Erkennen von Objekten meistern Kleinkinder bereits mit ein paar Monaten, für Maschinen ist das heute noch ein ungelöstes Problem. Allerdings sind Maschinen ausgezeichnet im Umgang mit Zahlen, während die Mathematik-Fertigkeiten von Menschen eher beschränkt sind. Man spricht hierbei auch vom Moravec'schen Paradox.

Wozu könnte eine menschenähnliche KI dienen?

Die Art und Weise, wie wir heute Spitzenforschung betreiben oder Wissen weitergeben erachte ich als äusserst ineffizient, ja fast antik: Jeder Mensch muss quasi von Grund auf Dinge neu erdenken und erlernen. So kann es je nach Gebiet ein Forscherleben lang dauern, bis dass man an der Grenze des Bekannten angekommen ist, die paar Jahre oder Monate, die einem Menschen dann noch bleiben, reichen immer weniger aus, um echte Fortschritte zu erzeugen. Man spricht in der Physik bspw. von einer grossen Krise, da seit Jahrzehnten keine Durchbrüche verzeichnet werden, obschon offenbar ganze Forschungszweige sich widersprechen. Ein anderes Beispiel ist die medizinische Forschung im Bereiche der seltenen Krankheiten. Menschenartige KI kombiniert quasi das Beste aus beiden Welten – die menschliche Kreativität und Schaffenskraft inklusive dem Verständnis um das Menschsein aus der Welt des Menschen mit der unablässigen Rechenpower und Logik eines Super-Computers. Eine solche KI könnte uns in eine neue Renaissance führen und ein neues goldenes Zeitalter einläuten, in welchem die Maschinen für die Menschen arbeiten und uns ermöglichen, uns auf die wirklich wichtigen und interessanten Dinge zu fokussieren. Wir würden von repetitiver und schwierigen Arbeiten befreit, die grossen Herausforderungen der Menschheit könnten gelöst werden, Ressourcenknappheit gehörte der Vergangenheit an und einige Ersatzplaneten gelangten in unsere Reichweite.

Können Sie ein Beispiel dafür nennen, wie KI ein dringendes gesellschaftliches Problem lösen könnte?

Eines der grössten gesellschaftlichen Probleme der hochindustrialisierten Gesellschaften sehe ich in unheilbaren Krankheiten oder Krankheiten, die im Alter zuschlagen wie etwa Parkinson oder Alzheimer. Die gesellschaftlichen Kosten sind enorm und es ist vernichtend, mitansehen zu müssen, wie ein geliebter Mensch die Autonomie über sein Leben verliert. Die saubersten Gewässer und frischeste Luft würde man wohl eintauschen, um ein solches Schicksal abzuwenden. Etwa 40 Prozent aller über 90-Jährigen leiden in der einen oder anderen Form an Demenz, die Anzahl der Betroffenen steigt jedes Jahr exponentiell durch die zunehmende Überalterung der Gesellschaft. Ebenso bereiten mir unabhängig vom Entwicklungsgrad eines Landes die Umweltthemen Sorgen, die direkt oder indirekt mit Ressourcenknappheit und unserem Energiehunger zu tun haben. Auch ein Durchbruch in der Kernfusion oder eine vielfach höhere Ausbeute bezüglich Solarstrom durch einen Durchbruch in der entsprechenden Forschung wäre durch ein als "künstlicher Wissenschafter" ausgelegtes KI-System vermutlich in kurzer Zeit machbar.

Einige Exponenten der Schweizer Digitalwirtschaft monieren, es gebe insbesondere im Gesundheitswesen zu wenig verfügbare Daten, um KI-Modelle zu trainieren. Können Sie das nachvollziehen?

Dies kann ich gut nachvollziehen, da sehr ineffiziente Algorithmen und teils veraltete sogenannte Big-Data-Ansätze benutzt werden. Ein Algorithmus, der 300 Millionen Bilder von Katzen benötigt, um eine Kuh von einem Pferd oder einer Katze zu unterscheiden, ist weder effizient noch intelligent. Ich sehe die Zukunft der KI nicht in der Beschleunigung von Computern oder dem Anhäufen von noch mehr Daten, sondern in einem qualitativen Durchbruch im Verständnis des Prinzips der Intelligenz. Auf diesem Gebiet ist die Schweiz führend auf globaler Ebene, wir sollten diese Spitzenposition nutzen und das Gesundheitswesen durch menschenartige KI revolutionieren, die bereits mit Small Data viele neue Erkenntnisse bringen kann. Bedenken Sie auch, wenn wir alle Gesundheitsdaten von 8 Millionen Schweizerinnen und Schweizern gesammelt hätten, dies immer noch unbedeutend wäre angesichts von Milliarden Datensätzen aus China. Big-Data-Ansätze sind für ein kleines Land wie die Schweiz keine gute Strategie.

Mit der Entwicklung von KI-Algorithmen stellen sich neue soziale und ethische Probleme. Lösungen dafür zu entwickeln, zählt zu den Zielen des Lab42. Welches Problem soll die Forschungseinrichtung als Erstes anpacken?

Der Fokus von Lab42 liegt klar auf der Automatisierung der Spitzenforschung und deren signifikanter Beschleunigung bei gleichbleibenden oder tieferen Kosten. Technologie, Wissenschaft und Kreativität gehören zu den wichtigsten Gaben der Menschheit, Lab42 soll diese Gaben erschliessen, skalieren und für den Menschen nutzbar machen.

Wenn eine KI die kognitiven Fähigkeiten des menschlichen Gehirns nachbilden kann, spricht man von einer starken KI. Was halten Sie von dieser Definition?

Persönlich halte ich wenig von Begrifflichkeiten wie "schwache", "starke" oder "breite" KI. Sie impliziert quasi, dass ein Taschenrechner schon "ein bisschen" intelligent sei und dass Intelligenz etwas Graduelles sei. Etwas, in welches man nur mehr Ressourcen (z.B. Computer Power) investieren müsste, und plötzlich würde dieses "stärker" bis zur übermächtigen Super-Intelligenz. Ein Fortschritt im Bereich der KI hängt stark von unserem Vokabular und dem Verständnis dieses Phänomens ab, solche Begrifflichkeiten werfen uns um Dekaden zurück, da immer mehr "KI-Experten" in schnellere Computer investieren und dadurch erst recht unseren Planeten durch unnütz verschwendete Energie aufheizen und die KI-Forschung in eine gefährliche Sackgasse führen.

Angenommen, eine "Super-Intelligenz" liesse sich in den kommenden Jahren umsetzen: Sollte man nicht jetzt schon bestimmte Vorkehrungen zum Schutz vor potenziellen Gefahren durch solch eine superintelligente KI treffen?

Ich sehe viele Parallelen zwischen Feuer und Intelligenz. Feuer ist um ein Vielfaches wärmer als die menschliche Haut, es kann Schaden anrichten, es kann wärmen, wir nutzen es, um Werkzeuge anzufertigen oder Raketen auf den Mond zu schiessen. Ganz ähnlich verhält es sich mit einem System, das um ein Vielfaches intelligenter ist als ein Mensch. Sollte man das Feuer verbieten, nur weil es nicht lauwarm ist? Sollte man KI verbieten, nur weil diese nicht bei einem EQ oder IQ von 120 stoppt? Ich bin zuversichtlich, dass wir KI so meistern werden, wie wir vor hunderttausenden von Jahren auch das Feuer domestiziert haben. Ein solches Werkzeug darf uns nicht vorenthalten werden, schon gar nicht im Lichte der gegenwärtigen Entwicklungen. Im Moment mache ich mir mehr Sorgen, dass wir vielleicht zu spät mit der KI sind oder dass gewisse autokratische Staaten KI zur Unterdrückung oder Firmen sie zur Manipulation von Menschen anwenden. Ich schätze die Gefahren biologischer oder menschlicher Intelligenz wesentlich höher ein als die einer gut eingesetzten KI.

Der britische Astrophysiker Stephen Hawking war einer der grössten KI-Kritiker. Er warnte vor unvorhersehbaren Konsequenzen der KI-Forschung und befürchtete, dass die Maschinen eines Tages die Kontrolle übernehmen und die Menschen verdrängen könnten. Was halten Sie von dieser Vorstellung?

Betrachten wir das Szenario, dass super-starke Baustellen-Bagger sich vereinigen und ihre Kraft gegen den Menschen einsetzen. Ist das realistisch? Nein, denn solange die Bagger kein Eigenleben entwickeln, bleiben diese nützliche Werkzeuge, deren Handlungsrichtung der Mensch bestimmt. Genauso sollten wir KI konzipieren, als ein nützliches Werkzeug, das wir Menschen beherrschen. Meistens werden Ängste im Bereich der KI von fachfremden Personen mit hoher Visibilität geprägt. Hiergegen hilft ein Besuch in einem der bekannten traditionellen KI-Labors oder die Anschaffung eines Staubsauger- oder Rasenmäher-Roboters, der auch im Jahre 2022 noch immer die Treppe hinunterstürzt oder sich in Ästen verheddert.

Auch in grossen Teilen der Bevölkerung besteht Misstrauen gegenüber KI – wohl weniger gegenüber der Technologie an sich, sondern vor allem gegenüber dem, was Menschen damit anstellen können: von der Manipulation auf sozialen Medien über soziale Kontrolle und systematische Überwachung wie zum Beispiel in China bis hin zur Entwicklung autonomer Waffensysteme. Wie kann man den Missbrauch von KI-Technologien verhindern?

Für die soziale Kontrolle von Menschen wird keine KI benötigt. Es reichen grosse Excel Tabellen oder Datenbanken, worauf erfasst wird, wer wann bei Rot über die Strasse spaziert ist oder wer welche Artikel wann gekauft hat. Die Überwachung und Manipulation von Menschen gehört seit tausenden von Jahren zu unserer Kultur. Die römischen Kaiser waren Meister darin, Nachrichten zu verfälschen und die Meinung des Volkes entsprechend zu gestalten. Neuartig ist heute die Möglichkeit, grossflächiger und globaler Kontrolle, dies hat insbesondere mit der Vernetzung oder dem Internet zu tun und nichts mit KI. Autonome Waffensysteme gibt es ebenfalls seit tausenden von Jahren, zum Beispiel unterscheidet eine Bärenfalle nicht zwischen Bär, Elefant oder Mensch. Sie sitzt da und packt autonom zu, wenn man an die falsche Stelle tritt. Ein solches "autonomes Waffensystem" sorgte über die Jahrhunderte für wenig Aufsehen. Der Missbrauch von KI-Technologien lässt sich je nachdem etwa so gut kontrollieren wir der Missbrauch eines Regenschirmes oder der Missbrauch einer Atomrakete. Bis dato schafften wir es, wenn auch mit teils schrecklichen Ausnahmen, diese mächtigen Werkzeuge überwiegend zum Wohle der Menschheit einzusetzen. Es ist nicht das Werkzeug, das reguliert werden muss, sondern der Mensch, der dieses Werkzeug zum Guten oder zum Bösen einsetzen kann. Letztlich glaube ich an die Macht der Zusammenarbeit und einer gemeinsamen Vision einer Welt, in welcher alle Menschen frei und nach ihren Wünschen leben können.

Kürzlich hat ein Google-Ingenieur behauptet, dass das Google-Chatbot-System nicht nur ein Bewusstsein (Conscience) habe, sondern auch empfindungsfähig (sentient) sei. Aufgrund dieser Aussage hat Google den Computerwissenschaftler zumindest vorübergehend freigestellt. Können Sie das nachvollziehen?

Ich kann das gut nachvollziehen. Eine solche Behauptung ist rufschädigend und reisserisch, sie schürt unnötig Ängste und gibt ein vollends falsches Bild über den Stand der KI im Jahre 2022. Aus meiner Sicht gibt es heute keine KI, die diesen Namen verdient. Aufgrund der von Google eingesetzten Technologien dürfte Google noch sehr weit weg von einer solchen Vision sein und sich im Gegenteil noch weiter davon entfernen.

Kann eine künstliche Intelligenz jemals ein Bewusstsein im psychologischen Sinn entwickeln?

Ja. Wenn es in der biologischen Natur existiert, lässt sich ein solches System auch durch Technologie realisieren, ich sehe hierbei nichts Fundamentales, das dem entgegenstehen würde.

Wie sieht es mit der Empfindsamkeit aus? Bleibt wenigstens diese Eigenschaft den Menschen vorbehalten? Und wenn nicht: Wo sehen Sie die Grenzen der KI?

Ich entnehme Ihrer Frage, dass sie nach etwas suchen, das nur dem Menschen vorbehalten ist. Letztlich bestehen wir alle aus denselben Bausteinen, allerdings ist auch jede biologische Schöpfung einzigartig auf ihre Weise. Empfindsamkeit, Humor, Zorn, Liebe, Zuneigung, eigentlich das gesamte Gefühlsrepertoire kommt in der Natur in der Tierwelt in verschiedensten Prägungen vor. Der Begriff KI bezieht sich lediglich auf die Intelligenz von etwas, KI bedeutet nicht automatisch auch gerecht oder ethisch, umsichtig oder einfühlsam. KI ist wie Feuer oder ein Hammer, ein Werkzeug, wenn auch ein sehr mächtiges, mehr nicht.

Medizinnobelpreisträger Thomas Südhof sagte einst, dass wir "maximal 5 Prozent" von dem wissen, was im Gehirn vorgeht. Stimmen Sie dem zu? Falls ja, wie kann man dann ein künstliches Gehirn bauen, wenn wir so gut wie keine Ahnung davon haben, wie das Original funktioniert?

Ich hätte gesagt, es sind noch weniger als 5 Prozent. Wir wissen von Vögeln etwa ähnlich wenig wie über unser Hirn, unser Biolgie Professor an der ETH pflegte jeweils zu sagen, dass das grösste Wunder, das er kennen würde, ein Ei eines Huhns sei, dessen Eiweiss und Eigelb offenbar genau so konzipiert seien, dass am Tag X ein vollendetes Küken aus einem genau begrenzten Ei schlüpfen würde. Und trotz unseres extrem beschränkten Wissens um all die Details von Vogelfedern oder dem Brutprozedere von Vögeln sind wir in der Lage, Flugzeuge oder Raketen zu bauen, die bis zum Mond und darüber hinaus fliegen können. Es geht im Gebiet der KI nicht darum, das biologische Hirn vollends in all seinen Details zu verstehen, sondern darum, den Brain Code zu knacken – das Prinzip der Intelligenz zu entschlüsseln. Ich habe zu grossen Respekt von der Komplexität der Natur, als dass wie diese nachbauen wollten. Unsere Flugzeuge sind wahre Wunderwerke der Technik, sie können die Welt umrunden in Geschwindigkeiten, zu welchem kein biologisches System in der Lage wäre. Auch daher bin ich optimistisch, dass wir das Prinzip der Intelligenz dereinst entschlüsseln und direkt in nützliche Produkten umsetzen können, ohne das ganze Gehirn in Details verstehen zu müssen.

Webcode
DPF8_260506