Jubiläum: 25 Jahre "Netzwoche"

Sprung in der Schüssel?

Uhr

Wir erleben heute einen Intelligenzsprung in der Entwicklung der maschinellen Intelligenz. Lange mussten wir darauf warten. Ein Blick zurück in die Geschichte.

Daniel Liebhart Dozent für Informatik, Experte für Enterprise-Architekturen und CTO Ambassador der Swisscom. Er ist Autor und Coautor verschiedener Fachbücher. (Source: zVg)
Daniel Liebhart Dozent für Informatik, Experte für Enterprise-Architekturen und CTO Ambassador der Swisscom. Er ist Autor und Coautor verschiedener Fachbücher. (Source: zVg)

Die Eigenschaften einer intelligenten Maschine sind «Leistungsstärke, enormes Gedächtnis und ungeheure Intelligenz». Das hat vor über hundert Jahren der tschechische Schriftsteller Karel Capek in seinem Theaterstück «R.U.R. (Rossum’s Universal Robots)» formuliert. Die Uraufführung fand am 25. Januar 1921 statt, in den folgenden zwei Jahren wurde das Stück in 30 Sprachen übersetzt und hat den Begriff «Roboter» und unsere Auffassung von maschineller Intelligenz bis heute geprägt. 

Zur gleichen Zeit begann Norbert Wiener, einer der wissenschaftlichen KI-Pioniere, seine Arbeit am MIT, nachdem er mit 18 Jahren seinen ersten Doktortitel an der Harvard-Universität erlangt hatte. Seine Forschungen legten die Grundlage für das Verständnis von komplexen Systemen. Er gilt als Begründer der Systemtheorie, die Feedback und Kontrolle als Grundlage für maschinelles Lernen definiert. In seinem 1948 erschienenen Buch «Kybernetik – Regelung und Nachrichtenübertragung in Lebewesen und Maschine» brachte er es auf den Punkt: Ein System wird intelligent, wenn es sich Erfahrungen aus der Vergangenheit merken und darüber die eigene Leistung verbessern kann. Die «Rückkoppelungsschleife» als «schlagendes Herz der modernen Maschinenintelligenz» war geboren. Ohne sie sind überwachtes (supervised), bestärkendes (reinforcing) und selbstüberwachendes (self-supervised) Lernen undenkbar.

Intelligenztest für Maschinen

1950 hat Alan Turing (ohne ihn wären wir Informatiker gar nicht da) in seinem Artikel «Computing Machinery and Intelligence» die Gretchenfrage gestellt: «Können Maschinen denken?», und ist diese Denkfähigkeit messbar? Die Messung der menschlichen Intelligenz hatte der Hamburger Psychologe William Stern bereits im Jahr 1912 mithilfe eines Intelligenzquotienten (IQ) vorgeschlagen. Die seitdem verfeinerten Verfahren zur Erhebung sind bis heute eine wichtige Grundlage für die Erforschung und Weiterentwicklung der menschlichen Intelligenz. Davon ist der Intelligenztest für Maschinen noch weit entfernt. Turing schlug vor, nicht direkt zu messen, ob eine Maschine denken kann. Es soll gemessen werden, ob Maschinen menschliche Reaktionen ausreichend gut imitieren können, um einen Menschen zu täuschen. Der Turing-Test war geboren.

Eliza – der erste Sprung

Das «Dartmouth Summer Research Project on Artificial Intelligence», das vom 19. Juni bis zum 16. August 1956 stattfand, gilt heute als die Geburtsstunde des KI-Forschungsgebiets. Es sollte in diesen zwei Monaten eine «…Studie auf der Grundlage der Vermutung durchgeführt werden, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz grundsätzlich so genau beschrieben werden kann, dass eine Maschine hergestellt werden kann, die dies simuliert», so der Antrag von John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon – damals führende Computerwissenschaftler. Dieser Aufbruch hatte zur Folge, dass KI-Programme und Programmiersprachen für die Entwicklung intelligenter Software entstanden sind. Beispiele sind IPL (Information Programming Language) für den Logic ­Theorist (1956) und den General Problem Solver (1957), LISP (LISt Processing) für eine Vielzahl von KI-Anwendungen und SLIP (Symmetric LIst Processor) für «­Eliza». Das von John Weizenbaum 1966 auf einem Grossrechner entwickelte Programm sollte ursprünglich dazu dienen, die natürliche Sprachkommunikation zwischen Mensch und Maschine zu untersuchen. Die Software hat einen Therapeuten beziehungsweise eine Psychotherapeutin simuliert und auf Eingaben durch den Menschen mit entsprechenden Antworten reagiert. Es hat aus damaliger Sicht den Turing-Test bestanden. Heute gilt es als erster Chatbot der Geschichte.

Im Hintergrund: neuronale Netze

Der Erfolg von Eliza und anderen KI-Lösungen der ersten Generation wie etwa dem 1972 entwickelten Programm «SHRDLU», das die Bewegung von Bauklötzen durch Spracheingabe erlaubt, basiert auf der Idee, dass Intelligenz durch die Fähigkeit der Sprachverarbeitung geprägt ist und dadurch auch am besten nachgebildet werden kann. Es gilt also, die natürliche Sprache so zu formalisieren, dass sie vollständig logisch abgebildet werden kann. Das mehrbändige und umfassende Werk «Lan­guage As A Cognitive Process» des Stanford-Professors Terry Winograd gilt als Krönung dieser Idee. Leider hat sich dieser direkte Weg der Umsetzung aufgrund der Komplexität und Widersprüchlichkeit hinsichtlich der Bedeutung der natürlichen Sprachen nicht bewährt. Eine andere Methode hat sich durchgesetzt: die neuronalen Netze. 
Basis dafür ist das 1957 von Frank Rosenblatt entwickelte Perzeptron, eine Nachbildung einer menschlichen Hirnzelle. Die Funktionsweise ist denkbar einfach. Jede Hirnzelle hat eingehende und ausgehende Verbindungen mit anderen Hirnzellen und sie ist fähig, Signale weiterzuleiten. Die eingehenden Verbindungen sind gewichtet. Die Weiterleitung erfolgt aufgrund einer Kombination der Summe aller Eingänge, gesteuert über einen Schwellenwert. Lernen ist nichts anderes als die Justierung der gewichteten Eingänge und des Schwellenwerts. Dieser Ansatz hat sich heute als Grundlage der modernen KI durchgesetzt.

Durch den KI-Winter zum zweiten Sprung

Rückblickend durchlebte die Entwicklung der maschinellen Intelligenz zwei Phasen der Stagnation. Diese werden heute als KI-Winter bezeichnet. Eine umfassende Analyse stammt aus dem Jahr 1972 von Sir James Lighthill, einem Professor der Universität Cambridge. Er unterschied die beiden Kategorien «fortgeschrittene Automatisierung» (ein Erfolg) und «computergestütztes zentrales Nervensystem» (ein Misserfolg) und bemängelte, dass die Brücke zwischen diesen beiden Bereichen aus damaliger Sicht in absehbarer Zeit nicht geschlossen werden konnte. Der Durchbruch kam erst, als die Rechenleistung für die Simulation des menschlichen Gehirns durch eine ausreichend grosse Anzahl von Neuronen vorhanden war. Im Januar 2011 gewann der IBM-Hochleistungsrechner Watson in der Quizsendung «Jeopardy!» gegen Ken Jennings (er hatte dieses Quiz 74-mal gewonnen) und Brad Rutter (er hatte mit 3,2 Millionen US-Dollar das höchste je erzielte Preisgeld geholt). Im März 2016 gewann die von Google Deepmind entwickelte Software «AlphaGO» gegen Lee Sedol, den stärksten GO-Spieler der Welt, das wohl schwierigste Spiel der Welt. Diese beiden Ereignisse waren wichtige Meilensteine dieser Entwicklung.

Vor dem nächsten Intelligenzsprung?

Moderne KI-Systeme basieren auf neuronalen Netzen und bilden damit die Struktur des menschlichen Gehirns ab. Dies gilt unabhängig davon, welche KI-Modelle (Deep, Supervised, Unsupervised oder Reinforced Learning) und ob LMM (Large Multimodal Model) oder LLM (Large Language Model) umgesetzt werden. Sie sind alle fähig, eine sehr grosse Anzahl von Parametern gleichzeitig zu verarbeiten. Diese Anzahl kann mit der Zahl der Synapsen unseres Gehirns verglichen werden. Die Leistungsfähigkeit der maschinellen Intelligenz steigt mit der Leistungsfähigkeit der Computertechnologie. Gemäss dem Vergleich von Gábor Bíró «Die 86 Milliarden Neuronen unseres Gehirns: Können LLMs sie übertreffen?» sind sie jedoch noch weit von der Leistungsfähigkeit eines einzigen menschlichen Gehirns entfernt.
Heute sieht die Sache so aus: Ein menschliches Gehirn kann es in Sachen Leistungsfähigkeit mit allen heute weltweit bestehenden KI-Systemen aufnehmen. Wen wundert’s: Unser Gehirn braucht 2 Prozent der Körpermasse, 20 Prozent des Energiebedarfs, 15 Prozent des Sauerstoffbedarfs und 40 Prozent des Blutzuckers. Bis wir unsere KI-Infrastruktur in diesen Bereichen optimiert haben, wird es noch dauern. Bis zum nächsten Intelligenzsprung der maschinellen Intelligenz fehlt noch ein gutes Stück. Wir arbeiten daran.

Webcode
LwJKoRDF