Live-Interview mit Abraham Bernstein, Uni Zürich

Wie Computer und Mensch zusammenspielen

Uhr

Computer wie auch KI gelten heutzutage als unsere alltäglichen Begleiter. Wie die Systeme unser Vertrauen in Technik ­verändern und warum das Zusammenspiel von Mensch und Maschine interdisziplinäres Denken erfordert, erklärt Abraham Bernstein, Professor für Informatik und Direktor der Digital Society Initiative der Universität Zürich.

Abraham Bernstein, Professor für Informatik und Direktor der Digital Society Initiative, Universität Zürich. (Source: zVg)
Abraham Bernstein, Professor für Informatik und Direktor der Digital Society Initiative, Universität Zürich. (Source: zVg)

Sie forschen am Institut für Informatik der Universität Zürich zu semantischem Web und künstlicher Intelligenz – technisch wie sozialwissenschaftlich. Was hat Sie zu dieser interdisziplinären Ausrichtung motiviert?

Abraham Bernstein: Ich war schon immer von Computern und Menschen fasziniert. Bereits als Kind fand ich es interessant, wie unterschiedlich Menschen das Thema Technik wahrnehmen und verstehen, sowohl in der realen Welt wie auch in Literatur und Filmen. Gewisse Leute gehen Technik verspielt an, andere sehen darin Werkzeuge, wiederum andere haben Angst davor. Viele anthropomorphisieren die Technik; das heisst, sie geben ihr menschliche Züge – sei es, dass sie ihr menschliche Motive zuschreiben oder ihr Namen geben. Es hat sich fast keine Technik so eng in unser Leben eingeschlichen wie der moderne Computer. Denken Sie nur daran, wie häufig Sie Ihr Handy dabei haben. Da­raus entstand bei mir über die Jahre hinweg ein ausgesprochener Wissensdurst, das Wechselspiel zwischen Menschen und Computern zu verstehen. Dafür benötigt man ein tiefes Verständnis für Technologie sowie für die menschliche Verwendungsart. Dies macht einen interdisziplinären Ansatz unabdingbar.

Können Sie erläutern, was genau unter Semantic Web zu verstehen ist – und wie sich das Konzept durch KI verändert hat?

Die Ursprungsidee des semantischen Web war geprägt von der Nützlichkeit des Webs und von der Vision, dass Computer hilfreich sein können. Tim Berners-Lee, der Erfinder des Webs, hat uns aufgezeigt, wie nützlich eine Informationsbasis sein kann, wenn sie verteilt und weltumspannend ist und wenn alle dabei mitmachen können – sowohl als (Inhalts-)Produzentinnen wie auch als Konsumenten – also Leserinnen. Zusammen mit anderen entwickelte er dann die Vision des semantischen Webs, in dem man nicht «nur» Texte, sondern auch Daten miteinander teilt. Nachdem die Forschungscommunity die technologische Basis geschaffen hatte, stellten viele solche Daten online. Daraus entstand eine grosse «Wolke» von losen, miteinander verknüpften Datensätzen, die wir auch Web of Data, kurz WoD, nennen. Dieses WoD ist heute die Basis vieler Onlinedienstleistungen: Während der Websuche erhalten wir etwa die sogenannten Infoboxen, die manchmal rechts der Suchresultate auftauchen. Andere verwenden das WoD als Struktur, um ihre Produkte oder Publikationen zu beschreiben und so Computern zur Weiterverarbeitung zugänglich zu machen. Diese Technologie ist heute also ubiquitär. Diese strukturierte Wissensbasis verändert sich durch die neueste Welle der KI mit den sprachbasierten Ansätzen, weil nun unstrukturierte Informationen wie Texte, Bilder und Filme ergänzt werden können. 

KI-Systeme begleiten uns immer häufiger im Alltag – oft unbemerkt. Wo begegnet uns KI, ohne dass wir es unbedingt merken?

Die KI-Technologie, mit der wir wohl am allermeisten unbemerkt in Berührung kommen, sind Empfehlungssysteme: Sie empfehlen uns die Musik, die wir beim Aufwachen hören, die Artikel, die wir morgens im Zug lesen, die Güter, die wir im Onlineshop entdecken, die Filme, die wir schauen, etc. Ein anderes Beispiel sind unsere Handys. Denn die Handys sind voll mit KI: Es gibt praktisch keine natürlichen Fotos mehr; Bilder werden praktisch immer durch KI-Algorithmen aufgebessert; beim Tippen einer Nachricht oder eines Suchbegriffs werden uns Worte vorgeschlagen; bei der Suche nach Orten unterstützt uns eine Navigations-App etc.

Vertrauen ist entscheidend, wenn Menschen mit KI interagieren. Was braucht es Ihrer Meinung nach, damit Bürgerinnen und Bürger Vertrauen in solche Systeme entwickeln können?

Zuerst möchte ich den Begriff Vertrauen genauer erklären. Beim Vertrauen in KI wird unsere komplexe Haltung gegenüber der KI offensichtlich. Einerseits wird Vertrauen in der Forschung als Glaube bezeichnet, dass die KI tatsächlich unsere persönlichen Interessen in einer Situation, die von Unsicherheit und Verletzlichkeit geprägt ist, verfolgt. Andererseits gibt es in der Forschung den Begriff «Reliance», den man am besten als ein «Sich-Verlassen-auf» die Technologie übersetzen kann. Das eine ist also ein Gefühl, dass ich der KI vertrauen kann, das andere ist eine Aktion, dass ich auch tatsächlich der KI folge. Das Interessante ist, dass diese beiden Dinge nicht immer zusammengehen. Wir kennen in der Forschung Situationen, in denen Menschen zwar behaupten, der KI nicht zu vertrauen, aber trotzdem der KI-Empfehlung folgen. Das Ziel müsste also sein, sich der Situation angemessen auf die KI verlassen zu können. Um nun auf Ihre Frage einzugehen: Wir müssen uns also fragen, was ein angemessenes Verlassen ist. Wenn mir die KI ein Musikstück vorschlägt, dann ist mein Risiko, eine falsche Entscheidung zu treffen, klein. Wenn die KI mir aber eine medizinische Prozedur vorschlägt, dann sollte ich mich vielleicht erkundigen, warum die KI mir nun genau diese Prozedur vorschlägt. Deshalb wäre es wünschenswert, dass die KI mir in Form einer Begründung erklärt, weshalb sie zu einem bestimmten Schluss gekommen ist: Die KI soll transparent sein. Auch ist mir wichtig, dass ich beim KI-Vorschlag gegenüber anderen Patienten nicht unfair behandelt wurde. Ausserdem sollte die KI für ihre Entscheidungen geradestehen – auf Englisch «accountable». Damit haben wir die Hauptelemente der sogenannten FAT-AI-Prinzipien aufgezählt: fair, accountable und transparent. Viele Forschende glauben, dass die FAT-AI die Grundlage ist, damit wir die Angemessenheit unserer «Reliance» einschätzen und somit ein Vertrauen in die KI entwickeln können.

KI-Systeme werden oft als sogenannte «Blackbox» wahr­genommen. Gibt es dennoch Möglichkeiten, wie man KI-Entscheidungen nachvollziehbar machen kann? Und wenn ja, wie? 

Das hängt stark von der verwendeten Technologie ab. Bei traditionellen Methoden der KI, etwa der Logik, war die Erklärbarkeit praktisch in die Methode eingebaut. Man konnte also die Antworten direkt nachvollziehen. Bei den heutigen neuronalen Netzwerken ist dies viel schwieriger. Man kann bei einzelnen Antworten/Entscheidungen der KI nachfragen, welcher Teil der Eingabe nun welchen Teil der Ausgabe geprägt hat, oder man kann das System direkt bitten, eine Erklärung mitzuliefern. Ob die KI aber tatsächlich den Entscheidungspfad beschreibt, ist unklar. In meiner Forschungsgruppe verwenden wir deshalb hybride Methoden, die mit neuronalen Methoden Antworten auf Fragen generieren und diese anschliessend mit Logik auf deren Korrektheit prüfen. 

In welchen Bereichen sehen Sie für die Schweiz die grössten Chancen im Einsatz von KI?

Eine grosse Chance liegt in der effektiveren Gestaltung von bürokratischen Prozessen. Die KI kann helfen, diese Prozesse besser zu gestalten, sodass die involvierten Menschen mehr Zeit für die Beratung hätten. Stellen Sie sich vor, ein Behördengang, ein Banktermin oder ein Arztbesuch wäre nicht geprägt von Formularen, Eingabemasken und Abklärungen, sondern vom persönlichen Beratungsgespräch. Denn die KI würde diese Vorgänge – Formulare, Eingabemasken und Abklärungen – übernehmen.

Und worin sehen Sie die grössten Risiken?

Dass sich gewisse Bevölkerungsschichten benachteiligt oder ausgeschlossen fühlen. Wir müssen also sorgfältig darauf achten, dass wir Diskriminierung vermeiden und keine Menschengruppen ausschliessen, die KI nicht verwenden wollen oder können, unabhängig von den Beweggründen.

KI kann bestehende Ungleichheiten verschärfen, etwa durch verzerrte Daten oder Vorurteile in Algorithmen. Wie können wir verhindern, dass sich diese Probleme in der Schweiz verfestigen?

Das Wichtigste ist wohl die Einsicht, dass alle Verfahren Fehler machen – seien es menschliche oder maschinelle Verfahren. Es gilt, diese Problematik schon bei der Entwicklung von KI zu berücksichtigen und zu versuchen, die negativen Folgen zu minimieren. Halten sich die negativen Folgen nicht im akzeptablen Rahmen, sollte man unter Umständen auf den Einsatz der KI verzichten. Es ist wie bei Medikamenten: Praktisch jeder Wirkstoff hat Nebenwirkungen, und wir müssen abwägen, ob das Positive oder das Negative überwiegt. Kommt die KI zum Einsatz, sollte man sich schon früh damit auseinandersetzen, wie man mit möglichen Fehlern der KI umgehen könnte. Ein Beispiel wäre eine greifende Beschwerdemöglichkeit. Viele andere Beispiele dazu haben wir 2021 in einem Positionspapier zum Rechtsrahmen für die KI dargelegt. 

In der öffentlichen Diskussion schwingt häufig auch Angst mit – von Überwachung bis zu Kontrollverlust. Welche Sorgen nehmen Sie ernst, und wo würden Sie eher entdramatisieren?

Man muss alle Sorgen ernst nehmen. Die Frage ist: Welche Sorgen kann man entkräften und bei welchen Sorgen soll man konkrete Massnahmen ergreifen? So empfehlen wir in unserem Positionspapier zum Rechtsrahmen etwa, dass man KI auch als solche erkennen muss und dass Haftungsfragen geklärt werden müssen. Da eine Diskriminierung für Nutzerinnen und Nutzer oft nur schwer nachzuweisen ist, schlagen wir vor, dass man unter Umständen eine Beweislastumkehr in Betracht ziehen sollte: Anbieter müssten bei solchen Klagen nachweisen, dass sie nicht diskriminieren. Die Angst vor Überwachung und Kontrollverlust ist kein neues Phänomen. Shoshana Zuboff beschreibt diese Angst in ihrem Buch «In the Age of the Smart Machine» schon Ende der 1980er-Jahre. Was die Überwachung angeht, so verweise ich einerseits auf den Datenschutz und andererseits auf die heutigen Technologien, welche die Privatsphäre von uns allen wahren können. So hat Google diesen September ein Sprachmodell vorgestellt, das solche Techniken verwendet. Der Preis für die Wahrung der Privatsphäre ist allerdings, dass das Modell deutlich weniger genau ist. Die Privatsphäre hat also ihren Preis, und wir müssen bei jedem Einsatz abwägen, ob die Gefahren oder der Nutzen überwiegen. 

Was können Universitäten, Politik und Unternehmen gemeinsam tun, um Chancen von KI zu nutzen, ohne die Gesellschaft zu überfordern?

Wir müssen vermehrt in den Dialog mit der Bevölkerung treten. Dabei müssen wir – alle diese Parteien – untereinander auch darüber sprechen, ob unsere Regulierungsansätze genügen.

Was braucht es für einen verantwortungsvollen Umgang mit KI?

Eine gute Regulierung, die das Vertrauen der Bevölkerung stärkt und die Innovation ermöglicht. Dabei denke ich nicht nur an staatliche Vorgaben, sondern auch an die Selbstregulation von Branchen und Firmen. 

Die EU setzt mit dem AI Act auf eine strikte Regulierung, während die Schweiz traditionell wirtschaftsfreundlicher reguliert. Welchen Weg halten Sie für die Schweiz für sinnvoll?

Der AI Act hat sicherlich einige wichtige Diskussionen erwirkt. In unserem Positionspapier schlagen wir allerdings einen sektoriellen Ansatz vor. Das heisst, die KI soll dort reguliert werden, wo sie zum Einsatz kommt. Einer der Autoren des AI Act sagte letzthin in einem Interview, dass ein solcher Ansatz zusammen mit einer Behörde, die schnell auf Entwicklungen eingehen kann, wohl zielführender gewesen wäre, als der jetzige Act. 

Der globale Wettlauf um KI wird oft als Konkurrenz zwischen China, den USA und Europa beschrieben. Wie bewerten Sie diesen Wettlauf – ist er eher innovationsfördernd oder birgt er die Gefahr von Kurzsichtigkeit?

Das ist nur sehr schwer abzuschätzen. Es ist sicherlich wünschenswert, wenn viele Parteien, auch wir in der Schweiz, aktiv an der Zukunft der KI mitarbeiten.

Und welche Rolle kann oder sollte die Schweiz in diesem Wettbewerb einnehmen?

Für die Schweiz ist zentral, dass sie auch in Zukunft die Chancen und Risiken der KI selbst beurteilen kann. Es gilt also, auch in Zeiten der Budgetkürzungen, die exzellente KI-Forschung weiter zu unterstützen, damit wir das Know-how und die Souveränität in diesen Erwägungen auch weiterhin behalten.

In welche Richtung steuert die KI-Forschung in der Schweiz in den kommenden zehn Jahren? 

Ich glaube, wir werden vermehrt Forschung im Bereich der hybriden Methoden sehen, die verschiedenste Techniken wie neuronale Modelle, Logik, wahrscheinlichkeitsbasierte Modelle etc. klug kombiniert. Ein zweites Gebiet wird der Einsatz von KI sein, um gesellschaftliche Herausforderungen zu lösen. Wir haben beispielsweise News-Empfehlungssysteme entwickelt und getestet, welche dazu beitragen können, die Polarisierung der Gesellschaft zu reduzieren. Laut dem WEF ist die Polarisierung der Gesellschaft immerhin eines der zehn grössten Probleme der Gesellschaft. 

Wenn Sie sich zehn Jahre in die Zukunft versetzen: Welche Frage rund um KI würden Sie dann gerne einer jüngeren Forscherin oder einem jüngeren Forscher stellen?

Seit den Visionen von Vannevar Bush (beschrieben in seinem Artikel «As we may think») oder Douglas Engelbart (mit seinem absolut zukunftsweisenden NLS-System) fragen wir uns, wie Menschen und Maschinen wohl gemeinsam besser werden können. Meine Kernfrage bleibt deshalb auch in zehn Jahren noch: Wie kann man menschliche und künstliche Intelligenz am besten zum Wohle der Menschheit kombinieren? 


Zur Person
Abraham Bernstein ist Professor am Institut für Informatik und geschäftsführender Direktor der Digital Society Initiative (DSI) der Universität Zürich (UZH). Er studierte an der ETH Zürich Informatik und promovierte an der Sloan School of ­Management des Massachusetts Institute of Technology. Seine Forschung umfasst das semantische Web, Data-Mining sowie maschinelles Lernen, heterogene Datenintegration, Crowdsourcing sowie das Wechselspiel zwischen sozialen und technischen Elementen der Informatik. Neben seiner Forschung und Lehre sowie seiner Tätigkeit als DSI-Direktor ist Bernstein unter anderem auch Direktor des Citizen Science Centers der UZH und ETH Zürich sowie Präsident des Leitungsausschuss des NFP 77 Digitale Transformation des Schweizerischen Nationalfonds. 
Quelle: Universität Zürich

Webcode
EzsHjdk7