Finnova Sessions #3

Mensch und Maschine: vom Besitzverhältnis zur Beziehungskiste

Uhr
von Joël Orizet und lha

Es ist kompliziert, komplex und manchmal irritierend: Das Verhältnis zwischen Mensch und Maschine zählt zu den grossen Herausforderungen der digitalen Transformation. Wie können wir mit dem technischen Fortschritt Schritt halten? Denkanstösse gab es an der dritten Ausgabe der Finnova-Sessions.

(Source: Pixabay / geralt / CC0 Creative Commons)
(Source: Pixabay / geralt / CC0 Creative Commons)

In der Technologiebranche, im Finanzwesen, in Wirtschaft und Gesellschaft: Überall dort, wo Menschen miteinander und mit der Welt um sich herum auskommen müssen, läuft nichts ohne Vertrauen. Das Schwierige daran ist, dass man Vertrauen nicht wirklich kaufen, einfordern, herstellen oder durch Zertifikate unter Beweis stellen kann. Vertrauen muss man sich verdienen, und zwar durch vertrauenswürdiges Verhalten. Doch wie läuft das mit der künstlichen Intelligenz? Wie können Machine-Learning-Algorithmen im Vertrauensspektrum der Menschen sozusagen die Goldlöckchen-Zone erreichen: nicht zu viel, nicht zu wenig, sondern genau richtig?

Eine wohl notwendige, aber nicht hinreichende Bedingung dafür lautet: mehr Regulierung – darüber war man sich im Bargespräch der dritten Ausgabe der Finnova-Sessions einig. Den Anstoss zum Gespräch gab ein Impulsreferat eines, wie er vorgestellt wurde, "geistreichen Provokateurs": Roger de Weck, der Publizist, Ökonom, ehemalige SRG-Generaldirektor und frühere Chefredakteur der Wochenzeitung "Die Zeit", sprach über das schwierige Verhältnis zwischen Mensch und Maschine – und über die Frage, wie ein soziales Schmiermittel die Software-Welt zum Drehen bringt.

Roger de Weck, Publizist, Ökonom und Gastprofessor am College of Europe. (Source: Screenshot Netzmedien)

Vertrauen schafft, wer Ruhe bewahrt

"Vertrauen kann man auf einen Schlag verspielen, aber nur dank kontinuierlicher Berechenbarkeit erwerben", sagte de Weck. Wer kundenorientiert arbeiten will, muss folglich einen ständigen Balanceakt meistern. Einerseits braucht es Innovation, um auf der Höhe der digitalen Zeit zu bleiben. Andererseits ist Stabilität gefragt, um ein berechenbares Umfeld für Kundinnen und Kunden zu schaffen. "Wem das Vertrauen egal ist, der neigt zum Aktivismus, was Stärke signalisieren soll, aber kaum je überzeugt – am wenigsten die Kunden."

Das Vertrauen in die Maschinen wiederum habe zwei Seiten, fuhr de Weck fort. "Erstens muss Vertrauen herrschen, dass die Maschine den ihr zugedachten Zweck erfüllt." Sie soll beispielsweise effektiv und effizient sein. Dazu noch verlässlich, benutzerfreundlich und nachvollziehbar. Zweitens aber müsse auf Dauer Vertrauen herrschen, dass die Maschine keinen Schaden anrichte, seien es Umweltschäden, ein ungeheurer Energieverbrauch oder Gefahren wie im Falle von Kernkraftwerken.

Die Maschine als Passion

"Im digitalökologischen Zeitalter steht die Maschine nicht mehr für sich allein, sondern es geht immer um die Beziehung zwischen Mensch und Maschine." Diese sei inzwischen viel komplexer wie auch viel komplizierter als noch im industriellen Zeitalter, "als der Mensch einfach Herr der Maschine war und die Maschine ein blosses Objekt des Menschen blieb."

Heute sind Maschinen auch Objekte der Begierde. "Die grosse Maschinenliebe des Menschen" bezieht sich nicht nur auf den Nutzen, sondern auch auf die Beschaffenheit, auf die Mechanik, die Robotik und das Aussehen von Maschinen. "Keiner hat das so gut begriffen wie Steve Jobs bei Apple: Die Ästhetik einer Maschine oder einer neuen Software ist absolut entscheidend für ihre Kreativität."

Das Rationale und das Emotionale – beides hat sich in der Beziehung zwischen Mensch und Maschine vermischt, wie de Weck sagte. "Die Maschine schafft Ängste, weil sie vielleicht als allererste das Biblische in Frage gestellt hat: die Arbeit." Der Inbergriff dieser Maschinenangst waren die Maschinenstürmer im 17. und 18. Jahrhundert, die gegen die Mechanisierung der Industrie protestierten und das zerstörten, wovon sie glaubten, dass es ihre Zukunft verbaut. Heute sind solche Ängste diffuser. "Wir sind beseelt vom Willen zu besseren Maschinen, aber auch von der Sorge, dass bessere Maschinen nicht unbedingt unser Glück ausmachen."

Nicht schon wieder Zauberei

Die Menschen haben sich indes nicht nur an die Maschinen gewöhnt. Sie sind von ihnen abhängig. Und manche eifern ihnen nach, bezeichnen sich als Transhumanisten, als Biohacker und verwandeln sich ein Stück weit zu Cyborgs. Als Beispiel nannte de Weck den Künstler Neil Harbisson, der farbenblind auf die Welt gekommen war und sich eine Antenne in den Schädel implantieren liess, die es ihm ermöglichen soll, Farben durch Vibrationen zu hören.

Die Maschinen hingegen werden immer menschenähnlicher. "Und da stellt sich die KI-Frage: Emanzipation oder Beherrschung?" Hier sei selbstverständlich alle Vorsicht am Platz, sagte de Weck. Beispielsweise, wenn künstliche Intelligenz die Rückfallwahrscheinlichkeit von Kriminellen berechnen soll oder die erste Auslese von Bewerbern. Besonders heikel wären solche Anwendungsfälle, wenn sie auf intransparenten Vorgängen beruhten, wenn also der Throughput nicht mehr nachvollziehbar ist.

"Es kommt der Punkt, wo wir KI brauchen, um KI zu verstehen." Und an diesem Punkt stellt sich wiederum die Frage: Wie können wir einem System vertrauen, dessen Funktionsweise aus unserer Sicht an Zauberei grenzt? Und überhaupt: Dürfen wir das? Vor allem bei wichtigen Entscheidungen müssten die Gründe immer erklärbar sein, um sie zu rechtfertigen. "Und es geht nicht, dass wir Maschinen brauchen, um unsere Maschinen zu verstehen."

Der vertrauenswürdige Algorithmus und der menschliche Imperativ

Entscheidungen den Algorithmen zu überlassen, wirft ethische Fragen auf. "Denn auch Software hat Vorurteile", sagte de Weck und nannte als Beispiel den Microsoft-Chatbot "Tay". Dieser hatte im März 2016 bei seinem ersten Tag auf Twitter damit angefangen, rassistische und sexistische Kommentare zu verbreiten – bis Microsoft den Dienst nach nur 16 Stunden wieder abschalten musste. Das Problem dahinter: "Menschliche Daten reproduzieren menschliche Eigenheiten, weswegen Maschinen auch menschliche Tücken reproduzieren können."

Trotzdem sei es unabdingbar, Vertrauen in Algorithmen auch in einer "post-maschinellen Welt" zu entwickeln, sagte de Weck. Darauf angewiesen sind etwa die Banken, um die Vermögen besser zu verwalten und Transaktionen effizienter abzuwickeln; Versicherungen, um Risiken besser abzuschätzen und Prämien besser zu berechnen – "all das erfordert eine künstliche Intelligenz, die immer stärker in der Lage ist, unser Vertrauen zu wecken".

Und das wiederum heisst in Konsequenz: "Maschinen brauchen ethische Regeln und Vorgaben für die Lernsysteme." Das sei schwerlich machbar und gerade deswegen eine grosse Forschungsaufgabe, ganz unabhängig von der Frage, wer diese Regeln erlassen soll. "In heiklen Fällen muss der Mensch die Schlussentscheidung treffen und immer muss der Mensch verantwortlich sein. Denn die Verantwortung muss nachvollziehbar und festgelegt sein."

Technosolutionismus ist keine Lösung, sondern eine Problemmaschine

Wie kann sich der Mensch diese Verantwortung bewusst machen? Abgesehen von Regelwerken braucht es sicherlich auch mehr Investitionen in das Bildungswesen, darüber waren sich de Weck und seine Gesprächspartner in der anschliessenden Diskussion einig. Auf ein weiteres Problem machte die Digital-Ökonomin und Journalistin Katrin-Cécile Ziegler aufmerksam. Es nennt sich technologischer Solutionismus. "Das heisst: Wir suchen nach technischen Lösungen, bevor wir überhaupt das Problem zu Ende definiert haben."

Katrin-Cécile Ziegler, Digital-Ökonomin, Journalistin und Expertin für digitale Ethik. (Source: Screenshot Netzmedien)

Das beste Beispiel dafür gibt Facebook-Chef Mark Zuckerberg ab. Bevor es Facebook gab, hatte wohl niemand ernsthaft Mühe damit, mit Freundinnen und Freunden zu kommunizieren. "Jetzt haben wir das durchaus", sagte Ziegler und verwies auf die mitunter geschäftlich betriebene Verbreitung von Verschwörungserzählungen und Desinformation.

Dem pflichtete de Weck bei. "Und trotzdem frage ich mich, ob wir nicht doch einen Paradigmenwechsel haben, weil wir nun mit Deep Learning, also dem selbsterlernten Lernen einer Maschine, Technologien haben, die wir nicht mehr ganz durchschauen."

Das Bargespräch im Anschluss an das Inputreferat. (Source: Screenshot Netzmedien)

Technologieexperte Henrique Säuberli, Research Innovation Leader bei IBM Research Europe, widersprach dieser These. "Ich denke, es ist eine kontinuierliche technische Entwicklung." Der eigentliche Paradigmenwechsel betreffe vielmehr den angesprochenen Solutionismus. "Gerade in westlichen Ländern haben wir ein Luxusproblem. Ich höre von Unternehmen, die zu viel Geld haben und nicht wissen, worin sie es investieren sollen." In Säuberlis Forschungslabor arbeiten weltweit 3000 Forschende. Die tüfteln an allen möglichen Lösungen "und mein Auftrag ist es, entsprechende Probleme dafür zu finden." Und die Ironie am Ganzen: Zum Teil würden die Lösungen dazu genutzt, um Probleme zu erschaffen.

Umso tragischer, als es global betrachtet mehr als genug dringende Probleme gäbe. Bildung, Ernährung, medizinische Versorgung – "natürlich gibt es Ansätze, um mittels künstlicher Intelligenz beispielsweise den Welthunger zu bekämpfen", sagte Säuberli. "Aber die Use Cases werden vor allem für die wohlhabenden Länder entwickelt. Das öffnet die Schere noch mehr."

Henrique Säuberli, Research Innovation Leader bei IBM Research Europe. (Source: Screenshot Netzmedien)

Verantwortung lässt sich nicht delegieren

Säuberli stellte noch eine weitere These von de Weck in Frage: Selbstlernende Systeme müssen auch in ethischer Hinsicht von sich selbst lernen können. Zunächst einmal: "Es gibt keine selbstlernende KI. Es braucht immer noch den Menschen, der die Daten aufbereitet und einen Rahmen vorgibt, der bestimmt, was die Maschine überhaupt lernen kann und wie sie die Daten nutzt." Man dürfe das Selbstlernen nicht mit Selbstbestimmung verwechseln.

"Aber beim Deep Learning haben wir es doch mit Blackboxen zu tun", wandte de Weck ein. Stimmt, sagte Säuberli, "aber der Input und der Output sind vorgegeben." Aus diesem Grund könne man Verantwortung nicht an eine Maschine delegieren. "Es geht nicht darum, die KI ethisch korrekt zu machen, sondern darum, dass sich die Menschen und die Unternehmen, die damit arbeiten, korrekt verhalten."

Die erste Veranstaltung der Finnova Sessions drehte sich um das Thema "Banking der Zukunft". Das Eröffnungsreferat hielt die IT-Ökonomin und Unternehmerin Sita Mazumder, die fünf Thesen zur Zukunft des Finanzwesens formulierte. In Session-Nummer zwei ging es um Open Banking in der Schweiz. Thierry Kneissler, ehemaliger CEO und Mitgründer von Twint, gab einen Überblick über den Markt für Embedded Finance und erklärte, warum sich Banken so schwer damit tun.

Die letzte Finnova-Session dieses Jahres findet heute statt. Thema: New Generation. Tillmann Lang, Co-Founder und CEO von Inyova, spricht über den Wertewandel und darüber, was Finanzdienstleister davon lernen können. Weitere Infos zu den Veranstaltungen finden Sie hier.

Webcode
DPF8_231390

Kommentare

« Mehr