Anne-Sophie Morand im Interview

Warum das europäische KI-Gesetz auch die Schweiz betrifft

Uhr | Aktualisiert

Künstliche Intelligenz wird Anwältinnen und Anwälte nicht ersetzen, ihre Arbeit aber sehr stark verändern – ­davon ist Anne-Sophie Morand überzeugt. Im Interview erklärt die Anwältin und Dozentin, wie sich das KI-Gesetz auf die Schweiz auswirken könnte und wie schwierig es ist, sich gegen Diskriminierung durch eine KI zu wehren.

Anne-Sophie Morand, Rechtsanwältin bei Walder Wyss und Dozentin an der HSLU. (Source: zVg)
Anne-Sophie Morand, Rechtsanwältin bei Walder Wyss und Dozentin an der HSLU. (Source: zVg)

Seit ChatGPT haben KI-Anwendungen Hochkonjunktur. Sie be­fassen sich schon länger mit künstlicher Intelligenz und deren ­Fähigkeiten. Was halten Sie von ChatGPT und dem damit verbundenen Hype?

Anne-Sophie Morand: Aus meiner Sicht ist ChatGPT beziehungsweise das Sprachmodell GPT-4 vor allem eine eindrückliche Demonstration des aktuellen Stands in der KI-Forschung. Das Tool zeigt uns, was heute bereits möglich ist, wenn Deep Learning mit gewaltigen Rechenressourcen und einer riesigen Datenmenge ausgestattet wird. Der aktuelle Hype um den Textgenerator ChatGPT entstand vor allem deshalb, weil die breite Masse das erste Mal ein solches Tool selbst nutzen kann und sich direkt angesprochen fühlt – das gab es vorher nicht. Es ist zwar beeindruckend, was Tools wie ChatGPT oder Dall-E produzieren können, diese Tools sind aber nur ein Vorläufer einer sehr grossen Welle von KI-Anwendungen. Ich bin überzeugt, dass zahlreiche disruptive Geschäftsmodelle in naher Zukunft ganze Wirtschaftszweige auf den Kopf stellen werden. Verantwortliche tun also gut daran, sich über mögliche Auswirkungen von KI auf ihre Branche im Klaren zu werden. Überall dort, wo Menschen vor Bildschirmen sitzen, wird sich KI auf die eine oder andere Art bemerkbar machen. Übrigens finde ich den Begriff KI nicht ganz unproblematisch.

Warum?

Weil damit suggeriert wird, dass erstens diese Systeme auf derselben Ebene wie Menschen stehen, die sie gebaut haben, und zweitens, dass diese Intelligenz uns einmal ersetzen wird, so wie ein künstliches Kniegelenk unser natürliches Knie ersetzt. Ich selbst bevorzuge den Begriff «Maschinenintelligenz». Benutzen wir den Begriff Maschinenintelligenz, dann wären wir uns viel klarer darüber, dass hinter ChatGPT eine sehr eigene und andere Art von Intelligenz steht. Was wir als Text sehen, das heisst, was die Maschine ausspuckt, sind eigentlich nur Vektorzahlen, die aussagen, wie Wörter in Relation zueinander stehen. Mit natürlicher Intelligenz des Menschen hat das wenig zu tun. Dementsprechend ist ChatGPT für mich zwar ein fortschrittlicher Textgenerator, aber er ist nicht in der Lage, die menschliche Intelligenz oder die menschliche Erfahrung vollständig zu ersetzen.

Was stört Sie am medialen Diskurs zu ChatGPT und generell KI?

Persönlich stört mich, dass wirkliche und unsinnige Gefahren in den gleichen Topf geworfen werden. Wirklich ernst zu nehmen ist beispielsweise das Problem von Desinformation im Zusammenhang mit Deepfakes, welche Demokratien destabilisieren können, während die Vorstellung, dass KI-Systeme den Menschen obsolet machen und die Weltherrschaft übernehmen, zu extrem ist und medial aufgebauscht wird. Das Vermischen der Gefahren erschwert die notwendigen und fundierten Diskussionen über die tatsächlichen Risiken. Ebenso stört mich, dass KI-Systemen wie ChatGPT in den Medien bereits Bewusstsein zugesprochen wird. Tools wie ChatGPT sind eigentlich assoziale Textgeneratoren ohne Moral, die wie stochastische Papageien alles nachplappern und darauf trainiert sind, Gespräche zu simulieren. Sie haben keine Gefühle und kennen auch nicht die Grenzen zwischen Fiktion und Fakten. Das heisst, ChatGPT erfindet auch Sachen bzw. halluziniert. Ausserdem fehlt es ChatGPT an emotionaler Intelligenz. Das Tool kann zwar auf Basis einer grossen Datenmenge schwierige Probleme lösen, aber es hat nicht die Fähigkeit, komplexe menschliche Probleme umfassend zu verstehen – auf jeden Fall nicht zum aktuellen Zeitpunkt.

Wann und wie setzen Sie in Ihrer Arbeit als Rechtsanwältin heute schon KI ein?

Bei meinem Arbeitgeber kommt KI punktuell bereits zum Einsatz, beispielsweise bei der Analyse grosser Dokumentensammlungen. Ein KI-basiertes Dokumentenverarbeitungstool kann innerhalb von Sekunden Tausende von Vertragsseiten durchleuchten und die relevanten Vertragsklauseln markieren, nachdem wir den Algorithmus vorgängig mit manuell markierten Dokumenten trainieren liessen. Sehr nützlich finde ich ausserdem das Übersetzungs-Tool «DeepL».

Wie sieht es mit ChatGTP und ähnlichen Tools aus?

Auch sie können vereinzelt für Anwälte nützlich sein, etwa um einfache Zusammenfassungen von Texten zu erstellen. Für die rechtliche Beratung sollte ChatGPT zum jetzigen Zeitpunkt nur mit Vorsicht genossen werden. In meinen Tests verwies ChatGPT erstens sehr oft auf das deutsche Recht und nannte zweitens schlichtweg immer wieder falsche Artikel – dies, obwohl meine Prompts sehr klar formuliert waren. Wenn wir also entsprechende Tools einsetzen wollen, sollten diese insbesondere mit Daten zum Schweizer Recht trainiert worden sein. Diesbezüglich finde ich «DeepJudge» sehr interessant. Es handelt sich hierbei um ein Tool eines Zürcher Startups, das u.a. Dokumente analysieren und sie mit bereits früher analysierten Gesetzestexten, Urteilen und Verträgen vergleichen kann.

Ich las bereits von Unternehmen, die KI-Anwälte entwickeln. Was halten Sie davon? Bedroht künstliche Intelligenz gerade Ihren Berufsstand?

Tatsächlich existieren erste Versionen sogenannter «Robot-Lawyers» beziehungsweise «KI-Anwälte», wie etwa der US-amerikanische KI-Anwalt «DoNotPay», der sich als «der weltweit erste Roboter-Anwalt» bezeichnet. Jedoch hat bisher noch kein Prozess mit einem solchen KI-Anwalt stattgefunden, da dieser in der Realität gar nicht vor Gericht zugelassen ist. Häufig geht es beim Anwalt-Klienten-Verhältnis auch um eine persönliche Beziehung – Soft­skills sind in der Rechtswissenschaft also nach wie vor sehr wichtig. Das kann ein KI-Tool nicht so schnell ersetzen. Schliesslich werden KI-Systeme auch deshalb nicht meinen Job vollständig übernehmen, weil die Rechtswissenschaft keine exakte Wissenschaft wie die Mathematik ist und diese Inexaktheit beziehungsweise Einzelfallabhängigkeit oft auch gewollt ist. Nichtsdestotrotz bin ich aber überzeugt, dass KI-Technologien die Arbeit von Anwältinnen und Anwälten sehr stark verändern werden. Mit ihren zunehmenden Fähigkeiten werden sie immer mehr Aufgaben eigenständig durchführen. Dadurch werden wir immer mehr zu «Editors» anstatt «Creators». Wir lassen also den Inhalt von KI-Systemen kreieren und arbeiten dann mit diesem Output beziehungsweise editieren das Resultat. 

Die EU möchte mit dem AI Act den Umgang mit und den Einsatz von künstlicher Intelligenz regulieren. Ist sie damit nicht etwas spät dran?

Im April 2021 war die EU-Kommission der erste Gesetzgeber, der mit dem Entwurf des AI Acts einen umfangreichen Vorschlag zur Regulierung von KI präsentierte. Mit dem Gesetzesvorhaben versuchen die EU-Kommission, das EU-Parlament und auch die zuständigen Ministerien einen Spagat, denn einerseits soll der AI Act sicherstellen, dass betroffene Personen durch den Einsatz von KI-Systemen keine Nachteile erleiden, andererseits soll die neue Verordnung Innovationen weiter fördern und der Entwicklung und Verwendung von KI möglichst viel Raum geben. Bei solch divergierenden Positionen dauert ein Gesetzgebungsprozess eben etwas länger. Aus meiner Sicht ist die Verlangsamung aber auch gar nicht so schlecht, denn so konnten die aktuellen Entwicklungen im KI-Bereich – wie etwa jene um generative KI – sogleich mitberücksichtigt werden. Zudem haben wir mehr Zeit erhalten, um grundsätzliche Fragen zu diskutieren.

Was meinen Sie damit?

Der Tech Trends Report 2023 des Future Today Institute bringt sehr gut und klar auf den Punkt, welche Fragen wir uns beim Einsatz von KI-Systemen stets stellen müssen:

  • Sind wir vorbereitet auf eine Welt, in der unsere Aufgaben durch KI ergänzt oder vollständig automatisiert werden könnten? 
  • Können wir die KI-Anwendungen, die wir verwenden, erklären? 
  • Und: Welches Risiko gehen wir ein, wenn wir das nicht können?

Anders gesagt: Erst dann, wenn wir geklärt haben, in was für einer Welt wir leben möchten, können wir entscheiden, wie wir KI regulieren wollen. Und auch dann bleibt die Aufgabe angesichts des raschen technologischen Fortschritts komplex.

Die Schweiz beteiligt sich an den Verhandlungen des Europarates zu einer KI-Konvention. Wie kann oder soll sie die Verhandlungen beeinflussen?

Die Schweiz ist Mitglied des europäischen Committee on AI (CAI). Auch wenn sie dort eines von vielen Ländern ist, könnte sie durchaus Akzente setzen und sich entschieden für den Schutz der auf Menschenrechte, Demokratie und Rechtsstaatlichkeit beruhenden Werte einsetzen.

Wie wird sich der AI Act auf die Schweiz ­auswirken?

Auch wenn der AI Act für die Schweiz nicht direkt anwendbar ist, so entfaltet er in gewissen Szenarien eine extraterritoriale Wirkung und gilt damit teilweise auch für Schweizer Unternehmen. Dies ist der Fall, wenn Schweizer Anbieter KI-Systeme in der EU in Verkehr bringen oder wenn Schweizer Anbieter und Nutzer das vom KI-System hervorgebrachte Ergebnis in der EU verwenden. Die meisten KI-Anbieter werden keine eigenen Produkte nur für die Schweiz entwickeln, daher werden sich neue europäische Standards auch in der Schweiz verbreiten. Zusätzlich werden sich hierzulande viele Unternehmen überlegen, ihre KI-Tools in Übereinstimmung mit der EU-Regelung zu entwickeln – dies, weil sie ihre Systeme auch in der EU anbieten wollen.

Wie steht es um ein KI-Gesetz in der Schweiz?

Der Bund hat in den vergangenen drei Jahren auf die zunehmende Bedeutung von KI reagiert, einige Vorstösse zur Thematik beantwortet, Leitlinien zu Risiken und Chancen veröffentlicht und Expertengremien einberufen. Auch in der Legislative ist das Thema angekommen, wie man beispielsweise anhand des Postulats «Rechtslage der künstlichen Intelligenz – Unsicherheiten klären, Innovation fördern!» von Nationalrat Marcel Dobler sieht. Die Entwicklungen in der EU mit dem AI Act führen zwar nicht dazu, dass die Schweiz dem Beispiel der EU folgen und ein eigenes KI-Gesetz entwerfen muss – mit dem Inkrafttreten dieser europäischen Verordnung wird jedoch eine reflektierte und evidenzbasierte Debatte zur KI-Regulierung in der Schweiz unausweichlich, zumal Forschung und Politik zunehmend Rahmenbedingungen für einen sinnvollen Einsatz von KI fordern. Die Schweizer Politik sollte beim Thema KI-Regulierung nicht mehr länger zuwarten, um Rechtsunsicherheit beim Einsatz von KI-Systemen zu verhindern. Meines Erachtens ist deshalb auch der Aufbau des vom Bund ins Leben gerufenen «Kompetenznetzwerks Künstliche Intelligenz» von grosser Bedeutung.

Wie könnte so eine KI-Regulierung aussehen?

Aus rechtlicher Sicht besteht in der Schweiz ein gewisser Handlungsbedarf und es müssen sektorspezifische Regelungen überarbeitet werden. Es ist aber wenig sinnvoll, dies mittels einer horizontalen Regelung wie in der EU anzustreben. Es ergibt mehr Sinn, punktuelle Ergänzungen bereits bestehender Gesetze vorzunehmen. Beispielsweise hinkt das Recht im Bereich der Medizinprodukte der Technologie noch hinterher. Mit Blick auf die rasche technische Entwicklung von KI sollten die Anpassungen im Schweizer Recht möglichst technologieneutral formuliert werden. Man kann sich auch überlegen, gewisse Anpassungen – wo möglich – auf Verordnungsstufe vorzunehmen, damit der Bundesrat aktuellen und künftigen Entwicklungen rasch begegnen kann.

Mein Eindruck ist, dass sich die Schweiz in Sachen KI-Regulierung sehr defensiv (oder zurückhaltend) zeigt. Stimmt das?

Der Eindruck täuscht nicht. Man muss aber auch festhalten, dass die Schweiz in Sachen Regulierung grundsätzlich liberaler als die EU agiert. Hierzulande wird ein sogenannter prinzipienbasierter und technologieneutraler Ansatz bei der Regulierung verfolgt: Man reguliert also nicht alle neuen Technologien einzeln und detailliert, sondern setzt bisher auf ein solides Grundgerüst an rechtlichen Normen, die auch für neue Sachverhalte beigezogen werden können.

Sind Schweizer Politikerinnen und Politiker bereit für das Thema KI?

Im Bundesparlament sitzen einige sehr digitalaffine Politikerinnen und Politiker, namentlich die Mitglieder der parlamentarischen Gruppe Parldigi. Das reicht meines Erachtens jedoch nicht. Da letztlich die Mehrheit im Parlament entscheidet, müssen künftig alle Politikerinnen und Politiker im Bereich Digitalisierung fit sein und über ein grundlegendes Verständnis von KI und deren Funktionsweise verfügen. Schliesslich müssen sie mögliche Vorteile und Risiken von KI bewerten und fundierte Entscheidungen darüber treffen können, inwiefern KI in verschiedensten Bereichen eingesetzt werden kann und soll.

Zu den oft geäusserten Bedenken bei KI-Anwendungen gehört die Angst vor Diskriminierung. Können sich Menschen in der Schweiz rechtlich erfolgreich gegen Diskriminierung durch KI wehren?

Grundsätzlich können bei Diskriminierung durch KI-Systeme heute bereits verschiedenste rechtliche Bestimmungen herangezogen werden. Einschlägig sind etwa der privatrechtliche Persönlichkeitsschutz, die Bestimmungen im Gleichstellungsgesetz zur Förderung der Gleichstellung von Frau und Mann, jene im Behindertengleichstellungsgesetz, die strafrechtlichen Bestimmungen zu Diskriminierung und Aufruf zu Hass oder auch das neue Datenschutzgesetz, das am 1. September 2023 in Kraft tritt. Das ist alles schön und gut – es kann aber sein, dass KI-Systeme verdeckt und unter Umständen eine einzig in der Auswirkung erkennbare Diskriminierung bewirken. Eine verdeckte Diskriminierung liegt vor, wenn die verwendeten Kriterien oder Daten auf den ersten Blick zwar neutral erscheinen, im Ergebnis aber Personen diskriminieren, die geschützte Merkmale aufweisen – aufgrund der Herkunft, des Geschlechts, Alters und so weiter. Das Problem ist hier, dass ich als betroffene Person kaum die Möglichkeit habe, eine solche Diskriminierung zu beweisen. Oftmals weiss ich nicht einmal, dass ich aufgrund eines bestimmten Merkmals von einem KI-System diskriminiert wurde.

Gibt es Möglichkeiten, dies zu verbessern?

Möglicherweise tragen die aktuellen technologischen Entwicklungen dazu bei, dass künftig ein allgemeines Antidiskriminierungsgesetz für Private geschaffen wird, wie dies bereits in anderen europäischen Ländern der Fall ist. Mit Blick auf den AI Act könnte es zudem sinnvoll sein, eine allgemeine Pflicht einzuführen, betroffene Personen stets zu informieren, wenn sie mit einer KI interagieren anstatt mit einem Menschen. Im neuen Datenschutzgesetz haben wir mit Art. 21 DSG bereits eine Bestimmung, die in diese Richtung geht: Bei automatisierten Einzelentscheiden, die mit einer Rechtsfolge verbunden sind oder die Person erheblich beeinträchtigen, hat der Verantwortliche gegenüber einer betroffenen Person Informationspflichten einzuhalten. Betroffene Personen können in der Folge beantragen, dass eine entsprechende Entscheidung von einer natürlichen Person überprüft wird, zum Beispiel weil sie den Verdacht haben, dass sie durch eine KI aufgrund von Voreingenommenheit benachteiligt wurden. Generell kann gesagt werden, dass Transparenz für Nutzerinnen und Nutzer von KI-Anwendungen wichtig ist, um nachvollziehen zu können, mit welchen Daten ein Algorithmus trainiert wurde und wie der Algorithmus aufgebaut ist.

Was braucht es abgesehen von gesetzlichen Anpassungen?

KI-Systeme basieren auf den Daten, mit denen sie trainiert wurden. Wenn diese Daten fehlerhaft oder verzerrt sind, kann dies zu ungenauen oder falschen Resultaten führen. Von Bedeutung sind aber auch die programmierenden Personen selbst. Beim Training von Algorithmen können sexistische oder rassistische Vorurteile – bewusst oder unbewusst – miteinfliessen. Meines Erachtens sollte man darum gerade bei der Ausbildung von Programmierer/innen genauer hinschauen. KI-Spezialist/innen brauchen künftig auch eine Art ethische Grundausbildung. Sie müssen zumindest im Ansatz verstehen, wie es zu kognitiven Verzerrungen im menschlichen Denken und zu Bias-Effekten in Algorithmen kommen kann, um ihre eigene Voreingenommenheit besser zu erkennen.


Zur Person

Anne-Sophie Morand ist Rechtsanwältin in der Anwaltskanzlei Walder Wyss. Ihre Spezialgebiete sind Digitalthemen wie Datenschutz und künstliche Intelligenz. Zu diesen Themen doziert sie auch an der Hochschule Luzern (HSLU), verfasst Fach­publikationen und moderiert Anlässe. Vor ihrer Anwaltstätigkeit war sie unter anderem für den Eidgenössischen Datenschutz- und Öffentlichkeitsbeauftragten (EDÖB) und das Schweizer Parlament tätig. Morand studierte Rechtswissenschaften an den Universitäten Luzern und Neuchâtel. Nach Studienabschluss arbeitete sie an der Universität Luzern als wissenschaftliche Assistentin und verfasste eine Dissertation im Bereich Persönlichkeitsschutz und Sportsponsoring, die mit dem Schweizerischen Sportrechtspreis ausgezeichnet wurde. Sodann absolvierte Morand einen LLM in IT Law an der Universität Edinburgh. Ihren Ausgleich findet Morand in der Natur und beim Sport. Zu ihren Hobbys zählen Literatur, Politik, Philosophie und Musik.

Webcode
54HxKdYY