Wie kann man KI in der Justiz einsetzen?
Künstliche Intelligenz verspricht, Richterinnen und Richtern in ihren Entscheidungen zu unterstützen. Tatsächlich macht sie deren Entscheidungen und Aufgaben aber komplexer.
Die künstliche Intelligenz (KI) transformiert derzeit unsere Gesellschaft. Jenseits von den vieldiskutierten Systemen wie Chat GPT oder Dall-E, das Bilder generieren kann, hat die Technologie auch Einzug gehalten in die tägliche Arbeit von Anwältinnen und Anwälten sowie teilweise sogar von Richtern und Richterinnen. Derzeit befinden sich solche Anwendungen zwar noch in der Anfangsphase, doch die KI hat das Potenzial, unser Justizsystem zu verändern. Sie verspricht nicht nur wesentliche Vorteile, sondern wirft auch neue ethische und rechtliche Fragen auf. Und auch die Rollen und Kompetenzanforderungen von Anwälten und der Richterinnen werden sich ändern.
Anwaltskanzleien und Gerichte werden in Zukunft effizienter arbeiten und repetitive Aufgaben automatisieren können. Der heute notorische Rückstau an Fällen bei Gerichten wird dadurch hoffentlich verringert. Schon heute werden KI-gestützte Systeme von Juristinnen und Juristen eingesetzt, beispielsweise um grosse Datenmengen zu analysieren und Verträge zu prüfen. Und einige Gerichte in den USA setzen KI-Systeme ein, um sie bei Entscheidungen der Strafzumessung zu unterstützen oder die Rückfallgefahr von Straffälligen vorauszusagen.
Allerdings gibt es Fallstricke: Heutige Algorithmen der KI sind häufig nicht transparent genug, um die hohen Anforderungen der Rechenschaftspflicht in der Justiz zu erfüllen. Kritikerinnen und Kritiker befürchten ausserdem, dass KI-Systeme Voreingenommenheit und Diskriminierung in der Rechtsprechung verstärken könnten. Denn die Zuverlässigkeit von KI-Systemen hängt von der Qualität der eingegebenen Daten ab. Wenn KI-Unterstützungssysteme auf der Grundlage von voreingenommenen Daten trainiert werden, kann dies zu ungerechten Gerichtsurteilen führen.
Ayisha Piotti, Direktorin für AI Policy am Zentrum für Recht und Wirtschaft der ETH Zürich. (Source: zVg)
Um solche unbeabsichtigten Folgen zu minimieren, muss man KI-Systeme zwingend rigoros testen, bevor man sie eingesetzt. Ausserdem braucht es neue regulatorische Leitlinien. Die EU stuft den Einsatz von KI in der Justiz zurecht als Hochrisikoanwendung ein und wird sie im derzeit diskutierten KI-Gesetz in Bezug auf unter anderem Transparenz, Aufsicht und Cybersicherheit streng zu regulieren.
Für mich gehört die Rechtsprechung zu den sensiblen und kritischen Bereichen unseres Lebens, in dem KI-Systeme den Menschen nicht ganz ersetzen dürfen. Um die Rechenschaft zu garantieren, müssen wir Menschen in das System einbinden. Ich bin überzeugt, dass es den Menschen als Wächter der KI braucht. Richterinnen werden in Zukunft nicht nur Urteile fällen, sondern auch darüber entscheiden müssen, wie KI bei der Urteilsfindung zum Einsatz kommt. Sie müssen die Vor- und Nachteile der KI kennen und die damit verbundenen Spannungsfelder im Auge behalten und diese in bewussten Entscheidungen austarieren.
Ein solches Spannungsfeld ist beispielsweise jenes zwischen Schnelligkeit und Gründlichkeit. Die KI ist zweifellos schnell, und mache Juristen argumentieren, dass aufgeschobene Gerechtigkeit verweigerte Gerechtigkeit ist. Eine unvollkommene Entscheidung, die heute gefällt wird, kann daher besser sein als eine perfekte Entscheidung, die gar nicht gefällt wird.
Ein weiteres Spannungsfeld ist jenes zwischen Zweckmässigkeit und Sicherheit. Heute gibt es noch keine Standards, welche den Einsatz von KI in der Justiz sowie deren Gültigkeit und Zuverlässigkeit regeln. Richter müssen ihr Urteilsvermögen einsetzen, wenn sie sich in ihrer Arbeit von der KI unterstützen lassen.
Oft kommerziell
Ein drittes Dilemma ergibt sich aus der Tatsache, dass heute KI häufig als kommerzielle und nicht als quelloffene Technologie entwickelt wird. Ich denke, Entwicklerinnen und Entwickler haben ein berechtigtes Interesse am Schutz ihrer Geschäftsgeheimnisse, doch dieses kollidiert mit unserm Anspruch, dass juristische Entscheidungen nachvollziehbar sein müssen. Wenn wir der Justiz KI-Wahrscheinlichkeitsanalysen von DNA-Abgleichen und Entscheidungshilfen bei der Strafzumessung zur Verfügung stellen möchten, heisst das in vielen Fällen, bei der Transparenz Kompromisse einzugehen.
Die KI hat das Potenzial, die Rechtsprechung effizienter zu gestalten, zu beschleunigen und qualitativ zu verbessern. In den genannten Spannungsfeldern wird es aber darum gehen, abzuwägen und pragmatische Kompromisse zu treffen. Als Gesellschaft müssen wir gemeinsam definieren, wie diese aussehen sollen. Und alle Wächterinnen und Wächter der KI – allen voran Richterinnen und Richter – müssen wir auf ihre neue und zusätzliche Aufgabe vorbereiten und ihnen das KI-spezifische Fachwissen vermitteln.
Dieser Beitrag ist zuerst auf der Website der ETH erschienen.
Das könnte Sie auch interessieren: Von den grenzenlos scheinenden Möglichkeiten mit ChatGPT können aber auch Cyberkriminelle Gebrauch machen. Was also bedeutet der Chatbot für die Security? Dieser Frage gingen Netzmedien und Check Point in einem gemeinsamen Webinar nach. Lesen Sie hier mehr dazu.