Personal Jesus
Wir lassen uns gerne beraten, bei der Arbeit und im Alltag, von Freunden, Kollegen und Kolleginnen und immer häufiger auch von intelligenten Assistenten. Von den neuen Helfern erwarten wir jedoch Leistungen, die wir von Menschen nicht erwarten würden.

Seit Kurzem haben wir neue Freunde. Freunde, die wir zu jeder Lebenssituation befragen können und die uns mit kompetenten Ratschlägen weiterhelfen. Wie die Studie "Künstliche Intelligenz in der Schweiz 2024" der Universität Zürich von 2024 belegt, kennen 98 Prozent der Umfrageteilnehmer solche KI-Hilfen, und mehr als die Hälfte (54 Prozent) nutzt sie regelmässig. Von den neuen Freunden erwarten wir jedoch viel mehr als von unseren menschlichen Freunden. Die Antworten sollten in jedem Fall richtig sein, die Fakten umfassend und vollständig und die Beurteilungen gerecht und immer nachvollziehbar. Wir tolerieren keine Fehler.
Verzerrungen
KI-Systeme machen jedoch Fehler und sie verstärken Ungerechtigkeiten. So stellen Bildgeneratoren ältere Personen in spezialisierten Berufen immer als Männer dar, Systeme zur Beurteilung von Bewerbungen benachteiligen Frauen, Risikobewertungssysteme beurteilen Minderheiten anders als andere Bevölkerungsgruppen, Assistenzsysteme stellen unschuldige Menschen als Straftäter dar. Die Ursache dafür wird "Verzerrung" oder auch "Bias" genannt. "Wenn Menschen Informationen verarbeiten und Urteile fällen, werden wir unweigerlich von unseren Erfahrungen und Vorlieben beeinflusst", stellt das "IBM Data and AI Team" fest. Was für Menschen gilt, gilt auch für eine KI. Die Erfahrungen und Vorlieben einer KI werden durch die Programmierung und durch die Trainingsdaten, die der KI zur Verfügung stehen, bestimmt. Programmierer mit Vorurteilen programmieren KIs mit Vorurteilen. Schlecht ausgewählte und nicht repräsentative Trainingsdaten führen zu KIs, die ungerechte Entscheidungen treffen.
Lösungsansätze
Eine KI sollte gesetzeskonform und fair unter menschlicher Kontrolle handeln und sie soll das effizient, transparent und vertrauenswürdig tun. Das IBM-Team ist der Meinung, dass dies nur über organisatorische Richtlinien zu erreichen ist. Diese Meinung teilt die EU und hat mit dem KI-Gesetz den entsprechenden Rechtsrahmen geschaffen. Internationale Forschungsteams arbeiten darüber hinaus an Lösungen, wie die Verzerrungen erkannt und mit technischen Mitteln bekämpft werden können. So kann die Verzerrung von Trainingsdaten aufgrund des Geschlechts in naher Zukunft behoben werden. Dafür werden auf Sprach- und Bilderkennung ausgerichtete Mess- und Korrekturmethoden eingesetzt. All diesen Methoden ist gemeinsam, dass sie Trainingsdaten ergänzen und korrigieren, um KI-Vorurteile zu beseitigen. Es gilt, Trainingsdaten, die eine ungerechte Realität reflektieren, so zu ergänzen, dass diese Ungerechtigkeit nicht zementiert wird. So sind 90 Prozent aller weltweit in der Gesundheitsbranche arbeitenden Personen Frauen, sie stellen jedoch nur 20 Prozent der Führungskräfte. In der Lebensmittelindustrie sind es 10 Prozent. 28 Prozent der Arbeitskräfte in Wissenschaft, Technologie, Ingenieurwesen und Mathematik sind Frauen. Die Hoffnung ist, dass ergänzte Trainingsdaten helfen, diese Ungerechtigkeiten zu korrigieren, damit beispielsweise in Bewerbungsprozessen für alle neue Chancen entstehen.
Die Alternative
Das perfekte Gegenüber. Das sollen unsere neuen Helfer – die KI-Agenten – werden. Regularien und technische Lösungen gehen in diese Richtung. Es würde jedoch auch anders gehen: Wir akzeptieren, dass unsere KI-Agenten wie wir von Erfahrungen und Vorlieben beeinflusst sind. Und wir lernen, auch so mit ihnen umzugehen. Dass sie wie wir wohlwollende, jedoch auch fehlbare Individuen mit Rechten und Pflichten sein werden.

Die Spring Party bringt die Westschweizer IT-Branche zusammen

Firmenporträt Centris

Wenn die Infrastruktur bremst – wie Unternehmen sich selbst ausbremsen

Firmenporträt ensec

Möge der Saft wieder mit dir sein

"KI ist die Beschleunigerin"

Kantonsschule Zürcher Unterland sucht ICT-Leitung

"Akzeptanz ist die wichtigste Messgrösse"

Diese Digitalunternehmen gestalten die KI-Transformation in der Schweiz
