KI soll überprüfbar sein

Schweizer Studie fordert Regeln für künstliche Intelligenz

Uhr

Der Einsatz von künstlicher Intelligenz soll klare Regeln befolgen, nachvollziehbar und transparent sein – dies empfiehlt eine Studie von TA-Swiss.

(Source: geralt / Pixabay.de)
(Source: geralt / Pixabay.de)

Wenn Unternehmen oder öffentliche Einrichtungen künstliche Intelligenz (KI) einsetzen, sollten sie das nach klaren Regeln, nachvollziehbar und transparent tun. Dies empfiehlt eine Studie im Auftrag der Stiftung für Technologiefolgen-Abschätzung TA-Swiss. Ein neues Gesetz halten die Studienautoren allerdings nicht für geboten. Stattdessen sollten freiwillige Massnahmen die durch KI verursachten Probleme regeln, teilt die TA-Swiss mit.

Vor allem wenn es um Entscheidungen geht, die Personen betreffen, fordern die Autoren klare Richtlinien. So sollten beispielsweise Unternehmen, die mit Machine-Learning-Algorithmen im HR arbeiten und so Personal rekrutieren, transparent Auskunft geben können: Auf Nachfrage müssten sie Betroffenen einen Einblick in ihre Daten geben.

Auch KI-basierte personalisierte Werbung müsste als solche deklariert werden. Ferner sei die Datenportabilität zu gewährleisten: Nutzerinnen und Nutzer müssen die Möglichkeit erhalten, ihre Daten, die mittels KI gesammelt und bearbeitet wurden, zu einem anderen Anbieter zu übertragen.

Der Bund als Wächter gegen Falschmeldungen

Was den Arbeitsmarkt angeht, sehen die Studienautoren eine Chance: KI könnte dazu beitragen, dank Effizienzsteigerungen die persönliche Arbeitszeit zu reduzieren. Um den vielfach befürchteten Verlust von Arbeitsplätzen zu vermeiden, müssten allerdings Aus- und Weiterbildungen im Bereich KI gefördert werden. Hochschulen sollten nicht nur Grundlagenwissen vermitteln, sondern auch ethische Standards entwickeln – für die Forschung wie auch für den Einsatz von KI.

Bezüglich der Mediennutzung fordern die Autoren mehr Transparenz vonseiten der Plattformbetreiber. Diese sollten deklarieren, welche Inhalte aufgrund des Einsatzes von KI-Systemen gezeigt werden. Der Bund soll für Falschmeldungen sensibilisieren, die auf Basis von KI erstellt oder verbreitet werden. Zudem müssten Sicherheitsbehörden – unter parlamentarischer Kontrolle – jene politische Kampagnen, die mit Falschmeldungen arbeiten, zu erkennen und die Bevölkerung darüber zu informieren.

Durchgeführt wurde die Studie von Forschenden der Digital Society Initiative der Universität Zürich, der Abteilung Technologie und Gesellschaft der Empa und dem Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften. Die Studie ist als Open Access kostenlos erhältlich.

Maschinelles Lernen kommt auch in der Präzisionsmedizin vermehrt zum Einsatz. ETH-Forscherin Julia Vogt befasst sich unter anderem mit KI-Systemen als therapeutische Entscheidungshilfen für Ärzte. Im Interview spricht sie darüber, wie Machine Learning personalisierte Vorhersagen in der Neugeborenenmedizin ermöglicht, wie die Forschung an genügend Trainingsdaten gelangen kann und wie sich verzerrte Ergebnisse verhindern lassen.

Tags
Webcode
DPF8_177047

Kommentare

« Mehr