Facebook-KI verwechselt schwarze Menschen mit Affen
Facebook gibt ein weiteres Beispiel dafür ab, wie KI-Algorithmen zu Diskriminierung führen können. Nach dem Anschauen eines Clips mit schwarzen Männern fragte das Empfehlungstool der Plattform, ob die Nutzenden "weiterhin Videos über Primaten sehen möchten".
Gesichtserkennungs-Algorithmen sind noch lange nicht perfekt, insbesondere wenn es um ethnische Kategorien geht. Das zeigt die US-amerikanische Social-Media-Plattform Facebook mit ihrem Empfehlungstool. In einem Video über schwarze Männer schlug das Tool im Anschluss Videos zu Affen und Primaten vor. Der Inhalt hatte allerdings keinerlei Bezug zu Affen, wie die "New York Times" berichtet.
Auf Nachfrage US-amerikanischer Medien räumt ein Sprecher von Facebook ein, die künstliche Intelligenz (KI) "müsse noch einige Fortschritte machen". Facebook hat sich für diesen "inakzeptablen Fehler" entschuldigt. Man arbeite daran, das Problem zu beheben.
Nicht nur Facebook ist davon betroffen. Immer wieder wird auf den Rassismus und Sexismus von KIs hingewiesen. Ein ETH-Student hat beispielsweise einen Twitter-Algorithmus entdeckt, der junge, hellhäutige Gesichter mit stereotypisch femininen Gesichtszügen anderen Gesichtern vorzieht.
Um Algorithmen zu entwickeln, die unabhängig von ethnischen oder geschlechtsspezifischen Merkmalen wirksam sind, müssen sie auf einer Datenbank mit repräsentativen Bildern trainiert werden. Damit befassen sich die Forscher des Idiap-Instituts in Martigny. Hier können Sie mehr darüber lesen.
Update: SRG kehrt auf UKW zurück
Update: Weko nimmt NFC-Bedingungen von Apple unter die Lupe
Update: Reddit klagt gegen Social-Media-Verbot in Australien
Stadt Luzern führt digitales Portal für Baugesuche ein
Group CIO verabschiedet sich von der Migros
Was an Grösse fehlt, machen sie durch Niedlichkeit wett
KI-Agenten unterstützen auch Cyberkriminelle
OpenAI bringt ChatGPT für anspruchsvollere Aufgaben
Das prognostizieren Experten für 2026 (2)