OpenAI in der Kritik

ChatGPT in Kenia: Menschen als Filter für problematische Inhalte

Uhr
von Rodolphe Koller und Übersetzung: Joël Orizet

Jetzt ist klar, wie OpenAI seine KI-Modelle wie ChatGPT daran hindert, hochproblematische Inhalte von sich zu geben: Das Unternehmen setzte auf Angestellte in Kenia, die verstörende und illegale Inhalte sichten und kennzeichnen – für weniger als 2 US-Dollar pro Stunde.

(Source: Michael Dziedzic / Unsplash.com)
(Source: Michael Dziedzic / Unsplash.com)

ChatGPT vermeidet rassistische, sexistische oder hasserfüllte Ässerungen. Das hat allerdings seinen Preis, wie eine Recherche des New Yorker Nachrichtenmagazins "Time" zeigt. OpenAI, das Unternehmen hinter ChatGPT und dem Text-zu-Bild-Generator Dall-E, beauftragte demnach die kalifornische Firma Sama damit, toxische Inhalte zu kennzeichnen, um so die Filteralgorithmen von OpenAI zu trainieren. 

Sama beschäftigt Mitarbeitende in Kenia, Uganda und Indien, die Texte und Bilder nach höchst problematischen Inhalten durchsuchen und diese kennzeichnen sollen. Zu den Kunden des Unternehmens zählen auch Meta, Google und Microsoft. 

Bis zu 250 Textpassagen für weniger als 2 Dollar die Stunde

Auf der Grundlage interner Dokumente der beiden Unternehmen und Interviews mit Angestellten enthüllte das "Time"-Magazin, dass OpenAI Ende 2021 drei Verträge mit Sama im Gesamtwert von 200’000 US-Dollar unterzeichnet hatte. Auf Anfrage bestätigte OpenAI dem Magazin, dass Sama-Mitarbeitende in Kenia an der Entwicklung eines Tools zur Erkennung toxischer Inhalte mitgewirkt hätten, das womöglich für ChatGPT verwendet werde.

"Unsere Mission ist es, sicherzustellen, dass die gesamte Menschheit von allgemeiner künstlicher Intelligenz profitiert, und wir arbeiten hart daran, sichere und nützliche KI-Systeme zu entwickeln, die Vorurteile und schädliche Inhalte begrenzen", sagte ein Sprecher von OpenAI gegenüber dem Magazin und ergänzte: "Das Klassifizieren und Filtern schädlicher Texte und Bilder ist ein notwendiger Schritt, um die Menge an gewalttätigen und sexuellen Inhalten, die in den Trainingsdaten enthalten sind, zu minimieren und Tools zu entwickeln, die solche Inhalte erkennen können."

Gemäss den Recherchen des "Time"-Magazins mussten für den OpenAI-Auftrag Arbeitnehmende in Kenia in Neun-Stunden-Schichten zwischen 150 und 250 Textpassagen mit jeweils 100 bis 1000 Wörtern auswerten. OpenAI bezahlte einen vertraglich festgehaltenen Stundensatz von 12,5 US-Dollar – doch die Beschäftigten erhielten unter dem Strich weniger als 2 Dollar pro Stunde. Ein Sama-Sprecher bestreitet diese Angabe und hält dagegen, dass die Angestellten 70 Textpassagen pro Tag auswerten mussten und dass ihr Lohn über 3 Dollar die Stunde lag. 

Traumatisierende Datenetikettierung

Allerdings geht es nicht nur um den Lohn, sondern auch um die Arbeitsbedingungen. Denn die sogenannten Datenetikettierer mussten mitunter traumatisierende Inhalte durchforsten. Ein Sama-Mitarbeiter, der Texte für OpenAI lesen und klassifizieren sollte, leidet nun dem Bericht zufolge unter wiederkehrenden Bildern im Kopf, nachdem er eine Beschreibung eines Mannes gelesen hatte, der angeblich in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte. "Das war Folter", zitiert ihn das Magazin. „Man liest im Laufe der Woche viele solcher Aussagen. Und freitags ist man verstört, weil man an diese Bilder denken muss." 

Im Februar 2022 zog sich Sama vom Vertrag mit OpenAI zurück – acht Monate vor dem Ende der vereinbarten Vertragslaufzeit. Kurz zuvor wollte OpenAI das Unternehmen mit einer weiteren Aufgabe beauftragen: das Sammeln und Liefern von Bildern mit sexuellem oder gewalttätigem Inhalt. Nach einer ersten Herausgabe von Bildern beschloss Sama, die Geschäftsbeziehung abzubrechen, da einige der Inhalte illegal waren. Es ging unter anderem um Darstellungen von sexualisierter Gewalt an Kindern und Vergewaltigungen. 

"Das Ostafrika-Team hat seine Bedenken sofort gegenüber dem Management geäussert. Sama hat das Pilotprojekt zur Bildklassifizierung daraufhin sofort beendet und angekündigt, dass wir alle verbleibenden Projekte mit OpenAI stornieren", sagte ein Sama-Sprecher gegenüber dem "Time"-Magazin. OpenAI gibt hingegen an, dass es Meinungsverschiedenheiten darüber gegeben habe, welche Art von Bildern geliefert werden sollten. 
 

Übrigens: Forschende des israelischen IT-Sicherheitsdienstleisters Check Point haben gezeigt, dass es relativ einfach ist, mithilfe von ChatGPT einen Cyberangriff zu planen - vom Verfassen der Phishing-E-Mail bis zum Schreiben des Codes, der eine bösartige Datei herunterlädt und ausführt, wenn Sie ein Excel-Dokument öffnen. Lesen Sie hier mehr dazu

Webcode
U2bVcJoK