Generative KI

Sammelklage gegen OpenAI und Microsoft wegen massiven Datenmissbrauchs

Uhr
von Yannick Chavanne und Übersetzung: Coen Kaat

In Kalifornien wurde eine Sammelklage gegen OpenAI und Microsoft eingereicht. Die Kläger geben an, dass die Entwickler von ChatGPT gestohlene private Informationen illegal ausnutzen, um ihre Large Language Models zu trainieren.

(Source: Timon / AdobeStock.com)
(Source: Timon / AdobeStock.com)

Wenn es um die Herkunft von Daten geht, halten sich die Anbieter von KI-Tools wie ChatGPT, Midjourney oder Dall-E bedeckt. Die Daten nutzen sie, um diese sogenannten Large Language Models (LLM) zu trainieren. 

Um zu verhindern, dass diese mit Twitter-Inhalten gefüttert werden, ergriff der Eigentümer und Ex-CEO des sozialen Netzwerks, der Milliardär Elon Musk, eine Reihe von Massnahmen: Verifizierte Accounts (mit Abonnement) dürfen maximal 6000 Tweets pro Tag lesen, während nicht verifizierte Accounts 600 Nachrichten lesen dürfen.

Der Widerstand gegen die Datenauswertung durch generative KIs, allen voran OpenAI, schlug sich auch in einer Sammelklage nieder. Die am 28. Juni von 16 anonymen Personen eingereichte Klage gegen OpenAI - aber auch gegen dessen Partner Microsoft - nennt als Grund "das illegale und schädliche Verhalten der Angeklagten bei der Entwicklung, Vermarktung und Nutzung ihrer KI-Produkte, einschliesslich ChatGPT-3.5, ChatGPT-4.0, Dall-E und Vall-E, die gestohlene private Informationen, einschliesslich persönlich identifizierbarer Informationen, von Hunderten von Millionen Internetnutzern, einschliesslich Kindern aller Altersgruppen, ohne deren informierte Zustimmung oder Wissen verwenden".

Die Verfasser der Klage sind ausserdem der Ansicht, dass "OpenAI ohne diesen beispiellosen Diebstahl von privaten und urheberrechtlich geschützten Informationen, die realen Personen gehören", nicht Milliarden von Dollar hätte einnehmen können.

"Nachdem [die LLM-Vorlagen] aus gestohlenen Daten gebildet worden waren, sahen die Angeklagten das unmittelbare Gewinnpotenzial und brachten die Produkte übereilt auf den Markt, ohne angemessene Garantien oder Kontrollen einzuführen, um sicherzustellen, dass sie keine schädlichen oder böswilligen Inhalte und Verhaltensweisen produzieren oder unterstützen, die weiter gegen das Gesetz verstossen, Rechte verletzen und Leben gefährden könnten", heisst es weiter in dem 157 Seiten umfassenden Dokument, das die Kläger beim Bundesgericht in San Francisco, Kalifornien eingereicht haben.

Das könnte Sie auch interessieren: ChatGPT und Co. bringen nicht nur Datenschutzbedenken mit sich. Von den grenzenlos scheinenden Möglichkeiten dieser Chatbots können nämlich auch Cyberkriminelle Gebrauch machen. Was also bedeutet der Chatbot für die Security? Dieser Frage gingen Netzmedien und Check Point in einem gemeinsamen Webinar nach. Lesen Sie hier mehr dazu.

 

 

 

Webcode
SCkaQrjW