Deepfakes

So einfach umgehen User die Schutzfilter von Bild-KIs

Uhr
von Chiara Binder und jor

Neue KI-Bildgeneratoren lassen sich leicht dazu verleiten, sexuell explizite Inhalte zu erstellen. Dafür reichen oft bereits einfache Prompts in natürlicher Sprache aus.

(Source: freshidea / stock.adobe.com)
(Source: freshidea / stock.adobe.com)

User von KI-Chatbots missbrauchen die neuesten Modelle, um Bikini-Deepfakes von Frauen zu erstellen. Die meisten dieser gefälschten Bilder würden ohne Einverständnis der betroffenen Frauen generiert, berichtet "Wired" (Paywall).

Auf Internetforen wie Reddit teilen die User Tipps zur Erstellung solcher Deepfakes, wie das Newsportal weiter schreibt. Es würden Strategien geteilt, wie Sicherheitsvorkehrungen von KI-Tools gegen die Erstellung von Deepfakes umgangen werden können.

Gegenüber "Wired" kommentierte Reddit, dass die Regeln der Plattform "nicht-einvernehmliche intime Medien" verbieten, was das beschriebene Verhalten einschliesse. Das Forum habe daraufhin den entsprechenden Subreddit mit über 200’000 Followern gesperrt.

Über "Nudify"-Websites hätten zudem Millionen von Usern Fotos von Personen hochgeladen, um diese durch generative KI zu entkleiden. Ausser bei Grok sei die Erstellung solcher Bilder bei den meisten KI-Chatbots jedoch blockiert.

"Wired" führte die Tests mit Gemini sowie ChatGPT durch und stellte dabei fest, dass Anfragen auf einfachem Englisch ausreichen, um Bikini-Bilder zu erstellen. Auf Anfrage habe Google geantwortet, dass Richtlinien die Erstellung expliziter Inhalte verbieten würden. Zudem verbessere man die Tools von Google kontinuierlich, um diese Vorgaben besser umzusetzen. 

Corynne McSherry, Rechtsdirektorin bei Electronic Frontier Foundation, betrachtet laut "Wired" sexuell missbräuchliche Bilder als eines der Kernrisiken von KI-Bildgeneratoren. Entscheidend sei der Verwendungszweck der Werkzeuge, da es auch andere Anwendungsfälle als Deepfakes gebe. Personen und Unternehmen müssten zur Verantwortung gezogen werden, wenn sie potenziellen Schaden verursachen. 

 

Eine Prognose von Kaspersky für 2026 warnt vor Deepfakes. Die Bedrohungslage verschärfe sich durch verbesserte Sprachmodelle und generative KI. Mehr dazu lesen Sie hier.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
9xz3AJ5X