Gefälschtes Audio-, Bild oder Videomaterial

So setzen Betrüger KI zum Phishen ein

Uhr
von Dejan Wäckerlin und tme

Betrüger setzen vermehrt auf KI, um potenzielle Opfer in die Irre zu führen. Mit künstlicher Intelligenz lassen sich Audio-, Bild- oder Videoaufnahmen fälschen, mit denen Cyberkriminelle für betrügerische Online-Plattformen werben, Give-Away-Aktionen anpreisen oder ihre Opfer mittels gefälschten Nacktfotos zu erpressen versuchen.

(Source: katemangostar / Freepik)
(Source: katemangostar / Freepik)

Phishing-Mails sind häufig nicht nur am Absender und dem Link, sondern auch an sprachlichen und formalen Elementen in der Nachricht erkennbar. Da die Übeltäter in der Regel nicht deutsch sprechen, sind sie auf Übersetzer und Vorlagen angewiesen, wie das Nationale Zentrum für Cybersicherheit (NCSC) in seinem aktuellen Wochenrückblick mitteilt. Cyberkriminelle nutzten künstliche Intelligenz, um mit klar definierten Sprach-Anforderungen Vorlagen zu erstellen, die nur schwer als Fälschung zu erkennen seien. Aber: Selbst fehlerfreie Nachrichten enthalten einen betrügerischen Link. Das NCSC empfiehlt deshalb, Links genau unter die Lupe zu nehmen, bevor diese geöffnet werden. 

Bild- und Videomaterial mit KI fälschen

Das NCSC warnt weiter vor Kriminellen, die Bilder und Videos fälschen. Mittlerweile seien Tools im Umlauf, die grafisches Material produzierten, das nur sehr schwer als Fälschung zu entlarven sei. Auch gefälschte Videos würden sich mit wenig Basismaterial von einer Person erzeugen lassen. In der Regel sollen Betrüger Personen dafür missbrauchen, von denen bereits viel Videomaterial im Umlauf sei. Dem NCSC liegen bereits Fälle mit dieser Masche vor:  

  • Online-Anlagebetrug: So würden Cybergauner für Online-Anlagen mit dem Gesicht und der Stimme einer bekannten Persönlichkeit werben. Dem Betrachter wird suggeriert, das sie oder er mit einer kleinen Investition sehr viel Geld auf der Online-Plattform gewinnen könnte. Das bekannte Gesicht soll hierbei das Vertrauen des Opfers wecken.
     
  • Give-Away-Aktionen: Auch bei betrügerischen Give-Away-Aktionen komme KI zum Einsatz. Eine bekannte Persönlichkeit soll erzählen, dass Bitcoin-Zahlungen an eine bestimmte Wallet für eine Wohltätigkeitsaktion doppelt zurückgezahlt würden. Zahlungen an diese Wallet gehen natürlich direkt an die Betrüger, wie die Organisation warnt.
     
  • Sextortion: Mit KI lassen sich auch Nacktbilder von potenziellen Opfern erstellen, wie es weiter heisst. Betrüger könnten diese verwenden, um Opfer zu erpressen. Für Betrachter sei es schwierig auszumachen, dass einzig das Gesicht von dieser Person stamme und der Rest die KI hinzugefügt habe.

Gefälschte Stimmen

Wer Stimmproben einer Zielperson, beispielsweise über Telefonanrufe, aufgenommen hat, könne mit KI-Modellen Text und Sprache so wiedergeben, dass die Stimme jener der Zielperson zum Verwechseln ähnlich sei. Solche Stimmen werden etwa für Schockanrufe verwendet, wie das NCSC schreibt. Ein angeblicher Polizist rufe beispielsweise bei einem Opfer an und erkläre, dass ihr oder sein Kind in ein Unfall verwickelt sei und die Person deshalb eine Kaution bezahlen müsse. Als Beweis wird laut dem NCSC eine fabrizierte Aufzeichnung abgespielt, in welcher die vermeintliche Stimme des Kindes um Hilfe bittet.

Tipps

Das NCSC rät, folgende Tipps zu beachten:

  • Klicken Sie nicht auf Links in E-Mails oder SMS. Vor allem nicht, wenn Sie aufgefordert werden, darauf zu klicken.
  • Kontrollieren Sie Links hinsichtlich der Zieldomäne.
  • Geben Sie nie Passwörter, Codes oder Kreditkartendaten auf einer Seite ein.
  • Hinterfragen Sie Angebote oder Gewinnmöglichkeiten, welche zu gut scheinen.
  • Kontaktieren Sie den Angehörigen direkt über einen anderen Kanal, wenn Sie seltsame oder verstörende Anrufe erhalten, die ein Problem bei einem Familienangehörigen vorgeben.
  • Werden Sie mit kompromittierendem Bildmaterial, auch gefälschtem, kontaktieren Sie die Polizei. Leisten Sie keine Zahlungen.
  • Seien Sie generell vorsichtig bezüglich Fotos und Videos von Ihnen oder anderen Personen, die Sie im Internet veröffentlichen.

Übrigens: Cloudflare hat seinen Phishing Report für 2023 vorgelegt. Gemäss dem Bericht geraten mehr und mehr KMUs und auch der öffentliche Sektor ins Fadenkreuz der Cyberkriminelle. Mehr dazu finden Sie hier.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
fC6KBfyV

Passende Jobs