Experiment von der ARD

Cyberkriminelle schreiben Schadsoftware mit ChatGPT

Uhr
von Dejan Wäckerlin und tme

Statt Schadcode mühsam selbst zu schreiben, greifen Cyberkriminelle vermehrt auf ChatGPT zurück. Mit den richtigen Prompts spuckt der Chatbot fixfertige Codes aus, die Kriminelle anschliessend für ihre Betrugsmaschen verwenden können.

(Source: freepik / freepik.com)
(Source: freepik / freepik.com)

Cyberkriminelle nutzen ChatGPT immer häufiger dazu, Schadsoftware zu entwickeln. Dazu müssen sie den Chatbot lediglich mit den richtigen Prompts füttern und erhalten innert Sekunden einen Schadcode geliefert. Wie einfach diese Methode funktioniert, hat der Cybersecurityexperte Florian Hansemann im Rahmen der ARD-Sendung "Plusminus" gezeigt. Wie "SRF" berichtet, liess Hansemann einen Keylogger schreiben und verpackte diesen in einer vermeintlichen Mahnung einer Steuerbehörde. 

Wer den Link anklickt, lädt automatisch die Schadsoftware auf den eigenen Computer, wie es heisst. Keylogger dienen Cyberkriminellen dazu, Tastatureingaben aufzuzeichnen. Im Video demonstriert Hansemann das Vorgehen und resümiert: "Das hat geklappt und ist super simpel".

(Source: SRF)

Sergey Shykevich, Sicherheitsforscher des israelischen Unternehmens Check Point, bestätigt gemäss "SRF", dass Kriminelle KI für ihre Zwecke missbrauchen. So würden Kriminelle in russischen Foren ChatGPT verwenden, um etwa Gesichtserkennungen zu knacken oder Sicherheitsfilter zu umgehen. Ein Beispiel ist ein Post eines Users mit dem Pseudonym "US DoD". Dieser sei kein Cyberkrimineller, sondern ein normaler Betrüger. "Er weiss gar nicht, wie man Schadcodes programmiert", sagt Shykevich gegenüber "SRF". ChatGPT ermögliche solchen Leuten einfach, "Entwickler zu werden". Schon zuvor ging er und die Netzmedien in einem gemeinsamen Webinar auf die Frage ein, wie Cyberkriminelle von ChatGPT Gebrauch machen könnten.

ChatGPT und KI soll reguliert werden

Der Ruf nach KI-Regulation wird indes immer lauter. US-Behörden warnten bereits vor mittels KI geklonten Stimmen. Diese würden beispielsweise vorgaukeln, dass eine Person entführt worden sei. Ziel sei dabei ein Lösegeld zu erpressen. Auch das Center for AI Safety forder "die Eindämmung des Risikos der Auslöschung durch KI". Diese Ansicht unterstütze auch Sam Altman, CEO von OpenAI, der das Statement mitunterschrieben habe, berichtet "SRF" weiter. 

Auch der Bundesrat hat das UVEK beauftragt, die Möglichkeiten und Risiken von künstlicher Intelligenz zu analysieren. Der Bericht soll auch mögliche Ansätze zur Regulierung dieser Technologie aufzeigen

Übrigens: Kaspersky hat untersucht, wie gut ChatGPT Phishing-Links erkennt. Hier lesen Sie mehr dazu.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
tUr98Tnf