Cyberkriminelle schreiben Schadsoftware mit ChatGPT
Statt Schadcode mühsam selbst zu schreiben, greifen Cyberkriminelle vermehrt auf ChatGPT zurück. Mit den richtigen Prompts spuckt der Chatbot fixfertige Codes aus, die Kriminelle anschliessend für ihre Betrugsmaschen verwenden können.
Cyberkriminelle nutzen ChatGPT immer häufiger dazu, Schadsoftware zu entwickeln. Dazu müssen sie den Chatbot lediglich mit den richtigen Prompts füttern und erhalten innert Sekunden einen Schadcode geliefert. Wie einfach diese Methode funktioniert, hat der Cybersecurityexperte Florian Hansemann im Rahmen der ARD-Sendung "Plusminus" gezeigt. Wie "SRF" berichtet, liess Hansemann einen Keylogger schreiben und verpackte diesen in einer vermeintlichen Mahnung einer Steuerbehörde.
Wer den Link anklickt, lädt automatisch die Schadsoftware auf den eigenen Computer, wie es heisst. Keylogger dienen Cyberkriminellen dazu, Tastatureingaben aufzuzeichnen. Im Video demonstriert Hansemann das Vorgehen und resümiert: "Das hat geklappt und ist super simpel".
(Source: SRF)
Sergey Shykevich, Sicherheitsforscher des israelischen Unternehmens Check Point, bestätigt gemäss "SRF", dass Kriminelle KI für ihre Zwecke missbrauchen. So würden Kriminelle in russischen Foren ChatGPT verwenden, um etwa Gesichtserkennungen zu knacken oder Sicherheitsfilter zu umgehen. Ein Beispiel ist ein Post eines Users mit dem Pseudonym "US DoD". Dieser sei kein Cyberkrimineller, sondern ein normaler Betrüger. "Er weiss gar nicht, wie man Schadcodes programmiert", sagt Shykevich gegenüber "SRF". ChatGPT ermögliche solchen Leuten einfach, "Entwickler zu werden". Schon zuvor ging er und die Netzmedien in einem gemeinsamen Webinar auf die Frage ein, wie Cyberkriminelle von ChatGPT Gebrauch machen könnten.
ChatGPT und KI soll reguliert werden
Der Ruf nach KI-Regulation wird indes immer lauter. US-Behörden warnten bereits vor mittels KI geklonten Stimmen. Diese würden beispielsweise vorgaukeln, dass eine Person entführt worden sei. Ziel sei dabei ein Lösegeld zu erpressen. Auch das Center for AI Safety forder "die Eindämmung des Risikos der Auslöschung durch KI". Diese Ansicht unterstütze auch Sam Altman, CEO von OpenAI, der das Statement mitunterschrieben habe, berichtet "SRF" weiter.
Auch der Bundesrat hat das UVEK beauftragt, die Möglichkeiten und Risiken von künstlicher Intelligenz zu analysieren. Der Bericht soll auch mögliche Ansätze zur Regulierung dieser Technologie aufzeigen.
Übrigens: Kaspersky hat untersucht, wie gut ChatGPT Phishing-Links erkennt. Hier lesen Sie mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
Update: SRG kehrt auf UKW zurück
Update: Reddit klagt gegen Social-Media-Verbot in Australien
KI-Agenten unterstützen auch Cyberkriminelle
OpenAI bringt ChatGPT für anspruchsvollere Aufgaben
Was an Grösse fehlt, machen sie durch Niedlichkeit wett
Update: Weko nimmt NFC-Bedingungen von Apple unter die Lupe
Stadt Luzern führt digitales Portal für Baugesuche ein
Das prognostizieren Experten für 2026 (2)
Das prognostizieren Experten für 2026