Fluch und Segen

Was ChatGPT für die Cyber Security bedeutet

Uhr
von Coen Kaat und lha

Die grenzenlos scheinenden Möglichkeiten von ChatGPT sind derzeit in aller Munde. Von diesen können aber auch Cyberkriminelle Gebrauch machen. Was also bedeutet der Chatbot für die Security? Dieser Frage gingen Netzmedien und Check Point in einem gemeinsamen Webinar nach.

(Source: zVg)
(Source: zVg)

ChatGPT hat die Karten zwischen CISOs und Cyberkriminellen neu gemischt. Der Chatbot des US-amerikanischen Anbieters OpenAI machte die Möglichkeiten von Machine Learning für alle zugänglich - durch ein einfaches Dialogsystem. Das hat viele Türen geöffnet und ermöglicht einen Grad an Automatisierung, den es vorher einfach nicht gab. Aber davon profitieren eben auch die Cyberkriminellen.

Um der Frage nachzugehen, welche Auswirkungen ChatGPT auf die Security hat, veranstalteten Netzmedien und Check Point ein gemeinsames Webinar. Zunächst legte Sergey Shykevich dar, wie Cyberkriminelle ChatGPT theoretisch nutzen könnten und wie sie den Chatbot bereits tatsächlich verwenden. Shykevich ist Threat Intelligence Group Manager bei Check Point.

Wer das Webinar verpasst hat, kann es sich hier in voller Länge ansehen. (Source: Netzmedien)

Shykevich zeigte auf, wie Sicherheitsforschende von Check Point eine vollständige Infektionskette mit ChatGPT erstellen konnten. In einem ersten Schritt forderte Check Point den Chatbot auf, eine Phishing-E-Mail zu schreiben. Diese sollte wirken, als käme sie von einem fiktiven Webhoster namens Host4u. Das Tool erstellte sogleich den erwünschten irreführenden Text - inklusive eines Platzhalters für den "Link zur gefälschten Anmeldeseite", wie ChatGPT es formulierte. Lediglich am Ende des Textes gab der Chatbot einen Hinweis darauf, dass der zur Verfügung gestellte Inhalt möglicherweise gegen die Content Policy von OpenAI verstosse. 

Wiederholen, wiederholen, wiederholen

"Iteration ist der Schlüssel bei ChatGPT", sagte Shykevich. In weiteren Anläufen verfeinerten die Sicherheitsforschenden die Prompts, mit denen sie das Tool fütterten. Bis der Output genau dem entsprach, was sie wollten. ChatGPT ermahnte zwar weiterhin, dass der Inhalt womöglich problematisch sei, passte den Text aber dennoch stets entsprechend an.

Im nächsten Schritt machten die Sicherheitsforschenden ChatGPT zum Malware-Entwickler. Sie baten das Tool, VBA-Code zu schreiben. Dieser sollte dafür sorgen, dass automatisch eine ausführbare Datei von einer bestimmten URL heruntergeladen und ausgeführt wird, sobald ein Excel-File geöffnet wird. VBA steht für Visual Basic for Applications, eine Programmiersprache für Microsofts Office-Programme. 

ChatGPT spuckte zwar sogleich ein paar Codezeilen heraus, "aber der anfängliche Output war nicht sehr gut", sagte Shykevich. Auch hier bedurfte es wieder einiger Iterationen, bis Check Point den Schadcode als "gut" empfand. Die finale Version war sogar in der Lage, einige Antivirenlösungen zu umgehen. Anschliessend entwickelten die Sicherheitsforschenden auf dieselbe Weise mit ChatGPT und einem weiteren OpenAI-Tool namens Codex die ausführbare Datei, welche mit dem VBA-Skript heruntergeladen und gestartet werden soll. Auch beim Kompilieren der Codezeilen zu einer .exe-Datei konnten die Tools helfen. Und damit war die Infektionskette komplett.

Sergey Shykevich, Threat Intelligence Group Manager bei Check Point. (Source: zVg)

Sergey Shykevich, Threat Intelligence Group Manager bei Check Point. (Source: zVg)

Cybercrime springt sogleich auf den Zug auf

"Das war der theoretische Teil. Der ist nett, aber nicht wirklich extrem aufregend." Mit diesen Worten leitete Shykevich zum zweiten Teil seines Referats über, in dem er aufzeigte, wie Cyberkriminelle ChatGPT tatsächlich bereits nutzen. 

Was auffiel, ist wie schnell der Untergrund erste Experimente mit dem Machine-Learning-Tool produzierte. Das erste Beispiel entdeckten die Sicherheitsforschenden weniger als einen Monat nach der Lancierung von ChatGPT im November 2022. Am 21. Dezember hatte eine Person auf dem grössten englischsprachigen Untergrund-Forum ein Multi-Layer-Verschlüsselungs-Tool publiziert. Derartige Tools können als Grundbaustein für eine Ransomware dienen. Der Entwickler war laut Shykevich zwar ein etablierter Cyberkrimineller - jedoch kein Programmierer, kein Techie. Aber mit ChatGPT konnte er nun selbst schädlichen Code erstellen. 

Eine Woche später hatte eine andere Person einen mit ChatGPT entwickelten Infostealer gepostet. In beiden Fällen prüften die Check-Point-Experten den Code. "Die Codes waren gut, aber nicht perfekt", kommentierte Shykevich. In einem der Schädlinge gab es etwa ein paar Programmierfehler, deren Behebung doch noch gewisse Entwicklerkenntnisse voraussetze.

Ausblick auf GPT-4

In den "technisch versierteren russischsprachigen Foren" entdeckte Check Point ein reges Interesse an den Möglichkeiten des Chatbots. Die Nutzerinnen und Nutzer des Forums sprachen etwa darüber, wie man die Geofencing-Barrieren überwindet, wie man mit dem Chatbot biometrische Schranken umgeht, und wie man die richtigen Prompts wählt. Einer der aktivsten Threads war "Wird KI die Programmierer ersetzen?" - auch im Darkweb macht man sich also Sorgen darum. 

Zum Abschluss seines Referats gab Shykevich noch einen kurzen Ausblick auf die am 14. März lancierte neue Version von ChatGPT. Diese basiert auf dem fortschrittlicheren Sprachmodell GPT-4 und ist aktuell zahlender Kundschaft vorbehalten. 

Die neue Version soll die Erstellung problematischer Inhalte unterbinden. Fragt man den Chatbot etwa direkt, ein schädliches Skript zu coden, verweigert das Tool den Dienst. Aber diese Schranke lässt sich gemäss Shykevich leicht umgehen. In seinem Beispiel hatten die Sicherheitsexperten von Check Point den Chatbot aufgefordert, ein Skript für einen Film zu schreiben. In diesem Film kommt der Quellcode für ein Schadprogramm mit bestimmten Features vor. Damit der Film möglichst authentisch wird, verfasst ChatGPT dafür natürlich auch einen wirksamen Schadcode. 

Verantwortung, Desinformation, Alternativen

Im Anschluss an den Vortrag von Shykevich wurde das Thema in einer Panel-Diskussion weiter vertieft. An der Gesprächsrunde nahmen teil:

  • Karl Aberer, Professor an der EPFL
  • Alexander Busse, Gründer und CEO von Cybervize
  • Jürg Gutknecht, emeritierter Professor an der ETH
  • Dominik Raub, CISO bei Crypto Finance
  • Dario Salice, Gründer von Jenario
  • Michael Schläpfer, Mitgründer und CSO von Gobugfree
  • Andreas Schneider, Field CISO bei Lacework
  • Sergey Shykevich, Threat Intelligence Group Manager bei Check Point

Die Diskussionsteilnehmenden.

Die Teilnehmenden der Panel-Diskussion. (Source: Screenshot)

Zunächst führte Gutknecht aus, wie ChatGPT und künstliche Intelligenz (KI) generell auch ohne Schadcode und Phishing Probleme verursachen können. Er warf die Frage in den Raum, wer rechtlich verantwortlich ist für eine selbstlernende KI. "Die KI selbst kann man nicht zur Verantwortung ziehen. Wie soll man auch einen Chatbot für dessen Verbrechen bestrafen?", sagte Gutknecht. Das zeige, dass unser Rechtssystem einen radikalen Wandel benötige, um KI-Systeme zu integrieren. 

Busse von Cybervize erklärte ebenfalls, wie Cyberkriminelle mit ChatGPT Schaden verursachen können, auch ohne den Chatbot etwas programmieren zu lassen. Sie könnten das Tool etwa nutzen, um grössere Mengen an Fake News und Desinformation zu erstellen und diese auf sozialen Netzwerken teilen, um das Vertrauen in Politik, Wirtschaft, Forschung oder Medien zu untergraben. Auf diese Weise könne man auch sehr gezielt Unternehmen, Organisationen oder Personen angreifen. Denn so könne man beispielsweise den Anschein erwecken, dass ein bestimmtes Unternehmen sich unethisch oder illegal verhalten habe. 

Die Frage nach der Verantwortung griff Salice von Jenario später wieder auf. "Wir müssen die Plattformen, die diese Tools zur Verfügung stellen, an den Tisch bringen. Die Anbieter sind in der Verantwortung, den kriminellen Missbrauch ihrer Tools möglichst zu unterbinden. Sie müssen ihren Beitrag dazu leisten, dass die Nutzung ihrer Tools für Cyberkriminelle weniger lukrativ ist", sagte Salice. 

Aktuell gebe es zwar noch immer einfachere Alternativen für Scammer und Cyberkriminelle als KI-Tools. "Solange sie mit kostengünstigen Phishing-Attacken ihre Ziele erreichen, werden Cyberkriminelle zögern, auf aufwändigere und teurere Methoden zu setzen", sagte er. Je besser die Abwehr wird, desto grösser wird jedoch auch der Druck auf Cyberkriminelle, fortschrittlichere Angriffsmethoden einzusetzen. 

ChatGPT in der Cyberabwehr

Wie die Panelisten während der Diskussion erklärten, hat ChatGPT nicht nur ein kriminelles Potenzial. Laut Schläpfer von Gobugfree könnte das Tool dem Fachkräftemangel entgegenwirken, indem es etwa die Mitglieder von Red Teams inspiriert und befähigt. Ferner könnte der Chatbot auch Content für Awareness-Kampagnen generieren und so dabei helfen, vor Cybergefahren zu sensibilisieren. "Es benötigt viel Zeit, diesen Content zu erstellen", sagte Schläpfer. "Hier sehe ich Potenzial für den Chatbot."

"Ich denke aber, die Angreifer profitieren stärker von ChatGPT als die Verteidiger", sagte Schläpfer. Hier widersprach ihm jedoch Raub von Crypto Finance. Er erinnerte daran, dass ChatGPT ein Sprachmodell ist und als solches ein Netzwerk weder auf Schwachstellen scannen noch absichern könne. 

"Was auch immer für einen Code ChatGPT produziert, es handelt sich im Prinzip um Code, der schon irgendwo existierte", sagte Raub. "Der Chatbot kann keine neuen Schädlinge erfinden; er setzt einfach bestehenden Schadcode zusammen." Folglich werden gemäss ihm auch keine qualitativ neuen Angriffe kommen. Das Tool erhöhe lediglich das Volumen bereits bekannter Attacken. Demgegenüber stehe der "riesige Vorteil", den das Tool der Abwehr bringe. "Wenn ich ein paar Mitarbeitende upscalen kann, um Test-Exploits und Phishing-Übungen zu machen, ist das Potenzial für die Abwehr viel grösser als das Problem durch das gestiegene Volumen der Angriffe", sagte Raub. 

Eine Frage des Vertrauens

Karl Aberer brachte die Diskussion auf das Thema Vertrauen. Man könne zwar KI nutzen, um zu erkennen, ob ein Text von einer KI generiert wurde oder nicht, "die Resultate sind aber sehr gemischt", sagte der Professor. Es werde wohl ein Wettrüsten bleiben. Ferner würden aktuell Systeme mit Wasserzeichen diskutiert, aber es sei fragwürdig, wie gut diese funktionieren und ob die Anbieter mitmachen würden. Das wirkliche Problem ist allerdings, festzustellen, ob eine Person einen Text authentifiziert, selbst wenn er mit KI erstellt wurde.
Dafür braucht es ein Reputationssystem. Man könne auch eine Person direkt kontaktieren, um die Echtheit zu bestätigen, oder digitale Signaturen verwenden. "Am Ende des Tages haben wir ein grosses Vertrauensproblem zu lösen", sagte Aberer. 

Um Vertrauen ging es auch in der Antwort von Andreas Schneider auf eine Frage aus dem Publikum: Wie klärt man über Deepfakes und KI auf, ohne die Menschen dabei zu verunsichern? Es sei wichtig, mehr zu erklären und weniger zu erschrecken, sagte Schneider. "Es liegt vor allem an uns Security-Experten und -Expertinnen, die Menschen nicht zu sehr zu erschrecken", sagte er.

"ChatGPT bietet jedem Nutzer und jeder Nutzerin etwas Tolles", sagte Schneider. Er erwähnte etwa spezifisch Personen, die Schwierigkeiten haben, mit anderen Menschen zu kommunizieren, weil sie sich in E-Mails nicht ausdrücken könnten. Diesen Menschen könne ChatGPT helfen, indem es etwa einen Draft für eine E-Mail erstelle. "Wenn wir die positiven Seiten hervorheben, ohne dabei die negativen zu ignorieren, dann kommt es gut", sagte Schneider. 

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
tKvccFea