Russland, China, Iran und Nordkorea

Microsoft verbannt State Actors von KI-Tools

Uhr
von Yannick Züllig und tme

Microsoft hat eine Reihe von staatsnahen Threat Actors bei der Nutzung seiner KI-Tools erwischt. Die entsprechenden User hat Microsoft inzwischen blockiert.

(Source: Max Duzij / Unsplash.com)
(Source: Max Duzij / Unsplash.com)

Microsoft hat State Actors aus verschiedenen Ländern bei der Nutzung seiner KI-Tools beobachtet und anschliessend blockiert. Demnach nutzten die Threat Actors die Tools von Microsoft und OpenAI, um Skills zu trainieren und Ziele austricksen, wie "Reuters" berichtet.

Microsoft habe Hackergruppen aufgespürt, die mit dem russischen Militärgeheimdienst, der iranischen Revolutionsgarde und den Regierungen Chinas und Nordkoreas verbunden seien und versuchten, ihre Hacking-Kampagnen mithilfe von Large Language Models (LLMs) zu perfektionieren. Diese Nutzer habe Microsoft inzwischen von seinen KI-Tools verbannt. 

"Unabhängig davon, ob ein Verstoss gegen das Gesetz oder gegen die Nutzungsbedingungen vorliegt, wollen wir einfach nicht, dass die von uns identifizierten Akteure - die wir verfolgen und von denen wir wissen, dass es sich um verschiedene Arten von Bedrohungen handelt - Zugang zu dieser Technologie haben", sagte Tom Burt, Vizepräsident für Kundensicherheit bei Microsoft, in einem Interview mit Reuters.

Verschiedene Use Cases

Laut Bericht setzten die Gruppen die KI-Tools für unterschiedliche Zwecke ein. Allerdings sei keiner der Gruppen ein nennenswerter Durchbruch gelungen.

Hacker, die angeblich im Auftrag der russischen Militärspionagebehörde GRU arbeiteten, nutzten die Modelle, um "verschiedene Satelliten- und Radartechnologien zu erforschen, die sich auf konventionelle militärische Operationen in der Ukraine beziehen könnten", so Microsoft.

Nordkoreanische Hacker verwendeten die Modelle, um Inhalte zu erstellen, die wahrscheinlich in Spear-Phishing-Kampagnen verwendet werden. Auch iranische Hacker stützten sich auf die Modelle, um überzeugendere E-Mails zu verfassen, so Microsoft. In einem Fall nutzten Cyberkriminelle KI-Tools, um eine Nachricht zu verfassen, die "prominente Feministinnen" auf eine mit Malware gespickte Website locken sollte.

Microsoft macht keine genaueren Angaben dazu, in welchem Ausmass die Gruppen die KI-Tools nutzen oder wie viele Konten gesperrt wurden.

Dass State Actors KI für ihre Kampagnen einsetzen, ist nur ein Beispiel für den Wettlauf, den Cyberkriminelle und IT-Verantwortliche sich in Sachen KI liefern. Dieses Spannungsfeld beleuchtet Swisscybersecurity.net gemeinsam mit Mimecast in einem Webinar, zu welchem Sie hier mehr erfahren.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den wöchentlichen Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
XK7yrthX