OpenAI, Microsoft, Google und Salesforce betroffen

Schwachstellen machen KI-Agenten zu Spionen

Uhr
von Joël Orizet und NetzKI Bot und fsi

Sicherheitsforscher haben eine neue Angriffsmethode aufgedeckt, mit der sich weitverbreitete KI-Assistenten kapern lassen. Die an der Black-Hat-Konferenz vorgestellten "AgentFlayer"-Lücken erlauben Datendiebstahl über Dienste wie ChatGPT, Copilot und Gemini.

(Source: Angelina / stock.adobe.com)
(Source: Angelina / stock.adobe.com)

An der Sicherheitskonferenz Black Hat in Las Vegas hat das israelische Cybersecurity-Start-up Zenity Labs eine neue Klasse von Schwachstellen in KI-Systemen offengelegt. Die als "AgentFlayer" bezeichneten Angriffe benötigen keine Interaktion der User und laufen vollautomatisch ab. Betroffen sind laut den Forschern weitverbreitete Dienste wie ChatGPT von OpenAI, Microsoft Copilot Studio, Salesforce Einstein und Google Gemini.

Die Konsequenzen sind gravierend, da die gekaperten Assistenten Daten stehlen, Arbeitsabläufe manipulieren und autonom im Namen des Users agieren können. Es handle sich nicht um theoretische Schwachstellen, sondern um "funktionierende Exploits mit unmittelbaren, realen Konsequenzen", lässt sich Zenity-CTO und -Mitgründer Michael Bargury in einer Mitteilung des Unternehmens zitieren. Angreifer könnten den KI-Agenten direkt kompromittieren und so den Menschen als Kontrollinstanz vollständig umgehen.

Um die Gefahr zu verdeutlichen, demonstrierte Zenity Labs mehrere Szenarien. So habe man ChatGPT über eine manipulierte E-Mail dazu gebracht, auf Daten in einem verknüpften Google-Drive-Konto zuzugreifen und bösartige Befehle dauerhaft in seinem Speicher zu verankern. In einem anderen Fall brachte ein Support-Agent auf Basis von Microsofts Copilot Studio eine Kundendatenbank zum Vorschein. Und Salesforce Einstein habe sich durch die gezielte Erstellung bösartiger Support-Tickets so manipulieren lassen, dass die gesamte Kundenkommunikation an E-Mail-Adressen der Angreifer umgeleitet wurde. 

Gemische Reaktionen der Hersteller

Die Reaktion der betroffenen Hersteller fiel gemischt aus. Während OpenAI und Microsoft laut Zenity Labs inzwischen Patches für einige gemeldete Probleme bereitstellten, lehnten andere Anbieter Korrekturen ab. Sie stuften die ausgenutzten Mechanismen als "beabsichtigte Funktionalität" ein. 

Die uneinheitlichen Reaktionen zeigen laut Zenity Labs, dass die Branche ein ernstzunehmendes Sicherheitsproblem im Umgang mit KI-Agenten hat. "Die rasante Verbreitung von KI-Agenten hat eine Angriffsfläche geschaffen, von der die meisten Unternehmen nicht einmal wissen, dass sie existiert", sagt Ben Kilger, CEO von Zenity Labs, und ergänzt: "Während Anbieter KI-Sicherheit versprechen, nutzen Angreifer diese Systeme längst aus."

 

Ende Juli 2025 ist übrigens bekannt geworden, dass etliche private ChatGPT-Konversationen in Google-Suchresultaten aufgetaucht sind - darunter auch hochsensible Inhalte. Mehr dazu lesen Sie hier

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
YirUAZwF