"Umfassendes Sicherheitskonzept notwendig"

Acht Wege, wie Cyberkriminelle KI-Modelle attackieren können

Uhr
von Coen Kaat und NetzKI Bot und dwi

Künstliche Intelligenz wird vermehrt zum Angriffsziel von Cyberkriminellen. Dell Technologies nennt acht potenzielle Angriffsmethoden auf KI-Systeme. Diese reichen von Modelldiebstahl über Data Poisoning bis zu Supply-Chain-Angriffen.

(Source: Alexej / stock.adobe.com)
(Source: Alexej / stock.adobe.com)

Künstliche Intelligenz (KI) nimmt einen immer bedeutenderen Anteil im digitalen Leben ein - vom Büroalltag bis zum Onlineshopping. Genau deshalb nehmen Cyberkriminelle KI verstärkt ins Visier, wie Dell Technologies mitteilt. In der Mitteilung listet der US-amerikanische Konzern acht Bedrohungsszenarien, die Sicherheitsspezialisten, KI-Experten sowie Softwareentwickler und -entwicklerinnen berücksichtigen sollten. 

  • Modelldiebstahl: KI-Modelle zu entwickeln und zu trainieren, ist teuer - für Cyberkriminelle sind sie daher eine lohnende Beute. Finden sie keine Sicherheitslücken, um Modelle direkt zu stehlen, versuchen sie, die KI nachzubauen. Die Informationen über Verhalten und Parameter sammeln sie mit massenhaft Abfragen.
  • Data Poisoning: Angreifer manipulieren Trainingsdaten. So können sie die Genauigkeit des Modells beeinträchtigen, die KI komplett unbrauchbar machen oder Hintertüren einbauen. Bei bestimmten Triggern liefert die KI dann ein vom Angreifer gewünschtes Ergebnis.
  • Model Inversion: Angreifer versuchen, durch gezielte Anfragen eine KI dazu zu bringen, dass sie ihre Trainingsdaten als Antwort liefert. So können schützenswerte Informationen wie etwa personenbezogene Daten oder geistiges Eigentum abfliessen. 
  • Perturbation-Angriffe: Die Eingabedaten werden so manipuliert, dass die KI ungenaue Vorhersagen trifft, Daten falsch klassifiziert oder ein bestimmtes Ereignis übersieht. Dafür würden schon kleine Veränderungen reichen, schreibt Dell. Bei kritischen Systemen, wie beispielsweise zur Erkennung von Cyberangriffen oder von Verkehrsschildern beim autonomen Fahren, könnten die Folgen weitreichend sein. 
  • Prompt Injection: Geschickt formulierte Anfragen sollen die KI zu einem unerwünschten Verhalten bewegen. Dazu gehören unter anderem die Preisgabe vertraulicher Daten oder die Generierung von schädlichem Code.
  • Rewards Hacking: Beim Reinforcement Learning erhält die KI Feedback zu ihren Entscheidungen; so lernt sie, welche Entscheidung in welcher Situation die beste ist. Nutzt ein Angreifer dieses Belohnungssystem aus, kann er der KI ein falsches oder nicht optimales Verhalten antrainieren. 
  • DoS/DDoS-Angriffe: Eine gezielt herbeigeführte Überlastung führt zu Ressourcenverschwendung oder Funktionsausfällen bei KI-Systemen. Die KI kann ihre Aufgaben nicht mehr erfüllen, was Geschäftsprozesse im Unternehmen stört oder Sicherheitssysteme lahmlegt - dies könnte auch die Vorstufe eines grösseren Cyberangriffs sein. 
  • Kompromittierung der Lieferkette: Angreifer suchen Schwachstellen in der Hard- und der Software, die Unternehmen für die Entwicklung und den Einsatz künstlicher Intelligenz von Dritten beziehen. Diese Infrastrukturen und Software-Stacks sind meist sehr komplex - selbst vortrainierte Modelle lassen sich manipulieren, wenn deren Anbieter sie nicht ausreichend schützen. Und ein einziges kompromittiertes Element genügt für den Zugang zu den KI-Systemen eines Unternehmens.

Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. (Source: zVg)

Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. (Source: zVg)

"Für KI ist ein umfassendes Sicherheitskonzept notwendig, das weit über Security-Basics wie sichere Zugriffskontrollen, Verschlüsselung und Angriffserkennung hinausgeht", sagt Christian Scharrer, Enterprise Architect und CTO Ambassador bei Dell Technologies in Deutschland. 

"Unternehmen müssen sowohl Trainings- als auch Input-Daten sorgfältig validieren und bereinigen und sogenannte Guardrails implementieren, die alle Ein- und Ausgaben überprüfen." Ferner sollten sie auch ihre Lieferketten sowie die eingesetzten Modelle überwachen und Leistungsveränderungen erkennen können.

 

Übrigens: KI kann nicht nur zum Ziel von Schadprogrammen werden, sie kann diese auch steuern. Sicherheitsforschende von Eset identifizierten eine Ransomware, die ein lokal installiertes KI-Sprachmodell nutzt, um autonom Angriffsskripte zu generieren und zu entscheiden, welche Dateien sie verschlüsselt oder exfiltriert. Lesen Sie hier mehr dazu

Webcode
ycGiEbCf