Generative KI bedroht die Cybersicherheit
Der Einsatz von grossen Sprachmodellen birgt erhebliche Risiken für die Cybersicherheit, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt. Demnach sollten insbesondere staatliche Institutionen Vorsicht walten lassen, wenn sie generative künstliche Intelligenz einsetzen.

Die Entwicklung und Verbreitung von künstlicher Intelligenz stellt grosse Herausforderungen für die Sicherheit im Cyberraum dar. Insbesondere maschinelle Lernmodelle zur Generierung von Texten, Bildern oder Videos, besser bekannt unter dem Begriff "generative künstliche Intelligenz", werden immer leistungsfähiger und bieten erhebliche Missbrauchsrisiken, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt.
Zu den Risiken gehören etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Ein solcher Missbrauch von Lernalgorithmen könne die Sicherheit der genutzten KI-Anwendungen gefährden. Beispielsweise könnten KI-Modelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden sind, schreibt Armasuisse.
Large Language Models (LLMs) würden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Da sie allerdings mehrheitlich im Ausland hergestellt werden, sei insbesondere für staatliche Akteure in der Schweiz Vorsicht geboten. Für eine sichere Entwicklung und einen sicheren Einsatz von generativer KI sollten Sicherheitskontrollen in der Datenverarbeitungskette zum Einsatz kommen, stellen die Studienautoren und -autorinnen fest.
Der Cyber Defense Campus von Armasuisse erarbeitete die Open-Access-Studie mit Titel "Large Language Models in Cybersecurity" in Zusammenarbeit mit der Fachhochschule Westschweiz (HES-SO). Sie soll Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und Wirtschaft bei der Beurteilung von Einsatzrisiken und der Entwicklung von Sicherheitsmassnahmen helfen. Die Autorinnen und Autoren rufen Staat, Wirtschaft und Gesellschaft dazu auf, sich mit den schnell wachsenden technologischen Entwicklungen auseinanderzusetzen und proaktive Massnahmen zu ergreifen.
Übrigens: Eine Firma, die Deepfakes den Kampf angesagt hat, ist das ETH-Spin-off Latticeflow AI. Lesen Sie hier mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Nvidia investiert 5 Milliarden US-Dollar in Konkurrent Intel

Kontrollverlust durch KI ist kein Risiko mehr, sondern Realität

SAP-Anwender fordern standardisiertes, offenes Betriebsmodell für Cloud

Das ist die Nominiertenliste von Best of Swiss Software 2025

Initiative fordert Verbot biometrischer Gesichtserkennung

Bis 2033 fehlen in der Schweiz 54'000 ICT-Fachkräfte

Piratenpartei präsentiert Konzept zur datensparsamen Altersprüfung

Schweiz verteidigt Titel als Innovationsweltmeisterin

Ein etwas anderer Schlagabtausch
