Generative KI bedroht die Cybersicherheit
Der Einsatz von grossen Sprachmodellen birgt erhebliche Risiken für die Cybersicherheit, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt. Demnach sollten insbesondere staatliche Institutionen Vorsicht walten lassen, wenn sie generative künstliche Intelligenz einsetzen.
Die Entwicklung und Verbreitung von künstlicher Intelligenz stellt grosse Herausforderungen für die Sicherheit im Cyberraum dar. Insbesondere maschinelle Lernmodelle zur Generierung von Texten, Bildern oder Videos, besser bekannt unter dem Begriff "generative künstliche Intelligenz", werden immer leistungsfähiger und bieten erhebliche Missbrauchsrisiken, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt.
Zu den Risiken gehören etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Ein solcher Missbrauch von Lernalgorithmen könne die Sicherheit der genutzten KI-Anwendungen gefährden. Beispielsweise könnten KI-Modelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden sind, schreibt Armasuisse.
Large Language Models (LLMs) würden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Da sie allerdings mehrheitlich im Ausland hergestellt werden, sei insbesondere für staatliche Akteure in der Schweiz Vorsicht geboten. Für eine sichere Entwicklung und einen sicheren Einsatz von generativer KI sollten Sicherheitskontrollen in der Datenverarbeitungskette zum Einsatz kommen, stellen die Studienautoren und -autorinnen fest.
Der Cyber Defense Campus von Armasuisse erarbeitete die Open-Access-Studie mit Titel "Large Language Models in Cybersecurity" in Zusammenarbeit mit der Fachhochschule Westschweiz (HES-SO). Sie soll Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und Wirtschaft bei der Beurteilung von Einsatzrisiken und der Entwicklung von Sicherheitsmassnahmen helfen. Die Autorinnen und Autoren rufen Staat, Wirtschaft und Gesellschaft dazu auf, sich mit den schnell wachsenden technologischen Entwicklungen auseinanderzusetzen und proaktive Massnahmen zu ergreifen.
Übrigens: Eine Firma, die Deepfakes den Kampf angesagt hat, ist das ETH-Spin-off Latticeflow AI. Lesen Sie hier mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
Wie man London kocht - Originalrezept von 1666
Google schliesst kritische Sicherheitslücke in Chrome
EFK kritisiert E-ID und empfiehlt Verschiebung des Starts
Swisscom lanciert KI-Chatbot für KMUs
KI-Boom leert Festplattenlager
Brack Alltron besetzt Geschäftsleitung neu
SCSD 2026: Ein Roboterhund, Silent-Konferenzen und 500 Portionen Currywurst
Bund will den Schutz von kritischen Infrastrukturen vorantreiben
Betrüger geben sich als Twint-Support aus