Warum sich Misstrauen lohnt
An jenem Abend in den Sommerferien, an dem diese Geschichte anfängt, hatte ich eigentlich nicht vorgehabt, den Sicherungskasten meiner Wohnung zu öffnen. Vielmehr wollte ich ein frisch aus den USA geliefertes Tech-Gadget ausprobieren. Doch wenige Sekunden nachdem ich dessen Stromadapter eingesteckt hatte, verabschiedete er sich auch schon wieder – mit einem leisen «Wusch», einer nach verbrannter Elektronik riechenden Duftwolke und einem Stromausfall im Wohnzimmer.
Es lag an mir, dass dies passierte; denn ich war es, der den US-amerikanischen Stromadapter ohne Spannungswandler eingesteckt hatte. Doch das Netzteil war den 220 Volt hiesiger Stromnetze nicht gewachsen. Ich wiederum war vom Gegenteil ausgegangen, zumal meine letzten zehn US-Netzteile perfekt auch unter europäischer Stromspannung funktioniert hatten. Doch statt auf Erfahrung und Bauchgefühl zu setzen, hätte ich besser einen Blick auf die Betriebsangaben auf dem Netzteil werfen sollen. Dort wäre vermerkt gewesen, dass der Adapter nur für die in den USA üblichen 110 Volt ausgelegt war.
Wenige Tage später brachte mich eine künstliche Intelligenz beinahe dazu, einen zweiten Stromausfall auszulösen. Denn auf der Suche nach einem Ersatznetzteil für mein Tech-Gadget fotografierte ich den kaputtgegangenen Stromadapter und wies ChatGPT an, mir die darauf abgedruckten Spezifikationen zu nennen. Das grosse Sprachmodell antwortete, dass der Netzadapter im Bild «12 Volt Gleichspannung» ausgebe. Fast hätte ich ein entsprechendes Gerät angeschlossen. Doch als ich die Gebrauchsanweisung meines Gadgets durchlas, kam ich ins Stutzen. Von «12 Volt Gleichspannung» war da nämlich keine Rede mehr. Stattdessen stand dort, der benötigte Adapter müsse «24 Volt Wechselspannung» erzeugen. Und tatsächlich: Auch auf dem Foto des Netzteils war diese Angabe deutlich zu lesen, wie mir sowohl menschliche Testpersonen als auch eine OCR-Software bewiesen. Letztere basiert zwar auch auf KI, aber nicht auf der trendigen generativen KI.
Dass mir ChatGPT eine falsche – möglicherweise gefährliche – Information lieferte, lag in meinem Fall also nicht an schlechtem Bildmaterial. Allerdings sind Netzteile mit den von mir gesuchten Spezifikationen recht selten. Die generative KI dagegen lieferte mir die Daten zu einem sehr geläufigen Stromadapter. Entsprechende Textmuster dürften viel öfter in ihrem Trainingsmaterial auftauchen. Somit funktionierte die GenAI eigentlich korrekt. Dennoch war ihr Resultat für mich und für mein Tech-Gadget unbrauchbar und mein Misstrauen hatte sich gelohnt. Ich bin froh, dass es Sicherungen gibt, die grösseren Schaden verhindern, wenn ich das mal wieder vergesse.
Wie wir generative KI in der Cyberabwehr einsetzen können – und welche Fragen dabei noch zu klären sind –, beleuchtet die aktuelle Ausgabe der Netzwoche.
So schleusen Angreifer Schadsoftware über gefälschte Rechnungen ein
Enixen Group übernimmt Sidmar und Datenretter Schweiz
Bundesrat muss KI-Auswirkungen aufs Steuersystem untersuchen
Schweizer Onlinehandel wächst 2025 um 6 Prozent
Warum risikobasierte Governance der Schlüssel zur digitalen Souveränität ist
AWS setzt für KI-Inferenz auf riesige Chips mit EPFL-Bezug
Harry Potter meets Bridgerton
Apple eröffnet zwei neue Flagship-Stores in der Schweiz
Abraxas baut neue Steuerlösung für Graubünden