Warum sich Misstrauen lohnt

An jenem Abend in den Sommerferien, an dem diese Geschichte anfängt, hatte ich eigentlich nicht vorgehabt, den Sicherungskasten meiner Wohnung zu öffnen. Vielmehr wollte ich ein frisch aus den USA geliefertes Tech-Gadget ausprobieren. Doch wenige Sekunden nachdem ich dessen Stromadapter eingesteckt hatte, verabschiedete er sich auch schon wieder – mit einem leisen «Wusch», einer nach verbrannter Elektronik riechenden Duftwolke und einem Stromausfall im Wohnzimmer.
Es lag an mir, dass dies passierte; denn ich war es, der den US-amerikanischen Stromadapter ohne Spannungswandler eingesteckt hatte. Doch das Netzteil war den 220 Volt hiesiger Stromnetze nicht gewachsen. Ich wiederum war vom Gegenteil ausgegangen, zumal meine letzten zehn US-Netzteile perfekt auch unter europäischer Stromspannung funktioniert hatten. Doch statt auf Erfahrung und Bauchgefühl zu setzen, hätte ich besser einen Blick auf die Betriebsangaben auf dem Netzteil werfen sollen. Dort wäre vermerkt gewesen, dass der Adapter nur für die in den USA üblichen 110 Volt ausgelegt war.
Wenige Tage später brachte mich eine künstliche Intelligenz beinahe dazu, einen zweiten Stromausfall auszulösen. Denn auf der Suche nach einem Ersatznetzteil für mein Tech-Gadget fotografierte ich den kaputtgegangenen Stromadapter und wies ChatGPT an, mir die darauf abgedruckten Spezifikationen zu nennen. Das grosse Sprachmodell antwortete, dass der Netzadapter im Bild «12 Volt Gleichspannung» ausgebe. Fast hätte ich ein entsprechendes Gerät angeschlossen. Doch als ich die Gebrauchsanweisung meines Gadgets durchlas, kam ich ins Stutzen. Von «12 Volt Gleichspannung» war da nämlich keine Rede mehr. Stattdessen stand dort, der benötigte Adapter müsse «24 Volt Wechselspannung» erzeugen. Und tatsächlich: Auch auf dem Foto des Netzteils war diese Angabe deutlich zu lesen, wie mir sowohl menschliche Testpersonen als auch eine OCR-Software bewiesen. Letztere basiert zwar auch auf KI, aber nicht auf der trendigen generativen KI.
Dass mir ChatGPT eine falsche – möglicherweise gefährliche – Information lieferte, lag in meinem Fall also nicht an schlechtem Bildmaterial. Allerdings sind Netzteile mit den von mir gesuchten Spezifikationen recht selten. Die generative KI dagegen lieferte mir die Daten zu einem sehr geläufigen Stromadapter. Entsprechende Textmuster dürften viel öfter in ihrem Trainingsmaterial auftauchen. Somit funktionierte die GenAI eigentlich korrekt. Dennoch war ihr Resultat für mich und für mein Tech-Gadget unbrauchbar und mein Misstrauen hatte sich gelohnt. Ich bin froh, dass es Sicherungen gibt, die grösseren Schaden verhindern, wenn ich das mal wieder vergesse.
Wie wir generative KI in der Cyberabwehr einsetzen können – und welche Fragen dabei noch zu klären sind –, beleuchtet die aktuelle Ausgabe der Netzwoche.

Warum sich Misstrauen lohnt

Schlüsselkriterien für die Skalierung von KI

Mehr Sicherheit durch Standardisierung und Automatisierung

Zwischen digitalem Fortschritt und menschlichem Verhalten

Kontrollverlust durch KI ist kein Risiko mehr, sondern Realität

Weshalb man das Denken nicht Maschinen überlassen sollte

Künstliche Intelligenz als nächste Verteidigungslinie gegen digitale Bedrohungen

Autoknacker benutzen neuerdings Software

Information Protection & Governance (IPG) im Zeitalter der künstlichen Intelligenz
