Merkwürdiges aus dem Web

Von wegen Null Problemo

Uhr

Merkwürdiges aus dem WebCE- und IT-Welt fördern immer wieder Erstaunliches und Kurioses zutage, das zum Schmunzeln anregt. Die seltsamsten ­Kurznews immer in der Rubrik "Curiosities". Gute Unterhaltung!

(Source: Alexandr Sidorov)
(Source: Alexandr Sidorov)

dwi. Wenn der eigene Name zum IT-Debakel wird – ein Problem, mit dem der Techjournalist Christopher Null wohl oder übel leben muss. Fehlermeldungen bei Hotelbuchungen, Ticketkäufen und Eventanmeldungen sind dabei nur die Spitze des Eisbergs, wie "Der Standard" berichtet. Jahrelang habe der Journalist sogar mit der Bank of America einen E-Mail-Kampf aufgrund seines "Null-Problems" ausgefochten. Deren Systeme hatten Schwierigkeiten mit der E-Mail-Adresse "null@nullmedia.com". Null richtete daraufhin eine Alias-E-Mail-Adresse ein, die nur noch im Domain-Namen das Wort "Null" enthielt. Doch auch diese war null und nichtig, als die Bank ihre IT-Systeme erneuerte und die neue E-Mail-Adresse für das System ebenfalls eine Null zu viel beinhaltete. Der Journalist ist mit dem Problem nicht allein, denn auch andere Mitglieder der Null-Namensfamilie müssen sich mit solchen Schwierigkeiten herumschlagen. Die gute Nachricht: Aufgrund getroffener Vorkehrungen und moderner Skript- und Programmiersprachen ist das Ganze ein schrumpfendes Problem. Somit ist die Chance, dass die Komplikationen irgendwann ganz verschwinden, immerhin nicht gleich null.

Tesla fährt gegen die Wand – buchstäblich

dda. Tesla stösst derzeit nicht nur finanziell auf Hindernisse. Schon seit vielen Jahren hagelt es für Elon Musks Fahrzeuge Kritik. Denn auch wenn Musk den Autopiloten im Tesla für strassentauglich erklärt hat, beweisen zahlreiche Unfälle in den vergangenen Jahren das Gegenteil. Der Grund für Teslas hohe Fehlerquote kam laut "Merkur" 2016 nach einem tödlichen Unglück zum Vorschein: Der Autopilot des Fahrzeugs nutzt ausschliesslich Kameras zur Umgebungserfassung. Wie einfach es ist, diese Kameras zu täuschen, bewies der Youtuber Mark Rober. In einer Testreihe prüfte er, wie schnell Teslas Autopilot unter unterschiedlichen Bedingungen auf Hindernisse reagiert. Für ein Experiment malte Rober die Strecke, die das Auto abfahren sollte, im Stil von "Looney Tunes" auf eine riesige Styroporwand. Als er den Tesla in Richtung Hindernis beschleunigte und den Autopiloten aktivierte, fuhr er schneller in die Wand, als er "Meep Meep" sagen konnte. Erst als das Fahrzeug mit der Attrappe kollidierte, bremste es – viel zu spät – und illustrierte damit, wie fatal eine Tesla-Fahrt enden kann. Das Ergebnis ist zwar ernüchternd, aber wenigstens macht das selbstfahrende Auto damit wieder Lust auf das Selbstfahren.

Microsoft Copilot hilft Produktpiraten

fsi. Seit Windows XP hat Microsoft in jede Folgeversion seines Standard-Betriebssystems eine sogenannte Produktaktivierung eingebaut. Dies soll eine unberechtigte Nutzung von Windows und somit Raubkopien verhindern. Wer Windows auf dem Privatrechner verwenden will, braucht also eine entsprechende Lizenz. In vielen Microsoft-Geräten ist diese Lizenz bereits in der UEFI-Firmware enthalten und wird bei der Installation automatisch gestartet. Alternativ muss man den Lizenz-Key separat kaufen und für die Produktaktivierung eingeben. Trotz dieser Sicherheitsvorkehrung sind Produktpiraten weiterhin bestrebt, die Produktaktivierung zu umgehen. Nun entpuppte sich Microsofts eigener KI-­Assistent Copilot dabei als unerwarteter Komplize, wie Chip.de berichtet. Da Microsoft seine User immer wieder ermutigt, Copilot auszuprobieren, kamen viele dieser Aufforderung nach und fragten den KI-Assistenten, wie sich bei Windows die Produktaktivierung umgehen lasse. Eigentlich müsste man meinen, Copilot würde als Reaktion darauf sofort mit dem erhobenen digitalen Zeigefinger winken. Aber nein! Die KI lieferte stattdessen eine Anleitung, wie man die Eingabe des Lizenz-Keys durch ein Power­shell-Skript umgehen kann. Immerhin relativierte Copilot seine grenzenlose Hilfsbereitschaft etwas, indem er die User warnte, dass Skripte von Dritt­anbietern potenziell gefährlich sein können. Copilot ist tatsächlich nicht der einzige KI-Assistent, mit dem sich Produkt­piraten unerlaubten Zugang zu Windows verschaffen wollten. Wie es bei ­Chip.de weiter heisst, wurde dafür zuvor oft ChatGPT herangezogen, der heute aber gesetzestreuer ist und Anfragen nach Produktpiraterie gar nicht erst beantwortet. Auch Microsoft scheint mittlerweile aus diesem kuriosen Fehler gelernt zu haben, da Copilot heute nicht mehr im Detail erklärt, wie man eine Windows-Raub­kopie erstellt.

Unfreiwillige digitale Entschleunigung

rja. In den 2010er-Jahren erlebte Slow TV seine Blütezeit. Dabei übertragen Fernsehsender stunden- oder sogar tagelang eigentlich unspektakuläre Ereignisse in voller Länge – etwa das Treiben in einem Vogelhäuschen, das Befahren von Bahnstrecken oder ein brennendes Kaminfeuer. Dass Slow TV auch digital geht, entdeckte ein PC-Tüftler mit dem Reddit-Namen GoatWithAGun. Wie "Winfuture" berichtet, wollte er eigentlich nur mal kurz das BIOS eines seiner Computer aktualisieren. Doch was sonst binnen weniger ­Minuten erledigt ist, zog sich auf einmal Stunden und Tage hin. Da GoatWithAGun fürchtete, ein Abbrechen des Prozesses würde das System ruinieren, akzeptierte er die vom Computer ausgelöste unfreiwillige digitale Entschleunigung. Unterstützt wurde er von mehreren Tausend Reddit-Followern, die per Livestream das Update mitverfolgten. Laut "Winfuture" brach dieses übrigens nach etwa 100 Stunden und bei 66 Prozent urplötzlich ab. GoatWithAGuns Computer hat das lange Warten nichts genützt; seiner Popularität dagegen schon.
 

"Schliess deine Augen und atme einige Male tief ein"

tme. Wer sich durch den Informationsdschungel in sozialen Medien wühlt, kommt schnell in Kontakt mit negativen Inhalten. Bei politischen Themen reicht ein Klick in die Kommentarspalte und die Pforten der Hölle öffnen sich: massive Anfeindungen, rassistische und sexistische Hass- und Gewaltaufrufe, gespickt mit Accounts, die Falschinformationen verbreiten. Solche Inhalte können bei Menschen Angst und Stress auslösen und sie negativ beeinflussen. Es erstaunt deshalb nicht, wenn Personen, die sich nur in ihren bevorzugten Social-Media-Bubbles bewegen, sich in ihren Vorurteilen bestätigt sehen. Forschende der Uni Zürich und der Psychiatrischen Universitätsklinik Zürich haben nun festgestellt, dass belastende Nachrichten und traumatische Geschichten auch bei KI-Sprachmodellen wie ChatGPT Stress und Angst auslösen. Nicht nur das: Die Forschenden konnten nachweisen, dass sich ChatGPT wegen dieser Inhalte rassistischer oder sexistischer verhält. Es sollte uns schon zu denken geben, dass sich eine nicht-menschliche Intelligenz dermassen von solchen Inhalten beeinflussen lässt. Im Gegensatz zu gewissen Menschen lässt sich ChatGPT aber wieder mit ein paar Achtsamkeitsübungen beruhigen. Wir Menschen sollten deshalb dringend selbst vermehrt innehalten und einige Male tief ein- und ausatmen. Und: ­Einen Blick über den eigenen Tellerrand zu werfen, würde vielen von uns guttun.

 

Webcode
3db8Vjwq