Gefährlicher Textgenerator

Gpt2 - die KI, die zu gut funktionierte

Uhr

Der künstlich intelligente Textgenerator Gpt2 hat so gute Ergebnisse geliefert, dass seine Erfinder entschieden, die Software nicht zu veröffentlichen. Zu gross das Risiko des Missbrauchs, etwa für Fake News, und zu klein die Skepsis der Gesellschaft gegenüber Texten aus dem Internet.

Was tun mit einer künstlich intelligenten Anwendung, die so gut funktioniert, dass sie ohne Weiteres missbraucht werden könnte? Diese Frage mussten sich laut "t3n.de" die Forscher der Nonprofit-Forschungseinrichtung OpenAI stellen. Ihr Textgenerator, der auf einer künstlichen Intelligenz (KI) basierte, verfasste Texte "so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben".

Auch bei Gartner ist die KI ein Thema. Kürzlich haben die Analysten 5 Mythen rund um die intelligenten Programme formuliert, wie Sie hier nachlesen können.

Gpt2 lernt anhand von 8 Millionen Websites

Das KI-Modell hiess Gpt2 und war in der Lage, Sprache zu analysieren und Texte zu verfassen. Gpt2 sollte unter anderem herausfinden, was das nächste passende Wort in einem Text sei. Mit Hilfe eines Datensatzes von 40 Gigabyte Grösse, der auf Daten von rund 8 Millionen Websites basierte, sei die KI trainiert worden. So habe das Programm Sprachmuster erlernt und sich dem Inhalt und dem Stil des jeweils vorgegebenen Texts angepasst.

Die Resultate sprachen für sich: In über 50 Prozent der Versuche habe der Textgenerator "zusammenhängende, kohärent formulierte Texte ausgeben" können. Die KI habe mehr Mühe mit hochtechnischen oder esoterischen Texten gehabt. Bei anderen Herausforderungen wie etwa dem Leseverständnis habe das Programm ebenfalls überraschende Leistungen an den Tag gelegt.

KI ist in aller Munde, doch noch stehen die meisten Unternehmen ganz am Anfang, wenn es um die Implementierung solcher Programme geht. Im Interview mit Joachim Buhmann, Professor für Computerwissenschaften an der ETH Zürich, erfahren Sie mehr dazu.

Die Gesellschaft ist noch nicht reif für die Technologie

Gerade diese überzeugenden Leistungen hätten die Forscher davon abgebracht, die KI zu veröffentlichen. Das System hätte dazu genutzt werden können, "kostengünstig Fake News zu verfassen, die Identität von Nutzern in Gesprächen zu imitieren oder die Produktion und Distribution von Spam oder Fake-Inhalten in sozialen Netzwerken zu automatisieren." Dabei hätte der Textgenerator zwar nichts Schlimmeres schreiben können als ein Mensch, jedoch viel schneller und mit geringerem Aufwand.

Bevor eine derartige Technologie auf die Menschheit losgelassen werde, müsse die Gesellschaft erst lernen, skeptischer mit Onlinetexten umgehen, sagt OpenAI laut "t3n". Deshalb sei schliesslich nur eine abgespeckte Version des Textgenerators mit Beispielen, aber kein Datensatz oder Programmcode herausgegeben worden. Laut den Forschern ist es "notwendig, darüber zu diskutieren, wie ein verantwortungsvoller Umgang mit Veröffentlichungen im KI-Sektor aussehen könne", wie es im Artikel abschliessend heisst.

Webcode
DPF8_127399