AI Text Classifier

OpenAI-Tool erkennt doch nicht, ob ein Text von einer KI stammt

Uhr
von Tanja Mettauer und msc

Der KI-Klassifikator von OpenAI ist bereits wieder Geschichte. Das Unternehmen hinter ChatGPT hat sein Tool namens "AI Text Classifier" vom Netz genommen. Grund dafür ist die schlechte Trefferquote.

(Source: Freepik / Freepik.com)
(Source: Freepik / Freepik.com)

KI oder nicht KI? Nicht nur für Menschen ist diese Frage nicht immer leicht zu beantworten. Das KI-Klassifizierungs-Tool von OpenAI hat ebenfalls seine liebe Mühe damit. Der AI Text Classifier hat sich gar so schwer getan, dass ihn OpenAI per 20. Juli deaktiviert hat. 

In einem Blogpost erklärt das Unternehmen hinter ChatGPT, dass es den KI-Klassifkator aufgrund seiner geringen Genauigkeit deaktiviert habe. OpenAI arbeite nun daran, effektivere Verfahren zur Textherkunftsbestimmung zu entwickeln. 

Gleichzeitig tüftle das Unternehmen an weiteren Mechanismen. Künftig will OpenAI Tools bereitstellen, mit denen Nutzerinnen und Nutzer auch Audio- und Bildinhalte auf ihre Herkunft überprüfen können. OpenAI äussert sich jedoch nicht dazu, wie diese Mechanismen aussehen könnten. 

OpenAI präsentierte das Texterkennungstool erstmals Ende Januar. Zu Beginn konnte der "Classifier" gerade mal 26 Prozent der Texte korrekt als KI-produziert identifizieren. Das Unternehmen erklärte damals, dass das Tool ein "work-in-progress" sei und mit der Lancierung weiteres Feedback und Daten sammeln wolle. Nun scheint das negative Feedback jedoch Überhand genommen zu haben. 

Die eindeutige Erkennung von KI-generierten Inhalten ist auch eine der Regeln, die das Weisse Haus kürzlich den KI-Firmen auferlegt hat. Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI haben sich zur Einhaltung der neuen KI-Sicherheitsregeln verpflichtet.

Webcode
riNpmLNX