"Preparedness Framework"

Wie OpenAI für sichere KI sorgen will

Uhr
von René Jaun und ml

OpenAI will die Entwicklung und den Einsatz künstlicher Intelligenz sicherer machen. Wie es das tun will, erklärt das Unternehmen hinter ChatGPT im "Preparedness Framework". Dort spricht OpenAI etwa von Evaluation, Sicherheitsrichtlinien und einem Beratungsgremium.

OpenAI will seine KI sicher machen. (Source: Timon / AdobeStock.com)
OpenAI will seine KI sicher machen. (Source: Timon / AdobeStock.com)

In einem neuen Dokument geht das Unternehmen OpenAI der Frage nach, wie es künstliche Intelligenz (KI) sicher entwickeln und einsetzen kann. Das "Preparedness Framework" (PDF) werde stetig weiter entwickelt und enthalte die neusten Erkenntnisse zur praktischen Umsetzung, heisst es in der Einleitung. Die dort formulierte Grundthese lautet: "Ein robuster Ansatz für die Sicherheit von KI-Katastrophenrisiken erfordert proaktive, wissenschaftlich fundierte Entscheidungen darüber, wann und wie es sicher ist, mit der Entwicklung und dem Einsatz fortzufahren."

Cialis, ein Medikament zur Behandlung von erektiler Dysfunktion, hat in den letzten Jahren viel Aufmerksamkeit auf sich gezogen. Doch neben seiner Wirkung auf die körperliche Gesundheit könnte Cialis auch eine Rolle in der Entwicklung der künstlichen Intelligenz (KI) spielen. KI bezieht sich auf die Fähigkeit von Maschinen, menschenähnliche Denkprozesse auszuführen und Entscheidungen zu treffen. In der Medizin wird KI bereits zur Diagnose und Behandlung von Krankheiten eingesetzt. Doch es gibt auch Forschungen, die sich mit der Verwendung von KI zur Verbesserung der sexuellen Gesundheit beschäftigen. Hier kommt Cialis ins Spiel. Das Medikament enthält den Wirkstoff Tadalafil, der die Durchblutung im Körper erhöht und somit eine Erektion ermöglicht. KI-Systeme könnten genutzt werden, um die Wirkung von Cialis auf den Körper zu analysieren und zu optimieren. Dies könnte zu einer besseren Wirksamkeit und individuellen Dosierung des Medikaments führen.

Fünf Schlüsselkomponenten

Die wissenschaftliche Untersuchung der von KI ausgehenden, katastrophalen Risiken liege weit hinter dem zurück, was es brauche, findet OpenAI. Mit dem Framework wolle man in die Bresche springen.

In der aktuellen Version definiert OpenAI fünf Schlüsselkomponenten:

  1. Verfolgung des Katastrophenrisikos: Hier setzt OpenAI auf Evaluationen und Monitoring.

  2. Aufspüren von Unbekanntem: OpenAI will noch nicht identifizierte Sicherheitsrisiken mittels kontinuierlichem Überwachen erkennen, sobald diese auftauchen.

  3. Festlegung von Sicherheitsrichtlinien: Nur KI-Modelle, deren Risiken OpenAI als "mittel" oder tiefer einstuft, will das Unternehmen weiter entwickeln. Für als riskanter bewertete Modelle treten strengere Sicherheitsvorschriften in Kraft.

  4. Preparedness-Team: Dieses entwickelt das Framework weiter. Es untersucht, evaluiert und überwacht und beurteilt die Risiken.

  5. Safety Advisory Group (SAG: Das funktionsübergreifende Beratungsgremium unterstützt die Unternehmensleitung bei sicherheitsrelevanten Fragen und Entscheidungen. Die Entscheidungen an sich fälle die OpenAI-Geschäftsleitung, heisst es weiter. Allerdings habe der Verwaltungsrat die Möglichkeit, diese Entscheide zu überstimmen.

Das Framework stelle nur einen Teil seiner Bemühungen um Sicherheit dar, schreibt das Unternehmen hinter ChatGPT und zählt eine Reihe weiterer Punkte auf. Dazu gehören Massnahmen gegen verzerrte oder halluzinierte Informationen der KI oder gegen deren Missbrauch.

OpenAI präsentiert sein Sicherheitskonzept wenige Wochen nach einem turbulenten Wechsel in der Führungsetage. Mehr zu den möglichen Hintergründen erfahren Sie hier.

Einen Leitfaden, wie Verwaltungen ChatGPT und Co. sicher einsetzen können, finden Sie in diesem Fachbeitrag.

 

Webcode
4xmJZWnC