SPONSORED-POST Dossier in Kooperation mit bbv Software Services

KI-Agenten – persönliche Assistenten der Zukunft?

Uhr
von Joel Barmettler, AI Consultant, bbv Software Services; Marius Högger KI Ingenieur, bbv Software ­Services

Generative KI-Modelle wie ChatGPT sind in aller Munde. Gerne übersehen werden KI-Agenten. Sie sind der Schlüssel, um KI gewinnbringend in Unternehmen einzusetzen. Voraussetzung ist allerdings ein solider Business Case.

Joel Barmettler (l.), AI Consultant, bbv Software Services, Marius Högger KI Ingenieur, bbv Software ­Services. (Source: zVg)
Joel Barmettler (l.), AI Consultant, bbv Software Services, Marius Högger KI Ingenieur, bbv Software ­Services. (Source: zVg)

Ein Mitarbeiter hat einen Stellenbeschrieb, ein KI-Agent eine Aufgabe. Ein Mitarbeiter hat ein Profil und ein Skill-Set, ein KI-Agent einen «Charakter» und ein Tool-Set. Ein Mitarbeiter verfügt über Intelligenz, ein KI-Agent über … ChatGPT. Die Diskussion, ob der Fortschritt in generativer künstlicher Intelligenz bald Mitarbeitende überflüssig macht, wird teils polemisch, teils pragmatisch geführt. Dabei versperrt der Hype um ChatGPT & Co. den Blick auf die zentrale Frage: Wie macht uns generative künstliche Intelligenz im Alltag schneller und besser, sprich: effizienter? Die Antwort: mit KI-Agenten.

KI-Stufen: einfach bis hochgradig autonom

KI-Agenten sind virtuelle Mitarbeitende, die eine Aufgabe haben, die sie dank ihres «Charakters», ihres Tool-Sets und ihrer Grundintelligenz autonom und menschenähnlich erledigen können. Die Grund­intelligenz, das «Gehirn» des KI-Agenten, ist üblicherweise ein Large Language Model (LLM), zum Beispiel ChatGPT, oder ein anderes generatives KI-Modell.

Modell eines KI-Agenten.

Modell eines KI-Agenten. (Source: zVg)
 

Wie funktioniert ein KI-Agent genau? 

Drei mögliche Stufen eines Agenten:

  • Stufe 1: Ein einfacher KI-Agent, der beim Verfassen von Tweets hilft. Er basiert zum Beispiel auf ChatGPT und ist darauf trainiert und voreingestellt, Tweets für eine bestimmte Zielgruppe in einer bestimmten Tonalität und in einer definierten Form zu schreiben. Sein «Charakter» beinhaltet beispielsweise die Kreativität, mit der der KI-Agent antwortet.
  • Stufe 2: Ein weiterentwickelter KI-Agent, der Zugang hat zur Wissensdatenbank eines Unternehmens und zum Internet. Er entscheidet autonom, ob er für eine Anfrage zum Beispiel die eigene Kundendatenbank oder eine Suche im Web benötigt.
  • Stufe 3: Ein fortgeschrittener KI-Agent, der auf eine Vielzahl von Tools zur Erledigung seiner Auftrags zurückgreifen kann und hochgradig autonom agiert. Er interagiert mit und steuert andere Apps, Code oder Datenbanken ausserhalb des Chat-Fensters. Seine Schritte und Tools adaptiert und iteriert er, bis eine mögliche Lösung erreicht ist.

     

Konversation mit einem fortgeschrittenen KI-Agenten, der Zugriff auf diverse Tools hat und iterativ nach einer ­Lösung sucht.

Konversation mit einem fortgeschrittenen KI-Agenten, der Zugriff auf diverse Tools hat und iterativ nach einer ­Lösung sucht. (Source: zVg)


Mächtige Verbündete

Richtig eingesetzt und mit einem Business Case hinterlegt, sind KI-Agenten mächtige Verbündete. So bieten sie die Möglichkeit, die Gesamtheit aller Unternehmensdaten und -dokumente zu zentralisieren und diese unternehmensweit über ein einziges Interface zugänglich zu machen. Damit können Wissenssilos verhindert werden.
Dank des rollenbasierten Zugriffs und Sicherheitsprotokollen sind vertrauliche Unternehmensdaten und die Interaktionen der Mitarbeitenden mit dem KI-Agenten geschützt. Das ist zentral, denn aktuelle Studien zeigen, dass Datenschutz- und Sicherheitsbedenken der Hauptgrund sind, weshalb noch wenige Unternehmen mit KI experimentieren.

Schliesslich beschleunigen Automatisierung und die Selfservice-Fähigkeiten von KI-Agenten interne Prozesse. Das ermöglicht es ganzen Teams, sich verstärkt auf strategische Aufgaben zu konzentrieren.


Cedric Klinkert, KI Ingenieur, BBV Software Services
"Ein KI-Agent muss zwingend eine ­Probezeit durchlaufen"


KI-Agenten sollen bestimmte Aufgaben weitgehend autonom erledigen können. Wie das funktioniert, welche Risiken man dabei beachten sollte und wie sich die Entscheidungsprozesse solcher Programme nachvollziehen lassen, erklärt Cedric Klinkert, KI Ingenieur bei BBV Software Services. Interview: Joël Orizet

KI-Agenten können unter Umständen autonom Entscheidungen treffen. Das klingt potenziell gefährlich. Welche Risiken sollte man beim Einsatz von KI-Agenten besonders beachten?

Cedric Klinkert: Ein bekanntes Risiko sind Halluzinationen, das heisst, die KI erfindet glaubwürdige, aber falsche Antworten. Sie entstehen häufig, wenn der KI-Agent nicht weiterweiss, aber darauf optimiert wurde, überzeugend zu antworten. Deshalb hilft es, dem Agenten explizit eine Option einzuräumen, mit der er signalisieren kann, dass er die Aufgabe nicht zu lösen vermag.  Sehr wichtig: Ein KI-Agent sollte nur mit Daten arbeiten können, für die er eine Berechtigung hat. Er darf höchstens die Berechtigungen seines Benutzers haben. So sorgen wir beim BBV AI Hub zum Beispiel dafür, dass nur HR-Mitarbeitende Zugriff auf Mitarbeiterdaten haben. Im Moment sind KI-Agenten eine neuartige Technologie, die vielfältig eingesetzt werden kann. Deshalb sollte man eine systematische Risikoanalyse für die automatisierten Prozesse machen.

Wie kann man sicherstellen, dass die Entscheidungen von KI-Agenten im Einklang mit Gesetzen, ethischen Richtlinien und gesellschaftlichen Normen stehen?

Über den Systemprompt lassen sich der «Charakter» des KI-Agenten und damit seine Aussagen beeinflussen. Ein Finetuning ist ebenfalls möglich – oder aber wir bauen Kontrollmechanismen ein. Absolute Sicherheit gibt es aber nicht. Deshalb ist es zwingend, dass ein KI-Agent eine Probezeit durchläuft, in der seine Arbeit von Fachexperten überprüft und freigegeben wird. Haben wir Vertrauen in seine Arbeit gewonnen, können wir diese Überprüfung an andere unabhängige KI-Programme übergeben.

Wie lässt sich verhindern, dass KI-Agenten diskriminierende Entscheidungen aufgrund von verzerrten Datensätzen treffen?

Der zugrundeliegende Datensatz eines vortrainierten Modells lässt sich nicht mehr ändern. Den Textinput wie auch den Output eines Agenten können wir aber auf diskriminierende Aussagen prüfen und diese «neutralisieren».

Wie lassen sich die Entscheidungsprozesse von KI-Agenten insbesondere in sicherheitskritischen Branchen wie etwa der Medizin transparent nachvollziehen? 

In Branchen wie der Medizin ist Transparenz das oberste Gebot. Der AI Hub von BBV verwendet dazu den Ansatz des «inneren ­Monologs». Dabei führt der Agent ein Selbstgespräch, in dem er dokumentiert, warum er bestimmte Tools nutzt, die Resultate und Quellen seiner Aktionen erfasst und seinen nächsten Schritt plant. Dieser Prozess ermöglicht es uns, einen Einblick in die «Gedankengänge» und Entscheidungen der KI zu erhalten. So kann der Nutzer die Entscheidungen der KI nachvollziehen und überprüfen. Grundsätzlich empfehle ich, erst mit risikoarmen Anwendungen Erfahrungen zu sammeln, bevor sicherheitskritische angegangen werden.

Welche Auswirkungen haben KI-Agenten auf den ­Arbeitsmarkt?

Die Antwort auf diese Frage hängt davon ab, wie komplex die Aufgaben sind, die KI-Agenten zukünftig bewältigen können. Ein Indikator dafür ist die maximale Textlänge, mit der eine KI umgehen kann. Sie widerspiegelt das Kurzzeitgedächtnis des Agenten, das er für die Bewältigung seiner Aufgabe nutzen kann. Aktuell sehe ich das grösste Potenzial darin, mithilfe eines KI-Agenten viele risikoarme Routineaufgaben zu automatisieren.

Webcode
ZYSGfiVS