SPONSORED-POST Advertorial von Aveniq

Chatbots mit GenAI – Zwischen KI-Potenzial und Datenschutz

Uhr
von Maximilian Ullrich, Team Leader RPA/AI & Business Solutions bei Aveniq

Chatbots, die auf fortschrittlicher künstlicher Intelligenz (Generative AI) basieren, sind auf dem Vormarsch. Doch mit ihrer wachsenden Bedeutung ergeben sich auch datenschutzrechtliche Herausforderungen in jedem Unternehmen.

(Source: Aveniq)
(Source: Aveniq)

Generative AI-Chatbots sind die neueste Innovation im Bereich der künstlichen Intelligenz (KI). Sie nutzen fortschrittliche maschinelle Lernmodelle, um menschenähnliche Konversationen zu führen und dabei auf eine Vielzahl von Anfragen zu reagieren.
Ein Schlüsselmerkmal von AI-Chatbots ist ihre Fähigkeit, Kontext zu verstehen. Sie können auf vorherige Nachrichten in einer Konversation Bezug nehmen und ihre Antworten entsprechend anpassen. Dies ermöglicht eine natürlichere und fliessende Konversation. Im Gegensatz zu regelbasierten Chatbots, die auf vorprogrammierte Antworten angewiesen sind, generieren AI-Chatbots ihre Antworten in Echtzeit. Sie tun dies, indem sie auf Sprachmodelle (Large-Language-Models, LLM) basierend auf riesigen trainierten Datenmengen zugreifen und damit Muster in der Art und Weise erkennen, wie Menschen miteinander kommunizieren. Dadurch können Anfragen wie beispielsweise im Kundenservice oder im IT-Support realitätsnah beantwortet und sogar automatisiert Prozesse ausgelöst werden, ohne dass sich Kunden oder Mitarbeitende mühsam durch Portale und Websites klicken müssen.  

Nutzung für das eigene Unternehmen

Für den Inhalt der Antworten können AI-Chatbots auch mit eigenen, unternehmensspezifischen Daten trainiert werden. In diesem Fall wird die Anfrage eines Menschen im Chat mit den verfügbaren oder trainierten Unternehmensdaten abgeglichen und mit Informationen angereichert. Danach erfolgt die Weiterleitung der modifizierten Anfrage an das LLM-Sprachmodell, das eine individuelle Antwort generiert. Diese Antwort lässt sich durch eigene Compliance-Filter überprüfen, bevor sie dem Benutzer angezeigt wird.

Die Beantwortung der Anfragen mit den Unternehmensdaten kann einen enormen Mehrwert in der Nutzung eines AI-Chatbots bieten. Insbesondere als interne Wissensquelle können diese Chatbots den Mitarbeitenden viel Zeit bei der Beschaffung von Informationen ersparen. Daraus ergeben sich jedoch auch Herausforderungen, insbesondere welche Unternehmensdaten von einem AI-Chatbot für die Beantwortung von Anfragen genutzt werden dürfen und wie Unternehmensdaten klassifiziert sein müssen, damit eine Abgrenzung sensibler Daten überhaupt möglich ist.

Folgende Massnahmen sind daher empfohlen, bevor AI-Chatbots im Unternehmen eingeführt werden: 

1. Definieren von Datenschutzklassifizierungen

Bei der Datenschutzklassifizierung werden Daten in verschiedenen Kategorien organisiert und mit Labels versehen. Dabei wird bestimmt, wer auf welche Daten Zugriff haben soll sowie welche Schutzrichtlinien für die Speicherung und den Transfer der Daten gelten sollen. Die Datenschutzklassifizierungen sind ebenso die Grundlage, um Tools wie AI-Chatbots die Möglichkeit zu geben, nur Unternehmensdaten einer bestimmten Kategorie zu nutzen. 

2. Definieren von Data Loss Prevention Policies 

Nachdem die Unternehmensdaten klassifiziert sind, können diese mit Data-Loss-Prevention-Regeln (DLP) für die Nutzung und Sichtbarkeit eingeschränkt werden. Da insbesondere AI-Chatbots potenziell auf eine Vielzahl von Unternehmensinformationen zugreifen können, ist es wichtig, dass geeignete DLP-Richtlinien implementiert sind, damit sensible Daten nicht absichtlich oder aus Versehen geteilt werden. 

3. Festlegen der GenAI Semantic Search 

Die oben beschriebene Anreicherung von Anfragen an das LLM-Sprachmodell durch Unternehmensdaten wird mittels Semantic Search vorgenommen. Hierbei kann eingestellt werden, dass jede Anfrage stets im Sicherheitskontext des Benutzers erfolgt, so dass beispielsweise Antworten nur basierend auf Dokumenten generiert werden, auf die der Benutzer prinzipiell auch zugreifen kann. 

4. Schulung der Mitarbeitenden im Umgang mit AI-Chatbots und schützenswerten Daten

Um das Maximum an Effizienz zu erreichen, müssen die Mitarbeitenden wissen, wie sie mit den AI-Chatbots «sprechen» sollen, um die bestmöglichen Resultate aus den bestehenden Unternehmensinhalten zu generieren. Ausserdem sollten über die Datenschutzklassifizierung hinaus klare Regeln kommuniziert sein, welche Dokumente oder Inhalte einem AI-Chatbot «gefüttert» werden dürfen, welche nur anonymisiert und welche nicht. 

Fazit

AI-Chatbots bieten ein enormes Potenzial, um Anfragen, Prozesse und Aufgaben effizienter zu bearbeiten. Bei der Einführung sollte mit Bedacht vorgegangen und Unternehmensinformationen stets geschützt werden. Aveniq unterstützt Sie gerne mit Experten zur Einführung von AI-Chatbots im eigenen Unternehmen. Gerne beraten wir Sie auch dazu, wie Sie eine Data Governance aufbauen, Ihre Daten schützen und Datenverlust vermeiden sowie welche Daten im AI-Chatbot landen und verarbeitet werden dürfen.

ulrich
Autor
Maximilian Ullrich, Team Leader RPA/AI & Business Solutions bei Aveniq

 
logo
Aveniq
Bruggerstrasse 68
5400 Baden
www.aveniq.ch