Aus den Labors

FHNW entwickelt "guten" Chatbot

Uhr | Aktualisiert

Drei Studenten der Hochschule für Wirtschaft an der Fachhochschule Nordwestschweiz haben im Rahmen eines Projektes einen Chatbot entwickelt, der in heiklen Situationen moralisch angemessen reagieren soll.

Wer schon einmal mit Eliza, einem Chatbot aus dem Jahr 1966 gesprochen hat, weiss, dass sich eine solche Software nicht wirklich als Gesprächspartner eignet, wenn es einem schlecht geht. Zwar fragt Eliza zu Beginn höflich nach dem aktuellen Befinden. Doch den positiven Eindruck, den der Chatbot damit erweckt, zerstört er gleich wieder.

Auf die Antwort "Ich fühle mich alleine" folgt lediglich ein "An was erinnert dich das Gefühl des Alleinseins?". Der Versuch, den Chatbot auf den Ernst der Lage hinzuweisen, scheitert kläglich. Auch ein weiterer Versuch - "Ich habe meinen Job verloren" - führt zu keinem Ergebnis, das einen Arbeitslosen in irgendeiner Weise ermutigen würde.

Eliza ist aber kein Einzelfall. Chatbots tun sich - verständlicherweise – schwer damit, "richtig" auf schwierige Situationen zu reagieren.

Moralisch angemessen

Drei Studenten der Hochschule für Wirtschaft an der Fachhochschule Nordwestschweiz (FHNW) wollten diesem Zustand ein Ende setzen und haben einen sogenannten "Goodbot" entwickelt, der auf heikle Fragen moralisch angemessen reagieren soll. Christian Horn, Mario Moser und Justin Toubia haben das Projekt unter der Leitung von Oliver Bendel, Professor für Wirtschaftsinformatik an der FHNW, durchgeführt.

Ziel war die Schaffung eines Prototyps, der in Folgeprojekten weiterentwickelt und auf den Markt gebracht werden soll. Als mögliche Einsatzgebiete sieht die Hochschule für Wirtschaft FHNW beispielsweise die Jugendarbeit oder Beratungsangebote an Spitälern oder Kliniken.

Vorgehen bei der Entwicklung

Nach der Evaluation verschiedener Chatbot-Frameworks und der Prüfung einer Eigenentwicklung im Rahmen einer Machbarkeitsstudie entschied sich das Studententeam für die Open-Source-Lösung "Verbot" als technische und gestalterische Basis für den "Goodbot". Verbot umfasst bereits einen Grundstock an Wissensbasen, die für eine einfache Unterhaltung notwendig sind. Zudem liegen unterschiedliche Avatare und Stimmen vor, unter denen ausgewählt werden kann.

Als weitere Basis für die Entwicklung dienten sieben von Bendel definierte Metaregeln. Dazu gehört beispielsweise, dass der "Goodbot" dem Benutzer klar macht, dass er eine Maschine ist und ihn nach einiger Zeit auch wieder in die Wirklichkeit zurückschubst.

Punktezähler

Eine Schwierigkeit der Entwicklung bestand laut Bendel darin, dass der "Goodbot" am Anfang möglichst viel über den Benutzer erfahren soll, ohne ihn zu nerven oder zu langweilen. Zudem müsse er die Aussagen der Benutzer voraussehen und gewichten, um dann angemessen darauf reagieren zu können. "Der 'Goodbot' zählt sozusagen Punkte zusammen, die er selbst vergibt. Solange alles im grünen Bereich ist, bleibt er im üblichen Konversationsrahmen", sagt Bendel.

Bei drohender Gefahr eskaliere der "Goodbot" über mehrere Stufen hinweg. Dazu gehöre beispielsweise, dass er automatisch die Website einer entsprechenden Hilfsorganisation, etwa der Dargebotenen Hand, aufrufe.

Noch nicht verfügbar

"Goodbot" ist Bendel zufolge noch nicht öffentlich zugänglich, da er noch weiter verbessert werden soll. Bald soll er aber interessierten Unternehmen zum Test angeboten werden. Die daraus gewonnenen Rückmeldungen sollen in eine weitere Überarbeitung einfliessen.

Ziel des Projekts sei aber, dass man sich weitgehend unabhängig von Unternehmen bewegen und den "Goodbot" kostenlos zur Verfügung stellen könne, so Bendel. Dies vor allem, weil gemeinnützige Organisationen als mögliche Abnehmer in Frage kommen. In diesen Tagen soll daher ein Antrag an eine Stiftung gehen, um zukünftige Fördergelder zu sichern.

Webcode
jNKWEZgh

Kommentare (0)

« Mehr