SPONSORED-POST Advertorial von ti&m

ChatGPT goes Business: AI Assistants für Ihre Bedürfnisse

Uhr
von ti&m

Mehr und mehr entdecken Firmen aus allen Branchen die Möglichkeiten von ChatGPT und ähnlichen Lösungen. Denn die Integration von firmenspezifischen Daten in AI Assistants ist relativ einfach und erlaubt, die Power von grossen Sprachmodellen für viele verschiedene Use Cases zu nutzen.

ChatGPT, Google Bard und Co. sind Chatbots, die menschenähnliche Konversationen führen können. Sie verstehen natürliche Sprache und generieren kontextbezogene Antworten auf Fragen oder Aussagen. Das ChatGPT zugrunde liegende Sprachmodell GPT-4 und andere grosse Sprachmodelle (Large Language Models oder kurz LLMs) sind leistungsstarke Modelle, die neben Text auch Bilder, Videos oder Audiodateien verarbeiten können. Sie werden durch maschinelles Lernen mit grossen Datensätzen trainiert und verfügen über ein breites Wissen in verschiedenen Bereichen. Sie beantworten Fragen, schreiben kreative Texte oder generieren Code und helfen so bei einer Vielzahl von Themen.

Werbung
KI-Leadership-Training

In unserem 90-minütigen Workshop für Führungskräfte lernen Sie kurz und kompakt das Wichtigste über den Einsatz von künstlicher Intelligenz und erarbeiten erste mögliche Use Cases für Ihre Firma.
Zum Leadership Training

Google with Benefits? Warum ChatGPT mehr als eine intelligente Suchmaschine ist

Viele sehen in diesen KI-basierten Chatbots nur den intelligenteren Zwilling von Google und nutzen ihn als Metasuchmaschine und zur Beantwortung von Fragen. Dabei können solche Tools weit mehr als nur richtige und sprachlich ansprechende Antworten auf komplexe Fragen liefern, bspw. kann aus der Antwort auf eine komplexe Frage gleich eine auf eine bestimmte Zielgruppe zugeschnittene Powerpoint-Präsentation erstellt werden. ChatGPT hat auch die Fähigkeit, eine handschriftliche Skizze einer Webseite in einen HTML-Vorschlag zu übersetzen, kann also Textoutput in Form eines Programmcodes generieren. Diese Beispiele zeigen, warum LLM-basierte AI Chatbots ein Game Changer sind: Wurden technologische Lösungen bis jetzt für einen bestimmten Use Case programmiert, können die neuen, intelligenten Modelle verschiedene Aufgaben ausführen und so für unterschiedliche Use Cases genutzt werden. ChatGPT und Co. sind universelle Tools, die Tasks erledigen können, für dies sie nicht spezifisch entwickelt wurden.

 

Bestehende LLMs für organisationsspezifische Use Cases nutzen

Nicht nur für Nutzerinnen und Nutzer ist die Entwicklung von solchen LLMs wie GPT-4 interessant. Waren Projekte im Bereich Machine Learning und KI bisher oft anspruchsvoll und teilweise mit hohen Aufwänden verbunden, ermöglichen LLMs ein völlig neues Vorgehen. IT-Spezialisten für die Entwicklung von KI-Lösungen wie ti&m können auf bestehende LLMs zurückgreifen und so für Firmen aus allen Branchen effizient und verhältnismässig kostengünstig KI-Lösungen bereitstellen. Anstatt selbst Daten zu sammeln und Modelle zu trainieren, reicht es heute oft, Unternehmensdaten zu integrieren (z.B. mit Retrieval Augmented Generation, RAG) und mithilfe von Prompt Engineering in einem sogenannten Zero-Shot Learning die richtigen Fragen zu stellen.

 

Prompt Engineering: Natürliche Sprache als neue Programmiersprache

Nutzerinnen und Nutzer interagieren mit Lösungen wie ChatGPT mittels Prompts. Basierend auf diesem Prompt generiert das Modell Wort für Wort den gesamten Output. «Erkläre in zwei Sätzen, die für Primarschülerinnen und -schüler verständlich sind und kein Komma haben, wie ein Regenbogen entsteht» ist bspw. ein Prompt. Ein Prompt bezeichnet den Input für das Modell, umgangssprachlich wird er häufig mit «Aufforderung» oder «Befehl» übersetzt. Vereinfacht kann man sich einen Prompt als einen in natürlicher Sprache verfassten Code vorstellen: Während ein Computerprogramm einen Code richtig interpretieren muss, um die vom Programmierer gewünschte Handlung auszuführen, muss eine Generative-AI-Lösung wie ChatGPT einen Prompt richtig interpretieren, um die gewünschte Antwort zu generieren. Gute Prompts müssen also präzise sein und die möglichen Antwortmöglichkeiten einschränken, um gute Ergebnisse zu erzielen. Darum ist es wichtig, Prompts zu schreiben, die die Eigenheiten des Modells berücksichtigen.

Werbung Event
Kostenloser AI Event in Zürich mit führenden Experten

Google Cloud und ti&m analysieren die rasante Entwicklung von künstlicher Intelligenz, stellen verschiedene Use Cases aus verschiedenen Branchen vor und beantworten die wichtigsten regulatorischen und datenschutzrechtlichen Fragen.
Jetzt kostenlos anmelden

 

Daten & Kontext: Welche Informationen nutzen LLMs wie GPT-4?

KI-Sprachmodelle wurden mit einem grossen Datensatz trainiert. Dieser besteht aus einer Vielzahl von in der Regel öffentlich zugänglichen Quellen aus dem Internet wie Wissensseiten (z.B. Wikipedia), Bücher, Nachrichtenartikel, wissenschaftliche Publikationen oder Blogbeiträge. GPT-4, das mit Daten bis September 2021 trainiert wurde, nutzt aber auch proprietäre Datenquellen mit hoher Datenqualität. Über Plugins haben die LLMs von OpenAI und Google auch die Möglichkeit, auf aktuelle Suchresultate zuzugreifen.

Zusätzlich zum trainierten Datensatz können LLMs mittels Kontexts auch firmenspezifische Daten mitgegeben werden, auf denen das Modell nicht trainiert wurde. Diese Daten können die Webseite der Firma, Sharepoint oder andere Datenquellen umfassen und sowohl in Text-, Bild- oder Videoformat vorliegen. Diese Menge ist limitiert und variiert je nach Modell. Wird der Kontext mittels Prompts mitgegeben, kann GPT-4 rund 50 Seiten Text verarbeiten. Ein möglicher Prompt wäre z.B. «Fasse diesen Artikel für eine Landingpage in zehn Sätzen zusammen und achte dabei auf gute Keywords.» Der Artikel muss als Kontext dem Prompt mitgegeben werden.

Da die Menge des mitzugebenden Kontexts limitiert ist, ist es nicht möglich, sämtliche firmenspezifischen Daten im Prompt mitzugeben. Dieses Problem lässt sich durch Embeddings lösen. Embeddings sind Vektoren, die den Sinn eines Textabschnitts repräsentieren. Die eigenen, firmenspezifischen Dokumente werden in Embeddings umgewandelt und in einer Vektorendatenbank gespeichert. Die Frage der Nutzerin oder des Nutzers wird ebenfalls in ein Embedding umgewandelt und der Chatbot sucht für das Embedding der Frage in der Datenbank die relevanten Dokumente heraus. Die relevanten Dokumente und die Frage werden zusammen als Kontext an das LLM übergeben, das basierend darauf die Frage beantwortet.

Durch die Kombination von firmenspezifischen Daten mit LLMs können Organisationen für ihre Bedürfnisse personalisierte AI Assistants für viele unterschiedliche Use Cases nutzen:
-    Daten aus der Kundenkommunikation, dem Intranet und Servern effizienter nutzen
-    Prozesse automatisieren und optimieren
-    Neue Produkte und Dienstleistungen für spezifische Kundensegmente entwickeln

Wie wir Sie dabei unterstützen, Ihren persönlichen ChatGPT umzusetzen, erfahren Sie in unserem White Paper «ChatGPT for Business».

Werbung White Paper
ChatGPT for Business – Wie Sie Large Language Models für Ihre Firma nutzen

Jetzt kostenlos lesen 

 

Ursin Brunner
Head Machine Learning, ti&m

Ursin Brunner ist Software Engineer mit einem Master in Machine Learning und einer grossen Leidenschaft für KI. Als AlphaGo 2016 den weltbesten Go-Spieler besiegte, beschloss er, dass KI mehr ist als nur ein Hype, und machte seine Leidenschaft zum Beruf. Er leitet zusammen mit Pascal Wyss das AI-/ML-Team bei ti&m.