Focus: Ökosystem Microsoft

So kommt Microsofts KI-Assistent in der Arbeitswelt an

Uhr
(Source: MR - stock.adobe.com)
(Source: MR - stock.adobe.com)

jor. Der KI-Begleiter für Beruf und Alltag: So vermarktet Microsoft seinen KI-gestützten Schreibassistenten namens Copilot. Das Tool soll die Produktivitätssoftware des Softwarekonzerns zukunftstauglich machen. Und inzwischen sind bereits einige Variationen davon in der Microsoft-Welt angekommen – als Integration in Bing und Edge, als Add-on für ­Microsoft 365, als Programmierhilfe in der Microsoft-Tochter Github und als Bestandteil von Windows. Zudem lancierte Microsoft branchenspezifische Versionen des Tools, darunter solche für Finanz- oder Sales-Abteilungen. Und es besteht die Möglichkeit, eigene, auf spezifische Anwendungsfälle zugeschnittene Copiloten zu erstellen.

Doch warum so viele Varianten statt nur einem Tool für alle möglichen Einsatzzwecke? Die Idee dahinter: Copilot soll sich so individuell wie möglich nutzen lassen, wie Stefanie Thommen von Microsoft in ihrem Fachbeitrag schreibt. Anhand von Beispielen zeigt sie auf, wozu das Programm im Arbeitsalltag dienen kann. Und sie geht darauf ein, wie Microsoft einen verantwortungsvollen Umgang mit dem KI-Assistenten sicherstellen will. 

Der Copilot für Microsoft 365, also die Integration des Tools in Office-Programme wie Word, Excel, Powerpoint, Outlook oder Teams, kann auf Unternehmensdaten zugreifen, um beispielsweise Entwürfe von Texten, Präsentationen und E-Mails zu gestalten oder bestimmte Zahlen zu finden. Das wirft allerdings Fragen zum Datenschutz auf. Wie es darum steht, erläutert Patrick Müller von iTrust. Die dem KI-Tool zugrundeliegenden Sprachmodelle würden mit den Eingaben und Unternehmensdaten zwar nicht trainiert, schreibt Müller in seinem Fach­beitrag. Dennoch sollten Unternehmen auf eine saubere Berechtigungsstruktur über die ganze M365-Welt achten. 

Ebenfalls heikel bei der Nutzung von KI-Assistenten ist der Umgang mit urheberrechtlich geschützten Werken im Internet. Denn KI-generierte Inhalte – ob Text, Bilder, Audio oder Videos – basieren auf der Analyse bestehender Inhalte. Und die entsprechenden Tools zeigen längst nicht immer transparent und zuverlässig an, auf welcher Grundlage sie einen bestimmten Output erzeugt haben. Das heisst: Wer KI-generierte Inhalte ungeprüft publiziert, begibt sich in Plagiatsgefahr. Zwar verspricht Micro­soft, Kundinnen und Kunden bei eventuellen Urheberrechtsverletzungen zu unterstützen, wie Monty Frey von Entec schreibt. Trotzdem sollten Nutzerinnen und Nutzer den Output auf Fakten sowie et­waige Risiken in Zusammenhang mit dem Urheberrecht stets genau überprüfen.  

Prüfenswert ist nicht zuletzt auch die Frage nach dem tatsächlichen Nutzen von KI-Assistenten. Dies, weil der Hype nach wie vor gross ist – selbst ChatGPT-Entwickler OpenAI warnte bereits mehrmals vor überhöhten Erwartungen. Aus gutem Grund, denn die Ergebnisse solcher KI-Tools sorgen immer wieder für Enttäuschungen. Die Frage ist: Wie sieht es mit dem Copilot aus? Kann das Tool den Versprechungen von Microsoft gerecht werden? Aktuell: nur in beschränktem Masse, wie David Mehr von IOZ feststellt. Er zieht ein ernüchterndes Zwischenfazit und zeigt auf, wozu Microsofts KI-Assistent heute schon taugt – und wozu nicht. 

Webcode
VoF2RCfs