GenAI vs. Privacy

Copilot: Warum dasselbe Produkt zwei verschiedene Datenschutzregimes hat

Uhr
von David Schneeberger, Anwalt für KI, Datenschutz und digitale Geschäftsmodelle

Die Websuche in Microsoft 365 Copilot birgt ein Datenschutzrisiko. Wer das Feature aktiviert, verliert die datenschutzrechtliche Kontrolle über Suchanfragen an Microsoft. Für Unternehmen wird die Entscheidung zwischen Flexibilität für die User und Datensicherheit somit zu einer strategischen Gratwanderung.

Wer Microsoft 365 Copilot für sein Unternehmen einführt, kauft ein Produkt. Was er möglicherweise nicht weiss: Dieses Produkt operiert unter zwei verschiedenen datenschutzrechtlichen Regimes, je nachdem welche Funktion gerade aktiv ist.

Das ist keine juristische Spitzfindigkeit. Es ist eine technische Realität, die für die Konfigurationsentscheidung vor dem Rollout relevant ist.

Die Grundstruktur: Microsoft als Auftragsbearbeiter

Wenn Copilot auf Unternehmensdaten zugreift, also E-Mails, Dokumente und Kalendereinträge über Microsoft Graph, gilt Microsoft datenschutzrechtlich als Auftragsbearbeiter. Das bedeutet: Microsoft bearbeitet diese Daten ausschliesslich nach den Weisungen des Unternehmens. Es gibt einen Vertrag, der das regelt: das Data Processing Addendum (DPA), das automatisch Teil jeder kommerziellen M365-Lizenz ist. Prompts, Responses und über Microsoft Graph abgerufene Organisationsdaten werden nach Microsofts Dokumentation nicht zum Training der Foundation-LLMs für Microsoft 365 Copilot verwendet.

Das ist die datenschutzrechtliche Grundlage, auf der Copilot funktioniert, und sie ist solide, wenn der Rest stimmt.

Die Ausnahme: Bing als eigenständiger Verantwortlicher

Sobald die Websuche aktiviert ist, ändert sich die Struktur. Copilot extrahiert aus dem Prompt des Nutzers Stichwörter und sendet diese an den Bing-Suchdienst. Für diese Bearbeitung gilt das DPA ausdrücklich nicht. Bing-Web-Queries werden laut Microsoft gleichwohl nicht für Werbung und nicht für LLM-Training genutzt. Microsoft agiert dabei jedoch nicht mehr als weisungsgebundener Auftragsbearbeiter, sondern als eigenständiger Verantwortlicher, nach eigenen Datenschutzregeln, für eigene Zwecke.

Das bedeutet: Für generierte Websuchanfragen an Bing gilt nicht mehr das DPA-Regime. Microsoft handelt insoweit als eigenständiger Verantwortlicher nach separaten Bedingungen. Damit verschiebt sich die rechtliche und vertragliche Steuerungslogik deutlich.

Microsoft dokumentiert das transparent in seiner Produktdokumentation. Es steht dort. Was fehlt, ist die Übersetzung in die Rollout-Entscheidung.

Websuche deaktivieren: zwei Herangehensweisen

Die Websuche in Microsoft 365 Copilot lässt sich auf zwei Ebenen steuern.

1. Zentrale Steuerung über Richtlinien

Die Websuche kann organisationsweit oder für definierte Nutzergruppen über Richtlinien im Microsoft 365-Umfeld deaktiviert werden. Ist sie deaktiviert, werden keine Websuchanfragen an Bing gesendet.
Das ist die einzige Variante, die eine durchgehend kontrollierbare Datenbearbeitung sicherstellt.

2. Nutzerseitige Steuerung im Work Chat

Ist die Websuche erlaubt, kann sie im Microsoft 365 Copilot Work Chat über den „Web content“-Toggle für einzelne Anfragen ein- oder ausgeschaltet werden. Das gibt mehr Flexibilität, setzt aber voraus, dass die Mitarbeitenden wissen, wann die Deaktivierung nötig ist, und dass sie diese Entscheidung bewusst treffen.
Diese Möglichkeit besteht jedoch nur im Work Chat. In anderen Copilot-Anwendungen, etwa innerhalb von Word, Outlook oder PowerPoint, gibt es keine gleichwertige, situative Steuerung durch den Nutzer.

Abgrenzung: Copilot als separate Applikation

Die vorstehenden Steuerungsmöglichkeiten gelten nur für Microsoft 365 Copilot. Die eigenständige Copilot-Applikation (ohne M365-Kontext) folgt einer anderen Logik: Dort ist Websuche Bestandteil der Funktionalität und nicht zentral steuerbar.

Konsequenz für die Praxis

Die Entscheidung liegt zwischen zwei Kontrollmodellen:

  • Zentrale Deaktivierung: keine Datenübermittlung an externe Suchdienste
  • Nutzersteuerung im Work Chat: Entscheidung im Einzelfall, ohne konsistente Durchsetzung

In der Praxis ist diese Unterscheidung entscheidend: Das System wechselt je nach Nutzungssituation das datenschutzrechtliche Regime, ohne dass dies für den Nutzer transparent ist.

Wird die Entscheidung auf den Nutzer verlagert, entsteht kein gesteuertes Modell, sondern eine inkonsistente Nutzung im Unternehmen. Für Umgebungen mit besonders schutzwürdigen Daten, etwa Rechtsabteilungen, Finanzfunktionen oder Berufsgeheimnisträger, ist die übergeordnete Deaktivierung der sicherere Weg. Für Bereiche, in denen Websuche produktiv eingesetzt wird und das Risikoprofil der Daten das zulässt, kann die Nutzerkontrolle im Einzelfall die bessere Lösung sein. Entscheidend ist nicht welcher Weg gewählt wird, sondern dass die Entscheidung bewusst getroffen und dokumentiert ist.

Sprachmodelle im Hintergrund: ein neuer Aspekt

Seit Januar 2026 ist Anthropic als Unterauftragsbearbeiter für Microsoft 365 Copilot gelistet. Anthropics Sprachmodelle können damit als alternatives Sprachmodell innerhalb von Copilot eingesetzt werden, neben oder anstelle von OpenAIs Sprachmodellen. Für die DPA-Struktur ändert das grundsätzlich nichts: Anthropic ist vertraglich in die Kette der Unterauftragsbearbeiter eingebunden.

Eine Einschränkung besteht jedoch: Anthropics Sprachmodelle sind für die EU-Datengrenze und für die In-Region-Verarbeitungspflichten nicht qualifiziert, weil Anthropic keine Rechenzentren in der EU oder der Schweiz betreibt. Für Unternehmen mit entsprechenden Konfigurationsanforderungen ist das ein Punkt, der bei der Tenant-Konfiguration berücksichtigt werden sollte.

Die Governance-Frage dahinter

Die Konfiguration der Websuche ist eine IT-Entscheidung. Die Beurteilung, ob die dadurch entstehende Datenbearbeitung mit den Anforderungen bestimmter Abteilungen vereinbar ist, ist keine IT-Entscheidung. Es ist eine Organisationsentscheidung, die IT-Entscheider und rechtlich Verantwortliche gemeinsam treffen müssen.

Copilot-Rollouts, die ausschliesslich in der IT-Abteilung entschieden werden, ohne systematische Einbindung von Datenschutz und Recht, produzieren genau diese Lücke: Eine Konfiguration, die technisch funktioniert, aber rechtlich nicht für alle Abteilungen passt.

Wer Copilot einführt und dabei die vollständige Kontrolle über die Datenbearbeitung behalten will, braucht eine informierte Konfigurationsentscheidung, nicht nur eine Lizenz.
 

Webcode
8rgDjNr7