Microsoft Copilot & Datenschutz: Was Unternehmen jetzt wissen müssen
Einfache Nutzung von KI in sämtlichen Produkten von Microsoft 365 und das ganz ohne separate App? Genau das verspricht Microsoft mit Copilot. Doch so innovativ die neue Arbeitsweise auch ist: Sie wirft zahlreiche datenschutzrechtliche Fragen auf. Dieser Beitrag liefert eine kompakte Übersicht über die wichtigsten Datenschutzaspekte im Zusammenhang mit Microsoft 365 Copilot und Copilot Chat.
Was ist Microsoft Copilot und wie funktioniert es technisch?
Microsoft Copilot basiert technisch auf großen Sprachmodellen (Large Language Models, LLMs) wie GPT-4 bzw. GPT-5-Modele. Im Unterschied zum klassischen Large Language Modell, wie ChatGPT, ist Copilot jedoch tief in die Infrastruktur von Microsoft 365 eingebunden. Eine zentrale Rolle spielt dabei das sogenannte Grounding.
Beim Grounding bezieht die KI ihre Informationen und Antworten auf Basis von Unternehmensdaten aus dem Microsoft Graph. Also Informationen aus z.B. E-Mails, OneDrive-Dateien, SharePoint, Kalendern oder Teams-Chats. Copilot generiert Antworten also nicht aus einem allgemeinen Modellwissen heraus, sondern auf Basis von konkreten Informationen aus dem Unternehmenskontext.
Optional kann Copilot, sofern das Webinhalts-Plugin aktiviert ist, die Antworten zusätzlich mit Informationen aus dem Internet ergänzen. Doch genau diese Verknüpfung von sensiblen Unternehmensdaten und externer Verarbeitung über LLMs, Graph-Schnittstellen und Bing wirft eine Vielzahl datenschutzrechtlicher Fragen auf.
Neues Seminar: Datenschutz bei Microsoft 365 inkl. CoPilot
Datenschutzrechtliche Herausforderungen
1. Zwei Copilot-Varianten und wenig Klarheit über die Unterschiede
Microsoft bietet aktuell zwei zentrale Varianten von Copilot an, die sich datenschutzrechtlich deutlich unterscheiden und zudem für den Nutzer schwer zu unterscheiden sind:
- Microsoft 365 Copilot (inkl. Chatfunktion): Diese Variante ist direkt in Anwendungen wie Word, Excel, Outlook oder Teams integriert. Sie greift über den Microsoft Graph auf unternehmensinterne Daten zu. Die Datenverarbeitung erfolgt innerhalb des Microsoft-Tenants, und Copilot nutzt diese Inhalte aktiv zur Erstellung von Texten, Zusammenfassungen oder Analysen.
- Microsoft Copilot Chat (kostenfrei): Dabei handelt es sich um eine browser- und appbasierte Chatanwendung, die auch über Drittplattformen wie WhatsApp oder die Bing-Startseite zugänglich ist. In der Regel hat diese Version keinen Zugriff auf unternehmensinterne Inhalte, sondern liefert Antworten rein auf Basis allgemeiner Informationen aus dem Web und Modellwissen.
Problematisch ist, dass Microsoft diese Unterscheidung nicht klar und konsistent kommuniziert. Bezeichnungen wie „Copilot“, „Copilot für Microsoft 365“, „Copilot Pro“, „Copilot Chat“ oder „Copilot für Bing“ werden uneinheitlich verwendet, auch in offiziellen Dokumentationen. Für Nutzende ist deshalb kaum erkennbar, welche Variante sie gerade verwenden und ob dabei auf eigene Daten zugegriffen wird oder nicht.
2. Microsoft als Verantwortlicher
Das Data Protection Addendum (DPA) ist eine vertragliche Zusatzvereinbarung von Microsoft und diese regelt, wie Microsoft personenbezogene Daten im Auftrag seiner Kunden verarbeitet. Es ist ein zentraler Bestandteil für die datenschutzkonforme Nutzung von Microsoft 365, Azure, Copilot und anderen Cloud-Diensten.
Die Namensgebung und Funktionstrennung ist wie schon erwähnt problematisch. Dadurch ist nicht klar, ob ein Produkt im Rahmen des DPA oder der allgemeinen Nutzungsbedingungen agiert.
- Innerhalb des Data Protection Addendum (DPA): Copilot-Funktionen im Core-Online-Service-Modell (z. B. bei Verwendung mit Entra-ID und E5-Lizenz). Hier ist Microsoft kein eigener Verantwortlicher
- Außerhalb des DPA: z. B. bei aktivierter Websuche via Bing-API oder bei Verwendung des Webinhalts-Plugins. Hier tritt Microsoft als eigener Verantwortlicher auf.
3. Weitreichende Zugriffsrechte: Copilot sieht, was der Mitarbeiter sieht
Microsoft Copilot greift auf sämtliche Inhalte zu, auf die auch der jeweilige Nutzer im Microsoft-365 berechtigt ist. Dazu könne sensible und vertrauliche Daten gehören. Technisch gibt es für Copilot kaum Einschränkungen, solange der Nutzer selbst Zugriff auf die Inhalte hat. Fehlt ein klar strukturiertes Berechtigungskonzept, entsteht daraus ein erhebliches Risiko: Vertrauliche Informationen können in andere Kontexte einfließen, etwa wenn Copilot automatisch neue In-halte erstellt, Besprechungen zusammenfasst oder Entwürfe vorschlägt. Solche Datenübertragungen erfolgen ohne Kontextkontrolle und meist unbemerkt auch Inhalte, die ursprünglich nur für bestimmte Rollen gedacht waren, können versehentlich offengelegt werden.
Da Copilot keine eigenen Beschränkungen hinsichtlich Inhaltstyp oder Vertraulichkeit kennt, ist der Schutz sensibler Informationen vollständig von der Qualität der Berechtigungsvergabe ab-hängig. Wird nicht konsequent darauf geachtet, drohen unbefugte Datenverarbeitung, Verletzungen der Vertraulichkeit und im schlimmsten Fall meldepflichtige Datenschutzvorfälle.
4. Vollständige Integration mit dem Microsoft Graph
Copilot greift automatisiert auf Daten aus dem Microsoft Graph zu, darunter Fallen E-Mails, Dateien, Kalender und Chats aus Outlook, Teams, OneDrive oder SharePoint. Der Zugriff erfolgt umfassend und ohne inhaltliche Filterung: Auch ältere oder sensible Inhalte werden verarbeitet, sofern der jeweilige Nutzer darauf zugreifen darf. Eine Unterscheidung nach Vertraulichkeit er-folgt nur, wenn Daten zuvor manuell mit Sensitivity Labels oder über Purview-Richtlinien klassifiziert wurden.
Das birgt mehrere Risiken: Vertrauliche Inhalte können unbeabsichtigt in neue Kontexte gelangen, Datenschutzvorfälle lassen sich schwerer nachvollziehen, und Betroffenenrechte wie Auskunft oder Löschung sind technisch schwer durchsetzbar. Bei kompromittierten Konten besteht zudem die Gefahr, dass große Datenmengen automatisiert abfließen oder zur Mitarbeiterüberwachung genutzt werden können.
Unternehmen müssen Sichtbarkeiten konsequent steuern, dies könnte z.B durch Berechtigungskonzepte, klassifizierende Labels und eine gezielte Graph-Zugriffskontrolle erfolgen.
5. Webinhalte-Funktion: Eigenständige Datenverarbeitung durch Microsoft
Wird die Webinhalte-Funktion in Copilot aktiviert, stellt Copilot eigenständig Suchanfragen an die Bing-API, ohne dass Nutzer dies explizit veranlassen. So entsteht eine dynamische Kombination aus internen Daten und externem Webwissen. Das macht Copilot zu einem leistungsstarken Werkzeug für Textentwürfe, Analysen oder Zusammenfassungen. Obwohl Microsoft erklärt, dass diese Anfragen nicht direkt mit Nutzer- oder Mandantenkennungen verknüpft werden, erfolgt die Verarbeitung außerhalb des Data Protection Addendum (DPA).
Stattdessen greifen die allgemeinen Online Services Terms, bei denen Microsoft nicht als Auftragsverarbeiter, sondern als eigener Verantwortlicher agiert. Damit entzieht sich dieser Teil der Datenverarbeitung der Kontrolle durch das Unternehmen. Welche Daten verarbeitet, gespeichert oder analysiert werden, bleibt unklar.
Unternehmen sollten den Einsatz der Webinhalte-Funktion kritisch prüfen und bei sensiblen Daten oder unklarer Rechtslage lieber deaktivieren.
Unser Fazit: Microsoft CoPilot kann die Produktivität steigern
Microsoft Copilot kann die Produktivität spürbar steigern, aber datenschutzkonform ist der Einsatz aber nur mit klaren Leitplanken. Entscheidend sind
- die saubere Trennung der Copilot-Varianten (M365 Copilot vs. Copilot Chat),
- die Rollenklärung von Microsoft und ggf. externen Beteiligten (DPA vs. eigener Verantwortlicher) sowie
- ein strenges „Need-to-know“-Berechtigungs- und Klassifizierungskonzept für Inhalte im Microsoft Graph. Die Webinhalte-Funktion erhöht das Risiko und sollte nur mit eindeutiger Rechtsgrundlage, Transparenz und technischer Kontrolle genutzt werden. Und im Zweifel? Deaktivieren.
Empfohlene To-dos vor dem Go-Live:
- Produkt-/Variante festlegen & Richtlinie veröffentlichen (wann welches Copilot genutzt werden darf).
- Rollen & Rechtsgrundlagen dokumentieren (DPA, Rechtsgrundlagen der Verarbeitung, Datenschutz-Folgenabschätzung).
- Webinhalte-Funktion steuern (Default off, Ausnahmen genehmigen; Protokollierung).
- Least-Privilege-Berechtigungen bereinigen, Gastzugriffe prüfen, freigegebene Ordner/Teams aufräumen.
- Sensitivity Labels, DLP & Purview verbindlich einsetzen; automatische Kennzeichnung aktivieren.
- Protokollierung & Monitoring (Audit-Logs, Anomalieerkennung) und Lösch-/Auskunftsprozesse testen.
- Mitarbeiter schulen (Varianten, Do’s & Don’ts, keine Gründe/Vertraulichkeiten in Prompts).
- Transparenzhinweise aktualisieren (Zwecke, Empfänger, Widerspruch nach Art. 21 DSGVO bei berechtigten Interessen).
Kurz gesagt: Copilot ist kein „Plug-and-Play“, sondern ein Compliance-Projekt. Wer Varianten, Verantwortlichkeiten und Zugriffe im Griff hat und Schutzmaßnahmen konsequent umsetzt, kann die Chancen von Copilot nutzen, ganz ohne unnötige Datenschutzrisiken.