Microsoft CoPilot – Helferlein oder Gefahr?
Die KI-gestützte Assistenzfunktion Microsoft CoPilot, die in Microsoft 365 integriert ist, bietet zahlreiche Vorteile für die Produktivität Ihrer Mitarbeitenden. E-Mails, Dokumente oder Excel-Tabellen können kurz und knapp zusammengefasst werden – dafür liest die KI jedoch den gesamten Inhalt jeder Datei in Ihrem Dateisystem aus. Gerade deswegen sind bei der Nutzung wichtige datenschutzrechtliche Aspekte zu beachten, um die Rechte Ihrer Mitarbeitenden und die Sicherheit Ihrer Unternehmensdaten zu gewährleisten.
1. Das Auslesen und Verarbeiten von Dateien durch CoPilot
Microsoft CoPilot greift auf alle in Ihrer Organisation gespeicherten Daten und Dokumente zu, um personalisierte Unterstützung zu bieten. Dabei werden Inhalte aus E-Mails, Dokumenten, Tabellen und anderen Office-Anwendungen analysiert.
- Datenerhebung und -übertragung: Die Daten werden in der Regel in die Cloud übertragen, was grundsätzlich eine Datenverarbeitung im Auftrag des Unternehmens darstellt, die einer rechtlichen Grundlage bedarf. Es ist daher entscheidend, dass Sie vertraglich mit Microsoft regeln, welche Daten verarbeitet und welche Sicherheitsmaßnahmen getroffen werden.
- Rechtliche Grundlage: Die Verarbeitung der Daten muss auf einer gültigen Rechtsgrundlage basieren, beispielsweise auf einer Einwilligung, der Erfüllung eines Vertrags oder berechtigten Interessen. Es ist empfehlenswert, eine Datenschutz-Folgenabschätzung (DSFA) durchzuführen, wenn sensible oder besonders schützenswerte Daten verarbeitet werden.
- Sensible Daten: Besonders bei sensiblen Informationen (z.B. Gesundheitsdaten, Personaldaten) ist Vorsicht geboten. Es sollte geprüft werden, ob die Daten überhaupt an Microsoft übertragen werden dürfen, und gegebenenfalls müssen entsprechende technische und organisatorische Maßnahmen (TOM) implementiert werden. Sie sollten eine Richtlinie zur Nutzung von KI-Systemen in Ihrem Unternehmen etablieren, welche exakt regelt, wann und welche Daten mithilfe der KI verarbeitet werden dürfen. Es empfiehlt sich ebenso, bestimmte Netzwerkbereiche von der KI zu isolieren, zum Beispiel den Lagerort von digitalen Personalakten.
2. Das Training der KI und die Nutzung von Daten
Microsoft nutzt die Daten, die durch die Nutzung von CoPilot generiert werden, um die KI-Modelle zu verbessern. Hierbei sind folgende Punkte zu beachten:
- Daten für das KI-Training: Standardmäßig werden anonymisierte Nutzungsdaten verwendet, um die Modelle zu optimieren. Dennoch besteht die Gefahr, dass unbeabsichtigt personenbezogene oder vertrauliche Informationen in das Training gelangen.
- Einstellungen und Kontrolle: Unternehmen sollten die Konfiguration so anpassen, dass nur die unbedingt notwendigen Daten für das Training verwendet werden. Es ist ratsam, die Option zu deaktivieren, bei der Nutzungsdaten automatisch für das KI-Training genutzt werden.
- Vertragliche Regelungen: Treffen Sie mit Microsoft klare Vereinbarungen, die den Umgang mit Daten im Rahmen des KI-Trainings regeln, insbesondere im Hinblick auf den Schutz personenbezogener Daten.
3. Risiken des Missbrauchs durch Dritte
Wie bei jeder Cloud-basierten Lösung besteht das Risiko, dass unbefugte Dritte Zugriff auf Ihre Daten erlangen:
- Cyberangriffe und Datenlecks: Hackerangriffe, Phishing oder Sicherheitslücken können dazu führen, dass vertrauliche Informationen in falsche Hände geraten. Je mehr vertrauliche Informationen durch CoPilot verarbeitet werden, desto größer das Risiko.
- Insider-Bedrohungen: Mitarbeitende mit unzureichender Schulung oder böswilligem Verhalten könnten Daten missbrauchen.
- Missbrauch durch Dritte: Es besteht die Gefahr, dass Dritte versuchen, die KI-Funktion für unrechtmäßige Zwecke zu manipulieren oder auszunutzen. So kann es beispielsweise der Fall sein, dass ein/-e Mitarbeitende/-r durch gezieltes Fragenstellen an eine KI (Prompt Injection) an sensible Informationen ihrer Mitarbeitenden kommt. Nach aktuellem Stand funktioniert das MPIP Labeling[1] nicht als Ausschluss für das Training von CoPilot, weiterhin werden die Labels derzeit nicht in der Ausgabe berücksichtigt. Dies bedeutet, grundsätzlich ist es auch möglich, dass Copilot Daten verarbeitet, die eigentlich als „vertraulich“ gekennzeichnet sind und daher nicht für alle Nutzer zugänglich sein sollten.
4. Sicherheitsmaßnahmen und Empfehlungen
Um diese Risiken zu minimieren, sollten Sie unter anderem folgende Maßnahmen ergreifen:
- Technische Sicherheitsmaßnahmen: Verschlüsselung der Daten, Zugriffskontrollen, Protokollierung der Prompts, Multi-Faktor-Authentifizierung und regelmäßige Sicherheitsupdates.
- Organisatorische Maßnahmen: Schulung der Mitarbeitenden im sicheren Umgang mit KI-Tools, klare Richtlinien zur Datenverarbeitung und -freigabe sowie regelmäßige Überprüfung der Zugriffsrechte.
- Datenschutz-Folgenabschätzung: Führen Sie eine DSFA durch, um potenzielle Risiken zu identifizieren und geeignete Maßnahmen zu ergreifen.
- Vertragliche Absicherung: Stellen Sie sicher, dass Ihre Verträge mit Microsoft den Datenschutzanforderungen entsprechen, insbesondere im Hinblick auf Auftragsverarbeitung und Datenverarbeitung im Ausland.
5. EU-KI-Verordnung
Die EU-KI-Verordnung (oder auch AI Act) legt wichtige Rahmenbedingungen fest, um den sicheren und verantwortungsvollen Einsatz von KI-Systemen zu gewährleisten.
- Einstufung der KI-Anwendung: Wenn keine eigenen Programmierungen oder Datenanreicherungen geplant sind, hängt die Einstufung der KI-Anwendung von ihrer Risikokategorie ab. Die EU-KI-Verordnung unterscheidet zwischen minimalem Risiko, begrenztem Risiko, hohem Risiko und inakzeptablem Risiko.
- Minimal- oder begrenztes Risiko: In der Regel fallen viele Anwendungen in diese Kategorien, für die weniger strenge Vorgaben gelten. Hierunter fallen meistens text- oder bildgenerierende KI-Systeme wie ChatGPT, Gemini oder Dall-E. Die genaue Einordnung sollte jedoch im Einzelfall geprüft werden.
- Hohes Risiko: Wenn die KI beispielsweise in sicherheitskritischen Bereichen eingesetzt wird (z.B. im Gesundheitswesen, Verkehr, Rechtssystem), gelten strengere Vorgaben.
- Transparenzpflichten: Auch bei Anwendungen ohne eigene Programmierung muss sichergestellt werden, dass Nutzer über den Einsatz der KI informiert werden. Das bedeutet, dass klar kommuniziert werden muss, wenn eine KI im Hintergrund arbeitet, damit Nutzer wissen, dass sie mit einer automatisierten Entscheidung oder Unterstützung konfrontiert sind.
- Dokumentation und Nachvollziehbarkeit: Auch wenn keine eigene Programmierung vorhanden ist, sollte dokumentiert werden, welche KI-Tools im Einsatz sind, woher sie stammen und wie sie eingesetzt werden. Das erleichtert die Nachvollziehbarkeit und Einhaltung der Vorgaben.
- Verantwortlichkeit: Stellen Sie sicher, dass klare Verantwortlichkeiten für den Einsatz der KI vorhanden sind. Das bedeutet, dass jemand im Unternehmen für die Überwachung und Einhaltung der Vorgaben zuständig ist.
- Sicherstellung der Zweckbindung: Nutzen Sie die KI nur für die Zwecke, für die sie vorgesehen ist. Vermeiden den Einsatz in Bereichen, die nicht abgedeckt sind oder für die die KI nicht geeignet ist. Nutzen Sie beispielsweise keine Marketing-KI um Dienstpläne zu erstellen. Ebenso sollten Sie eine textgenerierende KI keine vorbereitende Buchhaltung durchführen lassen.
- Keine inakzeptablen Risiken: Vermeiden Sie den Einsatz von KI-Systemen, die in der EU als inakzeptabel eingestuft werden, z.B. Systeme, die Massenüberwachung oder soziale Bewertungssysteme umfassen oder die gegen Grundrechte verstoßen.
6. Fazit
Der Einsatz von Microsoft CoPilot kann die Effizienz Ihrer Organisation erheblich steigern. Dennoch ist es unerlässlich, die rechtlichen Rahmenbedingungen genau zu kennen und umzusetzen. Nur so können Sie sicherstellen, dass die Rechte Ihrer Mitarbeitenden gewahrt bleiben und Ihre Daten vor Missbrauch geschützt sind.
Es ist ganz gleich, ob Microsoft CoPilot oder ein anderes Out-of-the-Box-KI-System eingeführt werden soll. Die Voraussetzungen und Herausforderungen sind bei allen Systemen vergleichbar.
Wenn Sie Fragen haben oder eine individuelle Beratung benötigen, stehen wir Ihnen gerne zur Verfügung.
1 – Ein „MPIP-Label“ bezieht sich auf eine Vertraulichkeitsbezeichnung, die im Rahmen von Microsoft Purview Information Protection (MPIP) verwendet wird, um Daten basierend auf ihrer Sensitivität zu klassifizieren und zu schützen. Diese Labels helfen Benutzern, die Bedeutung von Informationen zu verstehen, Compliance-Administratoren bei der Entdeckung sensibler Daten zu unterstützen und Sicherheitsadministratoren, Zugriffs- und DLP-Richtlinien (Data Loss Prevention) zu implementieren.