16.06.2025
Datenschutz-Folgenabschätzung (DSFA) für KI-Tools: Wie Unternehmen rechtssicher KI einsetzen können
Mit dem Vormarsch von KI-Tools wie Microsoft Copilot, ChatGPT oder DeepSeek geraten Unternehmen zunehmend unter regulatorischen Druck. Datenschutz-Folgenabschätzungen (DSFA) werden zum Pflichtprogramm. Doch was bedeutet das konkret? Und worauf müssen Unternehmen achten?
Tina Ehtechami
Senior Consultant
Wann muss bei KI-Projekten eine Datenschutz-Folgenabschätzung vorgenommen werden?
Grundsätzlich ist für die Frage, ob eine DSFA durchzuführen ist, der Art. 35 Datenschutz-Grundverordnung (DSGVO) einschlägig. Absatz 1 dieses Artikels besagt:
„Hat eine Form der Verarbeitung, insbesondere bei Verwendung neuer Technologien, […] voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, so führt der Verantwortliche vorab eine [Datenschutzfolgen-Abschätzung] durch.“
Hat der Einsatz eines KI-Tools also voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen zur Folge, ist eine DSFA durchzuführen.
Regelbeispiele dafür sind gemäß Art. 35 Abs. 3 DSGVO:
- Profiling
- Umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten
- Systematische umfangreiche Überwachung öffentlich zugänglicher Bereiche
Die Datenschutzkonferenz stellt zudem eine Liste der Verarbeitungstätigkeiten (sogenannte Positivliste ) zur Verfügung, für die eine DSFA durchzuführen ist. In Nr. 11 heißt es dort:
"Einsatz von künstlicher Intelligenz zur Verarbeitung personenbezogener Daten zur Steuerung der Interaktion mit den Betroffenen oder zur Bewertung persönlicher Aspekte der betroffenen Person."
Darüber hinaus gibt es eine sogenannte Schwellenwertanalyse , mit der man anhand von bestimmten Kriterien bestimmen kann, ob eine Datenschutz-Folgenabschätzung durchzuführen ist. Diese Kriterien wurden von der ehemaligen Artikel-29-Gruppe erarbeitet, einem zentralen Datenschutzgremium der Europäischen Union bis zur Einführung der DSGVO. Diese Kriterien wurden vom Folgegremium, dem EDPB (Europäischer Datenschutzausschuss) bestätigt.
Demnach ist eine DSFA in folgenden Fällen durchzuführen:
- Datenverarbeitung im großen Umfang
- Innovative Nutzung oder Anwendung neuer technologischer oder organisatorischer Lösungen
- Bewerten und Einstufen
- Automatisierte Entscheidungsfindung mit Rechtswirkung oder ähnlich bedeutsamer Wirkung
- gegebenenfalls weitere Kriterien (je nach Use Case)
Beim Einsatz von Künstlicher Intelligenz sind dabei in der Regel mindestens zwei Kriterien erfüllt.
Zusammenfassung:
Eine DSFA ist beim Einsatz von KI-Tools also unter anderem durchzuführen, wenn:
- voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen besteht,
- Profiling betrieben wird,
- besondere Kategorien personenbezogener Daten umfangreich verarbeitet werden,
- öffentlich zugängliche Bereiche umfangreich systematisch überwacht werden,
- die KI genutzt wird, um personenbezogene Daten zu verarbeiten, um die Interaktion mit Betroffenen zu steuern oder persönliche Aspekte von ihnen zu bewerten,
- Daten in großem Umfang verarbeitet werden.
Kostenfreie Expertise im E-Mail-Postfach
Alle wichtigen Neuigkeiten zu Datenschutz, Informationssicherheit, KI und Datenstrategien einmal monatlich bequem im E-Mail-Postfach – natürlich kostenlos.
Schatten-KI und Kontrollverlust
Ein wachsendes Phänomen ist die sogenannte „Schatten-KI“: Beschäftigte nutzen Tools wie ChatGPT oder DeepSeek, ohne dass Unternehmensrichtlinien greifen oder eine zentrale Kontrolle erfolgt.
Das birgt gravierende Risiken für Datenschutz, Informationssicherheit und Geschäftsgeheimnisse und sorgt zunehmend für Unsicherheit im Top-Management.
Wie muss eine DSFA für KI-Tools ablaufen?
Die DSFA basiert auf einem systematischen Verfahren:
- Prüfung der Erforderlichkeit einer DSFA
- Beschreibung der Datenverarbeitung, der Zwecke, der verarbeiteten Datentypen und Datenkategorien
- Prüfung der Rechtsgrundlage(n)
- Bewertung der Notwendigkeit und Verhältnismäßigkeit
- Analyse der Risiken für Betroffene
- Maßnahmen zur Risikominimierung (zum Beispiel Zugriffskontrollen, Richtlinien, Löschfristen)
Bereit für Datenschutz-Beratung, die Sie nicht bremst – sondern weiterbringt?
Im Gespräch mit unseren JuristInnen gewinnen Sie nicht nur Sicherheit, sondern Klarheit über Ihre nächsten Schritte.
Typische Fallstricke bei KI-Projekten
Blackbox und Zweckbindung
KI-Systeme basieren auf probabilistischen Modellen, deren Entscheidungen oft nicht nachvollziehbar sind (Blackbox). Gleichzeitig erfolgt der KI-Einsatz häufig zweckoffen, was gegen das Prinzip der Zweckbindung verstößt.
Weitere Herausforderungen:
- Eingeschränkte Transparenz gegenüber Betroffenen
- Datenminimierung versus Big Data
- Fehlerhafte Outputs („Halluzinationen“)
- Übermittlung in Drittländer bei SaaS-Anbietern
Beispiel Microsoft 365 Copilot
Die Integration von Microsoft Copilot in M365 zeigt, wie komplex KI-gestützte Assistenzsysteme sind.
Microsoft Copilot in M365 hat Zugriff auf umfangreiche unternehmensinterne Daten und verarbeitet diese innerhalb klar definierter Dienstgrenzen (Service Boundaries).
Um Datenschutzrisiken zu minimieren, ist es erforderlich, geeignete technische Maßnahmen zu ergreifen, wie Plug-ins sowie Verknüpfungen zur Bing-Suche zu deaktivieren.
Zusätzlich bieten Konfigurationsmöglichkeiten über das Admin Center gezielte Steuerungsoptionen, um den Einsatz datenschutzkonform zu gestalten.
Microsoft 365 steht besonders im Fokus der Aufsichtsbehörden. Eine DSFA ist hier zwingend erforderlich, um Verantwortlichen rechtliche Absicherung zu bieten.
Die DSFA als Schlüssel zur AI-Compliance
Die Datenschutz-Folgenabschätzung ist nicht nur ein DSGVO-Erfordernis. Sie ist auch ein zentrales Element des AI Acts der EU. Eine gut durchgeführte DSFA:
- legt Risiken offen
- fördert Transparenz
- dokumentiert getroffene Schutzmaßnahmen
- und schafft belastbare Entscheidungsgrundlagen für Führungskräfte
Sie ermöglicht zudem die Identifikation von Diskriminierungsrisiken, zum Beispiel durch Verzerrungen (Bias) in Trainingsdaten.
Unsere Leistungen zum Thema KI und Datenschutz
Als spezialisierte Unternehmensberatung unterstützen wir Sie dabei, KI-Projekte rechtssicher zu gestalten. Unsere Leistungen im Überblick:
- Bereitstellung eines externen Datenschutzbeauftragten
- Risikobewertungen und Schwellenwertanalysen zur Entscheidung über DSFA-Pflicht
- Durchführung von Datenschutz-Folgenabschätzungen für KI-Anwendungen
- Entwicklung von KI-Nutzungsrichtlinien , abgestimmt auf Ihr Unternehmen
- Schulungen für Datenschutzbeauftragte, IT und Management zum rechtssicheren KI-Einsatz
- Begleitung bei der AI-Act-Compliance und Umsetzung neuer regulatorischer Vorgaben
- Durchführung von Datenschutzaudits zur Identifizierung von Datenschutz-Gaps
Sprechen Sie uns an! Wir machen Ihre KI-Projekte datenschutzkonform und effizient, damit aus KI-Potenzialen echte Wirkung wird.
Bereit für Datenschutz-Beratung, die Sie nicht bremst – sondern weiterbringt?
Im Gespräch mit unseren JuristInnen gewinnen Sie nicht nur Sicherheit, sondern Klarheit über Ihre nächsten Schritte.
Weitere Neuigkeiten
24.03.2026
EDPB-Studie zum Recht auf Löschung: Warum Art. 17 DSGVO in der Praxis oft zum Problem wird
Der EDPB hat in einer europaweiten Prüfaktion untersucht, wie Organisationen das Recht auf Löschung tatsächlich umsetzen. Das Ergebnis: Viele Probleme liegen nicht im Gesetzestext, sondern in Prozessen, Fristen, Backups und unklaren Zuständigkeiten.
16.03.2026
Cyber Resilience Act: Erste Meldepflichten gelten schon ab September 2026
Viele Unternehmen planen ihre Cyber-Resilience-Act-Compliance erst für 2027. Doch eine zentrale Pflicht greift früher: Ab dem 11. September 2026 müssen Hersteller aktiv ausgenutzte Schwachstellen und schwerwiegende Sicherheitsvorfälle innerhalb kurzer Fristen melden. Wer dafür keine Prozesse vorbereitet hat, gerät schnell unter Druck.
Weiterlesen … Cyber Resilience Act: Erste Meldepflichten gelten schon ab September 2026
13.03.2026
Datenstrategie: Der unterschätzte Erfolgsfaktor für skalierbare KI-Projekte
Viele Unternehmen investieren in KI-Tools – und scheitern trotzdem an instabilen Modellen, fehlender Akzeptanz oder regulatorischen Hürden. Der eigentliche Hebel liegt woanders: in einer belastbaren Datenstrategie. Warum sie über Erfolg oder Stillstand von KI-Projekten entscheidet – und wie Sie sie gezielt aufbauen.
Weiterlesen … Datenstrategie: Der unterschätzte Erfolgsfaktor für skalierbare KI-Projekte