25.06.2025
In 5 Schritten zur systematischen AI Governance: KI rechtssicher nutzen
Die Regulierung von Künstlicher Intelligenz nimmt Fahrt auf – mit unmittelbaren Auswirkungen für Unternehmen. Wer KI künftig sicher und gesetzeskonform einsetzen möchte, braucht mehr als technische Kompetenz: Gefragt ist ein systematischer Governance-Ansatz.
Dr. Philipp Siedenburg
Operating Partner
Die neue Realität: KI und Regulierung greifen ineinander
Mit dem stufenweise seit Februar 2025 geltenden EU AI Act kommen auf Anbieter und Betreiber von KI-Systemen umfassende Pflichten zu.
Dabei verfolgt der Gesetzgeber einen risikobasierten Ansatz: Je höher das Gefährdungspotenzial eines KI-Systems, desto umfangreicher und strenger fallen die Anforderungen an Risikomanagement, Cybersicherheit, Dokumentations- und Transparenzpflichten aus.
Für Unternehmen bedeutet das: Sie müssen den Überblick über eingesetzte KI behalten, Risiken frühzeitig erkennen und ihre Prozesse rechtskonform gestalten.
Kostenfreie Expertise im E-Mail-Postfach
Alle wichtigen Neuigkeiten zu Datenschutz, Informationssicherheit, KI und Datenstrategien einmal monatlich bequem im E-Mail-Postfach – natürlich kostenlos.
Die 5 Schritte zum rechtssicheren KI-Einsatz
Mit diesen fünf Schritten schaffen Sie eine strukturierte Grundlage für eine rechtssichere und verantwortungsvolle Nutzung von Künstlicher Intelligenz in Ihrem Unternehmen:
1. AI Management etablieren
AI Management ist die Gesamtheit der Regeln, Prozesse und Strukturen, die die Entwicklung, den Einsatz bzw. die Überwachung von KI in einer Organisation steuern. Dazu zählen die Festlegung von Verantwortlichkeiten und Prozessen innerhalb des Unternehmens sowie die Erstellung und Implementierung von Leit- und Richtlinien zum Einsatz von KI.
Soweit bereits ein Datenschutzmanagementsystem (DSMS) und/oder Informationssicherheitsmanagementsystem (ISMS) bestehen, empfiehlt es sich, das AI-Managementsystem (AIMS) integriert darin aufzubauen, um Synergien zu nutzen, Aufwand zu reduzieren und eine einheitliche Steuerung von Risiken und Compliance-Anforderungen sicherzustellen.
Die neue Norm ISO/IEC 42001 für KI-Managementsysteme folgt insoweit ebenfalls dem gleichen Grundaufbau wie die etablierten Normen ISO/IEC 27001 (Informationssicherheit) und ISO/IEC 27701 (Datenschutz).
2. Risikoklassifizierung durchführen
Zunächst hat für jede KI-Anwendung eine Risikoklassifizierung zu erfolgen.
Dabei sind folgende Risikoklassen zu unterscheiden:
- KI-System mit inakzeptablem Risiko
- KI-System mit hohem Risiko
- KI-System mit systemischem oder mittlerem Risiko
- KI-System mit geringem Risiko
Zudem ist die Rolle des Unternehmens (z. B. Anbieter oder Betreiber) zu bestimmen. Die richtige Einstufung der Risikoklasse und Rolle ist entscheidend dafür, welche konkreten Pflichten und Verantwortlichkeiten nach dem AI Act bestehen.
3. Dokumentation von Assets und Use-Cases
Unternehmen sollten alle relevanten Informationen zu den eingesetzten KI-Anwendungen dokumentieren. Hierdurch können nicht nur technische Dokumentationspflichten erfüllt, sondern auch Risikoprüfungen, etwa Datenschutzfolgenabschätzungen (DSFA), wesentlich erleichtert werden.
Die Dokumentation kann erfolgen in:
- Asset-Verzeichnissen , in denen KI-Anwendungen anwendungsbasiert erfasst werden
- Use-Case-Dokumentationen , in denen die konkreten Anwendungsfälle der KI in Anlehnung an das aus dem Datenschutz bekannte Verzeichnis von Verarbeitungstätigkeiten erfasst werden
4. Risikomanagement etablieren
Für Hochrisiko-KI ist ein Risikomanagementsystem nach Art. 9 KI-VO verpflichtend. Doch auch für alle anderen KI-Systeme ist es dringend zu empfehlen – insbesondere bei KI-Systemen, die auf intransparenten (sogenannten "Black-Box") Modellen basieren.
Ein zentraler Bestandteil des Risikomanagements ist eine Risikoprüfung des konkreten KI-Systems.
Diese erfolgt in drei Schritten:
- Identifikation von Risiken
- Bewertung der Risiken
- gegebenenfalls Umsetzung risikomindernder Maßnahmen
Diese Vorgehensweise orientiert sich an der Methodik der DSFA und kann, sofern durch die KI-Anwendung personenbezogene Daten verarbeitet werden, mit dieser kombiniert oder in sie integriert werden.
5. Transparenzanforderungen umsetzen
Sowohl als Anbieter als auch Betreiber eines KI-Systems müssen Sie verschiedenen Transparenzpflichten nach dem AI Act und der DSGVO nachkommen.
Diese Pflichten reichen von der Informationspflicht über den Einsatz und die Verarbeitung von personenbezogenen Daten, über die Offenlegungs- und Kennzeichnungspflicht von KI-generierten Inhalten (z. B. bei Texten, Bildern oder Entscheidungen), bis hin zur Bereitstellung von Gebrauchsanweisungen, die eine sachgerechte und sichere Nutzung des KI-Systems ermöglichen sollen.
Tipp: AI-Officer als zentrale Steuerungsrolle für KI im Unternehmen
Die Benennung eines AI-Officers bzw. KI-Beauftragten als zentrale Funktion ist rechtlich nicht verpflichtend, stellt jedoch eine zu empfehlende strategische Maßnahme dar, um die AI-Governance im Unternehmen zu etablieren.
Geeignet sind Abteilungen und Personen, die Erfahrung und Wissen bei der Operationalisierung rechtlicher Anforderungen in der Unternehmenspraxis haben.
Zu den zentralen Aufgaben des AI-Officers zählen unter anderem die Strategieentwicklung, Erstellung und Umsetzung von Leit- und Richtlinien, Projektplanung und -steuerung, interne Koordination regulatorischer Herausforderungen, Durchführung von Schulungen zur AI Literacy sowie die Kommunikation mit Behörden und externen Stakeholdern.
Unsere Leistungen: So unterstützen wir Sie beim rechtskonformen KI-Einsatz
Als spezialisierte Unternehmensberatung für KI-Compliance begleiten wir Sie umfassend bei der Umsetzung Ihrer AI Governance:
- Stellung des externen KI-Beauftragten
- Beratung zum Einsatz von KI-Anwendungen
- Data & AI Governance
- Schulung zu KI und Datenschutz
- ISO 42001-Zertifizierung
Sprechen Sie uns an – gemeinsam machen wir Ihre KI-Strategie zukunfts- und compliance-sicher.
KI nutzen, aber richtig?
Wir machen Ihre Projekte rechtssicher, innovationsfreundlich und skalierbar.
Lassen Sie uns sprechen – unverbindlich und auf den Punkt.
Weitere Neuigkeiten
30.10.2025
Datenschutz auf der Website: Die 7 Pflicht‑Bausteine für 2025
Viele Unternehmenswebsites sammeln heute Daten – oft unbeabsichtigt. Dieser Beitrag erklärt verständlich, worauf es ankommt, welche Rechtsgrundlagen gelten und wie Sie Ihre Website mit sieben klaren Bausteinen datenschutzsicher aufstellen.
Weiterlesen … Datenschutz auf der Website: Die 7 Pflicht‑Bausteine für 2025
15.10.2025
Cyber-Risikomanagement: 5 Schritte, die jetzt den Unterschied machen
Cyber-Sicherheit ist längst keine Kür mehr, sondern Pflicht. Steigende Bedrohungen und wachsende Regulierung – von NIS2 über DORA und DSGVO bis zum Cyber Resilience Act und dem AI Act – setzen Unternehmen unter Zugzwang. Wer Risiken systematisch behandelt, trifft bessere Entscheidungen und schützt das Geschäft nachhaltig.
Weiterlesen … Cyber-Risikomanagement: 5 Schritte, die jetzt den Unterschied machen
07.10.2025
BSI wird notifizierende und marktüberwachende Behörde für den Cyber Resilience Act
Die Bundesregierung hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) als marktüberwachende und notifizierende Behörde für den Cyber Resilience Act (CRA) benannt. Für Hersteller und Anbieter digitaler Produkte bedeutet das: klare Zuständigkeit in Deutschland – und spürbar mehr Nachweispflichten rund um Cybersicherheit.
Weiterlesen … BSI wird notifizierende und marktüberwachende Behörde für den Cyber Resilience Act