25.06.2025
In 5 Schritten zur systematischen AI Governance: KI rechtssicher nutzen
Die Regulierung von Künstlicher Intelligenz nimmt Fahrt auf – mit unmittelbaren Auswirkungen für Unternehmen. Wer KI künftig sicher und gesetzeskonform einsetzen möchte, braucht mehr als technische Kompetenz: Gefragt ist ein systematischer Governance-Ansatz.
Dr. Philipp Siedenburg
Operating Partner
Die neue Realität: KI und Regulierung greifen ineinander
Mit dem stufenweise seit Februar 2025 geltenden EU AI Act kommen auf Anbieter und Betreiber von KI-Systemen umfassende Pflichten zu.
Dabei verfolgt der Gesetzgeber einen risikobasierten Ansatz: Je höher das Gefährdungspotenzial eines KI-Systems, desto umfangreicher und strenger fallen die Anforderungen an Risikomanagement, Cybersicherheit, Dokumentations- und Transparenzpflichten aus.
Für Unternehmen bedeutet das: Sie müssen den Überblick über eingesetzte KI behalten, Risiken frühzeitig erkennen und ihre Prozesse rechtskonform gestalten.
Kostenfreie Expertise im E-Mail-Postfach
Alle wichtigen Neuigkeiten zu Datenschutz, Informationssicherheit, KI und Datenstrategien einmal monatlich bequem im E-Mail-Postfach – natürlich kostenlos.
Die 5 Schritte zum rechtssicheren KI-Einsatz
Mit diesen fünf Schritten schaffen Sie eine strukturierte Grundlage für eine rechtssichere und verantwortungsvolle Nutzung von Künstlicher Intelligenz in Ihrem Unternehmen:
1. AI Management etablieren
AI Management ist die Gesamtheit der Regeln, Prozesse und Strukturen, die die Entwicklung, den Einsatz bzw. die Überwachung von KI in einer Organisation steuern. Dazu zählen die Festlegung von Verantwortlichkeiten und Prozessen innerhalb des Unternehmens sowie die Erstellung und Implementierung von Leit- und Richtlinien zum Einsatz von KI.
Soweit bereits ein Datenschutzmanagementsystem (DSMS) und/oder Informationssicherheitsmanagementsystem (ISMS) bestehen, empfiehlt es sich, das AI-Managementsystem (AIMS) integriert darin aufzubauen, um Synergien zu nutzen, Aufwand zu reduzieren und eine einheitliche Steuerung von Risiken und Compliance-Anforderungen sicherzustellen.
Die neue Norm ISO/IEC 42001 für KI-Managementsysteme folgt insoweit ebenfalls dem gleichen Grundaufbau wie die etablierten Normen ISO/IEC 27001 (Informationssicherheit) und ISO/IEC 27701 (Datenschutz).
2. Risikoklassifizierung durchführen
Zunächst hat für jede KI-Anwendung eine Risikoklassifizierung zu erfolgen.
Dabei sind folgende Risikoklassen zu unterscheiden:
- KI-System mit inakzeptablem Risiko
- KI-System mit hohem Risiko
- KI-System mit systemischem oder mittlerem Risiko
- KI-System mit geringem Risiko
Zudem ist die Rolle des Unternehmens (z. B. Anbieter oder Betreiber) zu bestimmen. Die richtige Einstufung der Risikoklasse und Rolle ist entscheidend dafür, welche konkreten Pflichten und Verantwortlichkeiten nach dem AI Act bestehen.
3. Dokumentation von Assets und Use-Cases
Unternehmen sollten alle relevanten Informationen zu den eingesetzten KI-Anwendungen dokumentieren. Hierdurch können nicht nur technische Dokumentationspflichten erfüllt, sondern auch Risikoprüfungen, etwa Datenschutzfolgenabschätzungen (DSFA), wesentlich erleichtert werden.
Die Dokumentation kann erfolgen in:
- Asset-Verzeichnissen , in denen KI-Anwendungen anwendungsbasiert erfasst werden
- Use-Case-Dokumentationen , in denen die konkreten Anwendungsfälle der KI in Anlehnung an das aus dem Datenschutz bekannte Verzeichnis von Verarbeitungstätigkeiten erfasst werden
4. Risikomanagement etablieren
Für Hochrisiko-KI ist ein Risikomanagementsystem nach Art. 9 KI-VO verpflichtend. Doch auch für alle anderen KI-Systeme ist es dringend zu empfehlen – insbesondere bei KI-Systemen, die auf intransparenten (sogenannten "Black-Box") Modellen basieren.
Ein zentraler Bestandteil des Risikomanagements ist eine Risikoprüfung des konkreten KI-Systems.
Diese erfolgt in drei Schritten:
- Identifikation von Risiken
- Bewertung der Risiken
- gegebenenfalls Umsetzung risikomindernder Maßnahmen
Diese Vorgehensweise orientiert sich an der Methodik der DSFA und kann, sofern durch die KI-Anwendung personenbezogene Daten verarbeitet werden, mit dieser kombiniert oder in sie integriert werden.
5. Transparenzanforderungen umsetzen
Sowohl als Anbieter als auch Betreiber eines KI-Systems müssen Sie verschiedenen Transparenzpflichten nach dem AI Act und der DSGVO nachkommen.
Diese Pflichten reichen von der Informationspflicht über den Einsatz und die Verarbeitung von personenbezogenen Daten, über die Offenlegungs- und Kennzeichnungspflicht von KI-generierten Inhalten (z. B. bei Texten, Bildern oder Entscheidungen), bis hin zur Bereitstellung von Gebrauchsanweisungen, die eine sachgerechte und sichere Nutzung des KI-Systems ermöglichen sollen.
Tipp: AI-Officer als zentrale Steuerungsrolle für KI im Unternehmen
Die Benennung eines AI-Officers bzw. KI-Beauftragten als zentrale Funktion ist rechtlich nicht verpflichtend, stellt jedoch eine zu empfehlende strategische Maßnahme dar, um die AI-Governance im Unternehmen zu etablieren.
Geeignet sind Abteilungen und Personen, die Erfahrung und Wissen bei der Operationalisierung rechtlicher Anforderungen in der Unternehmenspraxis haben.
Zu den zentralen Aufgaben des AI-Officers zählen unter anderem die Strategieentwicklung, Erstellung und Umsetzung von Leit- und Richtlinien, Projektplanung und -steuerung, interne Koordination regulatorischer Herausforderungen, Durchführung von Schulungen zur AI Literacy sowie die Kommunikation mit Behörden und externen Stakeholdern.
Unsere Leistungen: So unterstützen wir Sie beim rechtskonformen KI-Einsatz
Als spezialisierte Unternehmensberatung für KI-Compliance begleiten wir Sie umfassend bei der Umsetzung Ihrer AI Governance:
- Stellung des externen KI-Beauftragten
- Beratung zum Einsatz von KI-Anwendungen
- Data & AI Governance
- Schulung zu KI und Datenschutz
- ISO 42001-Zertifizierung
Sprechen Sie uns an – gemeinsam machen wir Ihre KI-Strategie zukunfts- und compliance-sicher.
KI nutzen, aber richtig?
Wir machen Ihre Projekte rechtssicher, innovationsfreundlich und skalierbar.
Lassen Sie uns sprechen – unverbindlich und auf den Punkt.
Weitere Neuigkeiten
23.02.2026
NIS2-Registrierung beim BSI: Frist bis 6. März 2026
Bis zum 6. März 2026 müssen sich betroffene Unternehmen im BSI-Portal registrieren. Doch wer ist überhaupt betroffen? Wie läuft die Registrierung konkret ab? Und was droht, wenn man untätig bleibt? Wir geben einen verständlichen Überblick – kompakt, praxisnah und rechtlich fundiert.
Weiterlesen … NIS2-Registrierung beim BSI: Frist bis 6. März 2026
15.01.2026
Die 4 häufigsten Gründe für gescheiterte ISO-27001-Zertifizierungen
ISO-27001-Zertifizierungen scheitern selten am externen Audit – sondern vorher. ISO wird meistens zum Projekt, das immer nur dann bearbeitet wird, wenn gerade nichts anderes im Unternehmen brennt. Wenn Sie Ihr ISO-27001-Projekt vor dem Scheitern retten möchten, kommt es auf ein paar entscheidende Dinge an, die sich in der Praxis immer wieder bewährt haben.
Weiterlesen … Die 4 häufigsten Gründe für gescheiterte ISO-27001-Zertifizierungen
08.01.2026
Müssen die neuen LEGO Smart Bricks den Cyber Resilience Act erfüllen?
LEGO sorgt aktuell für viel Aufmerksamkeit: Mit den neuen Smart Bricks verschmelzen klassische Bausteine mit digitaler Technik. Doch was auf den ersten Blick nach Spielspaß aussieht, wirft bei genauerem Hinsehen eine spannende regulatorische Frage auf: Fallen die Smart Bricks in den Anwendungsbereich des Cyber Resilience Act (CRA)?
Weiterlesen … Müssen die neuen LEGO Smart Bricks den Cyber Resilience Act erfüllen?