Vom europäischen Regelwerk zur nationalen Umsetzung

KI-Durchführungsgesetz beschlossen: So wird der AI Act in Deutschland umgesetzt

Marktüberwachung, Zuständigkeiten, Durchsetzung: Was sich praktisch ändert

Deutschland schafft Klarheit: Das KI-Durchführungsgesetz ist beschlossen

Am 11. Februar 2026 hat das Bundeskabinett das nationale Durchführungsgesetz zur europäischen KI-Verordnung (AI Act) beschlossen. Ein Satz, der unscheinbar klingt – und dennoch einen Wendepunkt markiert.

Der AI Act gilt bereits seit August 2024 unmittelbar in allen Mitgliedstaaten. Was bislang jedoch fehlte, war die nationale Konkretisierung: Wer ist zuständig? Wer prüft? Wer setzt durch? Und wie wird aus europäischer Regulierung praktische Aufsicht?

Genau hier setzt das Durchführungsgesetz an. Es überführt ein europäisches Regelwerk in eine deutsche Vollzugsarchitektur – und macht aus Regulierung Realität.



Was sich konkret ändert

Mit dem Durchführungsgesetz entsteht erstmals eine klar definierte Aufsichtsstruktur für den AI Act in Deutschland. Drei Punkte sind dabei entscheidend:

1. Zuständigkeiten werden verbindlich geregelt

Der bislang abstrakte Rechtsrahmen erhält institutionelle Anker. Marktüberwachung, Kontrolle und Durchsetzung werden konkret Behörden zugeordnet. Bund und Länder klären ihre Abgrenzungen – insbesondere dort, wo Medienaufsicht oder Transparenzpflichten berührt sind.

KI-Regulierung ist damit keine europäische Theorie mehr, sondern nationale Praxis.

2. Marktüberwachung wird operativ

Prüfungen, Nachfragen und Durchsetzungsmaßnahmen sind nicht länger theoretische Optionen. Mit klarer Struktur wird Kontrolle realistisch und anwendbar. Aus Normtext wird Vollzug.

3. Unternehmen erhalten greifbare Ansprechpartner

Ein oft unterschätzter Effekt: Organisationen wissen künftig klarer, an wen sie sich wenden müssen – und wer im Zweifel Anforderungen prüft oder Maßnahmen einfordert.


Grafik zur deutschen KI-Regulierung: Darstellung der Synergie zwischen einheitlicher Regulierung, Marktüberwachung sowie Begleitung und Orientierung im AI Act.

Bildquelle: KI-generiert | Beschreibung: Synergie in der deutschen KI-Regulierung“



Die Rolle der Bundesnetzagentur

Im Zentrum der Umsetzung steht die Bundesnetzagentur. Sie übernimmt eine koordinierende Funktion, bündelt Expertise und soll eine einheitliche Anwendung der Vorschriften sicherstellen.

Gleichzeitig werden die Zuständigkeiten zwischen Bund und Ländern präziser gefasst. Das schafft nicht nur Kontrolle, sondern auch Orientierung.



Warum das für Unternehmen ein Wendepunkt ist

Mit dem Durchführungsgesetz wird der AI Act praktisch durchsetzbar.

Bislang war er für viele Organisationen ein bekanntes, aber diffuses Thema – strategisch relevant, operativ noch in der Warteschleife. Diese Phase endet.

Mit klarer Aufsichtsstruktur entsteht ein neuer Zustand:

  • Anforderungen werden überprüfbar
  • Zuständigkeiten sind eindeutig
  • Durchsetzung erhält institutionelle Grundlage
  • Transparenzpflichten können konkret eingefordert werden

Aus „Compliance irgendwann“ wird eine Managementaufgabe.



Was Unternehmen jetzt vorbereiten sollten

Das Durchführungsgesetz ist kein zusätzlicher Layer, sondern der Start der Umsetzungsphase. Entscheidend ist nun nicht das Wissen um einzelne Pflichten, sondern der Aufbau eines tragfähigen Systems.

1. Governance und Verantwortlichkeiten klären

Ohne klare Rollen bleibt AI Governance fragmentiert – und damit nicht auditfähig. Verantwortung muss strukturell verankert werden.


Schaubild zur KI-Governance-Hierarchie: Darstellung von fachlicher Verantwortung, Risiko- und Compliance-Verantwortung, Entscheidungsbefugnis und Überwachung.

Bildquelle: KI-generiert | Beischreibung: KI-Governance-Hierarchie


2. KI-Systeme erfassen und klassifizieren

Viele Unternehmen nutzen KI bereits, ohne vollständige Übersicht. Der erste operative Schritt ist daher simpel, aber essenziell: Transparenz schaffen. Nur wer weiß, was im Einsatz ist, kann regulatorisch korrekt handeln.


Visualisierung der KI-System-Management-Pyramide: Erfassung, Klassifizierung und Risikobewertung als Grundlage AI-Act-konformer Steuerung.

Bildquelle: KI-generiert | Beischreibung: KI-System-Management-Pyramide


3. Risikobewertung und Dokumentation standardisieren

Der AI Act fordert nachvollziehbare Prozesse. In der Praxis bedeutet das:

  • standardisierte Risikobewertung
  • Dokumentation über den gesamten Lebenszyklus
  • Nachvollziehbarkeit von Datenbasis, Modellverhalten und Einsatzkontext
  • Monitoring- und Kontrollmechanismen im Betrieb

Das ist weniger juristische Pflicht als organisatorisches Qualitätsinstrument.

4. Transparenzpflichten integrieren

Insbesondere bei generativen Systemen rückt Transparenz in den Fokus. Kennzeichnung, Nutzerinformation und vorbereitete Prozesse müssen strukturell verankert sein – gerade in kunden- und produktnahen Bereichen.


Transparenz-Integrationspyramide zur Umsetzung der AI-Act-Anforderungen bei generativen Systemen – von früher Berücksichtigung bis zu vorbereiteten Prozessen.

Bildquelle: KI-generiert | Beischreibung: Transparenz-Integrationspyramide


5. Auditfähigkeit aufbauen

Prüfungen sind keine theoretische Möglichkeit mehr. Auditfähigkeit bedeutet:

  • klare Prozesse
  • saubere Dokumentation
  • definierte Verantwortlichkeiten
  • überprüfbare Nachweise
  • ein konsistentes Governance-Modell

Wer das frühzeitig umsetzt, reduziert Risiko – und gewinnt operative Klarheit.



Von Compliance zu Steuerung

Mit dem Durchführungsgesetz beginnt die operative Phase der KI-Regulierung. AI Governance ist künftig mehr als Regelbefolgung. Sie verbindet:

  • Technologie
  • Recht
  • Organisation
  • Risikomanagement
  • Strategie

Die zentrale Frage lautet nicht mehr nur: „Dürfen wir das?“
Sondern: „Wie organisieren wir Verantwortung, Risiko und Skalierung?“



Fazit: Jetzt beginnt die Umsetzungsphase

Mit dem Beschluss des Durchführungsgesetzes endet die regulatorische Unschärfe in Deutschland. Der AI Act ist organisatorisch verankert, überprüfbar und durchsetzbar.

Für Unternehmen bedeutet das: KI-Governance ist kein Projekt, sondern Strukturarbeit. Wer sie jetzt sauber aufsetzt, wird nicht nur compliant sein, sondern schneller entscheiden, sicherer skalieren und vertrauenswürdiger auftreten.

Ziel ist nicht allein Rechtssicherheit – sondern nachhaltige Handlungsfähigkeit.



Umsetzung braucht Struktur – nicht Aktionismus

Mit dem Beschluss des Durchführungsgesetzes ist klar: KI-Regulierung ist kein abstraktes Zukunftsthema mehr. Sie ist operative Realität.

K11 begleitet Unternehmen bei der strukturierten Umsetzung des AI Act und seiner nationalen Ausgestaltung.

Wir unterstützen unter anderem bei:

  • Aufbau tragfähiger Governance-Modelle
  • Definition klarer Rollen und Entscheidungsprozesse
  • Integration regulatorischer Anforderungen in bestehende Managementsysteme
  • Schulung von Führungskräften und Fachbereichen
  • Vorbereitung auf Prüfungen und Marktüberwachung

Unser Ansatz ist praxisnah, effizient und strategisch ausgerichtet. Ziel ist nicht nur Rechtssicherheit, sondern nachhaltige Handlungsfähigkeit.

Denn KI-Regulierung wirkt nicht durch Paragraphen – sondern durch Struktur.


Pyramide der Governance-Unterstützung: Modell zur strukturierten Umsetzung des AI Act – von Governance-Grundlagen bis zu nachhaltiger Handlungsfähigkeit.

Bildquelle: KI-generiert | Beischreibung: Pyramide der Governance-Unterstützung