Bild: Thirdman / Pexels
Anfang Juli haben 44 europäische CEOs führender Unternehmen – darunter Airbus, Siemens Energy, Mercedes-Benz AG, AXA und Philips – in einem offenen Brief an die EU-Kommission gefordert, die Umsetzung des AI Act um zwei Jahre auszusetzen. Die Begründung: Die Anforderungen und Pflichten seien zu komplex, zu unklar und könnten die Wettbewerbsfähigkeit europäischer Unternehmen empfindlich einschränken.
In dem Schreiben warnen die Unterzeichnenden davor, dass die aktuellen regulatorischen Rahmenbedingungen Unternehmen in ihrer Innovationskraft ausbremsen würden. Es brauche mehr Zeit, um das Regelwerk zu verstehen, Prozesse umzusetzen und wirtschaftliche Risiken verlässlich einzuschätzen. Auch politische Unterstützung kam, etwa vom schwedischen Ministerpräsident, der sich für einen „Clock-Stop“ aussprach.
DIE UHR LÄUFT!
Kein Aufschub, kein Stillstand. Jetzt ist Zeit zu Handeln!
Die Umsetzung erfolgt, wie gesetzlich verankert, gestaffelt ab dem 2. August 2025 (für generative KI-Systeme wie LLMs) und ab Mitte 2026 für Hochrisiko-KI-Systeme. Der Ruf nach einer temporären Aussetzung sei zwar verständlich, so heißt es aus Kommissionskreisen, ändere aber nichts an der grundsätzlichen Notwendigkeit eines verlässlichen, einheitlichen und anwendbaren Rechtsrahmens.
Der AI Act sei über Jahre hinweg verhandelt worden, und ein Aufschub würde nicht zur Entschärfung der Komplexität beitragen. Ganz im Gegenteil, er würde Rechtsunsicherheit verlängern und Marktfragmentierung verschärfen.
Bild: Marco / Pexels
Die Antwort der Kommission ist ein Signal: Es geht nicht um Rückzug, sondern um Umsetzung. Die Sorge um Interpretationsspielräume und Detailtiefe ist berechtigt. Ebenso aber ist sie ein Auftrag zur vorausschauenden Strukturierung von AI-Governance, nicht nur für regulatorische Sicherheit, sondern auch als Grundlage für vertrauenswürdige, skalierbare KI-Nutzung.
In diesem Spannungsfeld setzen sich viele Unternehmen – auch jenseits der Politik mit einer zentralen Frage auseinander:
Wie lassen sich regulatorische Anforderungen in komplexen Organisationen frühzeitig operationalisieren – statt sie später unter Druck zu reparieren?
Unsere Antwort darauf heißt: Orientierung am Anfang, nicht erst am Ende.
Mit dem KI Kompass haben wir einen Quick-Check entwickelt, der erfasst, wo Ihr Unternehmen im Hinblick auf AI Act-Compliance steht – strukturiert, schnell und ressourcenschonend. Denn: Wer jetzt vorbereitet, muss später nicht pauschal anhalten.
Europa braucht keine Pause. Europa braucht Verlässlichkeit.
Und genau dafür wurde der AI Act entworfen: Als stabiles Fundament für verantwortungsvolle KI – nicht als Bremse, sondern als Navigationssystem für den digitalen Binnenmarkt.
Demnächst: E-Learning-Zertifikatsschulung AI Act
Format: Onlinekurs mit Zertifikat
12. September 2025: BVMW Zertifikatskurs – Künstliche Intelligenz & AI Act
Format: Onlinekurs mit Zertifikat
Referenten: Hannes Deuerling & Elias Sorg
26. September 2025: Green AI Day
Ort: Stuttgart
Referenten: Dr. Alexander Deicke & Hannes Deuerling
Beitrag von K11: „Künstliche Intelligenz in der Verwaltung“ und „KI und Regulatorik“
Um rechtliche Risiken zu minimieren und sich strategische Vorteile zu sichern, sollten Unternehmen umgehend folgende Maßnahmen ergreifen:
1. Risikoanalyse & Klassifizierung von KI-Systemen
Führen Sie eine vollständige Bestandsaufnahme aller eingesetzten KI-Systeme durch und klassifizieren Sie diese entsprechend den Anforderungen der KI-VO.
2. Aufbau robuster Compliance-Strukturen
Etablieren Sie eine interne KI-Richtlinie, flankiert von Schulungen sowie klaren Kontroll- und Meldeprozessen.
3. Technische Dokumentation & Transparenz sicherstellen
Sorgen Sie dafür, dass technische Dokumentationen vollständig, konsistent und korrekt geführt werden.
Unternehmen, die frühzeitig auf Compliance setzen, gewinnen das Vertrauen von Kunden und Partnern – und positionieren sich als verantwortungsbewusste Innovatoren.