AI Act und KI-Souveränität: Ein Spaziergang im Gesetzesdschungel

AI Act und AI Officer: Vertrauen und Transparenz in der SAP und OpenAI Partnerschaft

Sovereign OpenAI in Deutschland: Ein Versuch, globale KI lokal kontrollierbar zu machen.

Warum überhaupt eine KI-Strategie – und warum jetzt?

Wenn schon „Gesetz“ und „Künstliche Intelligenz“ in einem Satz vorkommen, denkt man automatisch an Paragraphen, Fußnoten und Rätselraten. Der AI Act betrifft künftig alle, die KI einsetzen – also nicht nur Tech-Startups, sondern auch klassische Unternehmen, Verwaltungen und Hochschulen. Und wer soll dabei die Übersicht behalten? Genau: der AI Officer – oder etwas nüchterner, eine verantwortliche Person, die die Umsetzung der Anforderungen und Pflichten des EU AI Acts koordiniert und überwacht – eine Art Navigator im neuen KI-Regelmeer.

Doch was passiert, wenn SAP und OpenAI gemeinsam eine „souveräne“ KI-Plattform in Deutschland aufbauen?


Im Folgenden schauen wir uns an:

  • worum es bei der SAP-OpenAI-Partnerschaft geht,
  • wie sich diese Partnerschaft zum AI Act verhält,
  • welche Rolle die verantwortliche Person für KI-Compliance spielt,
  • und welche Chancen und Risiken sich daraus ergeben.

Symbolbild künstliche Intelligenz und Datenvernetzung im Kontext des AI Act

Bildquelle: Tara Winstead / Pexels | Beschreibung: Abstrakte Darstellung einer vernetzten KI-Struktur – sie steht für die komplexe Architektur moderner Systeme, die unter den AI Act fallen. Hier beginnt die Arbeit des AI Officer: Transparenz schaffen im digitalen Geflecht.



1. Die Partnerschaft: SAP + OpenAI = „OpenAI for Germany“

Was wurde angekündigt

SAP und OpenAI starten gemeinsam eine Initiative namens „Sovereign OpenAI in Deutschland“, oft verkürzt als „OpenAI for Germany“ bezeichnet. Die Plattform wird über SAPs Tochter Delos Cloud bereitgestellt und auf Microsoft Azure betrieben – mit Servern in Deutschland, die räumlich und rechtlich vom globalen Azure-Netz getrennt sind.

Ziel ist es, öffentlichen Institutionen, Behörden und Hochschulen Zugang zu KI-Diensten zu ermöglichen, die Datenhoheit, Sicherheit und Rechtskonformität gewährleisten. SAP plant, die Kapazitäten der Delos Cloud deutlich zu erweitern, unter anderem durch bis zu 4.000 GPUs für KI-Workloads. Der Start des Angebots ist für 2026 vorgesehen.


Was bedeutet „digitale Souveränität“?

Übersetzt heißt das: Die Daten liegen auf eigenständigen, abgegrenzten Servern in Deutschland, die europäischem Datenschutz unterliegen – also kein unkontrollierter Datenaustausch über den Atlantik, sondern Cloud-Infrastruktur unter deutschem Dach. Kurz gesagt: ein Versuch, globale KI lokal kontrollierbar zu machen – mit TÜV-Gefühl und Cloud-Charme.



2. Wo der AI Act ins Spiel kommt

Anforderungen und Pflichten

Der AI Act verpflichtet Anbieter und Betreiber unter anderem zu:

  • einer Risikobewertung ihrer Systeme,
  • Transparenzpflichten über Zweck, Funktionsweise und Grenzen von KI,
  • Dokumentation und Monitoring,
  • und Nachweisen gegenüber Behörden.

Eine vollständige Offenlegung von Trainingsdaten ist nicht gefordert, wohl aber die Fähigkeit, deren Herkunft und Qualität nachvollziehbar zu dokumentieren. Kurz gesagt: Transparenz ja, gläserne Datensätze nein.


Verbindung zur SAP-OpenAI-Partnerschaft

Damit die Plattform rechtskonform ist, müssen Datenflüsse und Systemzugriffe prüfbar, sicher und auditierbar sein. Wenn die Daten in Deutschland gespeichert und unter europäischem Datenschutzrecht verarbeitet werden, ist das ein klarer Pluspunkt. SAP, OpenAI und Microsoft müssen sicherstellen, dass ihre Systeme Risikomanagement, Protokollierung und menschliche Kontrolle ermöglichen. Gelingt das nicht, wäre der Einsatz in Verwaltungen nicht genehmigungsfähig – und das dürfte SAPs größten Kunden kaum gefallen.


Teilnehmende bei einem Workshop zur AI-Act-Compliance und Aufgaben des AI Officer

Bildquelle: K11 Consulting GmbH | Beschreibung: Ein K11-Workshop in Aktion: Fachleute aus IT-Leitung und Datenschutz diskutieren, wie sich die Anforderungen des AI Act praktisch umsetzen lassen. Im Mittelpunkt: die Verantwortung und Schulung des AI Officer als neue Schlüsselrolle.



3. Der AI Officer: Regulatorische Lotsenrolle

Warum braucht man überhaupt einen AI Officer? Der AI Officer sorgt dafür, dass technische, organisatorische und rechtliche Anforderungen zusammenfinden. Diese Rolle ist im Gesetz nicht namentlich genannt, ergibt sich aber funktional aus den Pflichten zur internen Zuständigkeit und Aufsicht.


Typische Aufgaben

  • Klassifizierung und Dokumentation von KI-Systemen,
  • interne Audits, Monitoring und Tests,
  • Schnittstelle zwischen IT, Datenschutz, Entwicklung und Management,
  • Schulung und Sensibilisierung der Mitarbeitenden,
  • Nachweisführung gegenüber Aufsichtsbehörden.

Gerade in souveränen Cloud-Umgebungen wie der von SAP Delos muss diese Person sicherstellen, dass Zugriffskontrollen, Protokollierung und Datenisolation nicht nur auf Folien, sondern auch im Serverraum existieren.



4. Chancen und Stolperfallen

Mögliche Vorteile

  • Souveränität & Kontrolle: Daten und Modelle verbleiben im deutschen Rechtsraum.
  • Rechtskonformität: Eine sorgfältig designte Plattform kann den AI Act einhalten.
  • Effizienz: KI-gestützte Prozesse entlasten Verwaltung und Forschung.
  • Signalwirkung: Deutschland stärkt seine Position im europäischen KI-Ökosystem.

Risiken und Herausforderungen

  • Komplexität: Integration und Auditierung sind aufwändig.
  • Haftung: Sowohl Anbieter als auch Betreiber können haftbar gemacht werden, bei Verstößen drohen Sanktionen und Bußgelder.
  • Erklärbarkeit: Viele Modelle bleiben schwer durchschaubar.
  • Abhängigkeiten: Auch souveräne Clouds bleiben auf Azure-Komponenten angewiesen.
  • Kosten: Compliance, Audits und Monitoring kosten Zeit und Geld.

Zwei Experten im Gespräch über den AI Act und die Rolle des AI Officer bei K11 Consulting

Bildquelle: K11 Consulting GmbH | Beschreibung: Ein Moment aus einem K11-Workshop: Fachgespräch über die praktische Umsetzung des AI Act im Unternehmensalltag. Der AI Officer steht im Mittelpunkt – als Brücke zwischen Recht, Technik und gesundem Menschenverstand.



5. Gedankenexperiment: Der Behörden-Chatbot

Angenommen, eine Landesbehörde möchte Chatbot-Unterstützung über „OpenAI for Germany“ einführen. Die verantwortliche Person müsste:

  1. den Use Case klassifizieren,
  2. Datenflüsse und Berechtigungen analysieren,
  3. mit SAP und OpenAI Sicherheitsmaßnahmen abstimmen,
  4. Audits einplanen,
  5. und Mitarbeitende schulen.

Wenn das konsequent umgesetzt wird, kann der KI-Einsatz rechtssicher und verantwortungsvoll starten.



6. Fazit – Souveränität mit Stil

Die SAP-OpenAI-Partnerschaft ist kein Silicon-Valley-Feldzug, sondern ein europäisches Experiment: Kann man KI nutzen, ohne die Kontrolle zu verlieren – und ohne gegen den AI Act zu verstoßen?

Der AI Act verlangt künftig, dass KI nicht nur funktioniert, sondern auch erklärbar, überprüfbar und verantwortbar ist. Und der AI Officer wird zur Schlüsselfigur, die zwischen Algorithmen und Aufsichtsbehörden vermittelt – halb Jurist, halb Übersetzer, mit gelegentlichem Hang zur Ironie.

Gesetz und Kreativität müssen hier tanzen. Und wer das orchestriert, bringt Deutschland nicht nur digital, sondern auch intellektuell in Bewegung.


Verwandte Themen auf k11-consulting.com:


Verwandte Themen: