Wenn schon „Gesetz“ und „Künstliche Intelligenz“ in einem Satz vorkommen, denkt man automatisch an Paragraphen, Fußnoten und Rätselraten. Der AI Act betrifft künftig alle, die KI einsetzen – also nicht nur Tech-Startups, sondern auch klassische Unternehmen, Verwaltungen und Hochschulen. Und wer soll dabei die Übersicht behalten? Genau: der AI Officer – oder etwas nüchterner, eine verantwortliche Person, die die Umsetzung der Anforderungen und Pflichten des EU AI Acts koordiniert und überwacht – eine Art Navigator im neuen KI-Regelmeer.
Doch was passiert, wenn SAP und OpenAI gemeinsam eine „souveräne“ KI-Plattform in Deutschland aufbauen?
Bildquelle: Tara Winstead / Pexels | Beschreibung: Abstrakte Darstellung einer vernetzten KI-Struktur – sie steht für die komplexe Architektur moderner Systeme, die unter den AI Act fallen. Hier beginnt die Arbeit des AI Officer: Transparenz schaffen im digitalen Geflecht.
SAP und OpenAI starten gemeinsam eine Initiative namens „Sovereign OpenAI in Deutschland“, oft verkürzt als „OpenAI for Germany“ bezeichnet. Die Plattform wird über SAPs Tochter Delos Cloud bereitgestellt und auf Microsoft Azure betrieben – mit Servern in Deutschland, die räumlich und rechtlich vom globalen Azure-Netz getrennt sind.
Ziel ist es, öffentlichen Institutionen, Behörden und Hochschulen Zugang zu KI-Diensten zu ermöglichen, die Datenhoheit, Sicherheit und Rechtskonformität gewährleisten. SAP plant, die Kapazitäten der Delos Cloud deutlich zu erweitern, unter anderem durch bis zu 4.000 GPUs für KI-Workloads. Der Start des Angebots ist für 2026 vorgesehen.
Übersetzt heißt das: Die Daten liegen auf eigenständigen, abgegrenzten Servern in Deutschland, die europäischem Datenschutz unterliegen – also kein unkontrollierter Datenaustausch über den Atlantik, sondern Cloud-Infrastruktur unter deutschem Dach. Kurz gesagt: ein Versuch, globale KI lokal kontrollierbar zu machen – mit TÜV-Gefühl und Cloud-Charme.
Der AI Act verpflichtet Anbieter und Betreiber unter anderem zu:
Eine vollständige Offenlegung von Trainingsdaten ist nicht gefordert, wohl aber die Fähigkeit, deren Herkunft und Qualität nachvollziehbar zu dokumentieren. Kurz gesagt: Transparenz ja, gläserne Datensätze nein.
Damit die Plattform rechtskonform ist, müssen Datenflüsse und Systemzugriffe prüfbar, sicher und auditierbar sein. Wenn die Daten in Deutschland gespeichert und unter europäischem Datenschutzrecht verarbeitet werden, ist das ein klarer Pluspunkt. SAP, OpenAI und Microsoft müssen sicherstellen, dass ihre Systeme Risikomanagement, Protokollierung und menschliche Kontrolle ermöglichen. Gelingt das nicht, wäre der Einsatz in Verwaltungen nicht genehmigungsfähig – und das dürfte SAPs größten Kunden kaum gefallen.
Bildquelle: K11 Consulting GmbH | Beschreibung: Ein K11-Workshop in Aktion: Fachleute aus IT-Leitung und Datenschutz diskutieren, wie sich die Anforderungen des AI Act praktisch umsetzen lassen. Im Mittelpunkt: die Verantwortung und Schulung des AI Officer als neue Schlüsselrolle.
Warum braucht man überhaupt einen AI Officer? Der AI Officer sorgt dafür, dass technische, organisatorische und rechtliche Anforderungen zusammenfinden. Diese Rolle ist im Gesetz nicht namentlich genannt, ergibt sich aber funktional aus den Pflichten zur internen Zuständigkeit und Aufsicht.
Gerade in souveränen Cloud-Umgebungen wie der von SAP Delos muss diese Person sicherstellen, dass Zugriffskontrollen, Protokollierung und Datenisolation nicht nur auf Folien, sondern auch im Serverraum existieren.
Bildquelle: K11 Consulting GmbH | Beschreibung: Ein Moment aus einem K11-Workshop: Fachgespräch über die praktische Umsetzung des AI Act im Unternehmensalltag. Der AI Officer steht im Mittelpunkt – als Brücke zwischen Recht, Technik und gesundem Menschenverstand.
Angenommen, eine Landesbehörde möchte Chatbot-Unterstützung über „OpenAI for Germany“ einführen. Die verantwortliche Person müsste:
Wenn das konsequent umgesetzt wird, kann der KI-Einsatz rechtssicher und verantwortungsvoll starten.
Die SAP-OpenAI-Partnerschaft ist kein Silicon-Valley-Feldzug, sondern ein europäisches Experiment: Kann man KI nutzen, ohne die Kontrolle zu verlieren – und ohne gegen den AI Act zu verstoßen?
Der AI Act verlangt künftig, dass KI nicht nur funktioniert, sondern auch erklärbar, überprüfbar und verantwortbar ist. Und der AI Officer wird zur Schlüsselfigur, die zwischen Algorithmen und Aufsichtsbehörden vermittelt – halb Jurist, halb Übersetzer, mit gelegentlichem Hang zur Ironie.
Gesetz und Kreativität müssen hier tanzen. Und wer das orchestriert, bringt Deutschland nicht nur digital, sondern auch intellektuell in Bewegung.