Wissensraum · Deep Dive 20 von 27

Der EU AI Act nach dem Digital Omnibus

Was sich geändert hat, was bleibt — und was das für europaäische Unternehmen bedeutet

20 Min Regulierung AI Act
Deep Dive 20 von 27

Was dieser Deep Dive Ihnen zeigt

Wie der AI Act nach dem Digital Omnibus aussieht, wo Europa zwischen Regulierungsambition und Innovationsrealität steht — und was Schweizer Unternehmen wissen müssen.

RegulierungEU AI Act, Digital Omnibus
ThemaRegulierungsarchitektur, Innovationsbalance, Schweizer Perspektive
KernfrageHat Europa mit dem AI Act den richtigen Balancepunkt zwischen Innovation und Regulierung gefunden?
RelevanzGeschäftsleitung, CTO, Produktverantwortliche, Investoren
ReferenzAI Act (EU) 2024/1689, Digital Omnibus (vorgeschlagen Feb 2025)

Der AI Act ist das erste umfassende KI-Gesetz der Welt. Er ist seit Februar 2025 in Kraft – und seit Februar 2025 wird er auch massiv überarbeitet. Der Digital Omnibus ist nicht eine Erweiterung des AI Act. Er ist eine Kalibrierung. Die Frage ist: Reicht sie aus?

Dieser Deep Dive zeigt, wie die neue Architektur des AI Act funktioniert, wo der Digital Omnibus anpasst, wo die großen Chancen und großen Risiken liegen – und was das für Schweizer Unternehmen bedeutet, die im EU-Markt unterwegs sind.

1. Der AI Act – Architektur der Regulierung

Der risikobasierte Ansatz

Der AI Act folgt einer risikobasierten Logik. Je nachdem, wie riskant ein KI-System ist, desto strenger die Regulierung. Das Spektrum sieht so aus:

Verbotene Praktiken (Art. 5): Bestimmte KI-Systeme sind grundsätzlich nicht erlaubt. Dazu zählen Social Scoring (Individuen als ganze Person bewerten und öffentlich einstufen), manipulative KI (z.B. Ansätze, die unbewusst Handlungen steuern sollen), Biometrische Echtzeitkategorisierung im öffentlichen Raum (mit wenigen Ausnahmen für Strafverfolgung).

Hochrisikoklassifizierung (Art. 6–7): Systeme, die ein hohes Risiko für Grundrechte darstellen. Die Liste ist lang und wird durch delegierte Rechtsakte weiter definiert: KI zur Feststellung von Eignung in Verwaltungsverfahren (Sozialleistungen, Zulassungen), zur Beurteilung von Straffallprognosen, zur Kontrolle des Zugangs zu kritischen Infrastrukturen, zur Bewertung von Arbeitnehmern (Einstellung, Versetzung, Kündigung). Und: KI zur Gesichtserkennung. Hochrisiko bedeutet: dokumentierte Risikoanalyse, Daten-Governance, laufende Qualitätskontrolle, menschliche Aufsicht, Konformitätsbewertung.

Begrenztes Risiko (Art. 50): KI-Systeme mit Transparenzanforderungen – vor allem sogenannte General-Purpose AI Models (GPAI, also Foundation Models wie GPT-4, Claude, Mistral). Sie müssen dokumentieren, mit welchen Daten sie trainiert wurden, wie sie getestet wurden, welche Limitierungen sie haben.

Minimales Risiko: KI, die kein Risiko darstellt und daher fast unreguliert bleibt (z.B. Spam-Filter, einfache Chatbots).

Zeitplan und Inkrafttreten

Das Gesetz wird in Stufen wirksam:

Februar 2025 (ist bereits geschehen): Verbotene Praktiken (Art. 5) sind wirksam. KI-Systeme, die unter dieses Verbot fallen, dürfen im EU-Markt nicht mehr angeboten werden.

August 2025: GPAI-Regeln (Art. 51–56) treten in Kraft. Foundation-Model-Anbieter müssen die Anforderungen an Transparenz, Sicherheit und Testung erfüllen.

August 2026: Hochrisiko-Anforderungen (Art. 8–35) treten in Kraft. Alle Hochrisiko-Systeme müssen konform sein.

Die lange Übergangsfrist (18 Monate zwischen GPAI und Hochrisiko) ist ein Zugeständnis an die Industrie, aber auch ein Risiko: Standards, die die konkreten Anforderungen operationalisieren, sind nicht vollständig verabschiedet. Das bedeutet: Unternehmen müssen mit Unsicherheit investieren.

Extraterritoriale Wirkung und Scope

Der AI Act gilt nicht nur für europäische Unternehmen. Er gilt für jeden, der KI-Systeme im EU-Markt anbietet oder einsetzt, unabhängig vom Sitz. Das ist seine Stärke und zugleich die großte Kritik.

Die Verantwortlichkeiten sind gestaffelt:

Provider: Entwickeln KI-Systeme, müssen Risikomanagementverfahren implementieren, technische Dokumentation führen, Konformitätsbewertung vornehmen.

Deployer: Betreiben KI-Systeme. Sie tragen Verantwortung für Angemessenheit und ordnungsgemäße Nutzung, müssen Aufzeichnungen führen, Änderungen melden.

Importeure und Distributoren: Müssen sicherstellen, dass KI-Systeme konform sind, bevor sie in den Markt kommen.

Diese Staffelung ist wichtig: Ein Unternehmen, das ein Foundation Model (wie ChatGPT) in ein Produkt einbettet, ist Deployer, nicht Provider. Der Deployer muss sicherstellen, dass die eingebettete KI sicher funktioniert – auch wenn der Provider (OpenAI) die Basis-KI entwickelt hat.

Kernpflichten für Hochrisikosysteme

Wenn August 2026 kommt, müssen Hochrisikosysteme folgende Anforderungen erfüllen:

Risikomanagementsystem (Art. 9): Dokumentierte Prozesse zur Identifikation, Analyse und Mitigation von Risiken – nicht nur technisch, sondern auch sozial und rechtlich.

Daten-Governance (Art. 10): Hohe Standards für die Daten, mit denen das System trainiert und validiert wird. Daten müssen repräsentativ sein, Bias muss dokumentiert werden.

Technische Dokumentation (Art. 11): Detaillierte Beschreibung der Architektur, des Trainingsprozesses, der Testmethoden, der bekannten Limitierungen.

Aufzeichnungspflichten (Art. 12): Dokumentation über jede Nutzung des Systems, Eingaben, Ergebnisse, Fehler.

Transparenz (Art. 13): Nutzer müssen wissen, dass sie mit KI interagieren. Systeme, die Deep Fakes generieren, müssen dies kennzeichnen.

Menschliche Aufsicht (Art. 14): Hochrisikoentscheidungen dürfen nicht rein automatisch sein. Ein Mensch muss die Entscheidung verstehen und übersteuern können.

Genauigkeit, Robustheit, Cybersicherheit (Art. 15): Das System muss akkurat funktionieren, robust gegen Manipulation sein und vor Angriffen geschützt werden.

Konformitätsbewertung (Art. 19–23): Unabhängige oder interne Prüfung, ob das System alle Anforderungen erfüllt. Ergebnis: eine CE-Erklärung (Konformitätserklärung).

2. Der Digital Omnibus – was sich ändert

Der Kontext: Warum der Omnibus notwendig wurde

Im Februar 2025 hat die Europäische Kommission den Digital Omnibus vorgeschlagen – ein Paket zur Vereinfachung und Entlastung der Nachhaltigkeits- und Digitalregulierung. Der AI Act war der große Kritikpunkt. Die Kritik kam aus drei Richtungen:

Hinweis zur Redaktion: Die im Folgenden beschriebenen Omnibus-Änderungen befinden sich zum Redaktionsschluss im Gesetzgebungsverfahren und sind noch nicht verabschiedet.

Von Startups und KMU: Der AI Act sei zu komplex, zu teuer in der Compliance, und benachteilige europäische Unternehmen gegenüber US- und chinesischen Konkurrenten, die unter weniger strikter Regulierung arbeiten.

Von Forschung: Die Definition von Hochrisiko sei zu breit, zu vage. Forschungsteams seien paralysiert.

Von der Industrie: Die Timeline sei zu eng, Standards seien nicht verfügbar, aber Compliance-Fristen hätten bereits begonnen.

Die Kommission reagierte mit dem Omnibus. Das ist nicht ein Abbau der Regulierung. Es ist eine Neukalibrierung.

Was der Omnibus konkret ändert

Entlastung für KMU: KMU mit weniger als 50 Mitarbeitern oder unter einer Million Euro Jahresumsatz können für bestimmte Anforderungen Erleichterungen beantragen.

Anpassung der Hochrisiko-Definition: Die Liste der Hochrisikosysteme wird in einigen Fällen enger gefasst. Z.B. wird nicht jede KI für HR-Entscheidungen automatisch hochriskant – nur wenn sie tatsächlich ein hohes Diskriminierungsrisiko darstellt.

Reduzierung von Berichtspflichten: Nicht mehr jede Hochrisiko-Nutzung muss in detaillierter Form dokumentiert werden. Stattdessen: aggregierte Berichte, alle drei Jahre.

Verschiebung bestimmter Pflichten: Manche Anforderungen werden aufgeschoben, um Zeit für Standardisierung zu geben.

Erleichterungen für GPAI-Anbieter, wenn sie sich selbst regulieren: Foundation-Model-Anbieter, die proaktiv Transparenzstandards erfüllen, können schwächere externe Anforderungen haben.

Einordnung

Der Omnibus ist kein Rückzug von der Regulierung. Er ist eine Kalibrierung. Die Frage ist, ob sie rechtzeitig kommt – und ob sie weit genug geht. Kritiker sagen, dass die Erleichterungen für KMU marginalisiert werden. Andere sagen, dass die Omnibus-Anpassungen gerade rechtzeitig kommen, um den AI Act rettbar zu machen.

3. Chancen des AI Act für europaäische Unternehmen

Vertrauensrahmen als Wettbewerbsvorteil

Regulierung kann schmerzhaft sein. Aber sie kann auch ein Wettbewerbsvorteil werden – wenn man sie früh annimmt. Das beste Beispiel ist die DSGVO. Vor zehn Jahren schien sie europäischen Unternehmen als Wettbewerbsnachteil. Heute ist sie de facto globaler Standard. Unternehmen, die mit DSGVO-konformer KI arbeiten, können sich als vertrauenswürdig positionieren.

Der AI Act folgt dem gleichen Muster. Wenn ein europäisches HealthTech-Unternehmen ein Diagnose-Tool entwickelt, das AI-Act-konform ist, kann es sich damit positionieren: «Reguliert, geprüft, transparent.» In Märkten mit hohem Vertrauen (Schweiz, Skandinavien, Japan) kann das ein Alleinstellungsmerkmal sein.

Standardisierung und Rechtssicherheit

Der AI Act verlangt harmonisierte Standards – entwickelt von CEN/CENELEC (die europäischen Normungsorganisationen). Das bedeutet: irgendwann wird klar sein, was eine «konforme Risikoanalyse» bedeutet, wie «menschliche Aufsicht» aussieht, was Dokumentation erfüllen muss. Diese Standards schaffen Rechtssicherheit. Unternehmen wissen, worauf sie hinarbeiten.

Heute ist die Situation unbefriedigend: Die Kommission hat Standards angekündigt, aber sie sind nicht verabschiedet. Das zwingt Unternehmen zu Investitionen in die Luft. Mit Standards wird das klarer.

Marktbereinigung als Selektion

Hochrisikoklassifizierung und Konformitätsbewertung sind teuer. Das schafft eine Eintrittsbarriere für unseriöse Anbieter. Ein KI-Startup, das schnell Geld verdienen will, ohne Compliance-Struktur, wird es schwer haben. Ein etabliertes Unternehmen mit Ressourcen für Compliance wird einen Wettbewerbsvorteil haben.

Der AI Act ist kein Innovationshemmnis – er ist ein Selektionsmechanismus. Die Frage ist, wen er selektiert.

4. Risiken und Kritik

Compliance-Asymmetrie

Der großte Kritikpunkt: Europäische Unternehmen tragen die Compliance-Kosten, während US- und chinesische Anbieter die Lasten auf andere abwälzen. Ein konkretes Beispiel:

Ein europäisches Unternehmen entwickelt ein hochrisikoklassifiziertes Diagnose-Tool mit eigener KI. Risikoanalyse: 100.000 EUR. Daten-Governance: 150.000 EUR. Konformitätsbewertung: 80.000 EUR. Total: ca. 330.000 EUR, plus laufende Dokumentation und Überwachung. Das ist ein echtes Kapitalrisiko.

Ein US-Konkurrenz bedient den gleichen Markt, aber nicht mit eigener KI. Stattdessen: Integration von OpenAI’s API. Das Foundation Model ist hochriskant, aber die Compliance-Last wälzt sich auf den Deployer ab – also das europäische Unternehmen selbst. Das US-Unternehmen hat tausend Kunden in Europa, alle Deployer. OpenAI ist der Provider, trägt aber Compliance-Kosten, die auf tausend Schultern verteilt sind. Das europäische Unternehmen trägt 100% der Last allein.

Die Asymmetrie: Der europäische Anbieter trägt Entwicklungskosten + Compliance. Der US-Anbieter trägt nur Compliance. Das ist nicht fair.

Brain Drain

Wenn europäische KI-Forschung und KI-Startups in den USA besser florieren können, weil dort die Compliance-Lasten niedriger sind, wandert Talent ab. Das ist kein theoretisches Risiko – es ist bereits zu beobachten. Die besten KI-Teams in Europa beantragen Visa für die USA.

Timing-Problem: Standards fehlen

Der AI Act verlangt technische Standards, aber viele Standards sind nicht verhandelt. Das zwingt Unternehmen, mit eigenen Interpretationen zu arbeiten. Bis August 2026 müssen Hochrisiko-Systeme konform sein. Wenn die Standards erst Juli 2026 verhandelt sind, ist die Frist unrealistisch.

Foundation-Model-Problem

Die GPAI-Regeln (Art. 51–56) versuchen, ein sich schnell entwickelndes Feld zu regulieren. Aber: Was ist heute ein Foundation Model? GPT-4, Gemini, Claude – ja. Was in zwei Jahren? Ein spezialisiertes Modell, trainiert auf Tausenden von Parametern? Die Grenze ist unscharf, die Regulierung wird veraltet sein, bevor sie wirkt.

5. Fallstudie: Der Compliance-Vorsprung, der keiner war

Fallstudie · HealthTech: Europäisches Investment in die Luft

Ausgangslage

Ein Schweizer HealthTech-Unternehmen entwickelt ein Diagnose-Tool auf Basis von KI. Die KI ist hochriskant nach dem AI Act: Sie wird verwendet zur Unterstützung von Entscheidungen über Leistungserbringer (wer diagnostiziert). Das Unternehmen nimmt die Regulierung ernst und investiert:

· Risikoanalyse: 2 Wochen, 4 Senior Engineers, 100.000 EUR
· Daten-Governance (Bias-Analyse, Repräsentativität): 4 Wochen, 150.000 EUR
· Konformitätsbewertung (interner Audit): 3 Wochen, 80.000 EUR
· Laufende Überwachung und Dokumentation: 20% der Entwicklerzeit, ca. 200.000 EUR/Jahr

Total Investment: 530.000 EUR im ersten Jahr.

Das konkurrierte

Ein US-HealthTech bedient den gleichen EU-Markt. Statt eigene KI zu entwickeln, nutzt es einen Deployer-Ansatz:

· Integration von OpenAI’s API in ihre Plattform
· OpenAI ist der Provider, dokumentiert die Risikoanalyse
· Das US-HealthTech ist der Deployer, muss aber die Konformität mit der eigenen KI-Integration sicherstellen
· Ihre Compliance-Kosten: ca. 50.000 EUR (Integration + interne Dokumentation)

Die Konsequenz

Das Schweizer Unternehmen hat 500.000 EUR in Compliance investiert. Das US-Unternehmen hat 50.000 EUR investiert. Beide bedienen die gleiche Kundengruppe, beide sind konform nach dem AI Act – aber das Schweizer Unternehmen hat 10x höhere Compliance-Kosten.

Warum das typisch ist

Das ist die großte Gefahr des AI Act: Er bestraft Unternehmen, die Innovation in Europa betreiben wollen, und belohnt Unternehmen, die APIs von US-Anbietern integrieren. Das ist nicht beabsichtigt, aber es ist die Struktur. Wenn diese Asymmetrie nicht adressiert wird, werden Unternehmen ihre R&D einfach in die USA verlagern.

6. Schweiz-Exkurs: Abseits und doch betroffen

Die Schweizer Position

Die Schweiz hat keinen eigenen AI Act und plant derzeit keinen. Der Bundesrat hat 2023 einen Leitlinien-Ansatz gewählt: nicht ein horizontales KI-Gesetz, sondern Regulierung je nach Sektor (Datenschutz, Arbeitsrecht, Produktsicherheit, Finanzmarktaufsicht etc.).

Das ist pragmatisch, hat aber eine große Grauzone: Was ist KI-Regulierung im Datenschutz (DSGVO-Pendant gibt es mit nDSG), und was nicht?

Aber: Extraterritoriale Wirkung des AI Act

Die gute Nachricht: Schweizer Unternehmen haben einen Heimvorteil. Sie unterliegen nicht dem AI Act – es sei denn, sie verkaufen KI-Systeme im EU-Markt. In diesem Fall sind sie Provider oder Deployer und müssen dem AI Act genau folgen wie jeder andere.

Konkret: Ein Schweizer FinTech, das eine KI-basierte Bonitätsbewertung entwickelt und in der EU anbietet, unterliegt dem AI Act. Das ist hochriskant nach Art. 6 (Beurteilung der Kreditwürdigkeit). Das FinTech muss eine Risikoanalyse durchführen, dokumentieren, Konformität nachweisen.

Schweizer Unternehmen als Deployer

Noch wichtiger: Viele Schweizer Unternehmen nutzen Foundation Models in ihren Produkten – ChatGPT, Claude, Mistral. Sie sind nicht Provider, sondern Deployer. Die Frage ist dann: Bin ich Deployer über einem hochrisikoklassifizierten System?

Beispiel: Ein Schweizer Personalberatungsbüro nutzt Claude (foundation model) zur HR-Entscheidungsunterstützung. Claude ist hochriskant nach dem AI Act. Das Personalberatungsbüro ist Deployer. Es muss dokumentieren, dass die Nutzung verantwortungsvoll erfolgt, dass Menschen die Entscheidungen überwachen, dass die KI nicht diskriminiert.

Schweizer nDSG: Erkenntnis – aber keine AI-spezifische Regulierung

Die neue Schweizer Datenschutzverordnung (nDSG, seit September 2023) deckt einige Aspekte ab – Transparenz, Datenzugang, Korrekturrechte. Aber: Es gibt keine Schweizer Hochrisiko-Klassifizierung, keine Konformitätsbewertung, kein GPAI-Regime. Das bedeutet: Schweizer Unternehmen können im Schweizer Markt mit weniger Regulierung arbeiten – soweit sie ausschließlich im Schweizer Markt tätig sind. Im EU-Markt oder bei Aktivitäten gegenüber EU-Kunden müssen sie sich an den AI Act halten (extraterritoriale Reichweite).

Praxis-Box

Wenn Sie ein Schweizer Unternehmen sind und ChatGPT, Claude oder Mistral in ein Produkt integrieren, das Sie an EU-Kunden verkaufen – dann sind Sie Deployer unter dem AI Act. Die Frage ist nicht, ob der Act für Sie gilt, sondern ab wann Sie es bemerken. Das Bemerken werden Sie spätestens beim ersten Due Diligence-Prozess mit einem europäischen Kunden oder Investor.

7. Strategische Einordnung: Europa zwischen Ambition und Realität

Der AI Act ist eine regulatorische Machtdemonstration. Europa behauptet: Wir regulieren, wir setzen Standards, die Welt folgt. Das ist der Anspruch hinter dem DSGVO-Erfolg.

Die Frage ist: Übersetzt sich dieser Anspruch in operative Wettbewerbsfähigkeit? Oder benachteiligt er europäische Unternehmen gegenüber weniger regulierten Märkten?

Der Digital Omnibus zeigt, dass die Kommission das Risiko sieht. Die Kalibrierung läuft. Aber: Ist sie stark genug? Die Omnibus-Entlastungen sind marginal. KMU mit weniger als 50 MA bekommen Erleichterungen, aber nicht alle. Hochrisiko-Entlastungen sind nur für Systeme gedacht, die wirklich kein Risiko darstellen – und das ist im Einzelfall schwer zu argumentieren.

Für Unternehmen bedeutet das: Abwarten ist keine Option (Pflichten treten in Kraft), aber Überinvestition in Compliance für noch nicht finalisierte Standards ist ein wirtschaftliches Risiko.

8. Was Unternehmen jetzt tun sollten

Die Strategie sollte dreigliedrig sein:

Inventar: Welche KI-Systeme setzen wir ein? Welche sind hochriskant? Liste erstellen, Klassifizierung dokumentieren.

Leitlinien, nicht Lag: Ein Leitlinien-Compliance-Ansatz ist realistischer als zu versuchen, Standards zu implementieren, die noch nicht final sind. Risikoanalyse ja, aber nicht perfekt. Daten-Governance ja, aber nicht alle Fälle abdecken.

Schlanke Dokumentation: Der AI Act verlangt Dokumentation. Das heißt nicht: zehn Ordner. Das heißt: Das Wichtigste auf 20 Seiten, referenzierbar, aktualisierbar.

Monitoring der Omnibus-Entwicklung: Der Digital Omnibus wird sich weiterentwickeln. Standards werden verabschiedet. Delegierte Rechtsakte werden konkretisiert. Unternehmen sollten diese Entwicklung aktiv verfolgen, nicht reaktiv überrascht werden.

Was bleibt

1

Der AI Act ist in Kraft und wirkt extraterritorial. Jedes Unternehmen, das KI im EU-Markt anbietet oder einsetzt, ist betroffen. Abwarten ist keine Option.

2

Der Digital Omnibus kalibriert, zieht aber nicht zurück. Die Grundarchitektur (risikobasiert, Hochrisiko-Pflichten, GPAI-Regime) bleibt. Entlastungen sind marginal.

3

Für Schweizer Unternehmen gilt: Kein eigenes KI-Gesetz schützt nicht vor dem AI Act. Wer in den EU-Markt liefert, ist Deployer oder Provider und unterliegt dem AI Act vollständig.

4

Die strategische Frage ist nicht Compliance vs. Innovation. Sie ist: Wie baue ich Compliance so, dass sie bei der nächsten Kalibrierung (Omnibus, Standards, Delegierte Rechtsakte) nicht obsolet wird?

Weiter vertiefen

← Deep Dive 19Alle Deep DivesDeep Dive 21 →
← Wissensraum