AI-Act-Readiness aus Schweizer Perspektive – mit Fokus auf grenzüberschreitende Auswirkungen.
Kontext
EU AI Act (EU) 2024/1689
Gewichtung
★★ = doppelt, ★ = einfach
Fragen
25
Bearbeitungszeit
ca. 10–15 Min.
Zweck & Einleitung
Dieser Self-Check dient als pragmatischer Spiegel, um einzuschätzen, wie gut Ihre Organisation auf die Anforderungen des EU AI Act (Verordnung (EU) 2024/1689) vorbereitet ist.
Der Check beleuchtet Risikoklassifizierung, Governance-Strukturen, Dokumentation, Risikomanagement, Datenqualität sowie Verantwortlichkeiten als Provider oder Deployer – mit Fokus auf High-Risk-AI-Systeme (ab 2. August 2026 voll anwendbar).
Wichtig
Kein offizieller Test, kein Scoring im regulatorischen Sinne, kein Benchmark.
Ehrliche Selbsteinschätzung – idealerweise vor einer Konformitätsbewertung oder Prüfung.
★★-Fragen werden doppelt gewichtet. Der Check richtet sich primär an Organisationen mit High-Risk-AI-Systemen.
Antwortoptionen
Ja · 2
Vollständig und belastbar umgesetzt, dokumentiert, gelebt und erprobt
Teilweise · 1
Vorhanden, aber lückenhaft, personenabhängig oder ungetestet
Nein · 0
Nicht oder kaum vorhanden
n/a · –
Nicht anwendbar (wird bei der Berechnung ignoriert)
Fragebogen
Klicken Sie für jede Frage auf Ja, Teilweise, Nein oder n/a. Die Auswertung erfolgt automatisch nach der letzten Frage. ★★-Fragen werden doppelt gewichtet.
Fortschritt0 / 25
0 % beantwortet
A. Risikoklassifizierung
01
Haben Sie alle AI-Systeme systematisch auf Risikokategorien (verboten, high-risk, limited-risk, minimal-risk) geprüft und dokumentiert?
★★
02
Gibt es kritisches Klassifizierungswissen, das nur einzelne Personen vollständig überblicken?
★★
Umkehrfrage: Nein = gut (2 Punkte), Ja = schlecht (0 Punkte)
03
Ist dokumentiert, warum ein System (nicht) als high-risk eingestuft wurde (z. B. Annex I/III-Prüfung)?
★★
B. Governance & Management
04
Sind Rollen, Verantwortlichkeiten und Entscheidungsbefugnisse im AI-Risikomanagement klar definiert und allen bekannt?
★★
05
Überwacht die Geschäftsführung aktiv AI-Risiken und lässt sich regelmässig schulen (AI Literacy)?
★★
06
Gibt es funktionierende Vertretungsregelungen für Schlüsselrollen in der AI-Governance?
★
C. Risikomanagement
07
Existiert ein kontinuierliches Risikomanagementsystem für High-Risk-AI (Identifikation, Bewertung, Mitigation über den gesamten Lifecycle)?
★★
08
Gibt es eine einheitliche, dokumentierte Logik zur Bewertung von Risiken für Gesundheit, Sicherheit und Grundrechte?
★★
09
Werden bekannte und vorhersehbare Risiken (inkl. Missbrauch) systematisch minimiert?
★★
D. Daten & Training
10
Werden Trainings-, Validierungs- und Testdaten systematisch auf Qualität, Repräsentativität und Bias geprüft (Data Governance)?
★★
11
Ist dokumentiert, warum Datenanforderungen (nicht) erfüllt wurden?
★
E. Technische Dokumentation
12
Liegt eine vollständige technische Dokumentation vor (gem. Annex IV: Design, Daten, Risiken, Tests etc.)?
★★
13
Ist das System für Logging/Traceability ausgelegt (automatische Ereignisprotokollierung)?
★★
14
Würde ein externer Prüfer die Dokumentation ohne grosse Nachfragen verstehen?
★
F. Human Oversight & Robustheit
15
Ist Human Oversight (menschliche Aufsicht) effektiv im Design verankert (z. B. Interventionsmöglichkeiten)?
★★
16
Erfüllt das System Anforderungen an Genauigkeit, Robustheit und Cybersicherheit (inkl. Adversarial Testing)?
★★
G. Konformitätsbewertung
17
Wurde eine Konformitätsbewertung (intern oder durch Notified Body) durchgeführt oder geplant?
★★
18
Liegt eine EU-Konformitätserklärung vor und ist CE-Kennzeichnung geplant?
★★
19
Ist die Registrierung in der EU-Datenbank vorbereitet?
★★
H. Deployer-Pflichten
20
Wurde eine Fundamental Rights Impact Assessment (FRIA) für relevante High-Risk-Einsätze durchgeführt?
★★
21
Werden Mitarbeiter vor Einsatz von High-Risk-AI informiert und Logs mindestens 6 Monate aufbewahrt?
★
22
Existiert ein Prozess zur Meldung von Risiken/Incidents an Provider und Behörden?
★★
I. Post-Market Monitoring
23
Gibt es ein System zum Post-Market-Monitoring (Vorfallsüberwachung, Korrekturmassnahmen)?
★★
24
Könnten zentrale AI-Verantwortlichkeiten geordnet übergeben werden (ohne Wissensverlust)?
★
25
Ist die Organisation primär durch Strukturen stabil – oder durch einzelne AI-«Helden»?
★★
Ihr Ergebnis
Wichtige Begriffe
Provider
Entwickler/Hersteller eines AI-Systems – trägt die Hauptlast der Pflichten bei High-Risk.
Deployer
Nutzer/Einsatzorganisation eines AI-Systems (z. B. Unternehmen, das ein High-Risk-System einsetzt).
High-Risk-AI
Systeme in Annex I/III (z. B. Biometrie, Kreditscoring, kritische Infrastruktur) – erfordern Risikomanagement, Dokumentation, Konformitätsbewertung und CE-Markierung.
FRIA
Fundamental Rights Impact Assessment – Bewertung der Auswirkungen auf Grundrechte (für bestimmte Deployer obligatorisch).
KI-Compliance ist kein Dokumentationsprojekt – sie ist der Nachweis, dass Sie wissen, was Ihr System tut, warum, und was passiert, wenn es schiefläuft.