Swiss Room · Leitfaden 3 von 15

AI LIABILITY

FRAMEWORK

15–20 Min Vertiefung Alle Branchen · KI-Haftung

Was dieser Leitfaden Ihnen gibt

PLD · AILD · Beweislastumkehr · Dokumentation als Haftungsschutz · Vertragsgestaltung

Vorbemerkung

Diese Leitfadenreihe ist aus einer spezifischen Perspektive heraus geschrieben: der einer General Counsel / Senior Vice President, die über viele Jahre in leitender Inhouse-Funktion in regulierten Unternehmen gearbeitet hat – in der Schweiz und in der EU. Die Autorin verfügt über eine juristische und betriebswirtschaftliche Ausbildung in der Schweiz und in Deutschland sowie über langjährige operative Erfahrung als interne Rechts- und Compliance-Verantwortliche in internationalen Konzernen und KMU-Umfeldern.

Diese Kombination – juristische Tiefe, operatives Management-Know-how und direkte Erfahrung mit den Realitäten von Lieferketten, Vertragsverhandlungen und Aufsichtsbehörden – ist der Grund, warum die Texte so geschrieben sind, wie sie sind: nicht als formale Gesetzeskommentare, sondern als Arbeitsinstrumente. Sie richten sich gleichzeitig an Führungskräfte, die schnell einordnen müssen, was eine Regulierung für ihr Unternehmen bedeutet, und an Fachabteilungen, die wissen müssen, was operativ zu tun ist.

Der interdisziplinäre Ansatz ist bewusst: Digitale Regulierung berührt gleichzeitig IT, Recht, Procurement, Geschäftsführung, HR und Lieferkette. Eine Perspektive, die nur eine dieser Dimensionen kennt, liefert unvollständige Antworten. Die Leitfäden versuchen, alle relevanten Dimensionen gleichzeitig zu adressieren – mit dem Bewusstsein, dass in der Praxis selten ein Team allein zuständig ist und die wirklichen Herausforderungen meistens an den Schnittstellen entstehen.

Die Perspektive «Schweizer KMU im EU-Kontext» ist nicht zufällig. Sie spiegelt langjährige Arbeit an der Schnittstelle zwischen Schweizer Geschäftspraxis und europäischem Regulierungsrahmen: die Erfahrung, was es konkret bedeutet, wenn ein EU-Kundenvertrag plötzlich DORA-Klauseln enthält, wenn ein Procurement-Fragebogen AI-Act-Anforderungen stellt oder wenn ein Lieferant keine NIS2-konformen Sicherheitsnachweise liefern kann. Diese Leitfäden sind aus genau diesen Situationen heraus entstanden – nicht aus dem Lesen von Gesetzestexten, sondern aus der Erfahrung ihrer Auswirkungen.

Hinweis
Diese Leitfäden ersetzen keine Rechtsberatung. Sie sind Orientierungsinstrumente aus der Praxis und können keine auf den Einzelfall bezogene juristische, steuerliche oder technische Beratung ersetzen. Bei konkreten Fragen zu Ihrer Situation wenden Sie sich an qualifizierte Fachleute – gerne auch an das Team von NBK Legal: www.nbklegal.online

Vorwort: Was das AI Liability Framework wirklich bedeutet

Das AI Liability Framework ist kein eigenständiges Gesetz, das Unternehmen direkt verpflichtet. Es ist ein Haftungsrahmen – ein System, das bestimmt, wie Gerichte über Schäden entscheiden, die durch KI entstehen. Das klingt abstrakt, bis der erste Klagefall kommt.

Für Schweizer KMU ist die wichtigste Erkenntnis: Compliance mit dem AI Act ist nicht nur eine regulatorische Pflicht – sie ist Ihr direkter Schutz vor Haftungsrisiken. Wer keine Logs führt, keine Dokumentation hat, kein Risikomanagement betreibt, verliert im Streitfall die Beweislast automatisch.

Das Grundprinzip in einem Satz Wer die AI-Act-Compliance-Dokumentation vernachlässigt, haftet im Schadensfall so, als wäre er schuldig – selbst wenn er es nicht war. Dokumentation ist Haftungsschutz.

1. Die zwei Bausteine des Frameworks

Das EU AI Liability Framework besteht aus zwei sich ergänzenden Instrumenten, die zusammen wirken.

1.1 Produkthaftungsrichtlinie (PLD) – Reform 2024

Die neue Produkthaftungsrichtlinie schließt Software und KI-Systeme ausdrücklich ein. Das ist eine fundamentale Änderung gegenüber dem alten Recht.

AspektWas das für KMU bedeutet
Was als 'Produkt' giltSoftware, KI-Systeme, Updates und Upgrades, digitale Dienste, die mit Produkten verbunden sind, und bestimmte Open-Source-Komponenten
Wer als 'Hersteller' giltWer ein KI-System entwickelt, anpasst, integriert oder unter eigenem Namen vermarktet – nicht nur der Erstentwickler
Wofür Hersteller haftenFehlerhafte Modelle, unzureichende Trainingsdaten, unklare Anweisungen für Deployer, Sicherheitslücken, mangelhafte Updatepolitik
BeweislasterleichterungGerichte können vermuten, dass ein Produkt fehlerhaft war, wenn Dokumentation fehlt, Logs nicht verfügbar sind, oder AI-Act-Anforderungen nicht erfüllt wurden
Verjährungsfrist10 Jahre ab Inverkehrbringen – deutlich länger als bisher
Was 'Beweislasterleichterung' in der Praxis bedeutet Wenn Sie verklagt werden und keine Dokumentation vorlegen können, muss das Gericht nicht beweisen, dass Ihr System fehlerhaft war – es kann das annehmen. Sie müssen dann beweisen, dass es nicht fehlerhaft war. Ohne Dokumentation ist das faktisch unmöglich.

1.2 AI Liability Directive (AILD)

Die AILD ergänzt die PLD um immaterielle Schäden – also Diskriminierung, fehlerhafte Kreditentscheidungen, fehlerhafte KI-Entscheidungen in Bildung oder Beschäftigung.

AspektWas das für KMU bedeutet
Welche Schäden gedeckt werdenImmateriell: Diskriminierung, Datenschutzverletzungen, fehlerhafte KI-Entscheidungen mit persönlichen Konsequenzen
Beweislastumkehr bei High-Risk-KIWenn ein Unternehmen seine AI-Act-Pflichten nicht erfüllt hat, wird kausal unterstellt, dass dies den Schaden mitverursacht hat
DokumentationszugangBetroffene können vor Gericht Zugang zu Logs, Dokumentation und technischen Unterlagen verlangen
Gilt für CH-KMU wenn...KI-Entscheidungen EU-Bürger betreffen, unabhängig vom Sitz des Unternehmens

2. Wann bin ich haftungsrechtlich exponiert?

Die Haftungsfrage ist nicht abstrakt. Sie wird konkret, sobald ein Schaden entsteht. Aber die Vorbereitung muss vorher passieren.

2.1 Der Expositions-Schnelltest

❓ Entwickeln, integrieren oder vermarkten Sie KI-Systeme, die Entscheidungen über Menschen treffen oder beeinflussen (Kredit, HR, Gesundheit, Strafverfolgung)? JA → Höchste Haftungsexposition. Vollständige Dokumentationspflichten und Beweislastumkehr-Risiko bei fehlender Compliance. NEIN → Weiter zu Frage 2.
❓ Setzen Sie KI-Systeme ein, die bei Fehlfunktion Menschen schaden können – physisch, finanziell oder in ihrer Reputation? JA → Mittlere bis hohe Exposition. PLD-Haftungsrisiken gelten. Dokumentation ist kritisch. NEIN → Weiter zu Frage 3.
❓ Integrieren Sie fremde KI-Komponenten in Ihre eigenen Produkte oder Dienstleistungen und verkaufen das Ergebnis? JA → Sie gelten möglicherweise als Hersteller im Sinne der PLD. Die Haftung für die gesamte Lösung kann bei Ihnen liegen, auch für Fehler der Komponenten. NEIN → Niedrige direkte Exposition, aber Lieferantenrisiken prüfen.
Die unterschätzte Integratorenhaftung Wenn Sie fremde KI-Modelle (auch Open Source) in Ihre Lösung integrieren und unter eigenem Namen vermarkten, können Sie als Hersteller haften – auch für Fehler im integrierten Modell. Das gilt besonders dann, wenn Sie keine eigene Fehlerprüfung durchgeführt haben.

2.2 Haftungsrisiko-Matrix nach Use Case

Use CaseHaftungsrisikoBeweislastumkehr?Prioritäre Maßnahme
KI-Recruiting / HR-ScoringHOCHJa – High RiskVollständige Doku, Bias-Tests, Human Oversight
Kreditwürdigkeits-KIHOCHJa – High RiskErklärbarkeit, Logs, Widerspruchsprozess
Medizinisches KI-AssistenzsystemHOCHJa – High Risk + MedizinrechtCE-Kennzeichnung, Klinische Bewertung
Predictive Maintenance (Industrie)MITTELNein – wenn Minimal RiskTestprotokolle, Systemdokumentation
KI-Chatbot im KundensupportGERINGNein – TransparenzpflichtenKennzeichnung, Eskalationspfad zu Mensch
Generative KI für ContentGERINGNein – wenn kein High RiskKennzeichnung synthetischer Inhalte
Integriertes Drittmodell (Open Source)MITTEL-HOCHAbhängig vom Use CaseEigene Fehlerprüfung, Dokumentation der Integration

3. Dokumentation als Haftungsschutz – was wirklich zählt

Die wichtigste praktische Erkenntnis: Im Schadensfall entscheidet nicht, was Ihr System tatsächlich getan hat, sondern was Sie beweisen können. Dokumentation ist nicht Bürokratie – sie ist Ihr Anwalt.

3.1 Was vor Gericht wirklich zählt

DokumentWas es beweistOhne dieses Dokument...
RisikoklassifizierungsprotokollSie haben das System vor Einsatz sorgfältig bewertet...wird angenommen, Sie haben es nicht getan
Trainingsdaten-Dokumentation (Data Card)Daten waren qualitätsgeprüft und bias-kontrolliert...wird vermutet, das Modell hat systemische Fehler
Human Oversight-ProzessMensch konnte eingreifen – System hat nicht autonom entschieden...schwer zu beweisen, dass kein autonomer Schaden entstand
Logs (Eingaben/Ausgaben/Entscheidungen)Was das System tatsächlich getan hat, rekonstruierbar...kein Beweis möglich, kein Gegenbeweis möglich
Incident-Response-ProtokollSie haben auf bekannte Probleme reagiert...Untätigkeit nach Kenntnis verschärft Haftung
AI System Card / Technische DokumentationSystem entspricht Spec und wurde vertragsgemäss geliefert...unklar was geliefert wurde, Haftung diffus

3.2 Logging: Was aufgezeichnet werden muss

Logging ist kein optionales Feature. Es ist Haftungsschutz. Was aufgezeichnet werden muss:

Eingaben: Was wurde dem System übergeben? Für High-Risk-KI: vollständig. Für andere: ausreichend für Rekonstruktion.

Ausgaben und Entscheidungen: Was hat das System empfohlen oder entschieden? Mit Zeitstempel.

Human-Override-Ereignisse: Wann hat ein Mensch eine KI-Empfehlung überstimmt und warum?

System-Anomalien: Unerwartetes Verhalten, Fehler, Ausfälle.

Modell-Versionen: Welche Version des Modells war zum Zeitpunkt X aktiv?

Aufbewahrungsfrist Die PLD hat eine Verjährungsfrist von 10 Jahren. Logs müssen entsprechend lange aufbewahrt werden können. Das ist eine technische und organisatorische Anforderung, die heute entschieden werden muss.

3.3 Erklärbarkeit – was Gerichte verlangen werden

'Das Modell hat so entschieden' ist vor Gericht keine akzeptable Antwort. Gerichte werden fragen: Können Sie erklären, warum das Modell diese Entscheidung getroffen hat?

Für High-Risk-KI: Erklärbarkeit ist eine gesetzliche Anforderung unter dem AI Act und direkt mit der Haftungslogik verknüpft.

Für andere KI: Erklärbarkeit ist kein gesetzliches Muss, aber faktischer Haftungsschutz – besonders wenn Schadensfälle eintreten.

Was 'ausreichend erklärbar' bedeutet: Nicht vollständige technische Transparenz (das ist bei modernen Modellen ohnehin begrenzt), aber: Welche Faktoren hatten den grössten Einfluss? Was hätte zu einer anderen Entscheidung geführt?

4. Vertragsgestaltung: Haftung sauber verteilen

Die wichtigste Erkenntnis für Vertragsverhandlungen: Das AI Liability Framework verschiebt Haftung nicht pauschal auf Provider oder Deployer. Es hängt davon ab, wer welche Pflicht verletzt hat. Verträge müssen das abbilden.

4.1 Provider-Deployer-Haftungsteilung

Wer haftet wofürProvider haftet für...Deployer haftet für...
GrundprinzipFehler im Modell, unzureichende Dokumentation, falsche AnweisungenFalschen Einsatz, Verstoß gegen Instructions for Use, fehlende Human Oversight
Wenn Schaden entstehtModell-inhärenter Fehler → ProviderFalscher Use Case, Override ohne Dokumentation → Deployer
GrauzoneWenn Deployer das Modell erheblich angepasst hat → möglicherweise Provider-HaftungWenn Deployer sich auf Provider-Garantien verlassen durfte → geteilt

4.2 Klauselbeispiele aus der Praxis

Haftungsbegrenzung für Provider

Akzeptabel
«Die Haftung des Anbieters für Schäden durch das KI-System ist auf direkte Schäden begrenzt und beläuft sich maximal auf den Wert der im Schadenjahr gezahlten Lizenzgebühren. Schäden aus unsachgemässem Einsatz durch den Deployer sind ausgeschlossen.» – Klar, verhältnismässig, mit Ausschluss für falschen Einsatz.
Problematisch
«Der Anbieter übernimmt keine Haftung für Schäden, die durch den Einsatz des KI-Systems entstehen.» – Pauschalausschluss ist in vielen EU-Ländern unwirksam und signalisiert fehlende Sorgfalt. Besser spezifisch begrenzen.

Dokumentationspflichten im Vertrag

Akzeptabel
«Der Anbieter stellt dem Deployer die technische Dokumentation, AI System Card und Instructions for Use bereit. Der Deployer ist verpflichtet, das System ausschließlich gemäss dieser Dokumentation einzusetzen. Bei Abweichungen trägt der Deployer die alleinige Verantwortung für daraus entstehende Schäden.»
Problematisch
Überzogen (aus Deployer-Sicht) «Der Deployer stellt dem Anbieter jederzeit Zugang zu allen Logs und Protokollen bereit und haftet vollständig für jede Abweichung von den Nutzungsanweisungen, unabhängig von deren Ursache.» – 'Jederzeit', 'jede Abweichung', 'unabhängig von Ursache' – diese drei Formulierungen sind alle einzeln überzogen. Zusammen unakzeptabel.

Open-Source-Komponenten

Wichtig
«Der Lieferant bestätigt, dass alle in der Lösung integrierten Open-Source-Komponenten auf bekannte Sicherheitslücken geprüft wurden (CVE-Scan, Datum: [X]). Der Lieferant führt ein SBOM und informiert den Auftraggeber bei bekannt werdenden kritischen Schwachstellen in integrierten Komponenten innerhalb von 72 Stunden.» – Diese Klausel schützt den Auftraggeber und zeigt, dass der Lieferant die Integratorenhaftung ernst nimmt.

5. Die fünf häufigsten Fehler in der Praxis

Fehler 1: Logging als nachträgliches Feature behandeln

'Das bauen wir nach dem Launch ein.' Das ist zu spät. Ohne Logs von Anfang an können Ereignisse vor dem Nachbau nicht rekonstruiert werden. Der erste Schadensfall tritt meist früher auf als erwartet.

Was zu tun ist
Logging-Architektur ist Day-1-Anforderung, nicht Nice-to-Have. Was geloggt wird, wie lange aufbewahrt, wer Zugriff hat – das muss beim Systemdesign entschieden werden, nicht beim Audit.

Fehler 2: Open-Source-Modelle ohne eigene Fehlerprüfung integrieren

Open-Source-Modelle (Llama, Mistral, etc.) sind beliebt. Aber wer sie in seine eigene Lösung integriert und unter eigenem Namen verkauft, übernimmt Herstellerpflichten – einschließlich Haftung für Modellfehler. 'Das Modell ist Open Source, das ist nicht unser Problem' ist vor Gericht keine Verteidigung.

Was zu tun ist
Eigene Evaluation des integrierten Modells durchführen und dokumentieren: Bias-Tests, Robustheitstests, Evaluation auf relevanten Use Cases. Dieses Dokument ist Ihr Haftungsschutz bei Modellfehlern.

Fehler 3: Human Oversight als formale Checkbox behandeln

'Wir haben einen Menschen im Loop.' Aber dieser Mensch sieht 500 KI-Empfehlungen pro Tag, hat für jede 20 Sekunden, und hat noch nie eine überstimmt. Das ist kein Human Oversight im Sinne des AI Acts – das ist eine Formalität. Gerichte werden das durchschauen.

Was zu tun ist
Human Oversight muss dokumentiert, testbar und realistisch sein. Wie oft wird überstimmt? Aus welchen Gründen? Wie lange dauert eine Überprüfung tatsächlich? Diese Zahlen brauchen Sie im Streitfall.

Fehler 4: Haftungsausschlüsse statt Haftungsbegrenzungen

Pauschalausschlüsse ('keine Haftung für Schäden durch KI') sind in mehreren EU-Ländern unwirksam und werden zunehmend in Verhandlungen als Qualitätssignal interpretiert – negativ. Wer alles ausschließt, signalisiert, dass er nichts garantieren kann.

Was zu tun ist
Haftung präzise begrenzen, nicht pauschal ausschließen: Welche Schäden? In welcher Höhe? Unter welchen Bedingungen? Ein gut formulierter Haftungsrahmen ist glaubwürdiger und rechtlich wirksamer als ein Totalausschluss.

Fehler 5: Versionskontrolle vernachlässigen

KI-Modelle werden aktualisiert. Wenn ein Schaden eintritt, muss rekonstruierbar sein, welche Modellversion zum Zeitpunkt des Schadens aktiv war. Ohne Versionskontrolle und Deployment-Logs ist das unmöglich.

Was zu tun ist
Jede Modell-Deployment-Aktion loggen: Version, Datum, durchgeführt von. Bei wesentlichen Modelländerungen: erneute Risikobewertung und Dokumentation. Das ist kein großer Aufwand, aber im Streitfall entscheidend.

6. Branchenprofile: Haftungsrisiken konkret

Profil A: HR-Tech-Anbieter (Recruiting-Software mit KI-Scoring)

HaftungsklasseMaximal. High-Risk-KI mit direkten Auswirkungen auf Beschäftigung.
BeweislastumkehrJa. Fehlende Compliance-Dokumentation = Schuldvermutung bei Klagen.
Typisches HaftungsrisikoDiskriminierungsklage: Eine Person wird abgelehnt und behauptet, das KI-System hat diskriminiert. Ohne Bias-Tests und Dokumentation ist die Verteidigung schwer.
Priorität jetztBias-Evaluation dokumentieren, Human-Override-Rate messen und aufzeichnen, Widerspruchsprozess für abgelehnte Kandidaten implementieren
VertragsklauselDeployer-Kunden müssen vertraglich verpflichtet werden, das System nur für zugelassene Use Cases zu nutzen und Human Oversight sicherzustellen.

Profil B: Fintech mit KI-gestützter Kreditentscheidung

HaftungsklasseHoch. High-Risk-KI, Verbraucherschutz, Finanzrecht.
BeweislastumkehrJa. Zusätzlich AILD-Haftung für finanzielle Schäden durch fehlerhafte KI-Entscheidungen.
Typisches HaftungsrisikoKreditantrag abgelehnt aufgrund eines KI-Fehlers. Betroffener klagt auf Erklärung und Schadensersatz. Ohne Logs und Erklärbarkeit keine Verteidigung.
Priorität jetztErklärbarkeits-Framework implementieren (warum wurde abgelehnt?), Widerspruchsprozess dokumentieren, Logs mit 10-jähriger Aufbewahrung
Besonderer HinweisAILD gibt Betroffenen das Recht, Dokumentation vor Gericht anzufordern. Was sie nicht finden, wird zu Ihren Lasten interpretiert.

Profil C: Industrieautomation mit KI-Fehlererkennung

HaftungsklasseMittel bis hoch. PLD-Haftung wenn KI-Fehler zu physischen Schäden führt.
BeweislastumkehrAbhängig von Risikoklassifizierung. Wenn High Risk: Ja.
Typisches HaftungsrisikoKI-System erkennt Produktionsfehler nicht, fehlerhafte Produkte gelangen auf den Markt, Personenschaden. Hersteller und KI-Anbieter werden gemeinsam verklagt.
Priorität jetztKlare Rollentrennung im Vertrag: wer ist Hersteller des Produkts, wer des KI-Systems. Haftungsabgrenzung vertraglich sauber regeln.
Vertragsklausel'Der KI-Lieferant haftet für KI-inhärente Fehler; der Produkthersteller haftet für die Integration und den Einsatz.' – Mit klaren Definitionen von 'KI-inhärent'.

7. Verbindung zum AI Act: Compliance ist Haftungsschutz

Das AI Liability Framework und der AI Act sind keine separaten Regime – sie sind bewusst aufeinander abgestimmt. Jede AI-Act-Compliance-Maßnahme ist gleichzeitig eine Haftungsschutz-Maßnahme.

AI-Act-PflichtHaftungsschutz durch...Ohne diese Maßnahme...
Technische DokumentationBeweist Systemqualität und -designGericht vermutet fehlerhafte Entwicklung
LoggingRekonstruierbar was geschahKeine Verteidigung möglich
Human OversightZeigt, dass kein autonomer Schaden entstandAutonomhaftung wahrscheinlich
RisikomanagementBeweist proaktive SorgfaltFahrlässigkeitsvermutung
Incident ResponseZeigt angemessene Reaktion nach KenntnisHaftungsverschärfung durch Untätigkeit

8. Was Sie jetzt tun – priorisiert

PrioMaßnahmeWarum jetzt
1Logging-Architektur für alle KI-Systeme überprüfenOhne Logs ist jede Haftungsverteidigung unmöglich. Das ist Day-1-Infrastruktur.
2Risikoklassifizierung jedes KI-Use-Cases dokumentierenBestimmt Beweislastumkehr-Risiko und Dokumentationspflichten.
3Haftungsklauseln in KI-Verträgen überprüfenPauschalausschlüsse sind riskant. Präzise Begrenzungen schützen besser.
4Open-Source-Modelle evaluieren und dokumentierenIntegratorenhaftung gilt unabhängig von Modell-Lizenz.
5Human-Oversight-Prozesse auf Realismus prüfenFormale Oversight ohne echte Kontrolle schützt vor Haftung nicht.
6Versionskontrolle und Deployment-Logs implementieren10-jährige Verjährungsfrist erfordert langfristige Rekonstruierbarkeit.
Hinweis
Dieser Leitfaden ersetzt keine Rechtsberatung. Bei konkreten Fragen wenden Sie sich an nbklegal.online.

Kontakt & weitere Informationen

NBK Legal
Rechts- und Compliance-Beratung
EU-Digitalregulierung · Datenschutz · Cybersicherheit
Schweiz · EU
Website
www.nbklegal.online
Alle Leitfäden der Serie
www.nbklegal.online/leitfäden

Weiter vertiefen

← Alle Leitfäden