Wissensraum · Dossier

Digitale Souveränität

Wenn Abhängigkeit zur Normalität wird. Ein interdisziplinäres Dossier zu Design, Psyche und Verantwortung.

Dr. Vanessa Prox-Vagedes, Nicole Battistini-Kohler · 2026

20–25 Min Dossier Souveränität · Strategie

Was dieses Dossier Ihnen zeigt

Digitale Souveränität als strategisches Thema – Abhängigkeiten, Alternativen, Handlungsoptionen.

Wenn Abhängigkeit zur Normalität wird

Ein interdisziplinäres Dossier zu Design, Psyche und Verantwortung

Autorinnen: Dr. Vanessa Prox-Vagedes (Fachärztin für Psychiatrie und Psychotherapie) Nicole Battistini-Kohler (Rechtsanwältin, Gründerin NBK LEGAL)

Dieses Dossier verbindet empirische Studien, juristische Entwicklungen und analytische Interpretation. Soweit nicht ausdrücklich anders gekennzeichnet, stellen Aussagen über Wirkzusammenhänge und Verantwortung eine evidenzbasierte Bewertung dar, keine abschließende Kausalitätsfeststellung im Rechtssinne. Für laufende Gerichtsverfahren gilt die Unschuldsvermutung.

Vorbemerkung: Warum dieses Dossier notwendig ist

Digitale Dysregulation ist kein Randphänomen mehr — und keine Frage mangelnder Disziplin. Dass Plattformen Nutzung durch Design verstärken, ist inzwischen weithin anerkannt: Infinite Scroll, Autoplay, variable Belohnungssysteme, Push-Benachrichtigungen, algorithmische Verstärkung — die Mechanismen sind bekannt. Beschrieben wurden sie vielfach.

Was fehlt, ist ihre Zusammenführung.

In der öffentlichen Debatte werden vier Ebenen meist getrennt betrachtet, obwohl sie sich wechselseitig bedingen. Die klinische Erfahrung zeigt, wie dysregulierte Nutzung aussieht — hochfunktional, sozial integriert, lange unauffällig bei Erwachsenen; entwicklungsabhängig, peer-getrieben, identitätsrelevant bei Kindern und Jugendlichen. Die Psychologie erklärt, welche Lern-, Aufmerksamkeits- und Vergleichsmechanismen dabei adressiert werden — und warum reine Einsicht selten genügt. Die Neurobiologie zeigt, welche Regulationssysteme unter Dauerreizbedingungen belastet werden — Belohnungslernen, Stressreaktion, präfrontale Kontrolle — und warum Willenskraft biologisch nicht unbegrenzt skalierbar ist. Das Recht schließlich fragt, wie aus diesen Dynamiken Verantwortung entsteht: nicht moralisch, sondern im Sinne von Produkthaftung, Jugendschutz und systemischen Schutzpflichten.

Dieses Dossier verbindet diese vier Ebenen — und erweitert sie um eine fünfte: die politisch-systemische Dimension digitaler Gewalt: dokumentierte Entwicklungen, die nach Einschätzung der Autorinnen eine qualitativ andere Einordnung nahelegen — eine strukturelle Schwächung von Frauen und Mädchen.

Nicht jede Plattform verhält sich gleich, und einige Unternehmen haben unter regulatorischem und gesellschaftlichem Druck Schutzmaßnahmen eingeführt. Die strukturelle Logik des Systems — Verweildauer, Engagement, Skalierung — bleibt jedoch in ihrer Wirkung auf vulnerable Gruppen das zentrale Problem.

Erst in diesem Zusammenspiel wird sichtbar, warum digitale Souveränität keine Lifestyle-Entscheidung ist. Sie ist eine Voraussetzung psychischer Gesundheit, sozialer Teilhabe und körperlicher Unversehrtheit — für Erwachsene ebenso wie für Kinder und Jugendliche. Und sie ist keine Frage individueller Stärke, sondern eine Frage gesellschaftlicher Architektur und politischer Entwicklung.

TEIL I – DIE ERFAHRUNG

Kapitel 1: Es beginnt nicht mit einem Problem

Digitale Dysregulation beginnt mit einem Griff.

Ein Griff zum Smartphone am Morgen, bevor der Tag eine innere Ordnung gefunden hat. Ein Blick in der Pause. Ein beiläufiges Scrollen am Abend — „nur kurz". Nichts wirkt exzessiv. Nichts wirkt sozial auffällig. Gerade deshalb bleibt es zunächst unproblematisch.

Was viele Betroffene beschreiben, ist subtiler: zunehmende Erschöpfung ohne klaren Auslöser, innere Unruhe ohne konkreten Anlass, brüchige Konzentration, die sich weder durch Urlaub noch durch gute Vorsätze stabilisieren lässt. Es fehlt ein klarer Schuldiger. Das Erleben bleibt diffus.

In der klinischen Praxis zeigt sich ein konsistentes Muster: Die Betroffenen sind leistungsfähig, beruflich integriert, sozial eingebunden. Die Auffälligkeit liegt nicht in der reinen Nutzungsdauer, sondern im Verlust der Abbruchfähigkeit. Nicht "zu viel" ist das zentrale Problem. Sondern: nicht mehr selbstbestimmt.

Was dabei im Inneren passiert, ist keine Frage der Willenskraft. Digitale Nutzung übernimmt häufig eine Regulationsfunktion — zur Selbstberuhigung, zur Ablenkung, zur Spannungsreduktion. Über Wiederholung kann sich eine Form der Konditionierung entwickeln, inklusive Toleranzbildung und einem drängenden Wiederholungsimpuls. Der klinisch relevante Punkt ist dabei nicht die Eskalation, sondern die Verschiebung von intentionaler zu reaktiver Nutzung.

Viele berichten zudem, dass sich Inhalte mit der Zeit verdichten: Wer sich mit einem Thema beschäftigt, erhält immer mehr davon — intensiver, zugespitzter, emotionaler. Das ist keine zufällige Nutzungsdynamik. Es ist das Ergebnis algorithmischer Architektur — und der Punkt, an dem individuelle Erfahrung und Systemgestaltung untrennbar werden.

Kinder und Jugendliche: strukturell anders

Bei Kindern und Jugendlichen ist die Dynamik nicht einfach eine frühere Version desselben Problems. Sie ist qualitativ verschieden.

Erwachsene wuchsen in eine Welt hinein, die sie digital nachsozialisiert hat. Jugendliche werden in digitalen Systemen sozialisiert — von Beginn an. Permanente Erreichbarkeit ist für sie keine Gewohnheit, die sich entwickelt hat, sondern eine Grundbedingung sozialer Zugehörigkeit.

Ein Beispiel aus der Praxis: Kinder geraten unter Stress, wenn sie in Gruppenchats adressiert werden, aber gerade keine Medienzeit haben. Das Gerät verwandelt sich vom Kommunikationsmittel zum Stressor. Während Erwachsene oft noch Erinnerung an analoge Aufmerksamkeitsräume haben, fehlt Jugendlichen dieser Vergleichsraum vollständig.

Digitale Dysregulation zeigt sich in beiden Gruppen meist ohne dramatischen Zusammenbruch. Sie ist funktional, sozial normalisiert und leise. Gerade deshalb bleibt sie lange unverstanden — und gerade deshalb ist ihre Analyse so dringend.

Blinde Flecken

Das Verständnis digitaler Dysregulation wird durch drei verbreitete Missverständnisse erschwert, die sich hartnäckig halten.

Das erste betrifft Erwachsene selbst. Digitale Dysregulation wird häufig erst erkannt, wenn sie sich in unspezifischen Symptomen äußert: Schlafstörungen, Tagesmüdigkeit, Gereiztheit, Konzentrationsabbrüche. Klinisch relevant ist jedoch weniger die Dauer der Nutzung als ihre Funktion im inneren Regulationssystem. Gerade die hochfunktionale Variante lässt Leistung lange intakt, während Schlafqualität und Selbststeuerung bereits erodieren.

Das zweite betrifft den sozialen Kontext. Viele Erwachsene erleben Erreichbarkeit als freiwillig — obwohl sie faktisch sozial normiert ist: durch Arbeitsplatzkultur, Freundeskreise, Familienlogiken. Das Gehirn lernt, auf Unterbrechungen reflexhaft zu reagieren.

Das dritte betrifft Kinder. Die verbreitete Annahme, das Problem ließe sich über Minutenbudgets lösen, greift zu kurz. Entwicklungspsychologisch zentrale Basiskompetenzen entstehen nur in direkter sozialer Interaktion: Sprachentwicklung, Perspektivenübernahme, Selbstregulation. Eine randomisierte Intervention aus Dänemark konnte 2024 zeigen, dass eine konsequente kurzfristige Reduktion von Freizeit-Screenmedia mit messbaren Verbesserungen psychischer Symptome und prosozialen Verhaltens einherging. Ein Registered Report in Nature Human Behaviour aus 2025 zeigt zudem, dass Jugendliche mit psychischen Erkrankungen Social Media qualitativ anders nutzen — mit stärkeren Vergleichstendenzen und höherer Feedback-Abhängigkeit. Keine Kausalität, aber eine relevante Interaktionshypothese.

Quellen

Schønning, A. et al. (2024): Randomized controlled trial on screen media reduction, Denmark. Child and Adolescent Psychiatry.

Orben, A. et al. (2025): Social media use and mental health in adolescents. Registered Report, Nature Human Behaviour.

Twenge, J. M. (2017): iGen. Atria Books. — Grundlegendes Werk zur Korrelation von Smartphone-Nutzung und psychischer Gesundheit bei Jugendlichen.

American Psychological Association (2023): Health Advisory on Social Media Use in Adolescence. apa.org.

Kapitel 2: Abhängigkeit ohne Kontrollverlust

Das klassische Bild von Abhängigkeit ist dramatisch. Ein Absturz, ein Zusammenbruch, ein sichtbarer Kontrollverlust. Digitale Dysregulation sieht anders aus.

Sie kollabiert nicht. Sie funktioniert.

Sie ist kompatibel mit Leistungsanforderungen und sozialer Integration. Ihre Wirkung zeigt sich nicht im Offensichtlichen, sondern in Verschiebungen: Aufmerksamkeit wird reaktiver, Motivation externer, Selbststeuerung fragiler. Ein junger Erwachsener beschrieb es so: „Ich weiß nicht mehr, was ich will — nur, was ich sehen sollte." Das ist kein Exzess. Das ist ein Orientierungsverlust.

Entscheidungen folgen zunehmend der Reizverfügbarkeit statt innerer Motivation. Nutzung endet nicht an natürlichen Grenzen, sondern wenn Erschöpfung oder externe Unterbrechung eingreifen. Der entscheidende Punkt ist nicht das „Zuviel", sondern das Nicht-mehr-Abbrechen-Können.

Wenn Abbruchfähigkeit systematisch selten wird, reicht individuelle Psychologie als Erklärung nicht mehr aus. Dann wird Design zur klinisch relevanten Variable. Nicht weil Plattformen Menschen süchtig machen wollen — das ist eine zu grobe Vereinfachung. Sondern weil Systeme, die für maximale Verweildauer optimiert sind, vorhersehbar genau jene Abbruchsignale entfernen, die Selbstregulation benötigt.

Quellen

Billieux, J. et al. (2015): Problematic smartphone use: A conceptual overview and preliminary investigation. Psychologie française.

Andreassen, C. S. (2015): Online Social Network Site Addiction: A Comprehensive Review. Current Addiction Reports.

Montag, C. / Reuter, M. (Hrsg., 2019): Internet Addiction: Neuroscientific Approaches and Therapeutical Implications. Springer.

Bányai, F. et al. (2017): Problematic Social Media Use: Results from a Large-Scale Nationally Representative Adolescent Sample. PLOS ONE.

TEIL II – DAS SYSTEM

Kapitel 3: Warum Design keine neutrale Entscheidung ist

Wo entsteht digitale Dysregulation? Die naheliegende Antwort — im Individuum, in mangelnder Disziplin, in persönlicher Schwäche — ist falsch. Die richtige Antwort ist präziser: im gestalteten Nutzungskontext.

Digitale Plattformen sind keine neutralen Kommunikationsräume, die lediglich bereitstellen, was Menschen ohnehin wollen. Sie sind technisch, ökonomisch und psychologisch konstruierte Systeme mit definierten Zielgrößen: Verweildauer, Interaktion, Wiederkehr, Bindung.

Ein Missverständnis hat die Debatte lange verzerrt: die Annahme, Design wirke nur auf Präferenzen oder Gewohnheiten. Tatsächlich adressieren zentrale Designentscheidungen basale Regulationssysteme, die allen Menschen gemeinsam sind — unabhängig von Bildung, Intelligenz oder Medienkompetenz.

Design wirkt nicht belehrend, sondern strukturierend. Es verändert nicht primär, was Menschen wollen, sondern wie Entscheidungen zustande kommen — ob ein Innehalten leicht oder selten wird, ob Abbruchmomente vorhanden sind, ob Aufmerksamkeit intern gesteuert oder extern getriggert wird.

Wenn Produkte so gestaltet sind, dass sie vorhersehbar Aufmerksamkeit binden, Abbruch erschweren und emotionale Reaktivität verstärken, dann ist die Wirkung nicht zufällig. Sie ist designbedingt — und damit prinzipiell adressierbar.

Quellen

Harris, T. (2016): How Technology Hijacks People's Minds. Medium / Center for Humane Technology.

Fogg, B. J. (2003): Persuasive Technology: Using Computers to Change What We Think and Do. Morgan Kaufmann.

Eyal, N. (2014): Hooked: How to Build Habit-Forming Products. Portfolio/Penguin.

Zuboff, S. (2019): The Age of Surveillance Capitalism. PublicAffairs.

Srnicek, N. (2017): Platform Capitalism. Polity Press.

Kapitel 4: Die Designmechaniken – eine funktionale Analyse

Die sieben Mechaniken, die Selbstregulation strukturell unterlaufen, sind im Anhang A dieses Dossiers detailliert beschrieben — mit psychologischer, neurobiologischer und rechtlicher Einordnung sowie dem aktuellen Stand der Litigation. Dieser Abschnitt gibt einen Überblick.

Die Mechaniken sind: Infinite Scroll, algorithmische Verstärkung, Autoplay, variable Belohnung, Push-Benachrichtigungen, soziale Vergleichsarchitektur und Friktionsverlust. Keine dieser Mechaniken ist für sich genommen ein Beweis für bösen Willen. Jede lässt sich mit Komfort, Personalisierung oder Nutzererfahrung rechtfertigen. Zusammen aber ergeben sie ein System, das Abbruchfähigkeit zur knappen Ressource macht, Aufmerksamkeit externalisiert und Entscheidungen durch Reaktionen ersetzt.

Eine vollständige funktionale Analyse der sieben Mechaniken findet sich in Anhang A.

TEIL III – DIE VERANTWORTUNG

Kapitel 5: Der rechtliche Wendepunkt

Was heute juristisch verhandelt wird, beginnt in Sprechzimmern.

Mit Symptomen, die für sich genommen unspektakulär wirken: Schlafstörungen, Aufmerksamkeitsprobleme, emotionale Dysregulation, erhöhte Angst- und Depressivität, Rückzug bei gleichzeitiger digitaler Dauerpräsenz. Keines dieser Symptome ist neu. Neu ist ihre Häufung in einem Nutzungskontext, der strukturell konstant ist: algorithmisch kuratiert, permanent verfügbar, designoptimiert.

Der rechtliche Wendepunkt besteht daher nicht in moralischer Empörung. Er besteht in einer Übersetzungsleistung: Eine klinisch beschreibbare Realität wird in Kategorien von Verantwortung, Haftung und Schutzpflichten übertragen. Die zentrale Frage lautet nicht: „Sind soziale Medien gut oder schlecht?" Sondern: Ab wann wird Produktgestaltung haftungsrelevant, wenn ihre Wirkungen vorhersehbar sind?

USA: Produkthaftung als Durchbruch

Seit 1996 schützt Section 230 des Communications Decency Act amerikanische Plattformen vor Haftung für Inhalte ihrer Nutzer. Diese Schutzklausel wurde zur juristischen Festung, hinter der sich Big Tech drei Jahrzehnte lang erfolgreich verschanzte.

Der übergreifende juristische Ansatz, der sich in mehreren parallelen Verfahren gegen Meta, TikTok, YouTube und Snap abzeichnet, ist die sogenannte Product Liability Theory: Plattformen werden nicht als Verleger verklagt, sondern als Hersteller defekter Produkte, deren Schädlichkeit vorhersehbar war. Das verschiebt die Beweislast fundamental. Nicht mehr muss gezeigt werden, welche Inhalte konkret Schaden angerichtet haben. Es muss gezeigt werden, dass das Design selbst einen vorhersehbaren Schaden erzeugt hat.

Am 25. März 2026 fällte eine Jury des Los Angeles Superior Court das erste Urteil, das diese Theorie bestätigte. Die Klägerin K.G.M., eine 20-jährige Frau aus Kalifornien, machte geltend, dass Instagram und YouTube durch bewusste Designentscheidungen — algorithmische Empfehlungssysteme, Infinite Scroll, Autoplay, Benachrichtigungslogiken — suchterzeugendes Verhalten gefördert und ihre psychische Gesundheit erheblich geschädigt hätten. Die Jury befand Meta zu 70 Prozent und Google zu 30 Prozent haftbar und sprach sechs Millionen US-Dollar Schadenersatz zu.

Entscheidend war die juristische Strategie: Die Kläger argumentierten nicht mit Inhalten, sondern mit der Architektur der Systeme selbst — und umgingen damit Section 230. Interne Meta-Dokumente, die im Verfahren öffentlich wurden, enthüllten, dass elfjährige Nutzerinnen viermal häufiger zu Instagram zurückkehrten als zu Konkurrenzplattformen. Ein internes Memo zur Nutzerbindungsstrategie enthielt eine Formulierung, die Kritiker als Beleg für die bewusste Ausrichtung auf sehr junge Nutzerinnen werten. Diese Dokumente werden in der juristischen Argumentation vergleichbar eingesetzt wie die Tobacco Papers in den 1990er Jahren: Als Beleg dafür, dass der Unternehmensführung die potenziell schädigenden Effekte ihrer Produkte bekannt waren und in Produktentscheidungen einflossen — eine Interpretation, die Meta bestreitet.

Dieser Fall ist Bellwether für rund 2.000 weitere Klagen. TikTok und Snapchat haben sich bereits verglichen. Ein weiteres Bundesverfahren mit konsolidierten Klagen von Schulbezirken und Eltern ist für Sommer 2026 angesetzt. Beobachter vergleichen das mögliche Ergebnis mit dem Big-Tobacco-Moment der Tabakindustrie.

Quellen

Los Angeles Superior Court: K.G.M. v. Meta Platforms Inc. et al., Urteil vom 25. März 2026.

U.S. District Court, N.D. California: In re Social Media Adolescent Addiction/Personal Injury Products Liability Litigation, MDL No. 3047.

Section 230, Communications Decency Act (1996), 47 U.S.C. § 230.

Meta interne Dokumente (2021): "If we wanna win big with teens, we must bring them in as tweens." — Im Rahmen von MDL 3047 öffentlich geworden, berichtet u. a. von The Wall Street Journal (2021) und im Prozess verlesen.

The Wall Street Journal (2021): Facebook Knows Instagram Is Toxic for Teen Girls, Company Documents Show. wsj.com, 14. September 2021.

Haugen, F. (2021): Whistleblower-Aussage vor dem US-Senat, 5. Oktober 2021. — Eingeführte Dokumente zu internem Meta-Wissen über Produktschäden. NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

Europa: Regulierung als präventive Antwort

Während in den USA das Haftungsrecht die zentrale Rolle spielt, liegt der Schwerpunkt in Europa auf einem anderen Instrument: der präventiven Regulierung.

Der Digital Services Act verpflichtet sehr große Plattformen, systemische Risiken zu identifizieren, zu bewerten und zu mitigieren — ausdrücklich einschließlich Risiken, die aus Design, Funktion oder algorithmischen Systemen entstehen. Design wird damit nicht mehr als rein technische oder ästhetische Entscheidung betrachtet, sondern als potenzieller Risikofaktor. Die DSA-Leitlinien aus dem Jahr 2025 konkretisieren die Anforderungen weiter: Autoplay und Push-Benachrichtigungen müssen für Minderjährige standardmäßig deaktiviert sein; Funktionen, die übermäßige Nutzung fördern — Streaks, Infinite Scroll, tägliche Belohnungen — sollen vermieden werden.

Die juristische Frage lautet in Europa nicht „War das Design schuldhaft?", sondern „Hat die Plattform das Risiko identifiziert und mitigiert?" Das ist strukturell präventiver als der amerikanische Ansatz — aber abhängig von Behörden, die willens und fähig sind, ihn konsequent durchzusetzen.

Quellen

Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates (Digital Services Act), in Kraft seit 17. Februar 2024.

Europäische Kommission (2025): Leitlinien zum Schutz Minderjähriger unter dem DSA, Artikel 28 DSA. ec.europa.eu.

Europäische Kommission (2026): Vorläufige Ergebnisse zur DSA-Untersuchung von TikTok; algorithmisches Design als möglicher Verstoß. ec.europa.eu.

Europäische Kommission (2023): Formal proceedings against TikTok under the DSA. — Pressemitteilung, 19. Februar 2024.

China: Das Paradox des doppelten Standards

TikTok — das internationale Produkt des chinesischen Konzerns ByteDance — ist in China selbst nicht verfügbar. Stattdessen nutzen chinesische Nutzerinnen und Nutzer Douyin, die Inlandsversion. Nutzer unter vierzehn Jahren sind auf Douyin auf vierzig Minuten täglich beschränkt, die App ist zwischen 22 und 6 Uhr für sie gesperrt.

Tristan Harris, Mitgründer des Center for Humane Technology, brachte das Paradox auf eine viel zitierte Formel: China erkenne offenbar, dass Technologie die Entwicklung von Kindern beeinflusst, und mache die Inlandsversion zu einer Spinat-Version von TikTok — während es die Opium-Version in den Rest der Welt exportiere.

Das chinesische Modell unterliegt allerdings umfassender politischer Zensur und Überwachung, die für demokratische Gesellschaften inakzeptabel wären. Es ist kein Vorbild. Aber es zeigt, dass Plattformarchitektur steuerbar ist, wenn der politische Wille vorhanden ist.

Quellen

Cyberspace Administration of China (2021): Kinderschutzvorschriften für Douyin / TikTok-Inlandsversion. — Berichtet von Reuters und dem Wall Street Journal.

Harris, T. (2021): Aussage vor dem US-Senat, Unterausschuss für Verbraucher, 25. November 2020. — "Spinach vs. opium" Formulierung.

Center for Humane Technology (2022): The Dual Newspaper Test. humanetech.com.

Nationaler Vergleich und gemeinsamer Nenner

Frankreich implementiert Altersverifikationspflichten mit explizitem Bezug auf psychische Schutzgüter. Australien verpflichtet Plattformen zu nachweisbaren Schritten, um Unter-16-Accounts zu verhindern. Unabhängig von der konkreten Ausgestaltung zeichnet sich über unterschiedliche Rechtssysteme hinweg dieselbe Verschiebung ab: von moralischer Bewertung zu struktureller Analyse, von individueller Disziplin zu Designverantwortung, von reaktiver Krisenintervention zu präventiver Risikologik.

Wenn psychische Effekte vorhersehbar aus Gestaltungsentscheidungen resultieren, wird Verantwortung nicht nur individuell, sondern systemisch verortet. Das ist kein Kulturkampf. Es ist eine juristische Antwort auf eine klinisch beobachtbare Realität.

Quellen

Loi n° 2023-566 du 7 juillet 2023 (France): Loi visant à instaurer une majorité numérique et à lutter contre la haine en ligne. — Altersverifikationspflicht ab 15 Jahren.

Online Safety Act 2021 (Australia): Bestimmungen zum Schutz Minderjähriger; Altersverifizierung unter 16 Jahren. legislation.gov.au.

ILO (2018): Care work and care jobs for the future of decent work. International Labour Office, Geneva.

OECD (2023): Joining Forces for Gender Equality: What is Holding us Back? OECD Publishing, Paris. oecd.org.

OECD Family Database (laufend aktualisiert): Public spending on childcare and early education. oecd.org/els/family/database.

TEIL IV – HANDLUNGSRÄUME

Kapitel 6: Digitale Souveränität – praktisch, nicht moralisch

Digitale Souveränität ist kein Detox-Programm. Keine Selbstoptimierung. Kein Rückzug aus der digitalen Welt. Sie bezeichnet die real erfahrbare Möglichkeit, Nutzung zu wählen — wann, wie lange, wozu und wann nicht.

Der Perspektivwechsel, den das erfordert, ist zentral: Nicht die Frage, wie stark Individuen sein müssen, steht im Mittelpunkt. Sondern die Frage, welche Strukturen notwendig sind, damit Autonomie unter realen Bedingungen möglich bleibt.

Erwachsene: Autonomie unter sozialen Normen

Digitale Souveränität beginnt dort, wo nicht mehr ausschließlich auf situative Selbstkontrolle vertraut wird. Externe Endpunkte — feste Zeitfenster, klar definierte Pausen, bewusst gewählte Nutzungssituationen — ersetzen die Erwartung, im richtigen Moment von selbst aufzuhören. Die Legitimation von Unerreichbarkeit als kollektive Norm ist entscheidend: Solange Nichterreichbarkeit begründet werden muss, bleibt Selbstregulation fragil.

Kinder und Jugendliche: Entwicklung braucht Schutzräume

Für Kinder und Jugendliche ist digitale Souveränität kein individuelles Ziel, sondern ein Entwicklungsprozess. Selbstregulation entsteht nicht unter maximaler Reizdichte. Was wirkt, ist Kontinuität: smartphonefreie Schulzeiten, medienbewusste Familienrituale, klare Nachtregelungen, feste Offline-Phasen.

Organisationen und Institutionen: Strukturverantwortung

Schulen, Unternehmen, Behörden und soziale Einrichtungen sind selbst Teil digitaler Kommunikationsökologien — und zugleich Orte, an denen Schutzräume entstehen können. Kommunikationsregeln explizit machen, digitale Arbeitslast sichtbar erfassen, Pausen strukturell ermöglichen.

Politik und Regulierung: Rahmen statt Moral

Regulierung kann ansetzen bei Default-Einstellungen, Transparenzpflichten, Altersdesign, bewusster Reibung und Risikobewertungspflichten. Wenn Design systematisch Verhalten strukturiert, ist Design kein rein privater Gestaltungsraum. Es ist ein regulierbarer Einflussraum.

Nicht weniger Technik ist das Ziel. Sondern die Rückkehr der Wahl.

Quellen

Radesky, J. S. et al. (2020): Longitudinal associations between screen media use and parent-child interactions. JAMA Pediatrics.

Lerner, M. D. et al. (2023): Efficacy of digital literacy programs. Journal of Youth and Adolescence.

Netzwerk Digitale Souveränität (2023): Rahmenkonzept für schulische Medienbildung. Bertelsmann Stiftung.

Bundesministerium für Familie, Senioren, Frauen und Jugend (2022): Medienkompetenz als Schlüsselkompetenz. bmfsfj.de.

European Commission (2023): Better Internet for Kids (BIK+) Strategy. ec.europa.eu. TEIL V — DIGITALE GEWALT ALS SYSTEM: TECHNOLOGIE GEGEN FRAUEN UND KINDER

Der Begriff ‚digitale Gewalt' wird in diesem Dossier in einem sozialwissenschaftlich erweiterten Sinn verwendet. Er umfasst neben strafrechtlich relevanten Handlungen auch strukturelle Formen systemischer Schädigung, die nicht zwingend einen strafrechtlichen Tatbestand erfüllen müssen, aber nachweisbare Schäden für Betroffene erzeugen.

Aufgrund aktueller Entwicklungen ergänzt Ende März 2026

Die vorangegangenen Teile dieses Dossiers beschreiben, wie digitale Plattformen durch Designentscheidungen Selbstregulation unterlaufen und psychische Schäden erzeugen — bei allen Nutzerinnen und Nutzern, unabhängig von Geschlecht oder Alter.

Teil V zeigt eine weitere Dimension: Eine Teilmenge derselben technologischen Infrastruktur wird in einer Weise eingesetzt und reguliert, die dokumentierbar überproportionale Schäden bei Frauen und Mädchen produziert — durch Produktentscheidungen, die diese Wirkung vorhersehbar machen; durch öffentliche Reaktionen auf Kritik, die den Schaden beim Produkt nicht anerkennen; und durch ein regulatorisches Umfeld, das diese Asymmetrie bisher unzureichend adressiert.

Die analytische Behauptung ist präzise formuliert: Es sind dieselben algorithmischen Mechaniken — Verstärkung, Empfehlung, Verweildaueroptimierung — die sowohl digitale Dysregulation produzieren als auch frauenfeindliche Inhalte skalieren, Deepfake-Gewalt ermöglichen und Radikalisierung antreiben. Das Design ist identisch. Die Verteilung der Schäden ist es nicht. Diese Asymmetrie ist kein Zufall und kein unvermeidliches Nebenprodukt — sie ist Gegenstand laufender Gerichtsverfahren, parlamentarischer Untersuchungen und empirischer Dokumentation. Wo in diesem Kapitel zwischen korrelativen Befunden und kausalem Nachweis unterschieden werden muss, wird diese Unterscheidung explizit markiert.

Quellen

EIGE (2023): Cyber violence against women and girls: A form of gender-based violence. eige.europa.eu.

UN Women (2024): Online and ICT-facilitated violence against women and girls. unwomen.org.

Citron, D. K. (2014): Hate Crimes in Cyberspace. Harvard University Press.

Kapitel 7: Die Instrumente — was konkret passiert

Sexualisierte Bildgewalt

Nudify-KIs verwandeln jedes Foto in ein Nacktbild. Die Werkzeuge sind kostenlos, anonym und ohne technische Vorkenntnisse bedienbar. SRF berichtete 2024 über dokumentierte Fälle an Schweizer Schulen, in denen Mädchen ab zwölf Jahren Opfer solcher Angriffe durch Mitschüler wurden. Das Material verbreitet sich in Sekundenschnelle über Klassenchats; eine vollständige Löschung ist in der Praxis regelmäßig nicht erreichbar, und die Täter bleiben anonym. Das Stanford Internet Observatory hat 2023 dokumentiert, dass die Verfügbarkeit generativer KI-Werkzeuge die Skalierungsgeschwindigkeit nicht-einvernehmlicher intimer Bildmaterialien erheblich beschleunigt hat — ohne damit eine isolierte Kausalbeziehung zwischen einzelnen Werkzeugen und spezifischen Fällen zu behaupten.

Ende Dezember 2025 wurde beim KI-Modell Grok auf der Plattform X eine Bildbearbeitungsfunktion freigeschaltet. Medienberichte brachten die Freischaltung dieser Funktion mit einer messbaren Zunahme nicht-einvernehmlicher sexualisierter Deepfakes in Verbindung; ob ein direkter Kausalzusammenhang besteht oder eine zeitliche Koinzidenz, ist empirisch noch nicht abschließend belegt. Die öffentliche Kritik an der Funktion wurde von der Unternehmensführung als „Zensurversuch" bezeichnet — eine Reaktion, die das Problem beim Diskurs über das Produkt verortet, nicht beim Produkt selbst. OpenAI hat nach Berichten des Guardian die geplante Einführung erotischer Inhalte für ChatGPT unter öffentlichem Druck vorübergehend verschoben.

Ein im März 2026 öffentlich gewordener Fall illustriert die intimste Form digitaler sexualisierter Gewalt in Trennungssituationen: Laut Medienberichten erstattete eine bekannte Journalistin Anzeige gegen ihren Ex-Partner wegen des Vorwurfs, jahrelang sexualisierte Deepfakes von ihr veröffentlicht und ihre Identität missbraucht zu haben. Das Verfahren ist zum Zeitpunkt der Veröffentlichung dieses Dossiers noch nicht abgeschlossen; für den Beschuldigten gilt die Unschuldsvermutung.

Quellen

SRF News (2024): KI-Nacktbilder: Neue Form des Psychoterrors an Schulen. srf.ch.

Graphika / Stanford Internet Observatory (2023): Generative AI and non-consensual intimate images. — Dokumentation der Skalierungsdynamik.

BBC News (2025/2026): Elon Musk calls criticism of Grok image tool 'censorship attempts'. bbc.com.

The Guardian (2026): OpenAI delays adult mode for ChatGPT. theguardian.com, 9. März 2026.

Der Spiegel (2026): [Journalistin erstattet Anzeige wegen sexualisierter Deepfakes], März 2026.

Algorithmische Radikalisierung als Geschäftsmodell

Ribeiro et al. (2020) haben in einer vielzitierten Untersuchung auf Basis von YouTube-Nutzungsdaten sogenannte Radikalisierungspfade beschrieben: Nutzer bewegten sich demnach statistisch überproportional von moderaten zu extremeren Inhalten. Diese Studie hat methodologische Kritik erhalten — unter anderem weil sie auf öffentlichen Kommentardaten basiert, die keine tatsächlichen Empfehlungssequenzen abbilden, und weil die Richtung der Kausalität offen bleibt: Werden Nutzer durch Empfehlungen zu radikaleren Inhalten geführt, oder suchen Nutzer mit vorhandenen Präferenzen gezielt nach solchen Inhalten? Diese Frage ist empirisch noch nicht abschließend beantwortet.

Was methodologisch robuster dokumentiert ist: Huszár et al. (2022) haben in einer von Twitter selbst durchgeführten Studie nachgewiesen, dass der algorithmische Feed politische Inhalte rechter Parteien stärker amplifizierte als linke — bei gleichem Ausgangsengagement. Das ist kein Beweis für intentionale Verstärkung frauenfeindlicher Inhalte, aber ein Beleg dafür, dass Empfehlungssysteme systematisch verzerrend wirken können, ohne dass diese Verzerrung von Nutzern wahrgenommen oder von Plattformen kommuniziert wird.

Für frauenfeindliche Inhalte im Spezifischen ist die Befundlage differenzierter. Claidière et al. (2022) dokumentierten algorithmische Verstärkungseffekte für genderbasierte Online-Belästigung. Inhalte der sogenannten Manosphere — Incel-Foren, Pick-up-Artist-Kanäle, antifeministisch ausgerichtete Medienformate — weisen in Studien höhere Engagement-Werte auf als inhaltlich vergleichbare neutrale Diskussionen, was unter werbefinanzierten Engagement-Optimierungsmodellen zu algorithmischer Bevorzugung führt. Ob Plattformen von dieser Wirkung intern informiert waren und welche Schlüsse sie daraus zogen, ist Gegenstand laufender Litigation und parlamentarischer Untersuchungen, nicht abschließend dokumentiert.

Was Whistleblower-Aussagen und intern veröffentlichte Meta-Dokumente belegen, ist enger gefasst: dass das Unternehmen wusste, dass seine Empfehlungssysteme bei bestimmten Nutzergruppen — insbesondere Mädchen im Teenageralter — verstärkte Körperunzufriedenheit und Stimmungsverschlechterung erzeugten, und dass diese Erkenntnisse keine ausreichenden Produktänderungen nach sich zogen. Das ist ein dokumentierter Befund zu einer spezifischen Schadensform, keine Generalaussage über bewusste Verstärkung frauenfeindlicher Inhalte.

Quellen

Ribeiro, M. H. et al. (2020): Auditing Radicalization Pathways on YouTube. Proceedings of the ACM on Human-Computer Interaction. — Hinweis: Die Methodik dieser Studie ist in der Forschungsgemeinschaft umstritten; Ergebnisse sollten nicht ohne diesen Vorbehalt zitiert werden.

Hosseinmardi, H. et al. (2021): Examining the consumption of radical content on YouTube. PNAS 118(32). — Methodologische Gegenstudie zu Ribeiro et al.

Huszár, F. et al. (2022): Algorithmic amplification of politics on Twitter. PNAS 119(1).

Claidière, N. et al. (2022): Gender-based online harassment and algorithmic amplification. — Studie zur algorithmischen Verstärkung genderbasierter Belästigung.

Haugen, F. (2021): Meta-interne Dokumente zu algorithmischer Verstärkung und Essstörungen bei Mädchen. US-Senat, Oktober 2021.

The Wall Street Journal (2021): Facebook Knows Instagram Is Toxic for Teen Girls. wsj.com, 14. September 2021.

Politische Entmachtung

Der SAVE Act — ein in den USA vorangetriebenes Bundeswahlgesetz — würde nach Analyse des Brennan Center for Justice und des Center for American Progress als Nebeneffekt strikterer Ausweisanforderungen bei der Wahlregistrierung unverhältnismäßig jene Wählerinnen treffen, die durch Heirat oder Scheidung einen Namenswechsel vollzogen haben — eine Personengruppe, die überwiegend weiblich ist. Die geschätzte Zahl betroffener Personen variiert je nach Berechnungsmodell erheblich; die strukturelle Wirkungsrichtung — erhöhte bürokratische Hürden für eine demografisch weiblich geprägte Gruppe — ist rechnerisch nachvollziehbar, auch wenn Intentionalität nicht behauptet wird.

Separate öffentliche Aussagen, in denen KI-bedingte Jobverluste mit demokratischen Wählerinnen in Verbindung gebracht wurden, sind als Einzeläußerungen dokumentiert. Eine daraus ableitbare koordinierte politische Strategie ist nicht belegt; die Dokumentation der Aussagen selbst ist hinreichend, um sie als Teil einer Debatte zu thematisieren, die sich um politische Wirkungserwartungen technologischer Transformation dreht.

Quellen

Brennan Center for Justice (2025): Analysis of the SAVE Act and voter registration impacts on women. brennancenter.org.

Center for American Progress (2025): How the SAVE Act Would Disenfranchise Millions. americanprogress.org.

Ms. Magazine (2026): Project 2025 Declares Open War on Women's Rights. msmagazine.com, März 2026.

Ökonomische Verdrängung

DEI-Demontage, Rückbau von Kinderbetreuungsinfrastruktur, algorithmische Lohndiskriminierung in der Plattformarbeit — all das trifft strukturell Frauen überproportional, wie ILO-Daten zur Plattformarbeit und OECD-Analysen zur Care-Ökonomie belegen. Im globalen Süden moderieren Frauen für Stundenlöhne von zwei bis drei Dollar traumatische Inhalte, die die Plattformen ihres eigenen Auftraggebers produzieren. Time Magazine dokumentierte 2023, dass OpenAI kenianische Auftragnehmer für unter zwei Dollar pro Stunde beschäftigte, um ChatGPT-Ausgaben auf toxische Inhalte zu filtern. Diese Arbeit ist strukturell notwendig für den Betrieb der Modelle und strukturell unsichtbar in ihrer öffentlichen Darstellung.

Quellen

Gray, M. L. / Suri, S. (2019): Ghost Work. Houghton Mifflin Harcourt.

Roberts, S. T. (2019): Behind the Screen. Yale University Press.

Time Magazine (2023): OpenAI Used Kenyan Workers on Less Than $2 Per Hour. time.com, 18. Januar 2023.

ILO (2021): World Employment and Social Outlook: The role of digital labour platforms. — Zu Lohnstrukturen in Plattformarbeit.

OECD (2023): Risks and opportunities of digital platforms for children. OECD iLibrary.

Psychologische Abhängigkeitsinfrastruktur

Character.AI, Replika und ähnliche Plattformen sind auf emotionale Bindung optimiert, ohne nachgewiesene ausreichende Schutzarchitektur für vulnerable Nutzerinnen. Im Jahr 2025 ließ ein US-Bundesgericht eine Klage gegen Google und Character.AI zu, die geltend macht, Interaktionen mit einem Chatbot hätten zum Suizid eines Jugendlichen beigetragen. Der Gerichtsbeschluss stellt fest, dass der Fall verhandlungswürdig ist — nicht, dass Kausalität bereits bewiesen ist. Als prozessrechtliches Signal ist er dennoch bedeutsam: Er zeigt, dass Produktverantwortung für dialogbasierte KI-Systeme grundsätzlich juristisch verhandelbar wird, auch ohne Nachweis von Inhaltsverantwortlichkeit im klassischen Sinne.

Quellen

Reuters (2025): Google, Character.AI must face lawsuit over teen's suicide, judge rules. reuters.com.

Turkle, S. (2011): Alone Together. Basic Books.

Laestadius, L. I. et al. (2022): Too human and not human enough: A grounded theory analysis of mental health chatbot reviews. New Media & Society.

Abi-Jaoude, E. et al. (2020): Smartphones, social media use and youth mental health. CMAJ.

Kapitel 8: Die Struktur des Schutzschildes

Was diese Entwicklungen verbindet, ist nicht nur ihre Wirkung, sondern ihr Schutzschild: ein System aus politischer Verflechtung, regulatorischer Immunität und gesellschaftlicher Legitimation, das — nach Einschätzung von Juristinnen, Regulierungsbehörden und Zivilgesellschaft — dazu beiträgt, dass Verantwortlichkeiten für dokumentierte Schäden selten rechtlich durchgesetzt werden.

Öffentliche Kritik an sexualisierter Plattformgewalt wird als Zensur gerahmt. Regulierungsbehörden werden demontiert oder personell geschwächt. Das Schweizer Plattformgesetz wurde unter Federführung des Bundesrates — nach Einschätzung von Medien und Kritikerinnen erheblich abgeschwächt (Republik, Januar 2026) — auf einen Transparenzansatz beschränkt: Tech-Konzerne müssen Schäden ausweisen, nicht verhindern. Die geplante Schweizer KI-Regulierung ist frühestens 2028 zu erwarten, mit demselben Fokus auf Transparenz statt Haftung. Eine KI-Kennzeichnungspflicht allein ist eine unzureichende Antwort auf industriell skalierte Gewalt. Transparenz schützt nicht vor Schaden. Sie dokumentiert ihn nur.

Das Bröckeln des Schutzschildes

Dieser Schild zeigt jedoch strukturelle Risse — und zwar an Stellen, die für die ökonomische und juristische Kalkulation der Plattformen unmittelbar relevant sind.

Das erste Signal ist juristischer Natur. Das LA-Urteil vom 25. März 2026 hat die Produkthaftungslogik für Plattformarchitektur erstmals durch eine Jury bestätigt. Wenn Designentscheidungen als Produkt behandelt werden, verliert die klassische Inhaltsimmunität ihren Schutzmechanismus. Das ist kein symbolischer Erfolg — es ist eine strukturelle Verschiebung der Haftungskalkulation, die sich in den rund 2.000 anhängigen Verfahren fortsetzen wird.

Das zweite Signal ist institutioneller Natur. Amazon zog im Februar 2026 seine jahrelange Beschwerde gegen das Schweizer Öffentlichkeitsprinzip zurück — nach drei Jahren juristischen Widerstands, wie die Republik dokumentiert hat. Ein Konzern mit einem Jahresumsatz von über 600 Milliarden US-Dollar hat sich gegen eine Journalistin und einen auf IT-Recht spezialisierten Anwalt nicht durchgesetzt, die ein bestehendes rechtliches Instrument konsequent nutzten. Das zeigt, dass demokratische Kontrollmechanismen auch gegen hochkapitalisierte Gegner wirken können — wenn sie konsequent angewendet werden.

Das dritte Signal ist politisch-ökonomischer Natur, und hier ist Vorsicht bei der Interpretation geboten. Die Zustimmungswerte der US-Administration sind laut verfügbaren Umfragen auf historisch niedrige Werte gesunken. Ob und wie sich das auf den politischen Rückhalt für Tech-Konzerne in transatlantischen Regulierungsdebatten überträgt, ist eine offene empirische Frage. Strukturell lässt sich festhalten: Administrationen mit geschwächter innenpolitischer Handlungsfähigkeit verfügen über weniger Kapazität, in multilateralen Regulierungsverhandlungen als Schutzschirm für nationale Unternehmensinteressen zu agieren — aber dieser Zusammenhang ist kontextabhängig und keine automatische Schlussfolgerung.

Keiner dieser drei Risse bedeutet, dass der Schutzschild gebrochen ist. Aber die Reibungslosigkeit, mit der er in den vorangegangenen Jahren operiert hat, ist nicht mehr selbstverständlich. Und für Systeme, die auf der Einpreisung von Straflosigkeit basieren, ist das eine relevante Veränderung der Ausgangsbedingungen.

Quellen

Republik (Fichter, A., 2026): Wie Bundesrat Rösti das neue Plattformgesetz verwässerte. republik.ch, 20. Januar 2026.

Republik (2026): Amazon zieht Beschwerde gegen Schweizer Öffentlichkeitsverfahren zurück. republik.ch, Februar 2026.

Bundesverwaltungsgericht der Schweiz (2025): Entscheid im Verfahren Amazon Web Services ./. Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter, Juli 2025.

Watson.ch (2026): Alle wollen strengere Regeln für Social Media und KI — außer die SVP. watson.ch.

Los Angeles Superior Court: K.G.M. v. Meta Platforms Inc. et al., Urteil 25. März 2026.

NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

Reuters/Ipsos (2026): Trump approval rating falls to 36%. reuters.com, März 2026.

Amazon (2025): Annual Report 2024 — Net sales figures. ir.aboutamazon.com.

Kapitel 9: Die Schwachstellen des Systems

Das System ist nicht unverwundbar. Seine entscheidenden Schwachstellen sind juristisch-ökonomisch. Es kalkuliert — und diese Kalkulation kann sich verschieben.

Produkthaftung

Das LA-Urteil vom 25. März 2026 hat die juristische Achillesferse freigelegt. Wenn Plattformarchitektur als Produkt behandelt wird, statt als neutraler Kanal, verliert die klassische Inhaltsimmunität ihren Schutzmechanismus. Die Argumentation über Auslieferungsmechanismen statt Inhalte ist der entscheidende Durchbruch — strukturell replizierbar in europäischen Jurisdiktionen, die auf Produktsicherheitslogik aufgebaut sind.

Transparenzpflichten und Öffentlichkeitsrecht

Öffentlichkeitsprinzipien, DSGVO-Auskunftsansprüche, nationale Transparenzgesetze sind Werkzeuge, die existieren und untergenutzt sind. Amazon wurde nicht durch ein neues Gesetz gestoppt — sondern durch eine Journalistin und einen Anwalt, die ein bestehendes Instrument konsequent nutzten.

Kapitalmarktrisiko

Wenn institutionelle Investoren beginnen, Produkthaftungsurteile in Milliardenhöhe einzupreisen, wenn Versicherungen Tech-Plattformen nach dem Muster der Tabakindustrie bewerten — verändert sich die Finanzierungsstruktur fundamental. Die Schutzschilde werden teurer.

Regulatorische Gegenarchitektur

Die EU-Architektur — AI Act, DSA, geplante Cybergewalt-Richtlinie — ist real. Ihre Schwäche ist Durchsetzung, nicht Substanz. In Kalifornien scheiterte xAI im März 2026 mit dem Versuch, ein Transparenzgesetz gerichtlich zu stoppen — ein Signal, dass Mindeststandards auch gegen unternehmerischen Widerstand durchgesetzt werden können.

Quellen

Los Angeles Superior Court: K.G.M. v. Meta et al., Urteil 25. März 2026. — Bellwether-Urteil für MDL 3047.

Albuquerque Journal / Reuters (2026): New Mexico jury awards $375 million against Meta for consumer protection violations. März 2026.

Europäisches Parlament / Rat (2024): Verordnung (EU) 2024/1689 (AI Act), in Kraft 1. August 2024. EUR-Lex.

Europäisches Parlament (2024): Richtlinie 2024/1385 zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt (Cybergewalt-Richtlinie). EUR-Lex.

California Superior Court (2026): xAI ./. California AI Transparency Act — Antrag auf einstweilige Verfügung abgelehnt, März 2026.

Bundesgesetz über das Öffentlichkeitsprinzip in der Verwaltung (BGÖ), SR 152.3 — Schweiz. NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

Kapitel 10: Selbstverteidigung — konkrete Handlungsebenen

Juristisch

Produkthaftungslogik statt Inhaltsmoderation. Der LA-Ansatz — Architektur anklagen, nicht Inhalte — ist in europäischen Jurisdiktionen strukturell anschlussfähig. Bestehende Straftatbestände konsequent nutzen: In der Schweiz existieren der Artikel gegen Identitätsmissbrauch und der Artikel gegen unbefugtes Weiterleiten nicht-öffentlicher sexueller Inhalte. Letzterer ist nach Einschätzung von Strafrechtsdozentin Nora Scheidegger auf Deepfake-Pornografie anwendbar. Es fehlen nicht Gesetze — es fehlt ihre Anwendung.

Institutionell

Öffentlichkeitsprinzipien, DSGVO-Auskunftsrechte, parlamentarische Anfragen, Aufsichtsbeschwerden bei nationalen Datenschutzbehörden. Der Amazon-Fall hat bewiesen, dass diese Instrumente auch gegen die mächtigsten Konzerne wirken.

Medial

Adrienne Fichters Modell in der Republik: Komplexe Systemfragen auf konkrete Einzelfälle herunterbrechen, die emotional greifbar sind. Eine Betroffene hat mit einem Spiegel-Interview mehr bewegt als zehn Regulierungsberichte. Dokumentation und namentliche Benennung von Entscheidungsträgern und ihren Produktentscheidungen sind wirksame Instrumente.

Bildung und digitale Selbstverteidigung

Kurse zur digitalen Selbstverteidigung für Mädchen und Frauen: Was sind Nudify-KIs, wie funktionieren sie, wie dokumentiert man Angriffe, welche Anlaufstellen existieren, welche Rechte stehen Betroffenen zu. Das ist Kompetenzaufbau in einem Raum, in dem staatlicher Schutz unzureichend ist.

Ökonomisch

Boykotte wirken langsam, aber strukturell. Tesla-Verkäufe sind nach Musks politischem Engagement messbar eingebrochen. Advertiser-Druck auf Plattformen hat historisch nachweislich Wirkung erzeugt.

Quellen

Scheidegger, N. (zitiert in Republik, Fichter, A., 2026): Anwendbarkeit von Art. 197a StGB auf Deepfake-Pornografie. — Interview-Aussage.

Stark, M. (2026): Kommentar zu Art. 197a StGB (Unbefugtes Weiterleiten sexueller Inhalte). justement.ch.

Schweizerisches Strafgesetzbuch (StGB), Art. 179decies (Identitätsmissbrauch) und Art. 197a (Unbefugtes Weiterleiten). fedlex.admin.ch.

Verordnung (EU) 2016/679 (DSGVO), insbesondere Art. 15 (Auskunftsrecht) und Art. 17 (Recht auf Löschung). EUR-Lex.

Reuters (2025): Tesla sales drop sharply amid Musk political controversy. reuters.com.

Femnet / Algorave (2024): Kurskonzept digitale Selbstverteidigung für Frauen und Mädchen. femnet.de.

Kapitel 11: Der systemische Kontext — März 2026

Die Geschichte früherer Industrialisierungen kennt Momente, in denen mehrere Kräfte gleichzeitig wirksam werden und einen strukturellen Bruch sichtbar machen. Polanyi (1944) hat für die erste Industrialisierung gezeigt, dass institutioneller Wandel nicht durch ein einzelnes Gesetz oder Urteil entsteht, sondern durch die Gleichzeitigkeit sozialer Erschütterung, ökonomischer Destabilisierung und juristischer Institutionalisierung — und dass diese Gleichzeitigkeit erst im Nachhinein als Wendepunkt erkennbar wird. Thompson (1963) hat für dieselbe Periode beschrieben, wie aus dispersem sozialem Unbehagen politisch artikulierter Widerstand wurde — durch die Kombination aus materieller Not, kultureller Identitätsbildung und institutioneller Kanalisierung.

Diese Analogie ist ernst zu nehmen, aber sie ist nicht vollständig. Die heutige Transformation unterscheidet sich von der industriellen in ihrer Geschwindigkeit, ihrer Unsichtbarkeit und ihrer globalen Reichweite. Was sich übertragen lässt, ist die Beobachtung, dass Systemwandel selten linear verläuft — und dass Konstellationen, in denen mehrere Schutzschilde gleichzeitig versagen, historisch die Bedingung für institutionellen Wandel gewesen sind.

Der März 2026 trägt Merkmale einer solchen Konstellation. Innerhalb weniger Wochen fallen zusammen: das LA-Urteil vom 25. März, das erstmals Produkthaftung für Plattformarchitektur begründet und damit die juristische Immunität, hinter der sich Plattformen drei Jahrzehnte lang verschanzt haben, strukturell in Frage stellt; und Amazons Rückzug im Schweizer Transparenzverfahren nach drei Jahren juristischen Widerstands gegen eine Journalistin und einen auf IT-Recht spezialisierten Anwalt, der zeigt, dass demokratische Kontrollmechanismen auch gegen hochkapitalisierte Gegner durchsetzbar sind. Ergänzend dazu verzeichnen die Zustimmungswerte der US-Administration historische Tiefststände; ob und wie sich das auf den politischen Rückhalt für Tech-Konzerne in transatlantischen Regulierungsdebatten überträgt, ist eine offene empirische Frage, keine gesicherte Schlussfolgerung.

Diese drei Elemente markieren das gleichzeitige Unter-Druck-Geraten mehrerer Schutzschilde — juristische Immunität, institutionelle Überlegenheit, politische Protektion. Keines davon ist gebrochen. Aber die Reibungslosigkeit, mit der sie in den vorangegangenen Jahren operiert haben, ist nicht mehr selbstverständlich.

Was diese Konstellation für das Thema dieses Dossiers bedeutet, lässt sich präzise benennen: Digitale Gewalt gegen Frauen und Kinder ist nicht das Randproblem einer technologischen Revolution. Sie ist ihr Indikator — das Sichtbarste der systemischen Logik, nach der menschliche Aufmerksamkeit, Würde und körperliche Integrität in Verweildauer, Werbeumsatz und Marktmacht übersetzt werden. Wo diese Transformation am härtesten trifft, zeigt sie am deutlichsten, was an ihr regulierungsbedürftig ist. Wer das versteht, versteht das System. Wer das System versteht, kann es juristisch, medial, politisch und ökonomisch herausfordern — nicht mit der Erwartung des schnellen Durchbruchs, aber mit dem historischen Befund, dass Konstellationen wie diese Bedingungen erzeugen, in denen Wandel möglich wird.

Quellen

Polanyi, K. (1944): The Great Transformation. Farrar & Rinehart. — Historisches Analysemodell für Gegenbewegungen gegen Marktexpansion.

Thompson, E. P. (1963): The Making of the English Working Class. Victor Gollancz. — Zu Gleichzeitigkeit sozialer, kultureller und institutioneller Transformation.

Los Angeles Superior Court: K.G.M. v. Meta Platforms Inc. et al., Urteil 25. März 2026.

NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

Republik (2026): Amazon zieht Beschwerde gegen Schweizer Öffentlichkeitsverfahren zurück. republik.ch, Februar 2026.

Reuters/Ipsos (2026): Trump approval rating falls to 36%. reuters.com, März 2026.

Anhang A

ANALYSEBOX

Wie Plattformen Selbstregulation strukturell unterlaufen – und wo sie dafür vor Gericht stehen

Dieser Anhang vertieft, was in Kapitel 4 beschrieben wird: dass digitale Plattformen nicht durch Zufall auf Aufmerksamkeit und Verweildauer optimiert sind, sondern durch konkrete Gestaltungsentscheidungen. Die sieben hier beschriebenen Mechaniken sind keine Verschwörung — sie sind das Ergebnis von Produktentwicklung, die auf messbare Ziele ausgerichtet ist. Jede für sich lässt sich rechtfertigen. In ihrer Kombination entfalten sie eine Wirkung, die über die Summe ihrer Teile hinausgeht.

Ein Hinweis zur Lesart: Die folgenden Beschreibungen sind keine Diagnosen. Sie sind eine Übersetzungshilfe — ein Versuch, dasselbe Phänomen in drei Sprachen zu beschreiben: der psychologischen, der neurobiologischen und der rechtlichen.

Zum rechtlichen Stand: Seit 2022 sind in den USA Tausende von Klagen gegen Meta, TikTok, YouTube, Snap und andere Plattformen anhängig, gebündelt im Multidistrict Litigation-Verfahren (MDL No. 3047). Der zentrale juristische Ansatz — die Product Liability Theory — behandelt Plattformen nicht als Verleger von Inhalten, sondern als Hersteller defekter Produkte. Am 25. März 2026 fällte eine Jury in Los Angeles das erste Urteil, das diese Theorie bestätigte.

1. Infinite Scroll

Traditionelle Medien hatten natürliche Endpunkte. Eine Zeitung hat eine letzte Seite. Eine Sendung endet. Infinite Scroll entfernt diese Endpunkte. Der Feed hört nie auf — er lädt nach, scrollt weiter, bietet immer noch einen weiteren Inhalt. Was wie ein Komfortmerkmal wirkt, hat eine präzise psychologische Funktion: Abbruch wird zur aktiven Entscheidung, die Willenskraft erfordert. Wer aufhören will, muss sich bewusst entscheiden. Wer weiterschaut, muss gar nichts tun.

Neurobiologisch hält dieser Zustand das Belohnungssystem in permanenter Antizipation — es erwartet immer den nächsten interessanten Inhalt, ohne je ein Stoppsignal zu erhalten.

Erkennungszeichen im Alltag: Man schaut aufs Telefon, „nur kurz" — und merkt zwanzig Minuten später, dass man noch scrollt, ohne zu wissen, was man eigentlich sucht.

Rechtlicher Stand:

Infinite Scroll ist eine der am explizitesten benannten Mechaniken in der laufenden US-Litigation. Im K.G.M.-Bellwether-Verfahren beschrieb die Klägerin vor Gericht detailliert, wie Infinite Scroll sie stundenlang auf der Plattform hielt, oft bis spät in die Nacht. Der Massachusetts-Generalstaatsanwalt nennt Infinite Scroll ausdrücklich als Bestandteil seines Falls gegen Meta. Ein Berufungsgericht wies Metas Antrag auf Abweisung ab mit der Begründung, die Klage richte sich gegen Metas eigenes Verhalten, nicht gegen Nutzerinhalte — eine juristisch entscheidende Unterscheidung. In Europa schreiben die DSA-Leitlinien von 2025 vor, dass Infinite Scroll für Minderjährige standardmäßig deaktiviert sein muss.

Quellen

Montag, C. et al. (2021): On the molecular genetics of infinite scroll. Addictive Behaviors.

Massachusetts Attorney General's Office (2024): Brief in support of Infinite Scroll claim. — Im Rahmen des multistate litigation gegen Meta.

9th Circuit Court of Appeals (2023): Herrick v. Grindr, 765 F. App'x 586 — Grundsatzentscheidung zu Produkthaftung vs. Inhaltsimmunität.

Europäische Kommission (2025): DSA Guidelines Art. 28 — Protection of Minors. ec.europa.eu.

2. Algorithmische Verstärkung

Plattformen zeigen nicht, was chronologisch zuletzt gepostet wurde. Sie zeigen, was am wahrscheinlichsten zu weiterem Engagement führt — und das sind überproportional oft emotional aufgeladene, konfliktträchtige oder bestätigende Inhalte. Das Ergebnis ist eine schrittweise Verengung der Wahrnehmung: Wer sich einmal mit einem Thema beschäftigt, erhält es verdichtet, zugespitzt, emotionalisiert.

Neurobiologisch entsteht dabei eine Verstärkungsschleife: Emotionale Erregung führt zu mehr Konsum, mehr Konsum zu mehr Erregung.

Erkennungszeichen im Alltag: Man öffnet eine App, um ein kurzes Video zu schauen — und findet sich zwanzig Minuten später tief in einem Thema, das man gar nicht gesucht hat, zunehmend aufgewühlt.

Rechtlicher Stand:

Algorithmische Verstärkung ist der Kernvorwurf mehrerer Klagen, die sich auf Fälle stützen, in denen Empfehlungssysteme Minderjährigen Selbstverletzungs- oder Essstörungs-Content ausgespielt haben sollen. Der DSA verpflichtet Plattformen ausdrücklich, systemische Risiken ihrer Empfehlungssysteme zu identifizieren und zu mitigieren.

Quellen

Ribeiro, M. H. et al. (2020): Auditing Radicalization Pathways on YouTube. ACM CHI.

Huszár, F. et al. (2022): Algorithmic amplification of politics on Twitter. PNAS 119(1).

Europäische Kommission (2024): TikTok — Preliminary findings under DSA. ec.europa.eu, Februar 2024.

Haugen, F. (2021): Meta-interne Dokumente zu algorithmischer Verstärkung und Essstörungen bei Mädchen. Im US-Senat verlesen, Oktober 2021.

3. Autoplay

Autoplay entfernt den Moment der Entscheidung. Das nächste Video beginnt automatisch, oft bevor das aktuelle zu Ende ist. Es eliminiert die natürlichen Pausen, in denen Menschen entscheiden würden, ob sie weiterschauen wollen. Neurobiologisch verschiebt sich der Nutzungsmodus von aktiver Auswahl zu passivem Konsum.

Erkennungszeichen im Alltag: Man wollte ein Video schauen. Drei Videos später fragt man sich, wie man hier gelandet ist.

Rechtlicher Stand:

Autoplay ist neben Infinite Scroll die am häufigsten explizit benannte Mechanik in den laufenden Klagen. Richterlich wurde Autoplay als eigenständige Produktentscheidung eingestuft, die nicht unter den Section-230-Schutz für Nutzerinhalte fällt. Die DSA-Leitlinien 2025 sehen vor, dass Autoplay für Minderjährige standardmäßig deaktiviert sein soll.

Quellen

Anderson, J. (2019): Autoplay and Binge-Watching: A Longitudinal Study. Journal of Broadcasting & Electronic Media.

K.G.M. v. Meta et al. (2026): Trial transcript, Aussage der Klägerin zu Autoplay. Los Angeles Superior Court.

Europäische Kommission (2025): DSA Guidelines on Autoplay for Minors. ec.europa.eu. NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

4. Variable Belohnung

Likes, Views, Kommentare sind unvorhersehbar. Diese Unvorhersehbarkeit ist kein Zufall. Sie ist das Prinzip des sogenannten variablen Verstärkungsplans: Unvorhersehbare Belohnungen erzeugen stärkere Bindung als vorhersehbare — dasselbe Prinzip, das Glücksspiele so schwer zu verlassen macht. Besonders bei Jugendlichen kann dieser Mechanismus dazu führen, dass externes Feedback zur primären Quelle von Selbstbewertung wird.

Erkennungszeichen im Alltag: Man postet etwas und checkt kurz darauf schon wieder, wie viele Likes es hat — und nochmal, und nochmal.

Rechtlicher Stand:

Kläger beschreiben variable Belohnungssysteme als "engineered like slot machines for young brains". Mehrere Klagen argumentieren, dass Plattformen die suchterzeugende Wirkung aus der Forschung kannten und bewusst einsetzten.

Quellen

Skinner, B. F. (1938): The Behavior of Organisms. Appleton-Century-Crofts. — Grundlage des variablen Verstärkungsplans.

Alter, A. (2017): Irresistible: The Rise of Addictive Technology. Penguin Press.

MDL No. 3047 (2022–2026): Consolidated Complaint, Section IV: "Variable Reward Schedules". U.S. District Court N.D. Cal.

Europäische Kommission (2025): DSA Guidelines — Streaks and gamification to be avoided for minors. ec.europa.eu.

5. Push-Benachrichtigungen

Push-Benachrichtigungen übergeben die Kontrolle darüber, wann Aufmerksamkeit gefordert wird, an die Plattform. Die Folge ist eine permanente Grundbereitschaft, unterbrochen zu werden — ein Zustand erhöhter Vigilanz, der Daueranspannung erzeugt. Tiefe Konzentration wird zunehmend schwierig, weil das Gehirn darauf trainiert wurde, auf Unterbrechungen zu warten.

Erkennungszeichen im Alltag: Man arbeitet konzentriert — und merkt, dass man das Telefon trotzdem alle paar Minuten überprüft, obwohl es gar nicht geklingelt hat.

Rechtlicher Stand:

In einem kalifornischen Gerichtsverfahren wurden Push-Benachrichtigungen laut Verfahrensprotokoll als gezielt kalibriert beschrieben, um Nutzerangst und damit Wiederkehr zu erzeugen (Cal. Superior Court, 2025, zitiert in MDL-Verfahren). Die DSA-Leitlinien 2025 schreiben vor, dass Push-Benachrichtigungen für Minderjährige standardmäßig deaktiviert sein müssen, insbesondere während der Schlafstunden.

Quellen

Jeong, S.-H. et al. (2016): Do smartphone notifications make people more anxious? Computers in Human Behavior.

Kushlev, K. / Dunn, E. W. (2015): Checking email less frequently reduces stress. Computers in Human Behavior.

Cal. Superior Court (2025): Bericht zu Produktverantwortung Push-Notifications — zitiert in MDL-Verfahren.

Europäische Kommission (2025): DSA Guidelines Art. 28 — Push notifications during sleep hours. ec.europa.eu.

6. Soziale Vergleichsarchitektur

Plattformen sind so gestaltet, dass soziale Vergleiche nicht nur möglich, sondern unvermeidlich sind. Follower-Zahlen, Like-Counts, Views — all das ist sichtbar, oft prominent platziert, immer verfügbar. Das Ergebnis ist ein permanenter sozialer Vergleichsraum, in dem Status, Körper, Beliebtheit und Erfolg kontinuierlich bewertet werden.

Erkennungszeichen im Alltag: Man schaut auf das Profil einer anderen Person und fühlt sich danach schlechter über das eigene Leben — ohne genau sagen zu können warum.

Rechtlicher Stand:

Interne Meta-Dokumente, die im Rahmen der Litigation öffentlich wurden, sollen belegen, dass das Unternehmen wusste, dass Instagram bei Mädchen Körperunzufriedenheit verstärkt — und dieses Wissen nicht öffentlich machte.

Quellen

Festinger, L. (1954): A Theory of Social Comparison Processes. Human Relations 7(2). — Grundlagentheorie.

Vogel, E. A. et al. (2014): Social Comparison, Social Media, and Self-Evaluation. Psychology of Popular Media Culture.

The Wall Street Journal (2021): Facebook's Internal Research on Instagram and Teen Girls. wsj.com. — Zu Meta-internen Dokumenten zu Körperunzufriedenheit.

Haugen, F. (2021): Meta-Dokument "Instagram is toxic for teen girls". Vor dem US-Senat präsentiert.

7. Friktionsverlust

Friktion ist der technische Begriff für Reibung — für die kleinen Widerstände, die zwischen Impuls und Handlung stehen. Moderne Plattformen sind darauf optimiert, Friktion zu minimieren: Der Weg vom Gedanken zum Konsum ist so kurz wie möglich. Neurobiologisch bedeutet das, dass die exekutive Kontrolle systematisch umgangen wird — nicht weil sie nicht funktioniert, sondern weil sie nie aktiviert wird.

Erkennungszeichen im Alltag: Man wollte gar nicht auf Social Media — aber das Telefon war in der Hand, der Daumen hat sich schon bewegt, und man ist bereits drin.

Rechtlicher Stand:

Friktionsverlust wird in laufenden Klagen als übergreifendes Designprinzip beschrieben, das alle anderen Mechaniken verstärkt. Im Rahmen des Safety-by-Design-Konzepts, das im DSA zunehmend an Bedeutung gewinnt, wird die bewusste Einführung von Friktion als technisch verfügbares und zumutbares Schutzinstrument beschrieben.

Quellen

Thaler, R. H. / Sunstein, C. R. (2008): Nudge. Penguin Books. — Grundlage zu Friktionsdesign und Verhaltensarchitektur.

Johnson, E. J. / Goldstein, D. (2003): Do Defaults Save Lives? Science 302(5649).

MDL No. 3047: Plaintiffs' argument on friction removal as product defect. N.D. Cal., 2023.

UK Department for Science, Innovation and Technology (2023): Safety by Design: Principles for Technology Platforms. gov.uk.

Was die sieben Mechaniken gemeinsam zeigen

Keine dieser Mechaniken ist für sich genommen ein Beweis für bösen Willen. Zusammen aber ergeben sie ein System, das Selbstregulation nicht punktuell herausfordert, sondern strukturell unterlaufen — das Abbruchfähigkeit zur knappen Ressource macht, Aufmerksamkeit externalisiert und Entscheidungen durch Reaktionen ersetzt.

Das ist der Kern der Designverantwortung. Und es ist der Kern dessen, was derzeit in Tausenden von Gerichtssälen verhandelt wird. Nicht die Frage, ob Menschen schwach sind. Sondern die Frage, was passiert, wenn Systeme so gebaut sind, dass Schwäche die vorhersehbare Reaktion ist — und ob jemand dafür haften muss.

Designentscheidungen sind Produktentscheidungen. Und Produktentscheidungen haben Konsequenzen.

Quellen

Harris, T. (2019): Our Brains Are No Match for Our Technology. New York Times, 5. Dezember 2019.

Center for Humane Technology (2022): Ledger of Harms. humanetech.com.

U.S. Surgeon General (2023): Social Media and Youth Mental Health. Advisory. hhs.gov.

UNICEF (2023): Children's rights and business in a digital world. unicef.org.

Anhang B

Gesetzlicher Schutz von Frauen vor digitaler Gewalt

Ländervergleich | Stand: März 2026

Dieser Anhang dokumentiert den rechtlichen Stand in neun Ländern und Jurisdiktionen in Bezug auf digitale Gewalt gegen Frauen — mit besonderem Fokus auf Deepfakes, Cybergewalt und institutionelle Schutzstrukturen. Ziel ist kein vollständiger Rechtsvergleich, sondern eine orientierungsgebende Übersicht über Schutzlogiken, Lücken und Vollzugsrealitäten.

Eine übergreifende Beobachtung vorweg: Das gemeinsame Defizit über alle neun Länder hinweg ist nicht in erster Linie das Normierungsversagen, sondern das Vollzugsversagen — und dahinter ein struktureller Interessenkonflikt: Die Akteure, die am effektivsten gegen digitale Gewalt vorgehen könnten, nämlich die Plattformbetreiber und KI-Anbieter, haben die stärksten ökonomischen Anreize, es nicht zu tun.

Übergeordneter EU-Rahmen

Für alle vier EU-Mitgliedstaaten (Spanien, Deutschland, Österreich, Frankreich) gilt als gemeinsame Ausgangsbasis die EU-Richtlinie 2024/1385 vom Mai 2024, die Cyberstalking, Cyberharassment, nicht-einvernehmliche Weitergabe intimer Bilder einschließlich Deepfakes sowie Aufhetzen zu Hass und Gewalt im Netz als EU-weit strafbare Tatbestände verankert. Die Umsetzungsfrist für die Mitgliedstaaten läuft bis Juni 2027. Ergänzend gilt der DSA, der große Plattformen zu schnellem Takedown illegaler Inhalte verpflichtet.

An dieser Stelle ist eine strukturelle Einschränkung zu benennen: Der AI Act klassifiziert KI-generierte Inhalte und Deepfakes lediglich als "Transparenzrisiko". Die rechtliche Konsequenz daraus ist, dass Plattformen und KI-Anbieter verpflichtet sind zu kennzeichnen, nicht zu verhindern. Ein Produktsicherheitsansatz, der schädigende KI-Anwendungen vor dem Markteintritt reguliert, fehlt. Die Schweiz ist an die Richtlinie 2024/1385 nicht gebunden.

Quellen

Richtlinie 2024/1385/EU des Europäischen Parlaments und des Rates zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, 14. Mai 2024. EUR-Lex.

Verordnung (EU) 2022/2065 (Digital Services Act). EUR-Lex.

Verordnung (EU) 2024/1689 (AI Act), Art. 50 (Transparenzpflichten). EUR-Lex.

Europäisches Institut für Gleichstellungsfragen (EIGE, 2023): Cyber violence against women and girls. eige.europa.eu.

Spanien

Spanien verfügt über das kohärenteste und politisch am stärksten eingebettete Schutzframework der verglichenen Länder. Das Kernstück ist die Ley Orgánica 1/2004, die Gewalt gegen Frauen als strukturelles gesellschaftliches Problem definiert. Spanien unterhält 128 spezialisierte Gerichte für Gewalt gegen Frauen in 79 Gerichtsbezirken. Die Ley Orgánica 10/2022 ("Solo Sí es Sí") erfasst sexuelle Gewalt in allen Erscheinungsformen einschließlich digitaler. Seit 2015 ist die nicht-einvernehmliche Verbreitung privat aufgenommener Bilder nach Art. 197 Abs. 7 StGB strafbar. Ein Gesetzentwurf vom März 2025 soll Deepfake-Sexualinhalte als eigenständige Straftat qualifizieren.

Quellen

Ley Orgánica 1/2004 de 28 de diciembre de Medidas de Protección Integral contra la Violencia de Género. BOE.

Ley Orgánica 10/2022 de 6 de septiembre de garantía integral de la libertad sexual. BOE.

Código Penal español, Art. 197 Abs. 7 (Nicht-einvernehmliche Bildverbreitung). BOE.

Consejo de Ministros (2025): Anteproyecto de Ley para la regulación de los deepfakes sexuales. Marzo 2025.

Deutschland

Deutschland befindet sich im legislativen Übergang: erhebliche anerkannte Schutzlücken und ein noch nicht verabschiedetes Reformpaket. Für Deepfake-Pornografie gibt es keinen expliziten Straftatbestand; §184k StGB erfasst die Verbreitung bestimmter intimer Bildaufnahmen, bildet aber das spezifische Unrecht KI-generierter Fälschungen nicht vollständig ab. Ein Gesetzentwurf für §201b StGB ("Verletzung von Persönlichkeitsrechten durch digitale Fälschung") wurde dem Bundestag 2025 vorgelegt. Bundesjustizministerin Hubig hat für Frühjahr 2026 einen umfassenden Entwurf gegen digitale Gewalt angekündigt. Eine Dunkelfeldstudie vom Februar 2026 ergab, dass jede fünfte Frau in Deutschland in fünf Jahren digitale Gewalt erlebt hat.

Quellen

Strafgesetzbuch (StGB), §184k (Verletzung des höchstpersönlichen Lebensbereichs durch Bildaufnahmen), §201a (Verletzung des persönlichen Lebensbereichs durch Bildaufnahmen). dejure.org.

Bundesrat (2024): Entwurf eines Gesetzes zur Änderung des StGB — §201b (Digitale Fälschung). Drucksache BR 20/12605. Entwurf eines Gesetzes zum strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes.

Bundesjustizministerium (2026): Pressemitteilung zu geplantem Gesetz gegen digitale Gewalt. bundesjustizministerium.de.

Deutscher Juristinnenbund (2023): Stellungnahme zum strafrechtlichen Schutz vor bildbasierter Gewalt. djb.de.

Bundeskriminalamt (2026): Dunkelfeldstudie zu digitaler Gewalt gegen Frauen, Februar 2026. bka.de.

Frankreich

Frankreich verfügt über ein dichtes Normengeflecht, das an der Vollzugswirklichkeit scheitert. Mit der Loi SREN vom 21. Mai 2024 wurde Art. 226-8-1 Code pénal neu eingeführt, der sexuelle Deepfakes adressiert; die Verbreitung ist mit bis zu zwei Jahren Gefängnis und 60.000 Euro Geldstrafe bewehrt. Strafbar ist die Verbreitung, nicht die Herstellung. Die CNCDH empfahl 2025, auch die Erstellung als eigenständige Straftat zu qualifizieren. StopFisha dokumentiert: 67 Prozent der Frauen, die Anzeige erstatten wollten, wurden am Schalter illegal abgewiesen.

Quellen

Code pénal français, Art. 226-8-1 (Deepfakes sexuels), eingeführt durch Loi SREN Nr. 2024-449 du 21 mai 2024. legifrance.gouv.fr.

Code pénal français, Art. 222-33-2-2 (Cyberharcèlement), Art. 226-1 (Violation de la vie privée). legifrance.gouv.fr.

Loi n° 2024-873 contre le cyberharcèlement, in Kraft février 2025. legifrance.gouv.fr.

Commission nationale consultative des droits de l'homme (CNCDH, 2025): Avis sur la violence numérique contre les femmes. cncdh.fr.

StopFisha (2024): Rapport annuel sur le cyberharcèlement sexuel des femmes en France. stopfisha.org.

Pardo, R.-F. (2025): "Le droit est théoriquement suffisant — le problème c'est son application." Interview, janvier 2025.

Österreich

Österreich hat ein solides Grundgerüst mit gezielten Ergänzungen, aber erkennbaren Lücken bei Deepfakes. §107a StGB (Stalking, seit 2006) und §107c StGB (Cybermobbing, seit 2016) bilden den Kern. Seit 1. September 2025 ist Cyberflashing nach §218 Abs. 1b StGB strafbar; Österreich geht dabei über die EU-Richtlinie hinaus, da kein Nachweis schweren psychischen Schadens verlangt wird. Für Deepfakes gibt es keinen eigenständigen Tatbestand; die Umsetzung der EU-Richtlinie 2024/1385 steht bis 2027 aus.

Quellen

Strafgesetzbuch (StGB) Österreich, §107a (Beharrliche Verfolgung / Stalking), §107c (Fortdauernde Belästigung im Wege einer Telekommunikation). ris.bka.gv.at.

StGB Österreich, §218 Abs. 1b (Sexuelle Belästigung / Cyberflashing), in Kraft 1. September 2025. ris.bka.gv.at.

ZARA (2025): Jahresbericht Beratung zu Hasspostings und Cybergewalt 2024/25. zara.or.at.

Richtlinie 2024/1385/EU — Umsetzungsfrist Österreich: 14. Juni 2027.

Schweiz

Die Schweiz ist Nicht-EU-Mitglied und an die Richtlinie 2024/1385 nicht gebunden. Im Rahmen der Sexualstrafrechtsreform 2023 wurden der Artikel gegen Identitätsmissbrauch und der Artikel "Unbefugtes Weiterleiten von nicht öffentlichen sexuellen Inhalten" eingeführt. Letzterer ist nach Einschätzung von Strafrechtsdozentin Nora Scheidegger und Jurist Marvin Stark auf Deepfake-Pornografie anwendbar; Gerichtsurteile fehlen bisher. Bei öffentlicher Verbreitung drohen bis zu drei Jahre Haft. Das eigentliche Problem ist nicht das Strafrecht, sondern die Rechtsdurchsetzung: Betreiber dubioser Pornografieplattformen sind wegen verschleierter Informationen für Strafverfolgungsbehörden schlicht unerreichbar. Die Vernehmlassung zur Schweizer Plattformregulierung wurde parteiübergreifend als zu schwach abgelehnt.

Quellen

Schweizerisches Strafgesetzbuch (StGB), Art. 179decies (Identitätsmissbrauch), Art. 197a (Unbefugtes Weiterleiten sexueller Inhalte). fedlex.admin.ch.

Scheidegger, N. (2026): Stellungnahme zur Anwendbarkeit von Art. 197a StGB auf Deepfakes. Zitiert in Republik, 30. März 2026.

Stark, M. (2026): Kommentar zu Art. 197a StGB. justement.ch.

Bundesamt für Justiz (2024): Vernehmlassung Plattformregulierung — zusammenfassende Auswertung. bj.admin.ch.

USA

Die USA bilden den schärfsten Kontrast zum europäischen Ansatz: ein dezentrales System mit einem ersten kohärenten Bundesrahmen seit 2025 — aber erheblichen verfassungsrechtlichen Spannungen. Der TAKE IT DOWN Act, der am 19. Mai 2025 unterzeichnet wurde, kriminalisiert auf Bundesebene die wissentliche Veröffentlichung nicht-einvernehmlicher intimer Bilder einschließlich KI-generierter Deepfakes und verpflichtet Plattformen zur Entfernung binnen 48 Stunden. Zwischen dem strafrechtlichen Bundestatbestand, den zivilrechtlichen Plattformpflichten und der FTC-Durchsetzung ist dabei zu unterscheiden — diese drei Ebenen haben unterschiedliche Reichweiten. Der DEFIANCE Act liegt dem Kongress vor und würde Opfern ein zivilrechtliches Klagerecht einräumen. 48 Bundesstaaten haben eigene Gesetze verabschiedet; First-Amendment-Organisationen haben verfassungsrechtliche Bedenken angemeldet.

Quellen

TAKE IT DOWN Act, Pub. L. No. 119-___ (unterzeichnet 19. Mai 2025). congress.gov.

DEFIANCE Act (Disrupt Explicit Forged Images and Non-Consensual Edits): Passed U.S. Senate 13. Januar 2026. Pending House. congress.gov. Stand: März 2026.

Section 230, Communications Decency Act, 47 U.S.C. § 230.

National Conference of State Legislatures (2025): 50-State Survey of Non-Consensual Intimate Image Laws. ncsl.org.

Electronic Frontier Foundation (2025): Constitutional concerns regarding the TAKE IT DOWN Act. eff.org.

China

China ist regulatorisch der am frühesten aktive Staat in diesem Vergleich — und zugleich der am schwersten zu beurteilende, weil die Schutzlogik nicht auf individuelle Rechte, sondern auf staatliche Stabilitätsinteressen ausgerichtet ist. Die "Provisions on the Administration of Deep Synthesis of Internet Information Services", in Kraft seit 10. Januar 2023, verpflichten Anbieter zur Nutzeridentifikation, Kennzeichnung aller KI-generierten Inhalte und bei Bearbeitung biometrischer Daten zur gesonderten Einwilligung. Es gibt keine eigenständige zivilrechtliche Klagemöglichkeit für Opfer sexualisierter Deepfakes. China weist hohe formale Normendichte bei gleichzeitiger struktureller Schutzlücke für Frauen als Opfer auf.

Quellen

Cyberspace Administration of China (2022): Provisions on the Administration of Deep Synthesis of Internet Information Services. In Kraft 10. Januar 2023. cac.gov.cn.

Cyberspace Administration of China (2024): Draft standards for labeling AI-generated content. cac.gov.cn, September 2024.

Human Rights Watch (2023): China's Surveillance State. hrw.org. — Zu Kontrollmechanismen und fehlendem Opferschutz.

Stanford Cyber Policy Center (2023): China's AI Governance and its limits. cyber.fsi.stanford.edu.

Japan

Japan belegt trotz Reformschritten eine schwierige Mittelposition: formal vorhandene Instrumente, erhebliche Anwendungslücken und ein soziokultureller Kontext, der die Rechtsdurchsetzung systematisch erschwert. 2023 trat das Gesetz gegen Voyeurismus (satsueizai) in Kraft. Die bloße Herstellung eines Deepfakes ohne Verbreitung ist nicht klar strafbar. Japan rangiert aktuell auf Platz drei global beim Konsum KI-generierter sexueller Deepfakes; mehr als 99 Prozent der Opfer sind weiblich. Ende 2025 veröffentlichte die Nationalpolizeibehörde erstmals Daten zu minderjährigen Deepfake-Opfern, von denen mehr als die Hälfte von Schulkameraden viktimisiert worden waren.

Quellen

Japan: Act on Punishment of Acts Related to Child Prostitution and Child Pornography (1999, zuletzt 2023 geändert). e-gov.go.jp.

Japan: Act on Punishment of Voyeurism (satsueizai, 2023). e-gov.go.jp.

National Police Agency Japan (2025): Daten zu Deepfake-Opfern unter Minderjährigen. npa.go.jp, Dezember 2025.

Security Hero (2023): State of Deepfakes Report 2023. securityhero.io. — Japan Rang 3 bei Deepfake-Konsum.

Digital Rights Foundation Japan (2024): Victim Blaming and Reporting Barriers. — Zu sozialen Hürden der Strafanzeige.

Australien

Australien hat den aktivsten und institutionell am stärksten ausgebauten Ansatz unter den nicht-europäischen Ländern — mit dem eSafety Commissioner als eigenständiger Regulierungsbehörde. Der Criminal Code Amendment (Deepfake Sexual Material) Act 2024, in Kraft seit 3. September 2024, schafft einen neuen Bundestatbestand mit Grundstrafdrohung von sechs Jahren Haft. Der eSafety Commissioner kann Entfernungsanordnungen erlassen und hat bereits zivilrechtliche Klage gegen einen Einzeltäter wegen Deepfake-Bildmaterial erhoben — ein international bisher seltener Präzedenzfall. Victoria ist der einzige Gliedstaat, der sowohl Herstellung als auch Verbreitung ausdrücklich kriminalisiert hat.

Quellen

Criminal Code Amendment (Deepfake Sexual Material) Act 2024 (Cth). In Kraft 3. September 2024. legislation.gov.au.

Online Safety Act 2021 (Cth). legislation.gov.au.

eSafety Commissioner (2024): Civil penalty proceedings against Deepfake image creator. esafety.gov.au.

Crimes Act 1958 (Victoria), Part 5A (Non-Consensual Sharing of Intimate Images including AI-generated). legislation.vic.gov.au.

eSafety Commissioner (2023): Women's experiences of online abuse in Australia. esafety.gov.au.

Gesamtvergleich

Auffällig im globalen Vergleich ist eine Aufspaltung in zwei Regulierungsphilosophien: Länder wie Australien und — mit Abstrichen — Spanien verfolgen einen explizit auf Frauenrechte und Gender-Based Violence ausgerichteten Ansatz, der Herstellung, Verbreitung und institutionelle Unterstützung als zusammenhängendes Problem begreift. Länder wie China und teilweise die USA regulieren stattdessen von oben — aus Stabilitäts- bzw. Plattforminteressen — ohne dass der Schutz individueller Opfer das eigentliche Regulierungsziel ist.

Diese Differenz in der Schutzlogik erklärt Diskrepanzen zwischen formaler Normendichte und realem Opferschutz besser als jeder Blick auf die bloße Strafdrohung. Solange der regulatorische Ansatz bei Transparenzpflichten verharrt statt auf Produkthaftung und vorgelagerte Marktregulierung zu setzen, bleibt das Strafrecht — auch ein reformiertes — reaktiv gegenüber einem industriell skalierten Problem.

Quellen

EIGE (2023): Cyber violence against women and girls: A form of gender-based violence. eige.europa.eu.

UN Women (2024): Online and ICT-facilitated violence against women and girls. unwomen.org.

Citron, D. K. (2014): Hate Crimes in Cyberspace. Harvard University Press. — Grundlagenwerk zur Schutzlogik bei digitaler Geschlechtergewalt.

Council of Europe (2024): Mapping study on cyberviolence. Aktuelle Vergleichsübersicht. coe.int.

Internet Watch Foundation (2024): Annual Report — AI-generated child sexual abuse material. iwf.org.uk.

Anhang C

Konkrete Änderungsbedarfe: Wie es richtigerweise sein muss

Zur Vermeidung von Shifting Baselines — jener schleichenden Normalisierung immer größerer Zumutungen, die Tech-Konzerne bewusst anstreben — muss immer wieder explizit klargestellt werden, was "richtig" bedeutet. Nicht "besser als gestern" oder "technisch machbar", sondern das, was strukturell notwendig ist, damit digitale Souveränität, psychische Unversehrtheit und Schutz vor sexualisierter Gewalt keine individuellen Kampfaufgaben, sondern gesellschaftliche Grundstandards sind.

Wie Shifting Baselines entstehen — die Mechanik der schleichenden Normalisierung

Shifting Baselines bezeichnet das Phänomen, dass sich der Referenzrahmen dessen, was als normal, zumutbar oder akzeptabel gilt, schrittweise verschiebt — ohne dass die Verschiebung selbst als solche wahrgenommen wird. Was gestern noch Empörung ausgelöst hätte, ist heute Hintergrundrauschen. Was heute Hintergrundrauschen ist, wird morgen Ausgangspunkt für die nächste Verschiebung.

Im Kontext digitaler Gewalt, politischer Einflussnahme und gesellschaftlicher Entmachtung ist dieser Prozess kein Zufall. Er ist das Ergebnis einer Kombination struktureller Faktoren, die sich gegenseitig verstärken und die in ihrer Gesamtwirkung — ob intendiert oder nicht — dazu beitragen, Widerstand zu ermüden, Institutionen zu schwächen und demokratische Gegenmacht zu neutralisieren. Dieser Exkurs beschreibt diese Faktoren nicht als koordinierte Verschwörung, sondern als konvergente Interessenstruktur: Akteure mit unterschiedlichen Motiven, die unter ähnlichen Anreizen handeln und sich dabei wechselseitig stabilisieren.

Patient Capital und die Logik des Alles-oder-Nichts

Die Ausgangsbedingung ist ökonomischer Natur. Große Teile der KI-Infrastruktur — Rechenkapazität, Modellentwicklung, Datenakkumulation — wurden über Jahre durch sogenanntes Patient Capital finanziert: Investitionen, die keine kurzfristige Rendite erwarten, sondern auf eine marktbeherrschende Stellung nach dem Prinzip des Alles-oder-Nichts abzielen. In einem Markt, in dem der Erste gewinnt und alle anderen verlieren — Winner-takes-all, nach US-amerikanischem Muster — entsteht ein struktureller Erfolgsdruck, der jede Verzögerung als existenzielle Bedrohung erscheinen lässt.

Dieser Druck übersetzt sich in eine spezifische Logik: Nebenwirkungen, Schäden, gesellschaftliche Kosten werden nicht als Gründe zum Innehalten behandelt, sondern als Variablen, die durch Geschwindigkeit überholt werden sollen. Wer schnell genug skaliert, hat das Faktum auf seiner Seite. Der Markt ist da. Die Nutzerbasis ist da. Die Infrastruktur ist da. Und was da ist, lässt sich politisch erheblich schwerer abschalten als das, was noch nicht existiert.

Die Shifting Baseline entsteht hier im ersten Schritt: Schäden werden als unvermeidliche Begleiterscheinung von Fortschritt gerahmt. "Das Internet hat auch Risiken." "Jede Technologie kann missbraucht werden." Die Vergleiche sind asymmetrisch gewählt und verschleiern, dass bestimmte Schäden nicht Begleiterscheinung, sondern vorhersehbares Designergebnis sind — und dass "vorhersehbar" und "intendiert" für die Frage gesellschaftlicher Verantwortung letztlich denselben Effekt haben.

Künstlicher Zeitdruck als Regulierungsstrategie

Der zweite Mechanismus ist instrumentell: Zeitdruck entsteht — ob strategisch erzeugt oder als Nebenprodukt des Skalierungsdrucks — mit der vorhersehbaren Wirkung, demokratische Entscheidungsprozesse zu komprimieren oder zu umgehen.

Wenn ein Produkt in drei Monaten von null auf hundert Millionen Nutzerinnen skaliert, ist die Regulierungsdebatte bereits verschoben: Man reguliert nicht mehr eine geplante Einführung, sondern einen bestehenden Zustand mit etablierten Nutzererwartungen, Abhängigkeiten und wirtschaftlichen Verflechtungen. Das macht Regulierung politisch teurer — unabhängig davon, ob dieser Effekt bewusst angestrebt wird oder nicht.

Hinzu kommt die narrative Verdichtung: KI wird als geopolitischer Wettkampf gerahmt — USA gegen China, Fortschritt gegen Rückständigkeit, Demokratie gegen Autoritarismus. Wer reguliert, verliert. Wer Bedenken äußert, schadet dem nationalen Interesse. Diese Framing-Logik ist in politischen Debatten in Europa, den USA und Asien gleichermaßen wirksam und produziert einen strukturellen Bias zugunsten von Regulierungsverzicht — nicht weil Argumente überzeugen, sondern weil die Kosten des Innehaltens sichtbarer gemacht werden als die Kosten des Weitermachens.

Die Shifting Baseline verschiebt sich hier ein zweites Mal: Regulierung wird selbst zum Problem gerahmt. Was noch vor wenigen Jahren als legitime demokratische Schutzfunktion galt, firmiert zunehmend als Innovationshemmnis, Wettbewerbsnachteil oder naiver Interventionismus.

Politische Einflussnahme durch konvergente Eigeninteressen

Der dritte Mechanismus operiert auf der politischen Ebene und hat in seiner aktuellen Ausprägung historisch wenige Vorläufer. Einzelne Personen verfügen über Kapital in einer Größenordnung, die politische Einflussnahme nicht mehr nur als Lobbyismus, sondern als direkte Einwirkung auf politische Prozesse ermöglicht: eigene Plattformen, eigene Kommunikationskanäle, direkte Wahlkampffinanzierung, ohne institutionelle Vermittlungsinstanz.

Das Neue ist dabei nicht, dass Vermögende Politik beeinflussen — das ist strukturell bekannt. Das Neue ist die Verbindung aus drei Faktoren: erstens die Unmittelbarkeit des Einflusses durch eigene digitale Infrastruktur; zweitens die öffentlich artikulierte Demokratieskepsis bei einem einflussreichen Teil dieses Milieus und drittens die Bereitschaft, diese Überzeugungen mit konkreten politischen Investitionen zu verbinden: Finanzierung von Parteien und Kandidaten, die Plattformregulierung ablehnen, und aktive Unterstützung regulatorischer Demontage.

Weitere Dokumente polemisieren explizit gegen Egalitarismus, Regulierung und kollektive Steuerung technologischer Entwicklung und liefern damit eine ideologische Rahmung, die antiregulatorische politische Positionen als Fortschrittsimperativ erscheinen lässt.

Was sich hier verschiebenden Baselines erzeugt: Antiregulatorische Positionen, die noch vor einem Jahrzehnt als wirtschaftspolitischer Extremismus eingeordnet worden wären, sind heute integraler Bestandteil des technologischen Mainstreams — nicht weil neue Argumente überzeugt hätten, sondern weil die institutionelle und ökonomische Macht derer, die sie vertreten, gewachsen ist.

Quellen

Thiel, P. (2009): The Education of a Libertarian. Cato Unbound, 13. April 2009. cato-unbound.org. — Originaltext des Zitats zur Inkompatibilität von Freiheit und Demokratie.

Andreessen, M. (2023): The Techno-Optimist Manifesto. Andreessen Horowitz Blog (a16z.com), 16. Oktober 2023. — Programmatischer Text gegen Regulierung, Egalitarismus und kollektive Steuerung technologischer Entwicklung.

Demokratieskepsis, Hierarchiedenken und Blindheit gegenüber geschlechtsspezifischen Schäden

Der vierte Mechanismus ist kulturell-ideologischer Natur. Bei einem einflussreichen Teil des Tech-Milieus lassen sich wiederkehrende Muster beobachten: Hierarchiedenken, radikaler Meritokratismus, Demokratieskepsis und eine auffällige Blindheit gegenüber geschlechtsspezifischen Schadensfolgen — in Produktentscheidungen ebenso wie in öffentlichen Reaktionen auf Kritik.

Diese Muster sind nicht auf Einzeläußerungen beschränkt. Sie zeigen sich in strukturellen Entscheidungen: Welche Produkte werden entwickelt? Welche Nutzungsweisen werden ermöglicht? Welche Schäden werden als relevant anerkannt und welche als unvermeidlich abgeschrieben?

Die Antworten sind in ihrer Tendenz konsistent: KI-bedingte Jobverluste sollen demnach besonders stark geisteswissenschaftlich ausgebildete, häufig weibliche und überwiegend demokratisch wählende Bevölkerungsgruppen treffen — eine Aussage, die die politische Wirkungserwartung dieser Transformation benennt, ohne sie als Problem zu behandeln. Die öffentliche Kritik an Grok-generierten nicht-einvernehmlichen sexualisierten Bildern wird als "Zensurversuch" bezeichnet — eine Reaktion, die das Problem nicht beim Produkt verortet, sondern bei seinen Kritikerinnen.

Diese Haltung ist nicht ohne Kontext zu verstehen. Sie entsteht in Umgebungen — Startup-Ökosysteme, Risikokapitalkreise, Eliteuniversitäten —, in denen Erfolg als Beweis für Überlegenheit gilt, in denen Reichtum faktisch moralische Autorität verleiht und in denen Widerspruch strukturell folgenlos bleibt. Entitlement in dieser Größenordnung entsteht nicht plötzlich. Es entwickelt sich dort, wo Konsequenzen dauerhaft ausbleiben — nicht notwendig durch bewusste Strategie, sondern als vorhersehbares Ergebnis eines Systems, das es erzeugt und bestätigt.

Die Shifting Baseline verschiebt sich hier ein viertes Mal: Blindheit gegenüber geschlechtsspezifischen Schadensfolgen wird nicht mehr als Ausschlusskriterium für gesellschaftliche Führungsrollen behandelt, sondern zunehmend als Ausdruck einer "unpolitischen" Sachlichkeit normalisiert.

Fragmentierung von Widerstand: Gleiche Anreize, konvergente Wirkung

Der fünfte Mechanismus zielt — in seiner Wirkung, nicht notwendig in seiner Absicht — auf die Schwächung von Widerstand durch seine Fragmentierung. Antifeministischen Bewegungen, rechtspopulistischen Parteien, die Regulierungsskepsis als Identitätsmerkmal kultivieren, und Medienformaten, die gesellschaftliche Polarisierung als Geschäftsmodell betreiben, fließen Ressourcen zu, die ohne diesen Kapitalzufluss strukturell marginal geblieben wären.

Das ist nicht zwingend das Ergebnis einer übergreifenden Strategie. Es ist das Ergebnis konvergenter Interessen: Wer eine starke staatliche Regulierungskapazität fürchtet, hat ökonomische Anreize, Akteure zu unterstützen, die diese Kapazität in Frage stellen — unabhängig davon, ob er ihre anderen Ziele teilt. Die politische Energie, die für Plattformregulierung notwendig wäre, wird durch kulturelle Konflikte absorbiert, die diese Energie binden und neutralisieren.

Hier ist der Mechanismus von Empfehlungsalgorithmen relevant: Forschung und investigative Berichte haben dokumentiert, dass YouTube-Empfehlungen männliche Nutzer überproportional von moderaten zu radikaleren Inhalten führen können — darunter frauenfeindliche und antifeministische Inhalte. Das geschieht im Rahmen einer Optimierung auf Engagement, obwohl diese schadensverstärkende Wirkung seit Jahren bekannt und dokumentiert ist. Ob dieser Effekt bewusst in Kauf genommen oder schlicht nicht priorisiert wird, ist für die gesellschaftliche Wirkung irrelevant: Die Verstärkung findet statt.

Die Shifting Baseline verschiebt sich hier ein fünftes Mal: Koordinierter Widerstand gegen digitale Gewalt und Plattformmacht wird durch die Fragmentierung seiner Trägergesellschaft strukturell geschwächt — noch bevor er politisch artikuliert werden kann.

Zynismus als Strukturbedingung, nicht als Charaktermerkmal

Der sechste und verbindende Faktor ist der Zynismus — nicht als Weltanschauung einzelner

Personen, sondern als vorhersehbares Ergebnis einer Struktur, in der Konsequenzen dauerhaft externalisiert werden können.

Wer über ausreichend Kapital verfügt, um Klagen abzuwehren, Regulierung zu verzögern und politischen Druck zu absorbieren, operiert in einem Rahmen, in dem die normalen Rückkopplungsmechanismen nicht greifen: Märkte, die Schäden nicht bepreisen; Regulierungen, die nicht durchgesetzt werden; gesellschaftliche Empörung, die sich nicht in Konsequenzen übersetzt. In einer solchen Struktur ist Zynismus keine moralische Entscheidung — er ist die funktional naheliegendste Haltung.

Kapitalakkumulation in dieser Größenordnung wirkt wie eine Feedback-Störung. Sie unterbricht den normalen Lernmechanismus, durch den Menschen erfahren, dass ihre Handlungen Grenzen haben. Wer keine Grenzen erfährt, entwickelt keine inneren Hemmungen gegenüber Schäden, die andere betreffen — nicht notwendigerweise aus Bosheit, sondern weil diese Schäden im eigenen Erfahrungsraum nicht vorkommen. Das ist kein Persönlichkeitsmerkmal — es ist das vorhersehbare Ergebnis einer Umgebung, die diese Haltung systematisch erzeugt.

Die Shifting Baseline vollzieht hier ihre letzte Verschiebung: Was früher als gesellschaftliche Grenze galt — rechtliche, moralische, demokratische — wird zur verhandelbaren Variable in einer Kosten-Nutzen-Rechnung, bei der die Kosten von anderen getragen werden. Das ist kein natürliches Gleichgewicht. Es ist das Ergebnis einer Struktur, die Grenzüberschreitungen dauerhaft günstiger macht als ihre Vermeidung.

Was das bedeutet

Shifting Baselines entstehen also nicht durch schleichende kulturelle Erosion, nachlässige Regulierung oder unvermeidliche Nebenwirkungen technologischen Fortschritts. Das Phänomen entsteht durch das wechselseitig stabilisierende Zusammenwirken von Patient Capital und Skalierungsdruck, strategisch verdichtetem Zeitdruck, politischer Einflussnahme, einer auffälligen Blindheit gegenüber geschlechtsspezifischen Schadensfolgen, der Fragmentierung gesellschaftlicher Gegenmacht durch konvergente ökonomische Anreize und einem Zynismus, der nicht Ursache, sondern vorhersehbares Ergebnis einer Struktur ohne ausreichende Rückkopplung ist.

Wer Shifting Baselines als das behandelt, was sie sind — das vorhersehbare Ergebnis konvergenter Interessenstrukturen ohne ausreichende institutionelle Gegenmacht —, kann präzise Gegenstrategien entwickeln: juristische, regulatorische, ökonomische und mediale.

Das ist der Rahmen, in dem die Forderungen dieses Anhangs zu lesen sind. Nicht als Reaktion auf bösen Willen, sondern als strukturelle Antwort auf eine Struktur, die ohne Gegendruck weiter in eine fatale Richtung driftet — und diese Richtung als Normalzustand etabliert.

Quellen

Thiel, P. (2009): The Education of a Libertarian. Cato Unbound, 13. April 2009. cato-unbound.org. — Originaltext des Zitats zur Inkompatibilität von Freiheit und Demokratie.

Andreessen, M. (2023): The Techno-Optimist Manifesto. Andreessen Horowitz Blog (a16z.com), 16. Oktober 2023.

Ribeiro, M. H. et al. (2020): Auditing Radicalization Pathways on YouTube. ACM CHI. — Zu algorithmischer Verstärkung frauenfeindlicher Inhalte.

Open Secrets (fortlaufend): Peter Thiel Political Contributions. opensecrets.org.

Zuboff, S. (2019): The Age of Surveillance Capitalism. PublicAffairs. — Zu Patient Capital und struktureller Schadensexternalisierung.

Die folgende Übersicht benennt adressierbare, technisch grundsätzlich mögliche und in mindestens einem Land bereits erprobte Maßnahmen. Sie ist nach Handlungsebenen gegliedert und verbindet die in den vorangegangenen Teilen beschriebenen Probleme — Designmechaniken (Anhang A), rechtliche Lücken (Anhang B) und systemische Gewalt (Teil V) — mit konkreten Lösungen.

Jede Forderung wird ergänzt um eine Einschätzung des aktuellen Stands, der handelnden Akteure sowie der zentralen Einwände und deren Abwägung.

Plattformdesign — Produktsicherheitspflichten

Verbot spezifischer Designmechaniken für Minderjährige

Infinite Scroll, Autoplay und Push-Benachrichtigungen müssen für Minderjährige per Gesetz standardmäßig deaktiviert sein — nicht optional, nicht auf Elternwunsch, sondern als Default.

Stand

Die DSA-Leitlinien 2025 benennen diese Mechaniken als relevante Risikofaktoren und legen nahe, sie für Minderjährige standardmäßig zu deaktivieren; eine verbindliche Rechtsgrundlage mit Sanktionsmechanismus fehlt in den meisten Jurisdiktionen. Australien hat mit dem Online Safety Act teilweise Umsetzungspflichten eingeführt.

Was fehlt

Gesetzliche Pflicht mit messbaren Compliance-Kriterien und abschreckenden Sanktionen — Umsatzprozente, keine Pauschalbeträge.

Wer liefern muss

Gesetzgeber (EU, nationale Parlamente) müssen Leitlinien in verbindliches Recht überführen. Plattformbetreiber müssen Default-Einstellungen technisch umsetzen. Politik muss Vollzugsbehörden mit ausreichend technischer Expertise ausstatten.

Einwand

„Ein generelles Designverbot greift in die unternehmerische Freiheit ein und birgt paternalistische Züge. Unterschiedliche Nutzerinnen könnten von denselben Mechaniken unterschiedlich betroffen sein.“

Abwägung

Der Eingriff richtet sich ausschließlich gegen die Voreinstellungen für Minderjährige. Der Verhältnismäßigkeitsgrundsatz ist gewahrt, wenn die Maßnahme auf eine klar definierte Schutzperson (Minderjährige) und klar benannte Mechaniken begrenzt bleibt. Die technische Umsetzung ist grundsätzlich realisierbar — auch wenn sie sorgfältige Altersverifikation voraussetzt, die ihrerseits datenschutzrechtliche Fragen aufwirft.

Warum notwendig

Das Fehlen dieser Defaults ist keine technische Notwendigkeit, sondern eine priorisierte Geschäftsentscheidung zugunsten maximaler Verweildauer. Wo freiwillige Maßnahmen nachweislich nicht greifen, ist gesetzliche Regulierung das verhältnismäßige Mittel.

Quellen

Europäische Kommission (2025): DSA Guidelines Art. 28 — Protection of Minors (Autoplay, Infinite Scroll, Push Notifications). ec.europa.eu.

Online Safety Act 2021 (Australia), Section 45ff. — Default safety measures. legislation.gov.au.

UK Age Appropriate Design Code (Children's Code), ICO 2021. ico.org.uk.

Livingstone, S. et al. (2022): Datafication and children's rights. Global Policy 13(1).

Verbot variabler Belohnungssysteme für Minderjährige

Streaks, öffentlich sichtbare Like-Zahlen, Follower-Rankings und vergleichbare Mechaniken, die externes Feedback zur primären Selbstbewertungsquelle machen, müssen für unter 18-Jährige unzulässig sein.

Stand

Die DSA-Leitlinien 2025 erwähnen Streaks und vergleichbare Mechaniken als für Minderjährige zu vermeidende Designelemente; eine Verbotspflicht besteht nicht. Instagram hat Like-Counts in einigen Märkten optional ausgeblendet — als freiwillige Maßnahme, nicht als strukturelle Änderung.

Was fehlt

Ein gesetzliches Verbot, das konkrete Mechaniken — Streaks, öffentlich sichtbare Like-Zahlen, Follower-Rankings — benennt und deren Abwesenheit prüfbar macht. Unabhängige technische Auditkapazität.

Wer liefern muss

Gesetzgeber müssen spezifische Mechaniken benennen, nicht abstrakte Ziele. Plattformbetreiber müssen entsprechende Designentscheidungen revidieren. Regulierungsbehörden brauchen technisches Personal, das Produktarchitektur beurteilen kann.

Einwand

„Variable Belohnungssysteme sind schwer juristisch sauber zu definieren. Eine zu breite Formulierung könnte legitime Gamification-Elemente (Lern-Apps, Gesundheits-Apps) miterfassen.“

Abwägung

Die Forderung ist operationalisierbar, wenn sie auf konkrete Mechaniken begrenzt wird — öffentlich sichtbare Like-Zahlen, Streak-Systeme, Follower-Rankings — und nicht auf "suchterzeugendes Design" als Generalklausel. Der Gesetzgeber muss präzise Tatbestandsmerkmale formulieren.

Warum notwendig

Interne Meta-Dokumente, die im Rahmen der US-Litigation (MDL 3047) öffentlich wurden, zeigen, dass das Unternehmen bereits vor Jahren wusste, dass bestimmte Designmechanismen bei jungen Nutzerinnen zu höherer Verweildauer und verstärkter Körperunzufriedenheit führen können. Ein internes Memo aus dem Jahr 2021 stellte fest: „If we wanna win big with teens, we must bring them in as tweens.

Quellen

The Wall Street Journal (2021): Facebook Knows Instagram Is Toxic for Teen Girls. wsj.com, 14. September 2021.

Haugen, F. (2021): Meta-interne Dokumente zu variablen Belohnungen und Körperbild. US-Senat, Oktober 2021.

Europäische Kommission (2025): DSA Guidelines — Streaks and gamification to be avoided for minors. ec.europa.eu.

Valkenburg, P. M. et al. (2021): Social media use and adolescents' self-esteem. Current Opinion in Psychology.

Mandatory Friction

Plattformen müssen gesetzlich verpflichtet werden, bewusste Unterbrechungspunkte in die Nutzeroberfläche zu integrieren: Exit-Prompts nach definierten Nutzungsdauern, Pausenmechaniken, Bestätigungsschritte vor dem nächsten Autoplay.

Stand

Einzelne Plattformen haben freiwillig Nutzungszeit-Erinnerungen eingeführt — als Opt-in-Funktion, die die übergroße Mehrheit der Nutzerinnen nie aktiviert. Gesetzliche Pflichten zur Mandatory Friction existieren nirgendwo.

Was fehlt

Eine Pflicht, die Friction als Default verankert. Konkrete Parameter: ab welcher Nutzungsdauer (z.B. 60 Minuten täglich für Minderjährige) Unterbrechungspunkte eingeblendet werden müssen, wie lange diese dauern müssen und wer diese Parameter festlegt.

Wer liefern muss

Gesetzgeber müssen das Prinzip "Friction by Default" kodifizieren und eine Behörde mit der Konkretisierung beauftragen. Plattformbetreiber müssen es technisch umsetzen.

Einwand

"Mandatory Friction" greift erheblich in die Nutzererfahrung und die unternehmerische Gestaltungsfreiheit ein. Die Definition geeigneter Schwellenwerte ist normativ aufgeladen und schwer wissenschaftlich zu begründen.“

Abwägung

Der Einwand trifft die Schwellenwerte — diese müssen evidenzbasiert und durch eine unabhängige Behörde festgesetzt werden. Der Grundsatz selbst — dass Plattformen Selbstregulation aktiv ermöglichen müssen statt sie systematisch zu erschweren — ist mit dem Verhältnismäßigkeitsgrundsatz vereinbar.

Warum notwendig

Wo Plattformen durch Designentscheidungen vorhersehbar Abbruchsignale entfernen, ist die Einführung von Friction keine Bevormundung, sondern die Wiederherstellung eines funktionierenden Entscheidungsrahmens.

Quellen

Thaler, R. H. / Sunstein, C. R. (2008): Nudge. Penguin Books.

Johnson, E. J. / Goldstein, D. (2003): Do Defaults Save Lives? Science 302(5649).

UK Department for Science, Innovation and Technology (2023): Safety by Design: Principles for Technology Platforms. gov.uk.

Lyngs, U. et al. (2019): Self-Control in Cyberspace: Applying Dual Systems Theory to a Review of Digital Self-Control Tools. CHI Conference.

Risikobewertungspflicht vor Markteinführung

KI-Anwendungen mit Potenzial zur Erzeugung oder Verbreitung sexualisierter Inhalte müssen vor dem Markteintritt einer verpflichtenden Folgenabschätzung unterzogen werden — analog zur Arzneimittelzulassung.

Stand

Der AI Act klassifiziert bestimmte KI-Systeme als Hochrisiko, aber Nudify-Apps fallen nicht automatisch in diese Kategorie. Eine vorgelagerte Zulassungspflicht existiert für keine KI-Anwendung.

Was fehlt

Erweiterung der Hochrisiko-Definition im AI Act auf Anwendungen mit klarem Missbrauchspotenzial für sexualisierte Bildgewalt. Eine Behörde (EU AI Office), die Folgenabschätzungen inhaltlich prüft — nicht nur entgegennimmt.

Wer liefern muss

Die EU-Kommission muss die Hochrisikodefinition erweitern. Das EU AI Office muss als Prüfbehörde mit technischer Expertise aufgebaut werden. App-Stores müssen als Distributoren Nachweispflichten tragen.

Einwand

„Vorgelagerte Zulassungspflichten könnten Innovation bremsen, Marktzugang für kleine Anbieter erschweren und zu regulatorischem Overreach führen. Die Abgrenzung ist schwierig.“

Abwägung

Für Anwendungen, deren primärer Zweck erkennbar auf die Manipulation von Personenabbildungen ausgerichtet ist, ist eine Folgenabschätzung verhältnismäßig. Die Abgrenzungsschwierigkeit ist real, aber lösbar: Es geht um einen eng definierten Typ mit nachgewiesenem Schadenspotenzial.

Warum notwendig

Wenn das Schadenspotenzial eines Produkts vor der Vermarktung erkennbar ist, ist eine Prüfpflicht das Mindeste — unabhängig davon, ob das Produkt Software oder Hardware ist.

Quellen

Verordnung (EU) 2024/1689 (AI Act), Annex III (Hochrisiko-KI-Systeme). EUR-Lex.

EU AI Office (2024): Mandate and tasks. digital-strategy.ec.europa.eu.

Ada Lovelace Institute (2024): Before the Bell Rings: Lessons from EU AI Act High-Risk Classification. adalovelaceinstitute.org.

Raji, I. D. et al. (2020): Closing the AI Accountability Gap. ACM FAccT.

Verbot von Nudify-Apps als Produktkategorie

Anwendungen, deren primärer Verwendungszweck die nicht-einvernehmliche Erzeugung sexualisierter Bilder ist, müssen als Produkt verboten werden — nicht erst sanktioniert, wenn ein Schaden eingetreten ist.

Stand

In keinem der verglichenen Länder sind Nudify-Apps als Produktkategorie verboten. Australiens eSafety Commissioner hat Mandatory Standards für KI-Apps erlassen, die konkrete Schutzmaßnahmen vorschreiben. Apple und Google haben einzelne Apps nach öffentlichem Druck entfernt — ohne systematische Prüfung.

Was fehlt

Ein gesetzliches Produktverbot für Anwendungen, deren Designzweck die nicht-einvernehmliche Entkleidung von Personen ist — unabhängig vom Distributionskanal, also auch für Web-Anwendungen.

Wer liefern muss

Gesetzgeber müssen den Produktverbotstatbestand schaffen. App-Store-Betreiber und Hosting-Anbieter müssen als Distributoren haften. Domain-Registrare müssen als letzte Verteidigungslinie verpflichtet werden.

Einwand

„Was als "primärer Verwendungszweck" gilt, ist schwer juristisch zu fassen. Es besteht ein Overblocking-Risiko — legitime Bildbearbeitungstools könnten miterfasst werden.“

Abwägung

Das Overblocking-Risiko ist handhabbar: Der Tatbestand muss auf Anwendungen beschränkt werden, die ausdrücklich und ausschließlich die unbeaufsichtigte Entkleidung von Personen anbieten. Eine technik-neutrale Formulierung lautet: "Anwendungen, die das Erscheinungsbild einer Person ohne deren Einwilligung in einer sexuell expliziten Weise verändern".

Warum notwendig

Nudify-Apps, deren Funktion ausschließlich auf die unbeaufsichtigte Entkleidung von Personenabbildungen ausgerichtet ist, erfüllen nach überwiegender rechtlicher und ethischer Einschätzung keinen eigenständigen legitimen Verwendungszweck, der nicht ohne die schadensstiftende Funktion erreichbar wäre. Wenn ein Produkt keinen legitimen Verwendungszweck hat, der nicht auch ohne die schadensstiftende Funktion erfüllbar wäre, ist ein Verbot verhältnismäßig.

Quellen

eSafety Commissioner Australia (2024): Mandatory Safety Standards for Generative AI Services. esafety.gov.au.

Internet Watch Foundation (2024): AI-generated child sexual abuse material: Briefing. iwf.org.uk.

Europäisches Parlament (2024): Resolution on deepfakes and non-consensual intimate images. europarl.europa.eu.

Wachter, S. / Mittelstadt, B. (2019): A right to reasonable inferences: re-thinking data protection law in the age of big data and AI. Columbia Business Law Review.

Strafrecht — Schließung konkreter Lücken

Herstellung sexualisierter Deepfakes als eigenständiger Straftatbestand

In allen verglichenen Ländern außer dem Vereinigten Königreich ist die bloße Herstellung — ohne nachgewiesene Verbreitung — nicht strafbar. Die Herstellung selbst ist die Verletzungshandlung; die Verbreitung ist ihre Eskalation.

Stand

Das Vereinigte Königreich hat mit dem Online Safety Act 2023 die Herstellung nicht-einvernehmlicher sexueller Deepfakes als eigenständigen Tatbestand eingeführt, unabhängig von einer Verbreitung. In Deutschland ist die Herstellung pornografischer Deepfakes ausdrücklich nicht strafbar.

Was fehlt

Gesetzliche Neuregelungen, die die Herstellung selbst — bei erkennbarer Zuordnung zu realen Personen ohne deren Einwilligung — als Tathandlung qualifizieren. Beweisrechtliche Regelungen, die Ermittlungen ohne Nachweis einer Verbreitung ermöglichen.

Wer liefern muss

Nationale Gesetzgeber. Staatsanwaltschaften müssen Ermittlungsressourcen aufbauen. Die Politik muss den Widerstand gegen eine Kriminalisierung ohne Außenwirkung argumentativ bestehen.

Einwand

„Eine Kriminalisierung der Herstellung ohne Verbreitung berührt Kunstfreiheit, Satire und Forschung. Die Abgrenzung zwischen strafbarer Herstellung und legitimer kreativer Nutzung ist schwierig.“

Abwägung

Der Einwand erfordert sorgfältige Tatbestandsformulierung. Das Merkmal "erkennbare Zuordnung zu einer realen Person ohne deren Einwilligung" schließt abstrakte oder fiktive Darstellungen aus. Ausnahmen für Satire, journalistische und wissenschaftliche Zwecke müssen ausdrücklich vorgesehen werden — wie das britische Modell es tut.

Warum notwendig

Wer einen sexualisierten Deepfake einer realen Person ohne deren Wissen erstellt, verletzt ihre sexuelle Selbstbestimmung im Moment der Herstellung — unabhängig davon, ob das Material jemals geteilt wird.

Quellen

Online Safety Act 2023 (UK), Section 188 (Creating intimate deepfakes). legislation.gov.uk.

Bundesrat Deutschland (2024): Entwurf §201b StGB. Drucksache BR 20/12605. Entwurf eines Gesetzes zum strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes.

Bundesjustizministerium (2026): Geplantes Gesetz gegen digitale Gewalt — Herstellungstatbestand. bundesjustizministerium.de.

Citron, D. K. (2022): The Fight for Privacy. W. W. Norton. — Zu Schutzlogik bei bildbasierter Gewalt.

7. Genderbasierte digitale Gewalt als Qualifikationsmerkmal

Wenn sexualisierte Deepfakes, Cyberstalking oder Doxxing gezielt gegen Frauen eingesetzt werden, muss das als erschwerender Umstand in die Strafzumessung einfließen — analog zur bestehenden Rechtspraxis bei motivationsbasiert erschwerenden Umständen.

Stand

Spanien ist das einzige der verglichenen Länder, das Gewalt gegen Frauen als strukturell eigenständiges Phänomen mit spezifischer Strafverschärfung behandelt. In keinem anderen Land existiert für digitale Gewalt ein explizites Gendermerkmal als Qualifikationsumstand.

Was fehlt

Gesetzliche Verankerung des Gendermerkmals als strafverschärfender Umstand bei digitalen Gewaltdelikten. Eine systematische Erfassung der Genderdimension in Strafverfolgungsstatistiken als Grundlage für evidenzbasierte Gesetzgebung.

Wer liefern muss

Nationale Gesetzgeber. Staatsanwaltschaften müssen die Genderdimension in Anklagen aktiv geltend machen. Gerichte müssen die Rechtsprechung entsprechend entwickeln.

Einwand

„Ein geschlechtsspezifisches Qualifikationsmerkmal im Strafrecht ist verfassungsrechtlich hochsensibel. Der Gleichheitsgrundsatz verlangt, dass Strafverschärfungen entweder täterunabhängig (Tatmotiv) oder opferbezogen (besondere Schutzbedürftigkeit) begründet werden.“

Abwägung

Der Einwand trifft die Formulierungsfrage, nicht die Grundidee. Das Vorbild sind Hasskriminalitätsnormen, die auf das diskriminierende Tatmotiv abstellen. Eine verfassungsfeste Formulierung lautet: "Wer die Tat begeht, weil das Opfer weiblich ist oder einer anderen Gruppe angehört, die aufgrund ihres Geschlechts diskriminiert wird" — das ist tatmotivbezogen und entspricht der Systematik bestehender Hasskriminalitätsnormen.

Warum notwendig

Die überproportionale Betroffenheit von Frauen durch sexualisierte digitale Gewalt ist empirisch belegt. Ein Strafrecht, das diese strukturelle Asymmetrie ignoriert, gibt das falsche Signal.

Quellen

Ley Orgánica 1/2004 (Spanien): Grundlage für genderspezifische Strafverschärfung. BOE.

EIGE (2023): Cyber violence against women and girls. eige.europa.eu.

Council of Europe (2024): Mapping study on cyberviolence. coe.int.

Delgado, R. / Stefancic, J. (2014): Hate Crimes and Speech. — Zur verfassungsfesten Formulierung von Hasskriminalitätsmerkmalen.

8. Sextortion vollständig erfassen

Die Erpressung mit echten oder KI-generierten Intimbildern muss in allen Altersgruppen als eigenständiger Tatbestand strafbar sein.

Stand

Frankreich hat Sextortion als Tatbestand eingeführt, beschränkt ihn aber auf Minderjährige — eine Lücke, die die CNCDH in ihrem Gutachten 2025 explizit kritisiert hat. In Deutschland, der Schweiz und Österreich wird Sextortion über allgemeine Erpressungsparagraphen verfolgt.

Was fehlt

Ein eigenständiger Tatbestand, der Sextortion unabhängig vom Alter der Opfer erfasst, KI-generiertes Material ausdrücklich einschließt und niedrigere Beweishürden als allgemeine Erpressung vorsieht. Spezialisierte Ermittlungseinheiten mit digitaler Forensik-Kompetenz.

Wer liefern muss

Nationale Gesetzgeber. Polizei und Staatsanwaltschaft müssen spezialisiert ausgebildet werden.

Einwand

„Allgemeine Erpressungstatbestände erfassen Sextortion bereits; ein eigenständiger Tatbestand könnte zu Abgrenzungsproblemen führen und die Strafverfolgung komplizieren.“

Abwägung

Allgemeine Erpressungstatbestände erfordern oft höhere Beweishürden und bilden das spezifische Unrecht — die Instrumentalisierung von Intimität als Druckmittel — nicht ab. Ein eigenständiger Tatbestand ermöglicht klarere Ermittlungsstandards, bessere Opferberatung und eine Strafzumessung, die der Schwere des Eingriffs gerecht wird.

Warum notwendig

Sextortion ist keine gewöhnliche Erpressung — sie nutzt die Intimsphäre als Waffe. Diese Besonderheit muss im Tatbestand abgebildet sein.

Quellen

Commission nationale consultative des droits de l'homme (CNCDH, 2025): Avis — Sextorsion et mineurs. cncdh.fr.

FBI Internet Crime Complaint Center (IC3, 2024): Sextortion Annual Report. ic3.gov.

Europol (2023): Financial Sextortion: An Emerging Threat. europol.europa.eu.

Strafgesetzbuch Deutschland, §253 (Erpressung). — Zur Analyse der Schutzlücke.

9. Cyberflashing vereinheitlichen

Österreich hat seit September 2025 einen Cyberflashing-Tatbestand eingeführt, der über den EU-Mindeststandard hinausgeht: Die Belästigung selbst genügt als Tatbestandsmerkmal, ohne Nachweis schweren psychischen Schadens. Dieses Modell muss in allen Jurisdiktionen übernommen werden.

Stand

Österreich (§218 Abs. 1b StGB) und das Vereinigte Königreich (Online Safety Act 2023) haben eigenständige Tatbestände. Frankreich, Deutschland und die Schweiz haben keinen eigenständigen Tatbestand.

Was fehlt

Eigenständige Tatbestände ohne Schwernachweis in allen Jurisdiktionen. Eine EU-Richtlinienvorgabe, die Österreichs Modell als Mindeststandard festschreibt.

Wer liefern muss

Nationale Gesetzgeber. Die EU muss die Richtlinie nachschärfen. Gerichte müssen erste Verurteilungen entwickeln, die abschreckend wirken.

Einwand

„Ohne Schwernachweis könnte der Tatbestand zu weit gefasst sein und Bagatellhandlungen kriminalisieren, was den Strafverfolgungsapparat überlastet.“

Abwägung

Das österreichische Modell setzt das Merkmal der Belästigung voraus — es werden gezielte, unverlangte Zusendungen sexuellen Materials erfasst, keine Zufallsübermittlungen. Das ist keine Bagatellhandlung, sondern ein gezielter Eingriff in die sexuelle Sphäre.

Warum notwendig

Der Schwernachweis als Tatbestandsvoraussetzung ist opferfeindlich — er verlangt, dass Betroffene ihre eigene psychische Verletzung beweisen, bevor der Staat reagiert.

Quellen

StGB Österreich, §218 Abs. 1b (Cyberflashing), in Kraft 1. September 2025. ris.bka.gv.at.

Online Safety Act 2023 (UK), Section 66A (Sending flashing images). legislation.gov.uk.

Richtlinie 2024/1385/EU, Art. 7 (Cyberflashing). EUR-Lex. — Zur Analyse des Mindeststandards.

UN Women (2024): Cyberflashing as a form of online gender-based violence. unwomen.org.

III. Plattformhaftung — Paradigmenwechsel

10. Produkthaftungslogik statt Inhaltsimmunität

Section 230 und vergleichbare nationale Schutzklauseln schützen Plattformen vor Haftung für Nutzerinhalte — nicht für ihre eigenen Designentscheidungen. Das K.G.M.-Urteil in Los Angeles hat diese Unterscheidung erstmals durch eine Jury bestätigt. Europäische Gesetzgeber müssen dieselbe Differenzierung explizit in nationales Recht überführen.

Stand

In den USA hat das K.G.M.-Bellwether-Urteil die Produkthaftungslogik für Plattformarchitektur erstmals bestätigt. In Europa fehlt eine vergleichbare Haftungsgrundlage für Designentscheidungen; der DSA schreibt Risikobewertungspflichten vor, aber keine Haftung für vorhersehbare Schäden aus Architekturentscheidungen.

Was fehlt

Eine europäische Rechtsprechung oder gesetzliche Grundlage, die Plattformarchitektur als Produkt im Sinne des Produkthaftungsrechts behandelt. Verbandsklagerechte und Prozesskostenhilfe, damit diese Klagen nicht nur für finanzstarke Kläger möglich sind.

Wer liefern muss

Gerichte müssen die Produkthaftungslogik in europäisches Recht übersetzen. Gesetzgeber müssen klarstellen, dass Designentscheidungen nicht unter Inhaltsimmunitäten fallen. Zivilgesellschaft und spezialisierte Anwaltskanzleien müssen strategische Litigation aufbauen.

Einwand

„Die Produkthaftungslogik für Plattformarchitektur ist rechtlich noch nicht etabliert und wirft schwierige Kausalitätsfragen auf. Wie lässt sich belegen, dass ein spezifisches Designmerkmal — und nicht andere Faktoren — einen konkreten Schaden verursacht hat?“

Abwägung

Der Kausalitätseinwand ist ernst zu nehmen. Das K.G.M.-Verfahren hat gezeigt, dass diese Kausalität durch Sachverständige, interne Dokumente und statistische Evidenz im Einzelfall hinreichend belegbar ist. Entscheidend ist nicht, ob jede Klage erfolgreich ist, sondern ob der Haftungsrahmen existiert und damit Verhaltensanreize setzt.

Warum notwendig

Solange Designentscheidungen unter Inhaltsimmunität fallen, fehlt der stärkste ökonomische Anreiz für Plattformen, ihre Architektur zu ändern — da Haftungsrisiken für Nutzerinhalte, nicht für eigene Designentscheidungen, kalkuliert werden. Haftung ist der einzige Mechanismus, der diesen Anreiz schafft.

Quellen

Los Angeles Superior Court: K.G.M. v. Meta Platforms Inc. et al., Urteil 25. März 2026.

Richtlinie 2024/2853/EU (Neue EU-Produkthaftungsrichtlinie), in Kraft 2024 — schließt Software und KI ein. EUR-Lex.

Section 230, Communications Decency Act, 47 U.S.C. § 230.

Citron, D. K. / Wittes, B. (2017): The Problem Isn't Just Backpage. Tulane Law Review. NBC News (2026): Jury finds Meta and YouTube negligent in landmark lawsuit on social media safety. nbcnews.com, 25. März 2026.

NPR (2026): Jury finds Meta and Google negligent in social media harms trial. npr.org, 25. März 2026.

CNBC (2026): Jury in Los Angeles finds Meta, YouTube negligent in social media addiction trial. cnbc.com, 25. März 2026.

11. 48-Stunden-Takedown mit echten Sanktionen

Der TAKE IT DOWN Act und der australische Online Safety Act sehen 48-Stunden-Entfernungspflichten vor. Was fehlt, sind Sanktionen, die ökonomisch schmerzen — nicht symbolische Bußgelder, sondern umsatzbasierte Strafrahmen.

Stand

Australiens eSafety Commissioner kann Zivilstrafen bis zu 156.500 Dollar pro Verstoß verhängen. Der DSA sieht Bußgelder bis zu 6% des weltweiten Jahresumsatzes vor — strukturell richtig, in der Praxis bisher selten ausgeschöpft.

Was fehlt

Konsequente Ausschöpfung bestehender Höchstsanktionen. Automatisierte Sanktionsmechanismen, die nicht von langen Verwaltungsverfahren abhängen. Öffentliche Transparenz über verhängte und nicht verhängte Sanktionen.

Wer liefern muss

Regulierungsbehörden müssen bestehende Sanktionsrahmen ausschöpfen. Politik muss Behörden mit ausreichend Personal und Budget ausstatten. Plattformbetreiber müssen Takedown-Infrastruktur ausbauen.

Einwand

„48-Stunden-Fristen können bei Massenanfragen operativ nicht eingehalten werden, ohne automatisierte Systeme einzusetzen, die Fehlentscheidungen produzieren und legitime Inhalte entfernen.“

Abwägung

Die Lösung ist nicht die Verlängerung der Frist, sondern die Investition in bessere Prüfsysteme — eine Investition, die Plattformen bisher vermieden haben, weil keine ausreichenden Sanktionen drohten. Wo Fehlentscheidungen möglich sind, braucht es ein schnelles Wiederherstellungsverfahren als Gegenstück.

Warum notwendig

Für Opfer ist jede Stunde, in der sexualisierte Inhalte kursieren, eine weitere Verletzung. Die Schutzbedürftigkeit der Opfer überwiegt den operativen Komfort der Plattformen.

Quellen

TAKE IT DOWN Act, Pub. L. No. 119-___ (2025), Section 3: 48-hour removal obligation. congress.gov.

Online Safety Act 2021 (Australia): eSafety Commissioner civil penalties, Section 109. legislation.gov.au.

Verordnung (EU) 2022/2065 (DSA), Art. 52: Sanktionen bis zu 6% des weltweiten Jahresumsatzes. EUR-Lex.

Stanford Internet Observatory (2023): Content Moderation at Scale. — Zu Kapazitätsproblemen bei Takedown-Verfahren.

12. Proaktive Erkennungspflicht

Plattformen müssen verpflichtet werden, bereits bekannte und identifizierte Deepfake-Abuse-Inhalte mittels Hash-Matching automatisiert zu erkennen und zu sperren — nicht erst nach Meldung durch Opfer.

Stand

PhotoDNA und Hash-Matching-Technologien werden von großen Plattformen freiwillig für CSAM-Erkennung eingesetzt. Für Deepfake-Abuse-Material existiert keine vergleichbare gesetzliche Pflicht. Eine behördlich gepflegte Hash-Datenbank für Deepfake-Material existiert nicht.

Was fehlt

Eine gesetzliche Pflicht zur proaktiven Hash-Erkennung für bekannte, bereits identifizierte Deepfake-Abuse-Materialien. Eine zentrale behördlich gepflegte Datenbank. Klärung der datenschutzrechtlichen Grundlage im Einklang mit der DSGVO.

Wer liefern muss

Gesetzgeber müssen die Pflicht schaffen und datenschutzrechtlich absichern. Eine europäische Behörde muss eine zentrale Hash-Datenbank aufbauen und pflegen. Plattformbetreiber müssen die technische Integration leisten.

Einwand

„Hash-Matching funktioniert gut für statisches, bekanntes Material. Bei Deepfakes ist die Situation anders: Deepfakes sind variabel generierbar, kleine Veränderungen erzeugen andere Hash-Werte, und die False-Negative-Rate ist strukturell hoch. Zudem berührt Upload-Scanning die Privatsphäre aller Nutzerinnen.“

Abwägung

Hash-Matching ist bei Deepfakes kein Allheilmittel und muss als eines von mehreren Instrumenten verstanden werden, das nur für bereits bekannte Inhalte wirksam ist. Die Forderung muss präzisiert werden: proaktive Erkennung für bereits identifizierte und in eine behördliche Datenbank aufgenommene Inhalte, nicht für alle denkbaren Deepfake-Varianten. Die Datenschutzfrage ist lösbar, wenn Hashing auf Signaturen operiert, nicht auf Inhalten.

Warum notwendig

Opfer, deren Material einmal identifiziert und gehasht ist, sollten nicht immer wieder neu Meldung erstatten müssen. Auch wenn Hash-Matching nur bekannte Inhalte erfasst, ist das ein bedeutsamer Schutz.

Quellen

Microsoft PhotoDNA (2011–): Technical documentation. microsoft.com.

Internet Watch Foundation (2024): Hash-list sharing for AI-generated CSAM. iwf.org.uk.

Europäische Kommission (2022): Vorschlag für eine KI-gestützte CSAM-Erkennungsverordnung — datenschutzrechtliche Diskussion. eur-lex.europa.eu.

Electronic Frontier Foundation (2023): The Dangers of Client-Side Scanning. eff.org. — Zum Datenschutzproblem.

13. Betreiberidentifikationspflicht für Pornografie-Plattformen

Plattformen, die sexuelle Inhalte hosten, müssen transparent und juristisch erreichbare Betreiberangaben vorhalten. Die aktuelle Situation — Betreiber hinter verschleierten Strukturen, für Strafverfolgungsbehörden unerreichbar — ist kein technisches Problem, sondern ein Regulierungsversagen.

Stand

Der DSA verpflichtet sehr große Plattformen zu Transparenz über ihre Betreiberstruktur — kleine und mittlere Pornografie-Plattformen fallen nicht darunter. Domain-Registrare sind nicht verpflichtet, Betreiberidentitäten zu prüfen.

Was fehlt

Eine sektorspezifische Pflicht für alle Plattformen, die sexuelle Inhalte hosten, unabhängig von ihrer Größe: verifizierte, juristisch erreichbare Betreiberidentität als Betriebsvoraussetzung. Extraterritoriale Durchsetzungsmechanismen.

Wer liefern muss

Gesetzgeber müssen sektorspezifische Betreiberpflichten schaffen. Domain-Registrare und Hosting-Anbieter müssen als Gatekeeper verpflichtet werden. Carrier müssen als letzte Durchsetzungsebene fungieren dürfen.

Einwand

„Carrier-Level-Blocking berührt Netzneutralität und kann als Zensurinfrastruktur missbraucht werden. In autoritären Staaten werden dieselben Instrumente zur politischen Unterdrückung eingesetzt.“

Abwägung

Der Einwand ist strukturell ernst zu nehmen. Die Antwort ist nicht der Verzicht auf das Instrument, sondern seine rechtliche Einhegung: Carrier-Blocking muss richterlich angeordnet, öffentlich dokumentiert und auf klar definierte illegale Inhalte beschränkt sein.

Warum notwendig

Wenn ein Plattformbetreiber für Strafverfolgungsbehörden unerreichbar ist, ist jede andere Rechtsregel wirkungslos. Erreichbarkeit ist die Voraussetzung aller anderen Instrumente.

Quellen

Verordnung (EU) 2022/2065 (DSA), Art. 13 (Transparenzpflichten). EUR-Lex.

ICANN: WHOIS-Reform und Betreiberidentifikation. icann.org.

UK Online Safety Act 2023: Provider identification requirements. legislation.gov.uk.

Masnick, M. (2023): The practical limits of carrier blocking. techdirt.com. — Zur Netzneutralitätsdiskussion.

Institutioneller Rahmen

14. Spezialisierte Anlaufstellen und Meldestrukturen

Jedes Land benötigt eine spezialisierte, rund um die Uhr erreichbare Meldestelle für digitale sexualisierte Gewalt — mit technischer Kompetenz, juristischer Durchsetzungsfähigkeit und niedrigschwelligem Zugang.

Stand

Australiens eSafety Commissioner existiert seit 2015 und ist seit dem Online Safety Act 2021 mit Direktklagebefugnis ausgestattet. In Europa existieren spezialisierte Meldestellen für CSAM, aber keine vergleichbare Behörde mit Mandat, Befugnissen und Ressourcen für Deepfake-Abuse und digitale sexualisierte Gewalt gegen Erwachsene.

Was fehlt

Eine staatliche Behörde mit dreigliedrigem Mandat — Beratung, Takedown-Durchsetzung, Direktklage — in jedem Land. Mindestens eine europäische Koordinierungsstelle für grenzüberschreitende Fälle. Ausreichende Ressourcen: Der australische eSafety Commissioner operiert mit einem Budget von rund 210 Millionen australischen Dollar für 2025–2028.

Wer liefern muss

Politik und Gesetzgeber müssen die Behörden schaffen und ausreichend finanzieren. Die EU muss einen europäischen eSafety-Pendant mandatieren. NGOs können Übergangsaufgaben übernehmen, sind aber kein dauerhafter Ersatz für staatliche Schutzinfrastruktur.

Einwand

„Eine neue Behörde ist teuer, langsam aufzubauen und birgt bürokratische Ineffizienz. Bestehende Datenschutzbehörden könnten mit erweitertem Mandat dieselbe Funktion übernehmen.“

Abwägung

Datenschutzbehörden haben weder das Mandat noch die Expertise für Direktklagen gegen Täter oder Plattformen im Kontext sexualisierter Gewalt. Der Aufbau kostet Zeit und Geld — aber das australische Modell zeigt, dass es funktioniert.

Warum notwendig

Ohne spezialisierte staatliche Stelle bleibt der Schutz fragmentiert, reaktiv und von der Ressourcenstärke der betroffenen Person abhängig.

Quellen

eSafety Commissioner Australia: Annual Report 2024–25. esafety.gov.au.

eSafety Commissioner Australia (2024): Budget und Mandate. esafety.gov.au.

HateAid (2024): Jahresbericht — Beratungsleistungen und Kapazitätsgrenzen. hateaid.org.

Europäische Kommission (2024): Feasibility study — EU Digital Violence Observatory. ec.europa.eu.

15. Spezialisierte Staatsanwaltschaften

Spaniens Modell spezifischer Gerichte und Staatsanwaltschaften für Gewalt gegen Frauen muss auf digitale Erscheinungsformen ausgedehnt werden. Allgemeinstrafrecht und -behörden sind strukturell überfordert — technisch, ressourcenmäßig und konzeptuell.

Stand

Spanien unterhält 128 spezialisierte Gerichte für Gewalt gegen Frauen in 79 Gerichtsbezirken. In keinem anderen verglichenen Land existieren vergleichbare Strukturen für digitale Gewalt. Deutschland, Frankreich, Österreich und die Schweiz verfügen über allgemeine Cybercrime-Einheiten, die nicht auf genderbasierte digitale Gewalt spezialisiert sind.

Was fehlt

Spezialisierung — Staatsanwaltschaften und Gerichte, die genderbasierte digitale Gewalt als eigenes Rechtsgebiet behandeln. Technische Expertise — digitale Beweissicherung, Plattformanfragen, Sachverständigenführung. Institutionelle Verbindung zwischen Strafverfolgung und Opferberatung.

Wer liefern muss

Politik muss spezialisierte Einheiten finanzieren und mandatieren. Justizbehörden müssen Ausbildungsprogramme entwickeln. Universitäten müssen digitale Gewalt als Lehrinhalt in Jura- und Polizeistudium verankern.

Einwand

„Spezialisierung fragmentiert das Strafrechtssystem und kann zu Zuständigkeitskonflikten führen. Nicht jede Jurisdiktion hat die Fallzahlen, die eine vollständige Spezialisierung rechtfertigen.“

Abwägung

Der Einwand trifft kleinere Jurisdiktionen stärker als große. Die Lösung ist eine gestufte Spezialisierung: spezialisierte Einheiten auf Landesebene mit Weiterbildungspflicht für alle Staatsanwältinnen und Staatsanwälte.

Warum notwendig

Ohne Spezialisierung bleibt die Strafverfolgung strukturell hinter der Täterintelligenz zurück — technisch, juristisch und kulturell.

Quellen

Ley Orgánica 1/2004 (Spanien): Gerichte und Staatsanwaltschaften für Gewalt gegen Frauen. BOE.

Bundeskriminalamt (2024): Cybercrime-Einheiten in Deutschland. bka.de.

Europol (2023): Digital Forensics Capacity Building in EU Member States. europol.europa.eu.

Bund Deutscher Kriminalbeamter (2023): Spezialisierung bei sexualisierten Straftaten. bdk.de.

16. Recht auf Löschung mit Durchsetzungsmacht

Opfer brauchen nicht nur ein nominelles Recht auf Löschung, sondern eine staatliche Stelle mit der Befugnis, Entfernung gegenüber Plattformen und Carriern durchzusetzen — einschließlich gegenüber ausländischen Plattformen.

Stand

Die DSGVO gewährt ein Recht auf Löschung personenbezogener Daten — das auf sexualisiertes Deepfake-Material nur eingeschränkt anwendbar ist. Der australische eSafety Commissioner kann Entfernungsanordnungen erlassen. In Europa hat keine vergleichbare Behörde diese Kombination aus Anordnungs- und Vollstreckungsbefugnis.

Was fehlt

Eine Behörde mit der Befugnis, gegenüber Plattformen, App-Stores und Carriern Entfernungsanordnungen zu erlassen und zu vollstrecken. Ein Verfahren, das für Opfer kostenlos, schnell und niedrigschwellig ist.

Wer liefern muss

Gesetzgeber müssen die Behördenbefugnisse schaffen. Carrier müssen als Vollstreckungsebene gesetzlich verpflichtet werden. Plattformbetreiber müssen technische Schnittstellen für behördliche Entfernungsanordnungen bereitstellen.

Einwand

„Carrier-Level-Blocking als Vollstreckungsmechanismus birgt Netzneutralitäts- und Zensurrisiken. Internationale Zuständigkeit bei ausländischen Plattformen ist komplex und oft nicht durchsetzbar.“

Abwägung

Die internationale Zuständigkeitsfrage spricht nicht gegen nationale Regelungen, sondern für intensivere internationale Kooperation. Carrier-Blocking als letztes Mittel muss richterlich angeordnet und verfahrensrechtlich eingegrenzt sein.

Warum notwendig

Ein Recht ohne Durchsetzungsmechanismus ist kein Recht. Solange Opfer für Löschungen selbst klagen müssen, ist der Schutz strukturell ungleich verteilt.

Quellen

Verordnung (EU) 2016/679 (DSGVO), Art. 17 (Recht auf Löschung). EUR-Lex.

eSafety Commissioner Australia: Removal Notices — Powers and procedures. esafety.gov.au.

Europäische Kommission (2024): Digital Violence Review — Enforcement gaps. ec.europa.eu.

Calo, R. (2022): Artificial Intelligence Policy: A Primer. SSRN. — Zu Durchsetzungsmechanismen.

17. Verpflichtende Polizeiausbildung

Das Muster — 67% der Frauen in Frankreich, die Anzeige erstatten wollten, wurden am Schalter abgewiesen — ist kein individuelles Behördenversagen. Es ist ein Ausbildungs- und Kulturproblem.

Stand

In keinem der verglichenen Länder ist digitale Gewalt gegen Frauen als eigenständiges Pflichtmodul in der Polizeigrundausbildung verankert. Spanien hat im Rahmen der LO 1/2004 spezialisierte Schulungen eingeführt, die jedoch nicht systematisch auf digitale Erscheinungsformen ausgedehnt wurden.

Was fehlt

Verpflichtende Grundausbildung mit Modul "Digitale Gewalt gegen Frauen" — Tatbestände, Beweissicherung, Anzeigenaufnahme, Opferkommunikation. Klare Protokolle, die illegale Abweisung von Anzeigen verhindern. Sanktionsmechanismen für Behörden, die Anzeigen rechtswidrig ablehnen.

Wer liefern muss

Innenministerien und Polizeiausbildungsbehörden müssen Curricula entwickeln. Staatsanwaltschaften müssen nachgelagerte Qualitätssicherung übernehmen. NGOs können bei der Curriculumentwicklung als Sachverständige eingebunden werden.

Einwand

„Ausbildungsprogramme allein ändern keine institutionelle Kultur. Ohne strukturelle Anreize — Karrierefolgen für fehlerhafte Anzeigenabweisung — bleibt Ausbildung wirkungslos.“

Abwägung

Der Einwand ist berechtigt und spricht für eine Kombination aus Ausbildung und Accountability-Mechanismen: Beschwerderecht für abgewiesene Anzeigen mit bindender Überprüfung, Dokumentationspflicht bei Ablehnung, disziplinarische Konsequenzen bei rechtswidrigen Abweisungen.

Warum notwendig

Eine rechtswidrige Anzeigenabweisung re-traumatisiert Opfer und signalisiert, dass der Staat ihre Verletzung nicht ernst nimmt. Das ist eine eigenständige institutionelle Schutzpflichtverletzung.

Quellen

StopFisha (2024): Rapport sur les refus d'enregistrement des plaintes en France. stopfisha.org.

Amnesty International (2022): Polizeiliche Reaktion auf sexualisierte Gewalt: Europäischer Vergleich. amnesty.org.

Bundeskriminalamt / BKA-Akademie (2024): Fortbildungsprogramm zu digitalen Straftaten. bka.de.

Renzetti, C. M. (2018): Feminist Criminology. Routledge. — Zu Institutionenkultur und Opferfeindlichkeit.

V. KI-Regulierung — Vom Transparenz- zum Haftungsparadigma

18. AI Act nachschärfen: Produktsicherheit statt Kennzeichnungspflicht

Der AI Act muss für Hochrisiko-KI-Anwendungen im Bereich sexualisierter Inhalte von einer Transparenz- auf eine Präventionspflicht umgestellt werden. Kennzeichnung schützt nicht vor Deepfake-Gewalt. Sie dokumentiert sie nur.

Stand

Der AI Act ist seit August 2024 in Kraft. Er klassifiziert Deepfakes als Transparenzrisiko und verpflichtet Anbieter zur Kennzeichnung. Nudify-Apps fallen nicht in die Hochrisikokategorie.

Was fehlt

Revision der Risikokategorisierung, die Anwendungen mit klarem Missbrauchspotenzial für sexualisierte Bildgewalt als Hochrisiko einstuft. Präventionspflichten mit technischen Safeguards, die vor Markteinführung nachgewiesen werden müssen.

Wer liefern muss

Die EU-Kommission muss delegierte Rechtsakte erlassen oder eine Revision vorbereiten. Das EU AI Office muss als Prüfbehörde mit technischer Expertise aufgebaut werden.

Einwand

„Eine Ausweitung der Hochrisikokategorie auf sexualisierte KI-Anwendungen ist rechtspolitisch komplex: Wer definiert, was "primärer Zweck" ist? Eine zu weite Definition könnte generative Modelle insgesamt erfassen.“

Abwägung

Die Hochrisikokategorie muss eng und präzise definiert werden: Anwendungen, die ausdrücklich und technisch auf die Entkleidung oder sexuelle Darstellung realer Personen ausgerichtet sind. Allgemeine generative Modelle fallen nicht darunter — es sei denn, sie sind für diesen Zweck konfiguriert und vermarktet.

Warum notwendig

Wenn ein Produkt vorhersehbar für schwere Grundrechtsverletzungen eingesetzt wird und der Hersteller das weiß, ist Kennzeichnung eine unangemessen schwache Reaktion des Rechtsstaats.

Quellen

Verordnung (EU) 2024/1689 (AI Act), Art. 50 (Transparenzpflichten für Deepfakes). EUR-Lex.

EU AI Office (2024): Roadmap and delegated acts. digital-strategy.ec.europa.eu.

Europäisches Parlament (2023): AI Act Negotiations — Gender-based violence provisions. europarl.europa.eu.

Wachter, S. et al. (2021): Why fairness cannot be automated: Bridging the gap between EU non-discrimination law and AI. Computer Law & Security Review.

19. KI-Anbieter in die Verantwortungskette einbeziehen

Wer ein Modell entwickelt und bereitstellt, das vorhersehbar zur Erzeugung nicht-einvernehmlicher sexualisierter Inhalte genutzt wird, muss haften — nicht nur der Endnutzer.

Stand

Die EU-Produkthaftungsrichtlinie wurde 2024 überarbeitet und schließt nun Software und KI-Systeme ein. Die konkrete Anwendung auf Deepfake-Abuse-Fälle ist rechtlich noch ungetestet.

Was fehlt

Rechtsprechung oder Gesetzgebung, die KI-Entwickler und -Anbieter explizit in die Haftungskette einbezieht. Ein Sorgfaltspflichtstandard, der definiert, welche Schutzmaßnahmen KI-Anbieter vor der Vermarktung umsetzen müssen.

Wer liefern muss

Gerichte müssen erste Präzedenzfälle entwickeln. Gesetzgeber müssen den Haftungsrahmen konkretisieren. KI-Anbieter müssen Safeguards als echte Produktentscheidungen implementieren.

Einwand

„Die Zurechnung von Haftung an KI-Anbieter für Endnutzerverhalten ist rechtlich anspruchsvoll. Dieselbe Logik könnte auf Messerhersteller oder Automobilhersteller ausgedehnt werden — wo liegt die Grenze?“

Abwägung

Die Grenze liegt bei der Vorhersehbarkeit und der primären Zweckbestimmung. Ein Nudify-App-Anbieter produziert ein Produkt, dessen primärer Verwendungszweck erkennbar auf Verletzung ausgerichtet ist. Der Vergleich mit Messerherstellern hält einer juristischen Prüfung nicht stand.

Warum notwendig

Solange Haftung ausschließlich beim Endnutzer liegt, hat die Industrie keinen ökonomischen Anreiz, in Safeguards zu investieren.

Quellen

Richtlinie 2024/2853/EU (Neue EU-Produkthaftungsrichtlinie), Erwägungsgründe zu Software und KI. EUR-Lex.

European Law Institute (2024): AI Liability — Analysis of the new Product Liability Directive. europeanlawinstitute.eu.

Selbst, A. D. (2021): Negligence and AI's Human Users. Boston University Law Review.

Council of Europe (2024): AI Convention and developer accountability. coe.int.

20. Verbindliche Sicherheitsarchitektur für Bildgenerierungsmodelle

Bildgenerungs-KI muss technische Schutzmaßnahmen verpflichtend implementieren: keine Erzeugung realistischer Gesichter identifizierbarer Personen in sexuellem Kontext ohne verifizierte Einwilligung.

Stand

Einzelne Anbieter haben freiwillige Safeguards implementiert, die jedoch durch Fine-Tuning oder Open-Source-Alternativen umgehbar sind. OpenAI und andere wenden C2PA-Standards für Inhalts-Provenienz an — freiwillig und unvollständig.

Was fehlt

Gesetzliche Mindest-Safeguards für alle Bildgenerierungsmodelle, die in der EU angeboten werden. Technische Zertifizierungspflicht, die Umgehbarkeit prüft. Regulierung auch für Open-Source-Modelle.

Wer liefern muss

Gesetzgeber müssen Mindestsafeguards definieren. App-Stores und Hosting-Anbieter müssen Compliance-Nachweise verlangen. Die Wissenschaftsgemeinschaft muss robuste Safeguards entwickeln.

Einwand

„Open-Source-Modelle können von keinem einzelnen Anbieter kontrolliert werden — eine Regulierung, die nur lizenzierte Anbieter trifft, erzeugt einen Wettbewerbsnachteil zugunsten unkontrollierbarer Open-Source-Alternativen: das klassische "Wasserballon-Problem".“

Abwägung

Die Antwort liegt in einer ergänzenden Infrastrukturregulierung: Wer Hosting, Rechenleistung oder Distributionsinfrastruktur für Open-Source-Modelle bereitstellt, die nachweislich für Deepfake-Abuse genutzt werden, muss haftbar sein. Das ist keine vollständige Lösung, aber eine deutliche Einschränkung des Ausweichraums.

Warum notwendig

Freiwillige Safeguards haben bislang keine hinreichende und systematische Schutzwirkung entfaltet, wie die dokumentierte Weiterverbreitung von Deepfake-Abuse-Material auf Plattformen mit bestehenden Richtlinien zeigt. Technische Mindeststandards als Marktvoraussetzung sind das einzige Instrument, das die Produktentwicklung vor der Skalierung beeinflusst.

Quellen

C2PA (Coalition for Content Provenance and Authenticity): Technical Specification. c2pa.org.

NIST (2023): Artificial Intelligence Risk Management Framework. nist.gov.

Bender, E. M. et al. (2021): On the Dangers of Stochastic Parrots. ACM FAccT.

Goldenfein, J. et al. (2024): Open-Source AI and Accountability Gaps. Georgetown Law Technology Review.

VI. Finanzinfrastruktur und Werbewirtschaft

21. Zahlungsdienstleister in die Pflicht nehmen

Zahlungsdienstleister müssen Compliance-Nachweise von Plattformen verlangen, die sexuelle Inhalte hosten, bevor sie Dienste erbringen — gesetzlich verpflichtend, nicht als freiwillige Brand-Safety-Maßnahme.

Stand

2021 haben Visa und Mastercard nach öffentlichem Druck die Zahlungsabwicklung für Pornhub eingeschränkt — ein Beweis, dass finanzieller Druck wirkt. Eine gesetzliche Pflicht für Zahlungsdienstleister, Compliance-Nachweise zu verlangen, existiert in keinem der verglichenen Länder.

Was fehlt

Gesetzliche Pflicht mit Anti-Geldwäsche-analoger Logik: Zahlungsdienstleister als regulierte Gatekeeper. Regelmäßige Compliance-Prüfungen als Bedingung für die Aufrechterhaltung der Geschäftsbeziehung.

Wer liefern muss

Gesetzgeber müssen Zahlungsdienstleister als regulierte Gatekeeper definieren. Finanzregulierungsbehörden müssen Compliance-Anforderungen in ihre Aufsichtspraxis integrieren.

Einwand

„Zahlungsdienstleister sind keine Strafverfolgungsbehörden. Eine gesetzliche Pflicht zur Inhaltsbewertung von Plattformen überfordert ihr Mandat und führt zu privatisierter Zensurinfrastruktur.“

Abwägung

Die Anforderung an Zahlungsdienstleister darf nicht lauten "prüfe, ob Inhalte legal sind". Sie muss lauten: "prüfe, ob die Plattform nachweisbar grundlegende Compliance-Anforderungen erfüllt" — Betreiberidentifikation, Altersverifikation, Beschwerdeverfahren. Das ist analog zu Anti-Geldwäsche-Sorgfaltspflichten.

Warum notwendig

Wenn Strafrecht und Regulierung scheitern, ist der Zahlungsfluss der letzte wirksame Hebel. Das hat 2021 die Realität gezeigt.

Quellen

New York Times (2020): The Children of Pornhub. — Auslöser für Visa/Mastercard-Rückzug. nytimes.com, 4. Dezember 2020.

Mastercard (2021): New Standards to Protect Cardholders. mastercard.com.

Financial Action Task Force (FATF, 2022): Risk-Based Approach Guidance. fatf-gafi.org. — Modell für Sorgfaltspflichten.

Europäische Bankenaufsichtsbehörde (EBA, 2023): Guidelines on AML/CFT risk management. eba.europa.eu.

22. Werbefinanzierung illegaler Inhalte unterbinden

Werbetreibende dürfen nicht auf Plattformen ausgespielt werden, die nachweislich nicht-einvernehmliche sexualisierte Inhalte hosten. Das erfordert Transparenzpflichten für Werbenetzwerke und Haftungsregeln für Auftraggeber.

Stand

Brand-Safety-Mechanismen existieren als freiwillige Markenrisiko-Maßnahme. Werbenetzwerke wie Google Ad Manager schließen bestimmte Inhaltskategorien automatisch aus. Für Deepfake-Abuse-Plattformen greift dieser Mechanismus strukturell nicht ausreichend.

Was fehlt

Gesetzliche Haftung für Werbekunden und Werbenetzwerke, die Anzeigen auf Plattformen ausspielen, die nachweislich illegale sexualisierte Inhalte hosten. Transparenzpflichten für Werbenetzwerke über Auslieferungsorte.

Wer liefern muss

Gesetzgeber müssen Haftungsregeln schaffen. Werbenetzwerke müssen Transparenz über Auslieferungsorte schaffen. Große Werbekunden müssen Brand-Safety-Compliance als tatsächliche Anforderung an ihre Mediaagenturen stellen.

Einwand

„Werbetreibende können die tatsächliche Nutzung ihrer Anzeigen durch Werbenetzwerke nicht vollständig kontrollieren. Eine Haftung für Auftraggeber ist unverhältnismäßig, wenn die technische Kontrolle beim Netzwerk liegt.“

Abwägung

Die Lösung ist eine gestufte Haftung: Primär haften Werbenetzwerke, die die technische Kontrolle haben. Auftraggeber haften subsidiär, wenn sie trotz Kenntnis keine Konsequenzen gezogen haben.

Warum notwendig

Werbefinanzierung ist die Lebensgrundlage vieler Plattformen. Wer diese Grundlage reguliert, reguliert effektiv das Geschäftsmodell — ohne auf die Unmöglichkeit internationaler Strafverfolgung angewiesen zu sein.

Quellen

Global Alliance for Responsible Media (GARM): Brand Safety Floor + Suitability Framework. wfanet.org. Hinweis: Die Global Alliance for Responsible Media (GARM) wurde im August 2024 aufgelöst; das Brand Safety Framework wird seither durch die WFA weitergeführt.

Google (2023): Publisher Policies — Adult content. policies.google.com.

Verordnung (EU) 2022/2065 (DSA), Art. 26 (Transparenz der Werbung). EUR-Lex.

Naughton, J. (2021): The ad-funded model of the internet is the root cause. The Guardian. — Zu Werbefinanzierung als Systemfaktor.

VII. Bildung und Prävention

23. Digitale Selbstverteidigung als Bildungsinhalt

Mädchen und Frauen brauchen konkrete Kompetenz: Was sind Nudify-KIs, wie funktionieren sie, wie dokumentiert man Angriffe rechtssicher, welche Anlaufstellen gibt es, welche Rechte stehen Betroffenen zu.

Stand

NGOs wie HateAid in Deutschland, StopFisha in Frankreich und ZARA in Österreich leisten diese Arbeit mit begrenzten Ressourcen, ohne staatliche Pflichtverankerung und ohne institutionelle Reichweite in Schulen.

Was fehlt

Verankerung als verpflichtender Bestandteil von Schul- und Berufsbildungscurricula. Staatliche Finanzierung der spezialisierten NGOs. Multiplikatoren-Programme für Lehrkräfte, Sozialarbeiterinnen und Beratungsstellen.

Wer liefern muss

Bildungsministerien müssen Curricula anpassen. Schulen müssen Lehrkräfte ausbilden und Zeitressourcen bereitstellen. NGOs müssen als Expertinnen eingebunden und ausreichend finanziert werden.

Einwand

„Bildungsangebote für Opfer laufen Gefahr, die Verantwortung für Prävention auf die potentiell Betroffenen zu verlagern, statt auf die Täter und die Systeme. Victim-Blaming durch Struktur.“

Abwägung

Digitale Selbstverteidigung darf nicht als Ersatz für strukturelle Schutzmaßnahmen verstanden werden, sondern als Ergänzung in einem Raum, in dem staatliche Infrastruktur noch nicht ausreichend vorhanden ist. Das Curriculum muss selbst reflektieren: Nicht "schütze dich", sondern "kenne deine Rechte und die Pflichten anderer".

Warum notwendig

Bis staatliche Schutzinfrastruktur ausreichend aufgebaut ist — was Jahre dauern wird — ist praktisches Wissen über Rechte, Dokumentation und Anlaufstellen der einzige unmittelbar verfügbare Schutz.

Quellen

HateAid (2024): Kurskonzept Digitale Zivilcourage und Selbstverteidigung. hateaid.org.

StopFisha (2024): Guide pratique — cyberviolence sexuelle. stopfisha.org.

ZARA (2024): Beratungsangebote und Ressourcen. zara.or.at.

UN Women (2020): Online and ICT-Facilitated Violence Against Women and Girls. — Zur Rolle von Bildung im Schutzkonzept.

24. Medienbildung mit Designkritik

Schulmedienkompetenz muss die Designmechaniken der Plattformen explizit thematisieren — als strukturierte Auseinandersetzung mit den konkreten Mechaniken, durch die Aufmerksamkeit gebunden und Selbstregulation unterlaufen wird.

Stand

Medienkompetenz ist nominell Teil der meisten Schullehrpläne — in der Praxis stark variierend in Qualität und Tiefe. Die Auseinandersetzung mit spezifischen Designmechaniken fehlt in allen bekannten Curricula.

Was fehlt

Konkrete Curricula, die Plattformdesign als Gegenstand kritischer Analyse einführen — spätestens ab Sekundarstufe I. Lehrkräfte, die selbst ausreichend ausgebildet sind. Lernmaterialien auf dem Stand aktueller Forschung.

Wer liefern muss

Bildungsministerien müssen Curricula entwickeln und Ressourcen bereitstellen. Hochschulen müssen entsprechende Lehramtsausbildung anbieten. Forschungseinrichtungen müssen praxistaugliche Lernmaterialien entwickeln.

Einwand

„Plattformbetreiber bieten selbst Medienkompetenzprogramme an und könnten diese als Regulierungsersatz positionieren. Der Staat läuft Gefahr, die Deutungshoheit über Medienbildung an Interessenträger abzugeben.“

Abwägung

Medienkompetenzprogramme von Plattformbetreibern sind kein Ersatz für unabhängige staatliche Bildung und dürfen nicht als solcher akzeptiert werden. Staatliche Curricula müssen die Designentscheidungen der Plattformen selbst zum kritischen Gegenstand machen — das ist per definitionem keine Aufgabe, die an Plattformbetreiber delegiert werden kann.

Warum notwendig

Wer die Mechanismen versteht, durch die seine Aufmerksamkeit gebunden wird, kann bewusster damit umgehen. Das ist keine Garantie, aber eine Voraussetzung für informierte Souveränität.

Quellen

Kultusministerkonferenz (2016): Bildung in der digitalen Welt — Strategie. kmk.org.

Center for Humane Technology (2023): Foundations of Humane Technology Course. humanetech.com.

Livingstone, S. / Third, A. (2017): Children and young people's rights in the digital age. Global Studies of Childhood.

Ferrara, E. et al. (2023): Teaching AI Literacy: Curriculum Frameworks. AI & Society.

Der gemeinsame Nenner

Fast alle dieser Maßnahmen sind technisch grundsätzlich möglich, rechtlich konstruierbar und in mindestens einem Land bereits erprobt. Was fehlt, ist nicht Einfallsreichtum — es ist politischer Wille gegenüber Akteuren, die erhebliche ökonomische und politische Gegenmacht besitzen. Das ist die eigentliche Engstelle, die das gesamte Dossier benennt und die keine Regulierungsliste allein auflösen kann.

Auffällig in der Gesamtschau: Die größten Vollzugsdefizite liegen nicht bei der Gesetzgebung, sondern bei der Durchsetzung bestehenden Rechts — und bei der institutionellen Kapazität. Behörden ohne technische Expertise, Staatsanwaltschaften ohne Ressourcen, Polizei ohne Schulung: Das ist der eigentliche Flaschenhals. Jede neue Norm, die in dieses strukturelle Vakuum fällt, wird wirkungslos bleiben. Priorität hat deshalb nicht nur neue Gesetzgebung, sondern der Aufbau der Institutionen, die sie vollziehen können.

Die Einwände und Abwägungen in diesem Anhang verfolgen ein explizites Ziel: nicht Abschwächung der Forderungen, sondern ihre Robustheit. Wer die stärksten Gegenargumente kennt und benennt, kann sie präziser adressieren — und verhindert, dass legitime Implementierungsfragen als Ablehnungsargumente missbraucht werden.

Richtig ist nicht das, was gerade noch durchgeht, sondern das, was strukturell verhindert, dass digitale Systeme Selbstregulation, Würde und Sicherheit unterlaufen.

Anhang C benennt das Notwendige. Anhang A erklärt die Mechanismen, durch die der Status quo aufrechterhalten wird. Anhang B dokumentiert, wo das Recht heute steht. Zusammen ergeben diese drei Anhänge eine handlungsorientierte Gesamtarchitektur — von der Diagnose über die Bestandsaufnahme zur konkreten Forderung.

Weiter vertiefen

← Wissensraum