Wissensraum · Essay
Intelligenz als Rohstoff und Infrastruktur. Was KI mit der Industrialisierung des 19. Jahrhunderts verbindet.
Was dieser Essay Ihnen zeigt
KI als zweite Industrialisierung – was das für Wirtschaft, Recht und Gesellschaft bedeutet.
Was wir heute künstliche Intelligenz nennen, hat ein Geheimnis: Sie ist gar nicht so neu, wie sie wirkt. Hinter den Chatbots, den Bildgeneratoren, dem Code, der sich scheinbar selbst schreibt, steckt eine sehr alte Logik — die Logik der Industrialisierung.
Das 19. Jahrhundert vervielfachte Muskelkraft durch Dampf und Stahl. Das 21. Jahrhundert versucht dasselbe mit Denkarbeit. Schreiben, Analysieren, Übersetzen, Programmieren — Tätigkeiten, die einmal menschliches Urteilsvermögen erforderten, werden schrittweise in Rechenzentren verlagert, auf Servern standardisiert, über Plattformen skaliert.
Und wie bei jeder Industrialisierung entsteht dahinter eine riesige, meist unsichtbare Maschine: Halbleiterfabriken in Taiwan, Rechenzentren in Virginia und Irland, Millionen von schlecht bezahlten Datenarbeitern in Kenia und auf den Philippinen, Wasserverbrauch in Uruguay, Energiehunger, der die Stromnetze ganzer Regionen belastet.
Die entscheidende Frage ist dieselbe wie vor zweihundert Jahren: Wer kontrolliert die Infrastruktur — und wer trägt die Kosten?
Aber dieser Essay endet nicht bei der Infrastruktur. Er endet bei der Demokratie.
Denn die Geschichte der Industrialisierung zeigt nicht nur, wie neue Technologien Macht konzentrieren. Sie zeigt auch, unter welchen Bedingungen Gegenkräfte entstehen — und wann sie scheitern. Gesellschaften, die erschöpft sind, die kollektive Kampferfahrung verloren haben, die strukturelle Probleme als persönliche Aufgaben begreifen, verteidigen weder Institutionen noch erkämpfen sie neue. Das ist keine moralische Diagnose. Es ist eine strukturelle.
Europa steht vor einer Entscheidung, die im dominanten Diskurs über KI-Wettbewerbsfähigkeit fast nie als solche benannt wird: nicht zwischen Fortschritt und Rückschritt, sondern zwischen zwei verschiedenen Entwicklungsmodellen. Das eine folgt einem Tempo und einer Logik, die anderswo gesetzt wurden, für andere Interessen. Das andere entwickelt Technologie im eigenen Tempo, mit eigenem Qualitätsanspruch, unter demokratischer Kontrolle.
Demokratie muss gewollt werden. Und sie braucht Menschen, die dazu in der Lage sind.
Die KI-Welle wird häufig als Softwareinnovation beschrieben. Das ist irreführend. Wer verstehen will, was gerade passiert, muss in die Rechenzentren schauen – oder besser: auf die Stromrechnungen.
Große Sprachmodelle entstehen nicht in der Cloud. Sie entstehen in riesigen Trainingsclustern, die Millionen GPU-Stunden verschlingen, in Gebäuden, die so viel Strom verbrauchen wie mittlere Städte, gekühlt von Systemen, die täglich Millionen Liter Wasser verdampfen. Die „Cloud" ist keine Wolke. Sie ist eine der größten Maschinen, die Menschen je gebaut haben – nur dass man sie nicht sieht.
Dahinter steckt eine industrielle Logik, die Ökonomen gut kennen: Erst entsteht die Infrastruktur, dann verändert sie alles andere.
Historisch bestand Industrialisierung aus drei Elementen: Mechanisierung menschlicher Arbeit, Aufbau neuer Infrastruktur, Standardisierung von Produktionsprozessen. Die gegenwärtige KI-Welle erfüllt alle drei – nur auf einem anderen Terrain.
Maschinelles Lernen übersetzt geistige Tätigkeiten in statistische Muster. Schreiben, Übersetzen, Analysieren, Klassifizieren – Aufgaben, die einmal individuelles Urteilsvermögen erforderten, werden in algorithmische Abläufe überführt. Das Ergebnis ist Wissensarbeit, die sich skalieren, standardisieren und global organisieren lässt.
Unternehmen behandeln solche Systeme bereits als Infrastruktur: in der Programmierung, im Marketing, in der juristischen Analyse, in der medizinischen Dokumentation. Komplexe Tätigkeiten werden zerlegt, vereinfacht, teilautomatisiert – der Rest über digitale Plattformen ausgelagert.
Was dabei entsteht, ist keine Ersetzung menschlicher Intelligenz, sondern etwas strukturell Vertrauteres: ein Fabriksystem für kognitive Arbeit.
Industrialisierung entsteht nie durch einzelne Maschinen. Sie entsteht durch Infrastruktur.
Im 19. Jahrhundert waren es Eisenbahnen, Fabriken und Stromnetze. In der KI-Industrie übernehmen heute Rechenzentren, Cloudplattformen und Halbleiterfabriken diese Rolle. Hyperscaler wie Microsoft, Amazon und Google investieren jährlich Milliarden in neue Datacenter und KI-Hardware. Ihre Plattformen bilden das industrielle Rückgrat der digitalen Wirtschaft – so wie einst die Eisenbahn das Rückgrat der industriellen.
Wer dieses System als Ergebnis privater Innovation versteht, versteht es halb. Der Staat war von Beginn an dabei. Viele Grundlagen digitaler Technologie entstanden aus öffentlich finanzierter Forschung – aus DARPA-Programmen, aus Universitäten, aus Zentren wie Xerox PARC, wo grafische Benutzeroberflächen, Maussteuerung und frühe Netzwerkarchitekturen entwickelt wurden, bevor private Unternehmen sie kommerzialisierten.
Daran hat sich wenig geändert. Der CHIPS and Science Act von 2022 stellt 52 Milliarden Dollar für die Halbleiterproduktion in den USA bereit. Das Verteidigungsministerium vergibt milliardenschwere Cloudverträge an Amazon und Microsoft. Und Venture Capital fließt in Strömen: Microsoft investierte zweistellige Milliardenbeträge in OpenAI, Amazon und Google finanzierten Anthropic. Nvidia profitiert als zentraler Chiphersteller vom Wachstum der gesamten Branche.
Das Ergebnis ist eine starke Konzentration technologischer Macht bei wenigen globalen Plattformkonzernen – und ein Wachstumsdruck, der kaum Raum lässt für Innehalten oder Korrektur.
Seit etwa 2023 ist künstliche Intelligenz kein Technologiethema mehr. Sie ist ein Machtthema.
Was sich heute zwischen den USA, China und – mit Abstand – Europa abspielt, erinnert strukturell an frühere technologische Rüstungsspiralen: Elektrizität, Atomtechnologie, Raumfahrt. Wer die Infrastruktur kontrolliert, kontrolliert nicht nur einen Markt, sondern einen wachsenden Teil der globalen Ordnung.
In den USA dominieren eine Handvoll Plattformkonzerne – Microsoft, Alphabet, Amazon, Meta, Nvidia – mit enormen Kapitalreserven, globalen Cloudinfrastrukturen und privilegiertem Zugang zu den knappen KI-Chips. Um sie herum existieren spezialisierte KI-Unternehmen wie OpenAI oder Anthropic, die eng mit diesen Plattformen verflochten sind. Der Wettbewerb ist real – aber er findet innerhalb eines sehr kleinen Kreises statt.
China verfolgt ein anderes Modell: staatlich koordiniert, strategisch geduldig, mit massiven Investitionen in eigene Halbleiterproduktion und KI-Infrastruktur. Der Druck amerikanischer Exportkontrollen hat diesen Prozess beschleunigt, nicht gebremst.
Europa reguliert. Das ist nicht nichts – aber es ist auch nicht dasselbe wie gestalten.
Der eigentliche Einsatz in diesem Wettlauf sind nicht bessere Algorithmen. Es geht darum, wer die materiellen Grundlagen der nächsten technologischen Epoche kontrolliert: Chips, Rechenzentren, Energie, Daten. Wer diese Infrastruktur besitzt, bestimmt die Bedingungen, unter denen alle anderen operieren.
Eine der auffälligsten Eigenschaften der gegenwärtigen KI-Welle: Ihre gesamtwirtschaftlichen Effekte bleiben bislang weit hinter den Erwartungen zurück. Unternehmen und Staaten investieren Hunderte Milliarden in Rechenzentren, Chips und Modelle – die makroökonomischen Produktivitätsgewinne sind kaum messbar.
Das ist kein Zufall. Es ist ein bekanntes historisches Muster. Der Ökonom Robert Solow beschrieb es bereits für frühere Basistechnologien: Neue Technologien sind überall sichtbar – nur zunächst nicht in den Produktivitätsstatistiken. Elektrizität, Computer, das Internet – alle durchliefen lange Phasen organisatorischer Anpassung, bevor ihre wirtschaftlichen Effekte in den Daten auftauchten. KI befindet sich noch mitten in dieser Phase.
Auf der Ebene einzelner Tätigkeiten sind die Gewinne durchaus real. Experimente in Bereichen wie Kundenservice, Programmierung oder Beratung zeigen Effizienzsteigerungen von 20 bis 30 Prozent – vor allem bei standardisierten, textbasierten Aufgaben. Doch diese Gewinne verschwinden häufig in der Organisation: Freiwerdende Zeit wird sofort durch neue Aufgaben gefüllt, Erwartungen an Geschwindigkeit und Umfang steigen. Statt Arbeit zu reduzieren, intensiviert KI sie oft.
Hinzu kommt ein strukturelles Paradox: Gerade in sensiblen Bereichen – Personalentscheidungen, Kreditvergabe, medizinische Dokumentation – verlangen Regulierung und institutionelle Standards menschliche Aufsicht über algorithmische Systeme. Automatisierung erzeugt damit neue Formen administrativer Arbeit: Audits, Qualitätskontrolle, Compliance. Die Maschine schafft Bürokratie.
Die KI-Transformation verläuft damit nicht als gleichmäßige Revolution, sondern als ungleichzeitiger Prozess – mit sofortigen Investitionen, aber verzögerten und asymmetrisch verteilten Gewinnen. Wenige Unternehmen skalieren bereits, viele andere experimentieren noch. Die politische Brisanz liegt genau in dieser Lücke.
Hinter jedem scheinbar autonomen KI-System stehen Menschen – nur sieht man sie nicht.
Große Modelle entstehen nicht allein durch Algorithmen und Rechenleistung. Sie entstehen durch Millionen Stunden menschlicher Arbeit: Daten markieren, Modellantworten bewerten, problematische Inhalte moderieren, Systeme auf Bias testen. Diese Arbeit wird über spezialisierte Plattformfirmen organisiert – Scale AI, Sama, Appen – und findet größtenteils in Ländern des globalen Südens statt, in Kenia, Indien, auf den Philippinen, oft für wenige Dollar pro Stunde.
Die Arbeitsbedingungen sind häufig prekär. Wer täglich Gewaltvideos, Missbrauchsdarstellungen und Hassbotschaften sichten muss, um Modelle zu verbessern, trägt eine Last, die in keiner Produktbeschreibung auftaucht. Viele arbeiten ohne Vertrag, ohne soziale Absicherung, als Gig-Worker in einer globalen Lieferkette digitaler Arbeit.
Das Bild einer vollständig automatisierten KI ist damit nicht nur technisch ungenau. Es ist politisch bequem.
Große Sprachmodelle haben ein Fundament, über das selten gesprochen wird — und das die Industrie, die von ihm profitiert, lieber im Dunkeln lässt: Sie wurden auf dem gesammelten Wissen der Menschheit trainiert. Nicht auf einem Teil davon. Auf so viel davon, wie sich digitalisieren und einlesen ließ.
Was als Innovation vermarktet wird, ist in seinem Kern eine Aneignung. Aber bevor diese Aneignung benannt werden kann, muss eine Verwechslung ausgeräumt werden, die die gesamte öffentliche Debatte über KI verzerrt: die Verwechslung von statistischer Berechnung mit Intelligenz.
Große Sprachmodelle denken nicht. Sie verstehen nicht. Sie sind keine kreativen Subjekte, die aus eigenem Antrieb Neues hervorbringen. Was sie tun, ist strukturell viel nüchterner: Sie analysieren riesige Mengen menschlicher Texte, berechnen statistische Muster darin — welche Wörter folgen typischerweise auf welche anderen, welche Satzstrukturen treten in welchen Kontexten auf — und erzeugen auf dieser Grundlage Antworten, die wahrscheinlich klingen. Nicht wahr. Nicht verstanden. Wahrscheinlich.
Das Ergebnis kann beeindruckend wirken — weil das Material, aus dem diese Wahrscheinlichkeiten berechnet werden, das Denken, Schreiben und Argumentieren von Millionen menschlicher Intellekte über Jahrhunderte ist. Die scheinbare Intelligenz des Systems ist geliehene menschliche Intelligenz, destilliert und statistisch komprimiert. Wenn ein Sprachmodell einen überzeugenden juristischen Kommentar schreibt, dann nicht weil es Recht versteht — sondern weil es auf Tausenden juristischen Kommentaren trainiert wurde, die Menschen verstanden und geschrieben haben. Die Kreativität, die Urteilskraft, das Verstehen: das alles gehört den Menschen, deren Arbeit eingespeist wurde. Das Modell rechnet nach, was Menschen gedacht haben — es denkt nicht selbst.
Diese Unterscheidung ist nicht akademisch. Sie ist politisch entscheidend. Denn wenn KI als genuine Intelligenz begriffen wird, erscheint die Aneignung menschlichen Wissens als notwendige Grundlage einer überlegenen neuen Fähigkeit. Wenn sie dagegen als statistisches Kompressionsverfahren menschlichen Wissens verstanden wird, stellt sich die Frage anders: Wessen Wissen wird hier komprimiert — und wer profitiert davon?
Romane und Gedichte, wissenschaftliche Aufsätze und medizinische Lehrbücher, juristische Kommentare und philosophische Abhandlungen, Zeitungsartikel und Wikipedia-Einträge, persönliche Blogs und öffentliche Briefe — alles, was Menschen in Jahrhunderten gedacht, geschrieben, diskutiert und der Öffentlichkeit zugänglich gemacht haben, wurde in die Trainingscluster der großen Modelle eingespeist. Ohne Einwilligung. Ohne Vergütung. Ohne demokratische Entscheidung darüber, wem dieses Wissen gehört und wer über seine Verwendung bestimmt.
Das ist keine technische Randnotiz. Es ist die Grundlagenfrage der gesamten KI-Industrie — und sie wird systematisch kleingehalten, weil ihre ehrliche Beantwortung das Geschäftsmodell der mächtigsten Unternehmen der Welt in Frage stellen würde.
Was als Innovation vermarktet wird, ist in seinem Kern eine Aneignung. Die Intelligenz, die aus diesen Modellen spricht, ist nicht künstlich entstanden — sie ist komprimiert menschlich. Sie ist das Destillat von Jahrtausenden kollektiver intellektueller Arbeit: der Ärztin, die ihre Forschung Open Access veröffentlichte; der Journalistin, deren Reportagen digitalisiert wurden; des Philosophen, dessen Werk längst gemeinfrei ist; der Schriftstellerin, deren Roman ohne ihr Wissen in einen Trainingskorpus einfloss. All diese Menschen haben zu einem System beigetragen, von dem eine Handvoll Unternehmen die Gewinne einstreichen — während die Beitragenden leer ausgehen oder, schlimmer, durch dasselbe System in ihren Berufen verdrängt werden.
Die juristische Auseinandersetzung darüber hat begonnen. Der New York Times-Prozess gegen OpenAI ist der prominenteste Fall — die Zeitung klagt, weil Millionen ihrer Artikel ohne Lizenz zum Training verwendet wurden und das Modell in der Lage ist, deren Inhalte nahezu wortgleich zu reproduzieren. Parallel klagen Autoren, Musiker, Bildagenturen, Fotografen. Die zentrale juristische Frage ist, ob das Training auf urheberrechtlich geschütztem Material als Fair Use zu werten ist — oder als strukturierte Aneignung fremden Eigentums im industriellen Maßstab. Diese Frage ist noch nicht entschieden. Aber die Richtung, in die sich die Rechtsprechung bewegt, wird die gesamte Architektur der KI-Industrie berühren.
Dahinter liegt eine noch grundlegendere Frage, die das Urheberrecht allein nicht beantworten kann: Was geschieht mit öffentlich finanzierter Forschung, die auf Kosten der Steuerzahlerinnen entstanden ist und nun als Trainingsgrundlage privater Kapitalakkumulation dient? Was geschieht mit dem digitalisierten Kulturerbe, das Bibliotheken und Archive mit öffentlichen Mitteln zugänglich gemacht haben? Was geschieht mit Wikipedia — dem größten kollaborativen Wissensprojekt der Geschichte, das Millionen Freiwillige ohne Bezahlung aufgebaut haben und das zu den wertvollsten Trainingsquellen der Industrie gehört?
Die Antwort auf all diese Fragen lautet bisher: Es geschieht gar nichts. Die Aneignung findet statt, die Gewinne fließen, und die Gesellschaft schaut zu.
Das ist kein Zufall und keine Nachlässigkeit. Es ist das Ergebnis einer Machtkonstellation, in der die Akteure, die von dieser Aneignung profitieren, über erheblich mehr politischen und ökonomischen Einfluss verfügen als diejenigen, deren Wissen angeeignet wird. Und es ist das Ergebnis einer Debatte, die zu lange in technischen und urheberrechtlichen Kategorien geführt wurde — statt in der Kategorie, die eigentlich zutreffend ist: Wem gehört das kollektive Erbe der Menschheit, und wer darf darüber entscheiden, wofür es verwendet wird?
Das Modell, das hier etabliert wird, hat historische Vorläufer — und keiner davon ist ermutigend. Die Enclosure-Bewegung im England des 16. bis 18. Jahrhunderts verwandelte Gemeingüter, die Jahrhunderte lang allen gehört hatten, in Privatbesitz. Was damals mit Land geschah, geschieht heute mit Wissen: kollektiv erarbeitetes Gemeingut wird privatisiert, ohne dass die Gemeinschaft gefragt wird, ohne Entschädigung, mit dem Argument technischer Notwendigkeit und wirtschaftlichen Fortschritts. Polanyi hat für die erste Industrialisierung beschrieben, wie Märkte Gemeingüter absorbierten und Gesellschaften sich dagegen wehrten — zunächst erfolglos, dann mit wachsender Gegenmacht. Die Frage ist, ob dieselbe Gegenbewegung für das Wissen der Menschheit noch rechtzeitig kommt.
Artificial General Intelligence – die hypothetische Fähigkeit von Maschinen, die gesamte Bandbreite menschlicher Kognition zu erreichen oder zu übertreffen – ist in der Wissenschaft ein theoretisches Konzept. In der politischen Ökonomie des Silicon Valley ist es etwas anderes: ein Finanzierungsinstrument.
Die Vorstellung eines möglichen Durchbruchs mobilisiert Kapital, Aufmerksamkeit und staatliche Unterstützung. Investoren finanzieren Projekte in der Erwartung, dass eines dieser Systeme einen entscheidenden Vorsprung erreichen könnte. AGI fungiert damit als Zukunftsnarrativ – schwer definierbar, aber äußerst wirksam. Gerade seine Unschärfe macht den Begriff mobilisierend: Wer ihn verwendet, muss nicht liefern, nur versprechen.
Das ist keine Verschwörung. Es ist die normale Logik technologischer Erwartungsmärkte. Aber es erklärt, warum die Investitionen in KI-Infrastruktur ein Ausmaß angenommen haben, das mit nüchternen Produktivitätserwartungen kaum zu rechtfertigen wäre.
Wer Chips, Rechenzentren, Energie und Dateninfrastruktur kontrolliert, kontrolliert nicht nur einen Zukunftsmarkt. Er kontrolliert einen wachsenden Teil der globalen Ordnung.
In den USA verbinden sich technologische Entwicklung, Industriepolitik und Sicherheitsinteressen zunehmend zu einem System. Exportkontrollen für Hochleistungschips sollen Chinas Zugang zu fortgeschrittener Halbleitertechnologie begrenzen. Militärische KI-Projekte fließen in dieselben Infrastrukturen, die auch kommerzielle Plattformen betreiben. Die Grenze zwischen privatem Technologiesektor und staatlicher Machtpolitik ist durchlässiger, als Silicon-Valley-Narrative es gerne darstellen.
China reagiert nicht mit Rückzug, sondern mit Investition. Unter dem Druck amerikanischer Exportkontrollen hat das Land seine Ausgaben für eigene Halbleiterproduktion und KI-Infrastruktur massiv erhöht. Das Modell ist staatlich koordiniert, strategisch geduldig und risikobereit – in Bereichen wie Robotik, autonomem Fahren und sogenannter Embodied AI gilt China inzwischen als ernsthafter Konkurrent, in einigen Feldern als Vorreiter.
Europa befindet sich in dieser Konstellation in einer strukturell schwachen, aber nicht hoffnungslosen Position. Der Kontinent ist abhängig – von amerikanischen Hyperscalern für den Großteil seiner Rechenkapazität, von asiatischer Halbleiterfertigung, von globalen Rohstoffketten. Diese Abhängigkeit ist keine vorübergehende Schwäche, sondern das Ergebnis jahrzehntelanger Entscheidungen gegen eigene industrielle Skalierung.
Gleichzeitig eröffnet die aktuelle Lage unerwartete Chancen. Die Wissenschaftspolitik der zweiten Trump-Administration hat einen messbaren Brain Drain aus den USA ausgelöst. Europa hat darauf reagiert – mit gezielten Förderprogrammen, erhöhten ERC-Budgets und nationalen Initiativen zur Anwerbung internationaler Talente. Die Bewerberzahlen aus den USA beim European Research Council haben sich 2025 fast verdreifacht.
Ob daraus technologische Souveränität wird, ist jedoch offen. Forschungsexzellenz und normative Stärke – beides hat Europa – sind notwendige, aber keine hinreichenden Bedingungen. Was fehlt, ist die Fähigkeit zur Skalierung: eigene Rechenkapazitäten, integrierte Kapitalmärkte, eine Innovationsarchitektur, die Ideen nicht nur hervorbringt, sondern auch zu globalen Technologien macht.
Die entscheidende Frage für Europa lautet daher nicht, ob es die besten Regeln setzt. Sondern ob es rechtzeitig aufhört, Regulierung mit Gestaltung zu verwechseln.
Jede Industrialisierung erzeugt ihre eigenen Gegenkräfte. Das ist keine romantische Hoffnung – es ist historische Regelmäßigkeit.
Als im 19. Jahrhundert Fabriken und Dampfkraft Europa veränderten, reagierten Gesellschaften nicht sofort mit souveräner Kontrolle. Sie reagierten mit Überforderung, mit Elend, mit Konflikten – und erst nach Jahrzehnten mit Institutionen: Arbeitszeitgesetzen, Gewerkschaften, Sozialversicherungen, Wettbewerbsrecht, Umweltregulierung. Die industrielle Revolution brachte nicht nur Wachstum hervor. Sie brachte auch die Bedingungen ihrer eigenen Zähmung hervor.
Dasselbe beginnt sich heute abzuzeichnen. Die Industrialisierung der Intelligenz erzeugt Gegenbewegungen – in der Wissenschaft, in der Regulierung, in Arbeitskämpfen, in Open-Source-Gemeinschaften, in Umweltkonflikten, in neuen Formen digitaler Governance. Manche sind noch klein. Andere sind bereits institutionell verankert.
Gemeinsam skizzieren sie etwas, das man eine Gegenarchitektur nennen könnte – noch fragmentiert, noch ohne gemeinsames Zentrum, aber erkennbar in seinen Konturen.
Die erste Gegenbewegung entstand innerhalb der KI-Forschung selbst – und sie richtet sich gegen eine Verwechslung, die im öffentlichen Diskurs erstaunlich hartnäckig ist: die Verwechslung von Sprachgewandtheit mit Intelligenz.Große Sprachmodelle arbeiten im Kern mit statistischer Mustererkennung. Sie analysieren riesige Textmengen und berechnen Wahrscheinlichkeiten dafür, welche Zeichenfolge als nächste folgen könnte – ohne Kausalzusammenhänge zu verstehen oder ein Modell der Welt zu besitzen, auf die sie sich beziehen. Weil ihre Ausgaben flüssig und überzeugend wirken, werden diese Systeme leicht mit Verstehen verwechselt. Die Linguistin Emily Bender hat dafür den Begriff „Stochastic Parrots" geprägt: statistische Systeme, die Sprache erzeugen, ohne zu verstehen, worüber sie sprechen.
Das ist keine akademische Spitzfindigkeit. Wer sprachliche Kohärenz mit Urteilskraft verwechselt, trifft schlechte Entscheidungen darüber, wo solche Systeme eingesetzt werden sollten – und wo nicht. In der Medizin, im Recht, in der Verwaltung können diese Verwechslungen konkrete Folgen haben.Doch die wissenschaftliche Kritik geht inzwischen weit über Benders Argument hinaus. Yann LeCun, Turing-Preisträger und langjähriger Chefwissenschaftler von Meta, verließ das Unternehmen im November 2025, um AMI Labs zu gründen – mit der expliziten These, dass große Sprachmodelle eine Sackgasse auf dem Weg zu echter Intelligenz sind. LeCun charakterisiert den gegenwärtigen Kurs der KI-Industrie als Herdenmentalität: Unternehmen wie OpenAI, Google und Meta investieren Milliarden in immer größere Trainingscluster in der Überzeugung, dass Intelligenz aus Skalierung emergiert. LeCun nennt das die Scaling Hypothesis – und hält sie für fundamental falsch.
Seine Alternative ist die sogenannte Architecture Hypothesis: Statt Sprachmodelle zu trainieren, die den nächsten wahrscheinlichen Token vorhersagen, sollen World Models entwickelt werden – KI-Systeme, die interne Repräsentationen der physischen Welt aufbauen, Kausalzusammenhänge verstehen, planen und handeln können. AMI Labs' JEPA-Architektur lernt nicht aus Text, sondern aus der Beobachtung von Welt – ähnlich wie ein Kind, das durch Interaktion mit seiner Umgebung ein intuitives Verständnis von Physik entwickelt, ohne dass jemand ihm Newtons Gesetze erklärt.
Der Einsatz ist enorm – und nicht nur wissenschaftlicher Natur. Das Geschäftsmodell von OpenAI, Google, Anthropic und Meta beruht auf der Scaling Hypothesis. Diese Unternehmen haben zusammen über 1,3 Billionen Dollar für den Aufbau von KI-Infrastruktur angekündigt – Rechenzentren, Chips, Energieversorgung – gebaut auf der Annahme, dass größere Modelle bessere Modelle sind. Wenn LeCun recht hat, ist dieser Einsatz nicht nur suboptimal. Er ist die falsche Wette. Nicht graduell falsch, sondern architektonisch falsch – so wie der Bau immer größerer Dampfmaschinen in dem Moment, als der Verbrennungsmotor erfunden wurde.
Was für Big Tech auf dem Spiel steht, ist dreifach.
Erstens die Infrastrukturinvestition: Rechenzentren für LLMs sind nicht automatisch die richtigen Rechenzentren für World Models, die andere Architekturen und andere Hardware erfordern.
Zweitens das Plattformmodell: LeCun ist ein entschiedener Befürworter offener Architekturen – ein Erfolg von World Models nützt nicht automatisch denjenigen, die heute die Infrastruktur kontrollieren. Der Wettbewerbsvorteil läge dann nicht mehr im Besitz der Modelle, sondern in ihrer Anwendung.
Drittens das AGI-Narrativ: LeCuns Argument untergräbt direkt die Zukunftserzählung, mit der Milliarden an Investitionen mobilisiert wurden. Wenn der Weg zu AGI nicht durch mehr Rechenleistung führt, sondern durch eine grundlegend andere Architektur, ist das aktuelle Rennen nicht nur ineffizient – es ist das falsche Rennen.
Ob AMI Labs liefern kann, was LeCun verspricht, ist offen – er selbst spricht von mehreren Jahren bis zu einem Jahrzehnt. Aber die Frage ist längst keine rein wissenschaftliche mehr. Sie ist eine strategische, politische und ökonomische Frage – mit Konsequenzen für jeden, der gerade dabei ist, die Infrastruktur der nächsten technologischen Epoche zu bauen.
Parallel zur wissenschaftlichen Kritik an der Architektur großer Sprachmodelle entstand eine zweite Gegenbewegung, die eine andere Frage stellt: nicht ob heutige Systeme wirklich denken, sondern was passiert, wenn sie tief in gesellschaftliche Institutionen eingebettet werden — in Verwaltung, Bildung, Medizin, Finanzsysteme, öffentliche Kommunikation. Mit dieser Verschiebung wird KI vom Innovationsprojekt zum Governance-Problem.
Diese Erkenntnis nahm zunächst innerhalb der Unternehmen selbst institutionelle Form an. Anthropic wurde 2021 von OpenAI-Mitarbeitern gegründet, die überzeugt waren, ihr ursprüngliches Unternehmen behandle Sicherheitsfragen zu leichtfertig. Beide Unternehmen veröffentlichten detaillierte Sicherheitsrahmen. Beschäftigte bei Anthropic, OpenAI und Google DeepMind unterzeichneten einen offenen Brief mit der Warnung, KI könne Ungleichheit verschärfen und Desinformation verstärken — und forderten Whistleblower-Schutz, weil Mitarbeiter die wenigen Menschen seien, die Konzerne zur Rechenschaft ziehen könnten.
Das Bild, das sich heute zeigt, ist strukturell anders. Anfang 2026 strich Anthropic das zentrale Versprechen seiner Responsible Scaling Policy: die Zusage, keine neuen Modelle zu trainieren, wenn die eigenen Sicherheitsmaßnahmen nicht ausreichen. Die Begründung war offen: Wenn verantwortungsvolle Entwickler pausieren, während Konkurrenten vorpreschen, entstehe eine weniger sichere Welt. Das beschreibt ein reales Dilemma — aber es beschreibt zugleich das Ende eines Modells, in dem einzelne Unternehmen durch Selbstverpflichtung die Geschwindigkeit der Branche moderieren können.
Dieser Kurswechsel war kein autonomer Sinneswandel. Er folgte direkt auf Druck des US-Verteidigungsministeriums, das mit dem Entzug eines 200-Millionen-Dollar-Vertrags gedroht hatte. OpenAI entfernte parallel Verbote militärischer Nutzung aus seinen Richtlinien. Der frühere Leiter des Superalignment-Teams schrieb beim Ausscheiden, Sicherheitskultur habe den Rücksitz eingenommen. Mehrere hochrangige Sicherheitsforscher verließen die Unternehmen unter öffentlichem Protest.
Was sich zeigt, ist kein Versagen individueller Überzeugungen — es ist das vorhersehbare Ergebnis einer Struktur. Selbstregulierung funktioniert, solange die Kosten des Einlenkens niedriger sind als die Kosten des Festhaltens. Wenn geopolitischer Druck und staatliche Aufträge groß genug werden, kippt diese Gleichung. Das ist keine Kritik an den handelnden Personen. Es ist eine strukturelle Diagnose: Sicherheitsverpflichtungen, die von denselben wirtschaftlichen und politischen Anreizen abhängen, gegen die sie schützen sollen, sind keine Sicherheitsverpflichtungen. Sie sind Absichtserklärungen unter Vorbehalt.
Die Konsequenz ist klar, auch wenn sie unbequem ist: Solange Sicherheit vom guten Willen einzelner Unternehmen abhängt, ist sie eine Variable des Wettbewerbs — und im Wettbewerb verliert sie systematisch. Erst wenn sie zur externen Bedingung wird — durch Regulierung, Haftung, demokratische Kontrolle — verliert sie ihre Abhängigkeit von Unternehmensinteressen.
Australien hat früh den Schritt vollzogen, KI nicht als Selbstregulierungsprojekt zu behandeln, sondern als Governance-Aufgabe. Mit einer verbindlichen Policy für den Einsatz von KI in Bundesbehörden verlangt die Regierung Dokumentation über Zweck, Datenbasis und mögliche Risiken jedes eingesetzten Systems. Neuseeland verfolgt einen ähnlichen Weg: Das Public Service AI Framework von 2025 verlangt transparente Dokumentation, klare Verantwortlichkeiten und menschliche Aufsicht bei folgenreichen Entscheidungen. Was diese Modelle zeigen, ist nicht, dass staatliche Regulierung einfach ist — sondern dass die Alternative, auf freiwillige Selbstverpflichtung zu setzen, nachweislich nicht funktioniert, sobald der Druck groß genug wird.
Die Gegenbewegung zur Industrialisierung der Intelligenz kann nicht im Inneren der Industrie entstehen. Sie muss von außen kommen — nicht weil die Menschen in der Industrie böswillig sind, sondern weil die Struktur, in der sie operieren, externe Gegenmacht systematisch benötigt.
Regulierung ist die am weitesten entwickelte Gegenbewegung zur Industrialisierung der Intelligenz – und zugleich die ambivalenteste. Sie kann Transparenz erzwingen, Haftung klären, Mindeststandards setzen. Sie kann aber auch unbeabsichtigt neue Markteintrittsbarrieren schaffen, von denen große Plattformkonzerne stärker profitieren als kleinere Akteure. Wer die Compliance-Maschinerie stemmen kann, gewinnt auch hier.
Europa baut derzeit das umfassendste regulatorische Ökosystem für KI weltweit. Der AI Act, die Datenschutzgrundverordnung, der Digital Services Act, der Digital Markets Act – zusammen ergeben sie eine Architektur, die in ihrer Breite und Systematik ohne Vorbild ist. Der AI Act trat im August 2024 in Kraft, erste Verpflichtungen gelten seit Februar 2025.
Doch die strukturelle Asymmetrie bleibt. Laut Stanford AI Index entwickelten US-Institutionen 2024 rund vierzig bedeutende KI-Modelle, China fünfzehn, Europa drei. Bei privaten Investitionen beliefen sich die USA auf über 100 Milliarden Dollar – Europa lag weit darunter. Europa setzt die Regeln. Andere bauen die Systeme.
In den USA entsteht Regulierung anders: nicht zentral, sondern durch Gerichte und Einzelstaaten. Im März 2026 scheiterte das KI-Unternehmen xAI vor einem kalifornischen Bundesgericht mit dem Versuch, ein neues Transparenzgesetz zu blockieren. Das Gesetz verpflichtet Entwickler großer Modelle, Informationen über Trainingsdaten, Sicherheitsmaßnahmen und mögliche Risiken offenzulegen. Das Gericht entschied: Das öffentliche Interesse an Transparenz und demokratischer Kontrolle wiegt schwerer als das wirtschaftliche Interesse eines einzelnen Unternehmens.
Der Fall ist symptomatisch. Während eine umfassende nationale KI-Gesetzgebung in den USA blockiert bleibt, wächst der Druck von unten – durch Bundesstaaten, durch Gerichte, durch eine zunehmend skeptische Öffentlichkeit. Regulierung entsteht dort nicht aus politischer Planung, sondern aus Konflikt.
Südkorea zeigt eine dritte Möglichkeit. Mit dem AI Basic Act, der Anfang 2026 in Kraft trat, kombiniert die Regierung industrielle Förderung und regulatorische Kontrolle in einem einzigen Rahmen. Der Staat tritt nicht nur als Aufseher auf, sondern als strategischer Akteur: Er investiert, er lenkt, er sichert institutionell ab. Das Modell erinnert an frühere Phasen ostasiatischer Industriepolitik – und es ist das einzige, das Regulierung explizit als Teil einer Wettbewerbsstrategie begreift, nicht als Bremse.
Der globale Vergleich lässt sich damit in einer Formel zusammenfassen: Die USA regulieren durch Konflikt. Europa reguliert durch Architektur. Südkorea reguliert durch Strategie. Welches Modell sich durchsetzt – oder ob keines ausreicht – wird eine der zentralen politischen Fragen des Jahrzehnts sein.
Europa produziert exzellente Forschung. Was es nicht produziert, sind globale Technologieunternehmen – zumindest nicht in dem Maße, das seiner wissenschaftlichen Stärke entsprechen würde. Die Lücke zwischen Idee und Skalierung ist das eigentliche europäische Technologieproblem.
Doch etwas hat sich verändert. Im März 2026 schloss das Pariser KI-Startup AMI Labs – gegründet von Turing-Preisträger Yann LeCun und CEO Alexandre LeBrun – eine Seed-Runde über 1,03 Milliarden Dollar ab. Die Bewertung: 3,5 Milliarden Dollar, noch vor dem ersten Produkt. Es ist die größte Seed-Runde, die ein europäisches Startup je erzielt hat. Zu den Investoren zählen Nvidia, Samsung, Temasek, Toyota Ventures sowie Einzelpersonen wie Eric Schmidt und Jeff Bezos. Das Unternehmen hat seinen Hauptsitz in Paris – mit weiteren Standorten in New York, Montreal und Singapur.
Der symbolische Gehalt dieses Vorgangs geht über die Zahl hinaus. LeCun, dual französisch-amerikanischer Staatsbürger, hätte AMI überall gründen können. Er wählte Paris. „Silicon Valley ist vollständig hypnotisiert von den aktuellen Modellen der generativen KI", sagte er. „Um diese Art von neuer Forschung zu betreiben, muss man das Valley verlassen – nach Paris." Das ist kein Marketingsatz. Es ist eine Standortentscheidung mit strategischer Konsequenz: Weltklasse-Forschung, europäische Basis, globales Kapital. Wenn dieser Effekt sich wiederholt – wenn weitere Forscher und Gründer Europa als den Ort begreifen, an dem das nächste Paradigma entsteht, nicht das letzte skaliert wird – dann könnte Europa tatsächlich zu einem Pol der nächsten KI-Generation werden.
Doch AMI ist bislang eine Ausnahme, kein Muster. Und die strukturellen Gründe dafür sind bekannt.
In den USA existiert ein dichtes Netzwerk aus Venture-Capital-Fonds und Technologiekonzernen, die junge Firmen früh und risikobereit finanzieren. Start-ups können über Jahre massiv investieren, bevor sie Gewinne erzielen müssen. China operiert mit dem gegenteiligen Modell: staatlich gelenkt, risikobereit, mit einem einheitlichen Binnenmarkt von 1,4 Milliarden Menschen und staatlich gestützten Kapitalvehikeln im dreistelligen Milliardenbereich. Singapur wiederum hat ein anderes Muster entwickelt: klein, aber präzise. Der Stadtstaat verbindet staatliche Forschungsinfrastruktur, pragmatische Regulierung und gezielte Talentprogramme mit strategischer Positionierung als Brücke nach Asien – genau jene Mischung, die AMI für seinen Singapur-Standort explizit benennt. Was Singapur zeigt, ist kein alternatives Modell zu Europa, sondern eine Warnung: Wenn Europa weiter fragmentiert bleibt, werden Gründer wie LeBrun ihre asiatischen Ambitionen über Singapur abwickeln, nicht über Brüssel oder Berlin.
Was europäische Start-ups konkret brauchen, lässt sich in drei Kategorien fassen: Infrastruktur, Kapital und Rahmen.
Infrastruktur ist die am wenigsten diskutierte, aber dringendste Voraussetzung. AMI hat es offen benannt: Die zwei größten Kostenpositionen sind Rechenleistung und Talente. Wer heute in Europa ein ambitioniertes KI-Modell trainieren will, ist auf amerikanische Hyperscaler angewiesen – Azure, AWS, Google Cloud. Europäische Recheninfrastruktur existiert, ist aber fragmentiert und im internationalen Vergleich unterkapitalisiert. Programme wie Gaia-X müssen endlich über konzeptionelle Architektur hinausgehen und konkrete, buchbare Compute-Kapazitäten unter europäischem Rechtsrahmen schaffen. Für Startups in sensiblen Bereichen – Gesundheit, Verteidigung, kritische Infrastruktur – ist souveräne Recheninfrastruktur keine regulatorische Präferenz, sondern eine operative Notwendigkeit.
Beim Kapital bleibt die Lücke real, auch wenn AMI sie gerade spektakulär verkleinert hat. Europäische Venture-Capital-Strukturen sind häufig auf kürzere Zyklen und schnellere Exits ausgerichtet – zu kurz für Deep-Tech-Vorhaben, die wie AMI explizit auf mehrjährige Grundlagenforschung setzen. Geduldiges Kapital, das nicht nach fünf Jahren auf Exit drängt, ist eine strukturelle Voraussetzung für die Art von Wissenschaft, die Europa am besten kann. Das Yozma-Modell Israels, das staatlich gestützt ein funktionierendes Venture-Ökosystem aufgebaut hat, bleibt ein Referenzpunkt – nicht als Kopiervorlage, aber als Beweis, dass institutionelle Intervention in Kapitalmärkte möglich ist und wirkt.
Der regulatorische Rahmen schließlich ist Europas stärkste und zugleich gefährlichste Karte. Der AI Act setzt Standards, die weltweit diskutiert werden. Aber er ist für Konzerne designt, nicht für Gründer. Compliance-Anforderungen, die Microsoft oder Google problemlos stemmen können, können für ein zwanzigköpfiges Team existenzbedrohend sein. Regulatorische Sandboxes – geschützte Räume, in denen neue Technologien unter erleichterten Bedingungen erprobt werden können – sind kein Rückzug vom Rechtsstaat, sondern eine Voraussetzung dafür, dass europäische Unternehmen überhaupt in die Position kommen, irgendwann reguliert werden zu müssen.
Was der Fall AMI zeigt, ist dies: Europa hat die Zutaten. Es hat Forscher von Weltrang, eine wachsende Gründerkultur, normative Glaubwürdigkeit und – durch den Brain Drain aus den USA – gerade ein unerwartetes Talentfenster. Was es noch nicht hat, ist die institutionelle Architektur, die aus diesen Zutaten systematisch globale Unternehmen macht. AMI ist ein Beweis, dass es geht. Die Frage ist, ob Europa daraus ein Muster werden lässt – oder ob LeCuns Entscheidung für Paris eine singuläre Ausnahme bleibt, die vor allem zeigt, was möglich wäre.
Hinter jedem scheinbar autonomen KI-System stehen Arbeitsverhältnisse – und diese Arbeitsverhältnisse sind so ungleich verteilt wie kaum etwas sonst in der digitalen Ökonomie.
Die Entwickler sitzen in San Francisco und London. Die Moderatoren sitzen in Nairobi und Manila. Beide arbeiten für dieselben Systeme. Ihre Bedingungen könnten unterschiedlicher kaum sein.
Kenia ist eines der wichtigsten globalen Zentren für Plattformmoderation. Internationale Technologieunternehmen lassen dort Inhalte prüfen, weil englischsprachige Arbeitskräfte verfügbar sind und Lohnkosten niedrig bleiben. Was diese Arbeit bedeutet, wurde 2024 vor einem kenianischen Gericht sichtbar: Content-Moderatoren, die für einen Meta-Subunternehmer gearbeitet hatten, klagten wegen extrem belastender Arbeitsbedingungen. Täglich mussten sie Gewaltvideos, Missbrauchsdarstellungen und Hassbotschaften sichten. Mehrere berichteten von posttraumatischen Belastungssymptomen, Depressionen, Angststörungen. Das Gericht entschied: Meta kann verklagt werden.
Der Fall machte erstmals weltweit sichtbar, welche menschliche Arbeit hinter scheinbar automatisierten Systemen steht – und wer die psychischen Kosten trägt. Die Antwort ist keine Überraschung: diejenigen, die am wenigsten Verhandlungsmacht haben.
Dänemark zeigt, dass es auch anders gehen kann. Mit dem Hilfr2-Abkommen von 2024 zwischen der Plattform Hilfr und der Gewerkschaft 3F wurde künstliche Intelligenz erstmals ausdrücklich zum Gegenstand eines Tarifvertrags. Das Abkommen regelt Transparenz bei automatisierten Entscheidungssystemen, den Einfluss von Algorithmen auf Arbeitsbedingungen und den Schutz von Beschäftigten in digital organisierten Märkten.
Die Botschaft des Kontrasts ist klar: Wo Institutionen stark sind, können sie neue Technologien in bestehende Schutzstrukturen einbetten. Wo sie schwach sind, übernimmt die Plattformlogik. Die Industrialisierung der Intelligenz wiederholt damit ein Muster, das bereits die erste Industrialisierung prägte – nur dass die Fabrik jetzt global verteilt ist und die Arbeiter einander nie begegnen.
Doch dieser Befund hat eine politische Dimension, die über Arbeitsrecht und Tarifverträge hinausgeht.
Die Plattformökonomie installiert Isolation, Konkurrenz und Individualisierung als Normalzustand. Sie untergräbt systematisch die kollektiven Strukturen, die historisch als Puffer gegen soziale Desintegration gewirkt haben: Berufsidentität, Gewerkschaftszugehörigkeit, das Gefühl, Teil einer Gemeinschaft mit gemeinsamen Interessen zu sein. Was bleibt, ist das Individuum im Wettbewerb gegen alle anderen – und die Erfahrung, dass die Regeln dieses Wettbewerbs von unsichtbaren Algorithmen gemacht werden, auf die man keinen Einfluss hat.
Die Forschung zu politischer Radikalisierung zeigt einen klaren Zusammenhang: Nicht absolute Armut ist der entscheidende Faktor, sondern wahrgenommene relative Deprivation – die Angst vor dem sozialen Abstieg, auch bei Menschen, denen es objektiv noch gut geht. Wenn Arbeitslosigkeitsrisiko steigt, steigt die Wahrscheinlichkeit, eine rechtsradikale Partei zu wählen – und zwar nicht linear, sondern dann besonders stark, wenn gleichzeitig das Gefühl schwindet, die eigene Situation noch beeinflussen zu können. Die Plattformökonomie erfindet reaktionäre Politik nicht – aber sie erleichtert die Begegnung zwischen prekären Arbeitsverhältnissen und autoritären Narrativen, weil sie genau jene sozialen Bindungen auflöst, die Menschen historisch davor schützten.
Was ICE-Einsätze in amerikanischen Fabriken, der Aufstieg der AfD in deutschen Industrieregionen und die Bolsonaro-Bewegung unter brasilianischen Gig-Workern verbindet, ist nicht ein gemeinsames Programm, sondern ein gemeinsames Substrat: Menschen, die das Kohärenzgefühl verloren haben – die Erfahrung, dass das eigene Leben verstehbar, handhabbar und sinnvoll ist. Wer diese Erfahrung verliert, sucht einfache Erklärungen, klare Feindbilder und starke Abgrenzungen. Nationalismus und Fremdenfeindlichkeit bieten beides – und Plattformsysteme, die auf emotionale Aktivierung und Empörung optimiert sind, verstärken diese Dynamik algorithmisch.
Das ist der eigentliche politische Einsatz der Industrialisierung der Intelligenz, der in Debatten über KI-Regulierung und Plattformhaftung fast nie benannt wird: Eine Ökonomie, die Arbeit atomisiert, Unsicherheit normalisiert und kollektive Strukturen erodiert, produziert nicht nur individuelle Erschöpfung – sie produziert politische Anfälligkeit. Die Gegenbewegungen, die in diesem Essay beschrieben werden – Tarifverträge, Transparenzgesetze, demokratische Governance – sind daher nicht nur arbeitsrechtliche oder technologische Projekte. Sie sind Versuche, die sozialen Voraussetzungen demokratischer Stabilität zu erhalten.
Open Source ist nicht nur ein Entwicklungsmodell. Es ist eine politische Aussage über den Charakter von Wissen: dass es kein privates Eigentum sein muss, sondern eine gemeinschaftlich nutzbare Ressource.
Diese Tradition reicht bis in die Anfänge des Internets zurück. Linux, das Betriebssystem, auf dem ein Großteil der globalen Serverinfrastruktur läuft, entstand aus offenen Entwicklergemeinschaften. Auch im Bereich KI wächst die Open-Source-Bewegung: Forschungsgruppen, Start-ups und Entwickler veröffentlichen Modelle, Datensätze und Trainingsmethoden, sodass andere sie weiterentwickeln können. Metas Llama-Modelle, Mistrals Veröffentlichungen, Tausende kleinerer Projekte auf Plattformen wie Hugging Face – sie alle versuchen, das Wissen über KI-Systeme aus den geschlossenen Laboren der Großkonzerne herauszuholen.
Doch Open Source hat eine strukturelle Grenze, die selten offen benannt wird: Das Training moderner KI erfordert Rechenkapazitäten, die kaum jemand außerhalb großer Cloudanbieter besitzt. Wer ein Modell veröffentlicht, teilt den Code – aber nicht die Infrastruktur, die nötig wäre, um es neu zu trainieren oder ernsthaft weiterzuentwickeln. Open Source demokratisiert den Zugang zu fertigen Modellen. Die Produktionsmittel bleiben konzentriert.
Das macht die Open-Source-Bewegung zu einer wichtigen, aber begrenzten Gegenkraft. Sie ist weniger eine Alternative zum bestehenden KI-System als eine Gegenbewegung innerhalb desselben technologischen Ökosystems – wertvoll, aber nicht hinreichend.
Lange Zeit galten digitale Technologien als weitgehend immateriell. Diese Illusion ist vorbei.
Der weltweite Strombedarf von Rechenzentren wird sich laut Internationaler Energieagentur bis 2030 auf rund 945 Terawattstunden verdoppeln – getrieben vor allem durch KI. Der Betrieb großer Trainingscluster erzeugt erhebliche Abwärme und erfordert leistungsfähige Kühlsysteme, die täglich Millionen Liter Wasser verbrauchen. Hinzu kommen die Rohstoffketten der Halbleiterproduktion: seltene Metalle, komplexe Lieferketten, erhebliche ökologische Belastungen an Abbaustandorten, die in keiner Produktbeschreibung auftauchen.
Was das konkret bedeutet, wurde 2023 in Uruguay sichtbar. Während einer schweren Dürre kündigte Google den Bau eines großen Rechenzentrums in der Nähe von Montevideo an. In einer Situation bereits knapper Wasserressourcen löste das Projekt Proteste aus. Bürgerinitiativen und Umweltorganisationen kritisierten, dass eine internationale Technologieinfrastruktur Wasser verbraucht, während Haushalte und Landwirtschaft Einschränkungen hinnehmen mussten. Der Konflikt illustriert eine strukturelle Asymmetrie, die weit über Uruguay hinausgeht: Digitale Infrastruktur beansprucht lokale Ressourcen – Wasser, Energie, Land – während die wirtschaftlichen Vorteile global verteilt sind und die Entscheidungen über Standorte weit entfernt fallen. Die Cloud hat eine Adresse. Und sie hat Nachbarn.
Diese Asymmetrie wird durch die Energiepolitik der zweiten Trump-Administration nicht gemildert – sie wird vertieft. Im Juli 2025 erließ die Trump-Administration eine Executive Order zur Beschleunigung des Baus von KI-Rechenzentren, die explizit Erdgasturbinen, Kohle-Kraftwerke und Nuklearanlagen als förderfähige Energiequellen definiert – während Wind- und Solarenergie aus dem Förderprogramm ausgeschlossen wurden. Das Innenministerium erließ parallel eine Anordnung, die die Genehmigung neuer Wind- und Solaranlagen auf Bundesland vom persönlichen Einverständnis des Innenministers abhängig macht – mit der expliziten Begründung, erneuerbare Energien seien „teuer, unzuverlässig und ausländisch kontrolliert."
Die strategische Logik dahinter ist eindeutig: Im globalen KI-Wettlauf soll Infrastruktur so schnell wie möglich hochgezogen werden – Klimaziele sind dabei kein Kriterium, sondern ein Hindernis. Viele der neuen amerikanischen Rechenzentren werden Strom aus bestehenden Kohle- und Gaskraftwerken beziehen, deren Lebenszeit verlängert wird, um den wachsenden Energiehunger der KI-Infrastruktur zu bedienen. Der geopolitische Wettbewerbsdruck um KI-Dominanz und die ökologischen Kosten seiner Infrastruktur sind damit untrennbar miteinander verknüpft: Wer schneller skaliert, gewinnt – unabhängig davon, womit die Maschinen laufen.
Europa verfolgt einen anderen Ansatz – und steht dabei vor einem eigenen Widerspruch. Die Europäische Kommission arbeitet an einem Paket zur Energieeffizienz von Rechenzentren mit dem Ziel klimaneutraler Datacenter bis 2030, das Pflichten zur Nutzung erneuerbarer Energien und zur Abwärmenutzung vorsieht. Deutschland ist bereits weiter: Das Energieeffizienzgesetz schreibt für Rechenzentren ab 300 Kilowatt einen erneuerbaren Stromanteil von 50 Prozent vor, der ab Januar 2027 auf 100 Prozent steigen muss. In Frankfurt und Köln speisen Rechenzentren ihre Abwärme bereits in kommunale Fernwärmenetze ein.
Doch auch Europa ist nicht frei von Widersprüchen. Amsterdam und Dublin – zwei der wichtigsten europäischen Datacenter-Hubs – haben neue Projekte zeitweise gestoppt, weil die lokalen Stromnetze die zusätzliche Last nicht tragen konnten. Irische Gewerkschaften kritisieren, dass Rechenzentren in der Infrastrukturpriorität vor gewöhnlichen Haushalten und dem Klimaschutz stehen. Der Druck, im globalen Wettbewerb aufzuholen, kollidiert mit dem Anspruch, dies nachhaltig zu tun.
China wiederum kombiniert massive staatliche Investitionen in erneuerbare Energien für Rechenzentren mit einer Industriepolitik, die Skalierung gegenüber Nachhaltigkeit priorisiert, wenn es die geopolitische Konkurrenz verlangt. Das Ergebnis ist global: Alle drei Akteure bauen KI-Infrastruktur in einem Tempo, das die Energiesysteme unter Druck setzt – mit dem Unterschied, dass Europa dabei zumindest den Versuch unternimmt, ökologische Leitplanken einzuhalten.
Technische Effizienz kann diese strukturelle Spannung mildern, aber nicht auflösen. DeepMind hat gezeigt, dass maschinelles Lernen den Energiebedarf für Datacenter-Kühlung um rund vierzig Prozent senken kann. Das sind wichtige Schritte – aber sie verändern nichts an der Grundlogik eines Systems, das auf permanente Skalierung ausgerichtet ist und in dem ökologische Kosten solange externalisiert werden, wie der Wettbewerbsdruck stärker ist als der Regulierungsdruck.
Plattformen sind keine neutralen Kommunikationskanäle. Sie sind Systeme, die menschliches Verhalten aktiv strukturieren — nicht primär durch Inhalte, sondern durch Architektur. Infinite Scroll entfernt natürliche Abbruchsignale. Autoplay reduziert Entscheidungsmomente. Variable Belohnungssysteme koppeln Erwartung an Ungewissheit. Push-Benachrichtigungen externalisieren Aufmerksamkeitssteuerung. Diese Mechaniken sind keine Nebenwirkungen — sie sind Produktentscheidungen mit vorhersehbaren psychischen Folgen.
Die entscheidende Verschiebung gegenüber früheren Debatten über soziale Medien liegt genau hier: Nicht Inhalte sind das Kernproblem, sondern Design. Design wirkt nicht belehrend, sondern strukturierend — es verändert nicht primär, was Menschen wollen, sondern wie Entscheidungen zustande kommen. Wer glaubt, Medienkompetenz oder individuelle Disziplin seien der entscheidende Schutz, unterschätzt, dass diese Mechaniken nicht auf Überzeugungen zielen, sondern auf Abläufe. Auf neurologischer Ebene halten sie das Belohnungssystem in permanenter Antizipation, ohne je ein Stoppsignal zu liefern — ein Zustand, der unter Dauerbelastung Stressreaktionssysteme aktiviert, präfrontale Kontrolle schwächt und Selbstregulation strukturell erschwert. Was wie individuelle Erschöpfung oder mangelnde Disziplin aussieht, ist oft eine physiologische Reaktion auf gestaltete Überforderung.
Das klinische Bild, das sich in Sprechzimmern zeigt, ist konsistent: Betroffene sind hochfunktional, beruflich integriert, sozial eingebunden — die Auffälligkeit liegt nicht in der Nutzungsdauer, sondern im Verlust der Abbruchfähigkeit. Nicht "zu viel" ist das zentrale Problem. Sondern: nicht mehr selbstbestimmt. Digitale Nutzung übernimmt Regulationsfunktionen — zur Selbstberuhigung, zur Spannungsreduktion, zur Ablenkung — und über Wiederholung entsteht eine Konditionierung, die mit Toleranzbildung und Wiederholungsimpuls operiert. Der Unterschied zur klassischen Abhängigkeit liegt im Bild: Sie kollabiert nicht. Sie funktioniert.
Bei Kindern und Jugendlichen ist die Dynamik qualitativ verschieden, nicht nur graduell früher. Jugendliche werden in digitalen Systemen sozialisiert — permanente Erreichbarkeit ist für sie keine Gewohnheit, die sich entwickelt hat, sondern eine Grundbedingung sozialer Zugehörigkeit. Entwicklungspsychologisch zentrale Kompetenzen — Sprachentwicklung, Perspektivenübernahme, Selbstregulation — entstehen nur in direkter sozialer Interaktion. Wenn Plattformarchitektur diese Interaktion ersetzt oder verdrängt, ist das kein Nutzungsproblem. Es ist ein Entwicklungsproblem.
Generative KI fügt dieser Dynamik eine neue Dimension hinzu. Chatbots können Gespräche simulieren, emotionale Nähe imitieren, auf individuelle Bedürfnisse reagieren. Wenn Maschinen soziale Interaktionen simulieren, verschwimmen Grenzen, die für psychische Gesundheit und soziale Entwicklung relevant sind — ohne dass ausreichende Schutzarchitekturen existieren. Ein US-Bundesgericht ließ 2025 eine Klage gegen Google und Character.AI zu, die geltend macht, Interaktionen mit einem Chatbot hätten zum Suizid eines Jugendlichen beigetragen. Der Beschluss stellt fest, dass der Fall verhandlungswürdig ist — nicht, dass Kausalität bewiesen ist. Als prozessrechtliches Signal ist er dennoch bedeutsam: Produktverantwortung für dialogbasierte KI-Systeme wird juristisch verhandelbar.
Wie weit Plattformen diese Dynamiken bewusst einsetzten — und wie weit sie die Konsequenzen kannten — ist Gegenstand einer wachsenden Zahl juristischer Verfahren. Das schärfste läuft in den USA im Rahmen eines Multidistrict-Litigation-Verfahrens gegen Meta, TikTok, YouTube und Snap, gebündelt unter der sogenannten Product Liability Theory: Plattformen nicht als Verleger von Inhalten, sondern als Hersteller defekter Produkte, deren Schädlichkeit vorhersehbar war. Das erste Urteil, das diese Theorie bestätigte, fiel im März 2026 in Los Angeles — eine Jury befand Meta zu 70 Prozent und Google zu 30 Prozent haftbar für nachgewiesene psychische Schäden bei einer 20-jährigen Klägerin. Entscheidend war die juristische Strategie: Die Kläger argumentierten nicht mit Inhalten, sondern mit der Architektur der Systeme selbst — und umgingen damit die klassische Inhaltsimmunität nach Section 230.
Interne Meta-Dokumente, die im Verfahren öffentlich wurden, zeigen, dass das Unternehmen wusste, dass seine Empfehlungssysteme bei Mädchen im Teenageralter verstärkte Körperunzufriedenheit und Stimmungsverschlechterung erzeugten — und dass diese Erkenntnisse keine ausreichenden Produktänderungen nach sich zogen. Das ist kein Vorwurf des bösen Willens. Es ist der strukturelle Befund, den das Recht jetzt verarbeitet: Wenn psychische Schäden vorhersehbar aus Designentscheidungen entstehen, stellt sich die Frage der Produkthaftung — unabhängig von der Frage der Absicht.
In Europa stellt der Digital Services Act dieselbe Frage mit präventiver Logik: Risiken sollen identifiziert und mitigiert werden, bevor Schäden entstehen. DSA-Leitlinien aus 2025 konkretisieren: Autoplay und Push-Benachrichtigungen müssen für Minderjährige standardmäßig deaktiviert sein, Streaks und vergleichbare Bindungsmechaniken sollen vermieden werden. Das ist strukturell präventiver als der amerikanische Ansatz — aber abhängig von Behörden, die willens und fähig sind, ihn konsequent durchzusetzen.
Die zentrale Frage ist nicht mehr, ob Plattformen problematische Wirkungen haben. Sie lautet: Wann werden Designentscheidungen, die vorhersehbar psychische Schäden erzeugen, haftungsrelevant — und wer trägt die strukturellen Kosten, solange das System Reparatur bezahlt, aber nicht Gestaltung?
Bevor die Frage gestellt werden kann, welche Werkzeuge helfen, muss eine andere Frage gestellt werden: Warum werden die vorhandenen Werkzeuge nicht ergriffen?
Die beschriebenen Gegenbewegungen — wissenschaftliche Kritik, Regulierung, Arbeitskämpfe, Open Source, Umweltproteste, Gerichtsverfahren — verbindet eine gemeinsame Grundfrage: Wer gestaltet die technologischen Systeme, die zunehmend das gesellschaftliche Leben strukturieren? In der gegenwärtigen Logik der digitalen Ökonomie sind Menschen vor allem Datenquelle, Zielgruppe und Konsumenten. Plattformen sammeln Verhalten, analysieren Präferenzen, optimieren Interaktionen — während Nutzer, Beschäftigte und Bürger kaum Einfluss auf die Funktionsweise dieser Systeme haben. Das ist keine technische Notwendigkeit. Es ist eine politische Entscheidung.
Erste institutionelle Experimente zeigen, dass es anders geht. Ein Amsterdamer Gericht verpflichtete Uber, Fahrern mehr Transparenz über algorithmische Entscheidungen zu geben. In Italien verhängte die Datenschutzbehörde 2023 ein vorübergehendes Nutzungsverbot für ChatGPT und erzwang damit Anpassungen bei Datenschutz und Altersverifikation. Die Afrikanische Union formulierte mit ihrer Continental AI Strategy von 2024 erstmals eine gemeinsame Position, die technologische Souveränität als politisches Ziel begreift — nicht als Luxus, sondern als Voraussetzung für selbstbestimmte Entwicklung. Demokratische Institutionen sind nicht machtlos gegenüber globalen Plattformkonzernen. Sie müssen nur bereit sein, ihre Macht zu nutzen.
Aber genau hier liegt das Problem. Diese Beispiele sind noch fragmentiert, vereinzelt, strukturell zu schwach, um das Muster zu kippen. Und das ist kein Zufall — es ist das vorhersehbare Ergebnis einer Gesellschaft, der die Erfahrung des kollektiven Kämpfens über Generationen abhandengekommen ist.
Die Passivität gegenüber digitaler Macht ist kein Rätsel und keine moralische Schwäche. Sie ist das Ergebnis von Erschöpfung, von Individualisierung, von der Simulation von Teilhabe auf Plattformen, die Koordination strukturell nicht belohnen.
Wer dauerhaft unter Aufmerksamkeitsfragmentierung, Prekarisierung und permanenter Selbstoptimierungserwartung lebt, hat weniger Kapazität für kollektives Handeln — nicht aus Desinteresse, sondern aus einer Erschöpfung, die physiologisch real ist. Alain Ehrenberg hat das Muster bereits in den 1990ern beschrieben: Das Subjekt, das sich selbst unaufhörlich als Projekt begreift, hat keine Energie für Solidarität übrig. Plattformarchitektur trifft auf genau diese Erschöpfung und bietet Selbstberuhigung an. Der Kreis schließt sich.
Hinzu kommt der Verlust von Kampferfahrung als kollektivem Gedächtnis. Gewerkschaftliche Stärke, erfolgreicher institutioneller Widerstand, politische Mobilisierung mit messbarem Ergebnis — das sind nicht nur Strategien, sie sind Erfahrungen, die weitergegeben werden müssen, damit nachfolgende Generationen überhaupt wissen, dass Kämpfen möglich ist und wie es sich anfühlt, wenn es wirkt. Zwei bis drei europäische Generationen haben ohne prägende Erfahrung kollektiven Erfolgs gelebt. Was bleibt, ist abstraktes Wissen über historische Bewegungen — aber kein verkörpertes Wissen darüber, wie Gegenmacht entsteht. Kämpfen ist wie jede andere Kompetenz: Sie verkümmert ohne Übung und ohne Modelle.
Verschärft wird das durch einen Prozess, den Robert Castel als Individualisierung sozialer Risiken beschrieben hat: Strukturelle Probleme werden systematisch als persönliche Aufgaben gerahmt. "Digital Detox", "Medienkompetenz", "gesunde Mediennutzung" — die Sprache, in der über Plattformabhängigkeit gesprochen wird, ist fast ausnahmslos individuell. Das ist kein Zufall. Es ist das Ergebnis jahrzehntelanger kultureller Arbeit, die kollektive Problemrahmungen delegitimiert hat. Wer ein strukturelles Problem als persönliches erlebt, kämpft nicht gegen das System. Er arbeitet an sich selbst.
Die bitterste Ironie liegt im letzten Faktor: Die Infrastruktur, über die Widerstand organisiert werden müsste, ist dieselbe, die ihn strukturell erschwert. Plattformen verstärken Empörung algorithmisch — und schwächen Koordination. Sie produzieren das Gefühl politischer Teilhabe: Likes, Shares, Petitionen. Ohne die institutionelle Grundlage, die politisches Handeln tatsächlich wirksam macht, absorbiert diese Simulation von Gegenmacht die Energie, die für echte Gegenmacht notwendig wäre.
Die Verschiebung vom Objekt zum Subjekt — von Menschen als Rohstoff digitaler Systeme zu Menschen als Gestalter dieser Systeme — ist keine utopische Forderung. Sie ist die Grundbedingung dafür, dass die Industrialisierung der Intelligenz nicht dasselbe Erbe hinterlässt wie die erste: Jahrzehnte des Elends, bevor Institutionen lernten, Macht zu bändigen. Aber sie setzt voraus, dass Menschen die kognitive und emotionale Kapazität dafür zurückgewinnen. Das ist der Ausgangspunkt, von dem aus die historischen Werkzeuge zu verstehen sind — und von dem aus Teil 3 dieses Essays die Frage stellt, was Europa dafür wählen muss.
Demokratie ist keine Errungenschaft, die man hat. Sie ist eine Praxis, die man ausübt — oder verliert.
Das ist der Satz, den die politische Theorie seit der Antike kennt und den jede Generation neu lernen muss, weil er sich nicht von selbst versteht. Athen erfand die Demokratie und schaffte sie ab. Die Römische Republik entwickelte über Jahrhunderte institutionelle Komplexität von großer Raffinesse — und kollabierte nicht wegen äußerer Feinde, sondern wegen innerer Überdehnung, ökonomischer Ungleichheit und der Erschöpfung der Bürgerschaft, die aufgehört hatte, die Republik als ihr eigenes Projekt zu begreifen. Caesar war nicht die Ursache des Endes der Republik. Er war ihr Symptom.
Die neuzeitliche Demokratie entstand nicht als Idee, sondern als Konflikt. Die englische Glorious Revolution von 1688, die amerikanische Unabhängigkeitserklärung von 1776, die Französische Revolution von 1789 — keines dieser Ereignisse war das Ergebnis ruhiger Deliberation. Sie waren das Ergebnis von Krisen, in denen Gruppen von Menschen entschieden, dass die Kosten des Weitermachens höher waren als die Risiken des Kämpfens. Demokratie entstand dort, wo Menschen bereit waren, für sie einzustehen — nicht dort, wo Verhältnisse günstig waren.
Das 20. Jahrhundert hat dieser Erkenntnis ihre brutalste Bestätigung geliefert. Weimar war keine schwache Demokratie wegen mangelnder Verfassungsqualität. Die Weimarer Verfassung von 1919 war in vieler Hinsicht fortschrittlicher als die meisten ihrer Zeitgenossen. Weimar scheiterte, weil die Bürgerschaft in einem Zustand kollektiver Erschöpfung und Orientierungslosigkeit war — nach einem verlorenen Krieg, einer traumatischen Inflation, einer Weltwirtschaftskrise — und weil in diesem Zustand der Erschöpfung starke Männer mit einfachen Erklärungen strukturell im Vorteil sind gegenüber komplexen demokratischen Prozessen, die Geduld, Kompromissfähigkeit und die Toleranz von Widerspruch erfordern.
Geschichte ist kein linearer Prozess. Demokratie ist nicht der Normalzustand, zu dem Gesellschaften automatisch zurückfinden, wenn der Druck nachlässt. Sie ist ein Gleichgewichtszustand, der aktiv gehalten werden muss — und der kollabiert, wenn die Menschen, die ihn halten sollen, dazu nicht mehr in der Lage sind.
Das ist keine historische Fußnote. Es ist die präziseste Beschreibung der Gegenwart, die die Geschichte anbietet.
Die historischen Gefährdungsmuster der Demokratie sind überraschend konsistent, auch über sehr unterschiedliche Epochen und Kontexte hinweg.
Das erste Muster ist ökonomische Ungleichheit, die ein Kohärenzgefühl zerstört. Aristoteles hat es als erster systematisch beschrieben: Demokratie funktioniert, wenn die Mittelschicht stark genug ist, um Extremen das Übergewicht zu nehmen. Wenn Ungleichheit groß genug wird, entstehen zwei Lager — die sehr Reichen, die Demokratie als Bedrohung ihres Besitzes erleben, und die sehr Armen, die in ihr keinen Sinn mehr sehen, weil sie ihnen nichts bringt. Beide Dynamiken destabilisieren. Die erste produziert Oligarchie, die zweite Populismus — und oft beides gleichzeitig, weil Oligarchen Populisten finanzieren, die die demokratischen Institutionen schwächen, die ihre Macht begrenzen würden. Das Muster ist aus der Spätrepublik Roms vertraut. Es ist aus der Zwischenkriegszeit vertraut. Es ist aus der Gegenwart vertraut.
Das zweite Muster ist Geschwindigkeit, die Deliberation unmöglich macht. Demokratie braucht Zeit — Zeit für Debatte, für Kompromiss, für die Verarbeitung von Komplexität. Wenn politische, wirtschaftliche oder technologische Veränderungen so schnell eintreten, dass Institutionen und Bürgerschaft strukturell hinterherhinken, entsteht ein Legitimitätsvakuum. In diesem Vakuum gedeihen Autoritarismus und Vereinfachung — nicht weil Menschen dumm sind, sondern weil Vereinfachung kognitiv entlastet, wenn alles andere überwältigend ist. Die Zwischenkriegszeit war in diesem Sinne auch eine Krise der Geschwindigkeit: Industrialisierung, Urbanisierung, Massenkommunikation, politische Mobilisierung — alles gleichzeitig, in einem Tempo, das demokratische Institutionen nicht verarbeiten konnten.
Das dritte Muster ist die Erosion gemeinsamer Wirklichkeit. Demokratie setzt voraus, dass Bürgerinnen und Bürger über etwas streiten können — und das erfordert eine minimale gemeinsame Faktenbasis. Wenn diese Faktenbasis zerstört wird — durch Propaganda, durch Desinformation, durch Mediensysteme, die Aufmerksamkeit über Wahrheit stellen — wird demokratischer Streit zur Stammesrivalität. Man diskutiert nicht mehr über Lösungen, sondern bekämpft Feinde. Das Weimarer Mediensystem — hyperparteiische Zeitungen, politisch aufgeladene Unterhaltung, eine Öffentlichkeit, in der jeder in seiner eigenen Realität lebte — ist in seiner Struktur dem heutigen Plattformökosystem erstaunlich ähnlich. Der Unterschied ist die Skalierung.
Das vierte Muster ist die Erschöpfung derjenigen, die Demokratie tragen. Das ist das am wenigsten diskutierte Muster — und vielleicht das gefährlichste. Demokratie ist anstrengend. Sie erfordert Engagement, Kompromissbereitschaft, die Fähigkeit, Widersprüche auszuhalten, und die Bereitschaft, für gemeinsame Güter einzustehen, die man selbst nicht unmittelbar braucht. All das setzt Menschen voraus, die die kognitive und emotionale Kapazität dafür haben. Eine Gesellschaft, deren Mitglieder erschöpft, fragmentiert und in permanenter Selbstoptimierung gefangen sind, produziert keine solchen Menschen — sie produziert Menschen, die nach Entlastung suchen. Und Entlastung bieten Autoritäre besser als Demokraten.
Demokratien haben überlebt — und manchmal sogar gestärkt aus Krisen hervorgegangen. Die Muster dafür sind ebenfalls konsistent.
Das erste Resilienzmuster ist institutionelle Redundanz. Demokratien, die überlebten, hatten Institutionen, die sich gegenseitig kontrollierten und stützten — unabhängige Gerichte, freie Presse, föderale Strukturen, Zivilgesellschaft. Wenn eine Institution unter Druck geriet, konnten andere einspringen. Die amerikanische Demokratie hat die Trump-Präsidentien — beide — nicht zuletzt deshalb überlebt, weil die institutionelle Redundanz noch ausreichend war: Gerichte, die Exekutiventscheidungen blockierten; Bundesstaaten, die eigene Wege gingen; eine Presse, die trotz allem funktionierte. Diese Redundanz ist keine Ineffizienz. Sie ist das Design.
Das zweite Resilienzmuster ist die Fähigkeit zur institutionellen Erneuerung unter Druck. Die erfolgreichsten demokratischen Gesellschaften nach 1945 — Deutschland, Japan, Südkorea, Taiwan — haben ihre Demokratien nicht restauriert, sondern neu gebaut, mit expliziter institutioneller Architektur gegen die Fehler der Vergangenheit. Das Grundgesetz wurde nicht geschrieben, um die Weimarer Verfassung zu verbessern. Es wurde geschrieben, um ihre strukturellen Schwächen zu eliminieren — durch Ewigkeitsklauseln, durch den konstruktiven Misstrauensantrag, durch die Verfassungsschutzlogik, die Parteien verbietet, die die demokratische Ordnung beseitigen wollen. Das ist keine Selbstverständlichkeit. Es ist das Ergebnis einer Generation, die verstanden hatte, woran die Vorgänger gescheitert waren.
Das dritte Resilienzmuster ist wirtschaftliche Inklusion als demokratische Schutzmaßnahme. Der Erfolg der westeuropäischen Demokratien nach 1945 ist ohne den Wohlfahrtsstaat nicht zu erklären — nicht als moralisches Projekt, sondern als politisches Kalkül. Wenn Menschen das Gefühl haben, dass das System für sie arbeitet, verteidigen sie es. Wenn sie das Gefühl haben, dass es gegen sie arbeitet, suchen sie Alternativen. Der Sozialstaat war die institutionelle Antwort auf die Erkenntnis, dass Demokratie ohne wirtschaftliche Teilhabe strukturell instabil ist.
Das vierte Resilienzmuster ist das, was man aktive demokratische Kultur nennen könnte — die Bereitschaft von Bürgerinnen und Bürgern, Demokratie nicht nur als Wahlrecht zu verstehen, sondern als Praxis des Einmischens, Protestierens, Organisierens. Dänemark, Schweden, die Niederlande haben demokratische Kulturen entwickelt, in denen Bürgerengagement strukturell eingebettet ist — in Gewerkschaften, in Genossenschaften, in kommunale Selbstverwaltung. Das ist kein kulturelles Zufallsprodukt. Es ist das Ergebnis politischer Entscheidungen, diese Strukturen zu stärken und zu finanzieren.
Der Vergleich mit China, Japan, Taiwan und Südkorea ist produktiv — aber er erfordert Präzision, weil die Übertragbarkeit jeweils unterschiedlich ist.
China zeigt, was strategische Geduld und staatliche Koordination leisten können — und zu welchem Preis. China hat in der KI-Infrastruktur Aufhol-Geschwindigkeit erreicht, die westliche Beobachter überrascht hat, weil sie die Fähigkeit des chinesischen Staates unterschätzt haben, Ressourcen zu bündeln, Prioritäten zu setzen und Abweichungen zu unterdrücken. Was China auch zeigt: Ein System, das Geschwindigkeit über Legitimität stellt, produziert Fragilität anderer Art. Die chinesische Bevölkerung wird nicht gefragt, ob sie die Kosten dieser Transformation tragen will. Dissens wird unterdrückt, nicht verarbeitet. Das macht das System schnell und brittle zugleich — robust gegen externe Schocks, fragil gegen interne Widersprüche, die sich akkumulieren, ohne Ventil zu haben. Was Europa lernen kann: strategische Koordination, Industriepolitik als explizites staatliches Instrument, geduldige Kapitalallokation ohne Quartalsdruck. Was Europa nicht übernehmen kann und darf: die Unterdrückung demokratischer Kontrolle als Preis für Geschwindigkeit.
Japan zeigt ein anderes Modell — und ein wenig diskutiertes. Japan ist in der KI-Entwicklung kein Vorreiter. Es ist bewusst langsamer als die USA und China. Es entwickelt Technologie mit einem explizit gesellschaftlichen Qualitätsanspruch: Robotik für Pflege, KI für industrielle Präzision, Automatisierung, die auf Ergänzung menschlicher Arbeit ausgerichtet ist, nicht auf deren Ersatz. Japan hat dabei eine Eigenschaft, die Europa kennt und unterschätzt: eine Ingenieurskultur, die Qualität über Skalierung stellt, und eine gesellschaftliche Bereitschaft, Technologieeinführung zu verlangsamen, wenn die sozialen Kosten zu hoch sind. Das ist kein Rückstand. Das ist eine andere Entwicklungsphilosophie — eine, die Europa sehr viel näher ist als das Silicon-Valley-Modell, auch wenn sie weniger Aufmerksamkeit bekommt.
Taiwan zeigt, was technologische Souveränität als demokratisches Überlebensprojekt bedeutet. Taiwan produziert die fortschrittlichsten Halbleiter der Welt — nicht aus wirtschaftlichem Kalkül allein, sondern weil es verstanden hat, dass technologische Abhängigkeit existenzielle Verwundbarkeit bedeutet in einer geopolitischen Lage, in der es sich keine erlauben kann. Das TSMC-Modell — staatlich unterstützt, privatwirtschaftlich geführt, strategisch geschützt — ist ein Beispiel dafür, wie Industriepolitik und demokratische Governance zusammenwirken können, ohne dass eine die andere opfert. Was Europa lernen kann: dass technologische Souveränität keine Frage des Nationalismus ist, sondern eine Frage demokratischer Selbstbestimmung. Wer die Infrastruktur nicht kontrolliert, auf der seine Gesellschaft läuft, hat seine Souveränität bereits teilweise abgegeben.
Südkorea zeigt den vielleicht direktesten Lernfall für Europa. Südkorea hat in einer Generation den Sprung von einer Militärdiktatur zu einer lebendigen Demokratie mit Weltklasse-Technologieentwicklung vollzogen — durch eine Kombination aus staatlicher Industriepolitik, massiver Bildungsinvestition, institutioneller Erneuerung und einer Zivilgesellschaft, die gelernt hat, für demokratische Normen zu kämpfen. Die Candlelight-Proteste von 2016-2017, die zur Amtsenthebung von Präsidentin Park führten, waren kein spontaner Ausbruch. Sie waren das Ergebnis einer demokratischen Kultur, die durch Jahrzehnte des Kampfes entstanden war — und die gelernt hatte, dass Institutionen verteidigt werden müssen, auch wenn die Kosten kurzfristig hoch sind. Südkoreas AI Basic Act, der Regulierung explizit als Teil einer Wettbewerbsstrategie begreift, ist ein weiterer Lernfall: Regulierung und technologische Entwicklung als komplementäre, nicht konkurrierende Ziele.
Die Gegenwart ist nicht nur eine Geschichte demokratischer Erosion. Sie ist auch eine Geschichte demokratischer Experimente — kleiner, oft unsichtbarer, aber real.
Irland hat mit Bürgerräten gezeigt, dass deliberative Demokratie auch in polarisierten Gesellschaften funktioniert. Die Bürgerräte zu Abtreibung, Gleichstellung und Klimapolitik haben Fragen entschieden, die das Parlament nicht entscheiden konnte — weil sie zu polarisiert, zu parteipolitisch aufgeladen waren. Zufällig ausgewählte Bürgerinnen und Bürger, informiert durch Expertinnen, haben nach Wochen der Deliberation Empfehlungen erarbeitet, die breite gesellschaftliche Legitimation fanden. Das ist kein utopisches Modell. Es ist erprobt und dokumentiert.
Island hat nach der Finanzkrise 2008 einen Verfassungsprozess eingeleitet, der — zum ersten Mal in der Geschichte — die Öffentlichkeit aktiv in die Verfassungsgebung einbezog. Bürgerinnen konnten über soziale Medien Vorschläge einreichen, kommentieren, abstimmen. Das Ergebnis war eine Verfassung, die breiter legitimiert war als jede ihrer Vorgängerinnen — auch wenn das Parlament sie letztlich nicht verabschiedete. Der Prozess selbst war das Experiment: Demokratie nicht als Wahl zwischen vorgefertigten Optionen, sondern als kollektive Autorschaft.
Estland hat digitale Demokratie nicht als Ersatz für physische Institutionen entwickelt, sondern als deren Erweiterung. E-Residency, digitale Wahlen, elektronische Steuererklärungen — das sind nicht nur Effizienzgewinne, sondern Instrumente demokratischer Teilhabe, die Bürgerinnen und Bürgern Zeit zurückgeben, die bisher in bürokratische Reibung investiert werden musste. Was Estland zeigt: Digitalisierung kann demokratische Teilhabe stärken — wenn sie als demokratisches Projekt konzipiert wird, nicht als Effizienzprojekt für den Staat.
Mexiko-Stadt hat mit participatory budgeting Erfahrungen gemacht, die zeigen, dass direkte demokratische Beteiligung an Ressourcenallokation nicht nur möglich ist, sondern zu anderen — oft besseren — Ergebnissen führt als repräsentative Entscheidungsprozesse allein. Bürgerinnen und Bürger, die direkt entscheiden, wie ein Teil des kommunalen Budgets verwendet wird, entwickeln ein anderes Verhältnis zu demokratischen Institutionen als solche, die alle vier oder fünf Jahre wählen und dann warten.
Was diese Experimente verbindet: Sie alle setzen voraus, dass Bürgerinnen und Bürger Zeit haben, Energie haben, Kapazität haben — für Deliberation, für Engagement, für die Auseinandersetzung mit Komplexität. Sie setzen, mit anderen Worten, Menschen voraus, die nicht auf dem Zahnfleisch gehen.
Hier liegt der Kern der Frage, die Europa beantworten muss — und die im dominanten Diskurs über KI-Wettbewerbsfähigkeit fast nie gestellt wird: Was ist der Preis des Mitspielens?
Das Tempo, das der globale KI-Wettlauf vorgibt, ist kein Naturgesetz. Es ist eine Entscheidung — einer kleinen Gruppe von Unternehmen und ihren Investoren, die von diesem Tempo profitieren, und eines geopolitischen Rahmens, der Geschwindigkeit über Sorgfalt stellt. Europa wird eingeladen, an diesem Tempo teilzunehmen, mit dem impliziten Argument, dass Nichtmitmachen Rückstand bedeutet. Dieses Argument ist eine Rahmung — und sie ist interessengeleitet.
Die historischen Analogien sind aufschlussreich. Als die chemische Industrie im 20. Jahrhundert neue Substanzen in einem Tempo auf den Markt brachte, das Regulierung systematisch überholte, zahlte die Gesellschaft die Kosten: Thalidomid, DDT, FCKW. Die Antwort war nicht, die chemische Industrie zu verbieten — sie war, das Tempo der Markteinführung an das Tempo der Risikobewertung zu koppeln. Das Vorsorgeprinzip, das Europa in der Chemieregulierung entwickelt hat, ist genau diese Antwort: Nicht der Nachweis des Schadens muss erbracht werden, bevor eine Substanz reguliert wird — sondern der Nachweis der Sicherheit, bevor sie auf den Markt kommt.
Ein Moratorium in der KI-Entwicklung — oder präziser: eine bewusste Entschleunigung, eine Entkopplung vom Tempo, das andere setzen — ist in diesem Sinne keine technologiefeindliche Position. Es ist eine demokratische Schutzmaßnahme. Es ist die Entscheidung, die Bedingungen unter denen Technologie entwickelt und eingesetzt wird, demokratisch zu bestimmen, statt sie von Akteuren bestimmen zu lassen, die an ihrer unkontrollierten Ausbreitung verdienen.
Was würde Europa verlieren, wenn es diesen Weg ginge? Vermeintlich: den Anschluss an die Frontier-Modelle, die in den USA und China trainiert werden. Tatsächlich: die Rolle als Testmarkt für Systeme, deren gesellschaftliche Kosten andere tragen und deren Gewinne andere einstreichen.
Was würde Europa gewinnen? Die Zeit und die kognitive Kapazität, Technologie zu entwickeln, die seinen Werten entspricht — nicht als nachträgliche Regulierung fremder Systeme, sondern als eigenes Projekt mit eigenem Tempo und eigenem Qualitätsanspruch. Die Fähigkeit, demokratische Institutionen zu schützen, indem sie nicht permanent von Systemen überwältigt werden, die schneller skalieren als Regulierung reagieren kann. Und das Signal an die eigene Gesellschaft, dass Demokratie keine Effizienzmaschine ist, sondern ein Wertesystem — das manchmal langsamer ist als seine Alternativen, und das genau deshalb schützenswert ist.
Demokratie muss gewollt werden. Sie braucht Menschen, die sich für sie einsetzen — Menschen, die dazu in der Lage sind, weil sie nicht erschöpft sind, nicht fragmentiert, nicht in eine permanente Beschleunigung gezwungen, deren Tempo andere bestimmen. Das ist keine sentimentale Forderung. Es ist eine strukturelle Voraussetzung.
Europa hat die Wahl — nicht zwischen Fortschritt und Rückschritt, sondern zwischen zwei verschiedenen Entwicklungsmodellen. Das eine folgt einem Tempo und einer Logik, die anderswo gesetzt wurden, für andere Interessen. Das andere entwickelt Technologie im eigenen Tempo, mit eigenem Qualitätsanspruch, unter demokratischer Kontrolle — und akzeptiert dabei, in Kennzahlen, die andere definiert haben, schlechter abzuschneiden.
Die Geschichte zeigt, dass Demokratie nicht an Langsamkeit gescheitert ist. Sie ist an Überforderung gescheitert, an Erschöpfung, an dem Verlust der Fähigkeit, gemeinsam zu denken und gemeinsam zu entscheiden. Ein Europa, das dieses Muster kennt und trotzdem das Tempo anderer übernimmt, hat die Lektion nicht gelernt.
Was wirklich hilft, zeigt die Geschichte — nicht als Analogie, sondern als Werkzeugkasten.
Die erste Industrialisierung wurde nicht durch bessere Argumente gebändigt. Sie wurde gebändigt, als drei Dinge passierten, die nichts mit Überzeugung zu tun hatten.
Das erste war Messung. Die britischen Fabrikinspektoren, eingesetzt ab 1833, haben nicht debattiert — sie haben gezählt. Arbeitsstunden, Kindesalter, Unfallraten. Erst als Schäden dokumentiert, vergleichbar und öffentlich waren, wurde Regulierung möglich. Vorher war alles Meinung gegen Meinung. Heute fehlt dasselbe: Wer misst systematisch, welche psychischen Schäden Plattformarchitektur verursacht? Welche Arbeitsausfälle durch Automatisierung entstehen, wo, bei wem? Welche demokratischen Institutionen durch algorithmische Desinformation beschädigt wurden? Solange diese Zahlen nicht existieren — oder nur von den Konzernen selbst produziert werden, die ein strukturelles Interesse an ihrer Interpretation haben — bleibt Regulierung Verhandlung ohne gemeinsame Faktenbasis. Und ohne gemeinsame Faktenbasis gewinnt immer der, der die Komplexität am überzeugendsten verwaltet.
Das zweite war Haftung. Nicht Bußgelder, die als Betriebskosten verbucht werden, sondern Haftung, die Anreize verändert. Der Moment, in dem Fabrikbesitzer für Arbeitsunfälle persönlich und strukturell hafteten, veränderte Produktionsentscheidungen schneller als jede moralische Debatte — nicht weil sie plötzlich anders dachten, sondern weil die Kosten nicht mehr externalisiert werden konnten. Das LA-Urteil vom März 2026, das erstmals Produkthaftung für Plattformarchitektur begründete, folgt exakt dieser Logik. Der entscheidende Durchbruch liegt nicht in der Höhe des Schadenersatzes, sondern in der Verschiebung der Beweislast: Nicht mehr muss gezeigt werden, welche Inhalte konkret Schaden angerichtet haben. Es muss gezeigt werden, dass das Design selbst einen vorhersehbaren Schaden erzeugt hat. Wenn diese Logik sich in Tausenden weiterer Verfahren durchsetzt und institutionelle Investoren beginnen, Haftungsrisiken in Milliardenhöhe einzupreisen — verändert sich die Finanzierungsstruktur der Branche fundamental. Nicht weil Konzerne plötzlich Verantwortung empfinden, sondern weil sie teuer wird.
Das dritte war Gegenmacht mit eigener Infrastruktur. Gewerkschaften wurden nicht stark, weil sie recht hatten. Sie wurden stark, weil sie eigene Kassen aufbauten, eigene Kommunikation, eigene Rechtsberatung — unabhängig vom System, gegen das sie kämpften. Heute laufen die meisten Gegenbewegungen auf der Infrastruktur der Konzerne, gegen die sie sich richten. Aktivisten organisieren sich auf Plattformen, deren Algorithmen Empörung verstärken und Koordination erschweren. Forscher publizieren in Systemen, die von denselben Konzernen finanziert werden, die sie untersuchen. Regulierer kommunizieren über Dienste, deren Anbieter sie regulieren sollen. Solange das so bleibt, absorbiert das System Kritik, ohne sich zu verändern — nicht durch Strategie, sondern durch Struktur.
Was die Geschichte zeigt, ist keine Garantie des Fortschritts. Sie zeigt, unter welchen Bedingungen sich Machtstrukturen verschieben: wenn Schäden messbar werden, wenn Haftung greift, wenn Gegenmacht eigene institutionelle Grundlagen aufbaut. Diese Bedingungen sind keine Naturgesetze. Sie entstehen durch politische Entscheidungen — oder sie entstehen nicht.
Quellen, Literatur und Autorenübersicht
Referenzen & Vertiefung
Dieser Anhang enthält den Quellenblock für die im Essay verwendeten Argumente, ein erweitertes Literaturverzeichnis, eine Übersicht laufender Verfahren gegen große Technologieunternehmen sowie eine Autorenübersicht mit zentralen Denkern, deren Arbeiten die Thesen des Essays stützen.
A. QUELLENBLOCK
A1. Energieverbrauch, Datacenter, Umweltfolgen
International Energy Agency (IEA). Energy and AI (2025). Zentraler Bericht zum Zusammenhang von KI, Stromverbrauch und Energiesystemen, mit Projektionen zum Strombedarf bis 2030.
Goldman Sachs Research. AI to drive 165% increase in data center power demand by 2030 (2025). Finanzmarktnahe Analyse zur Stromnachfrage durch KI-Infrastruktur.
ArXiv. The Environmental Impact of AI Servers and Sustainable Solutions (2025). Technische Analyse zu Strom, Wasser und Emissionen von KI-Servern.
A2. Infrastruktur, Cloud, Halbleiter
DARPA. Offizielle Zeitleiste und historische Informationen zur Rolle militärischer Forschung für digitale Technologien.
PARC (Xerox PARC). Offizielle History-Seiten zur Entwicklung von GUI, Maus und frühen Netzwerkarchitekturen.
U.S. Congress. CHIPS and Science Act of 2022. Gesetzestext und offizielle Informationen zum Fördervolumen.
Semiconductor Industry Association. Brancheninformationen zur Rolle von Halbleitern als strategischer Schlüsseltechnologie.
A3. Staatliche Cloudverträge, Militär, Venture Capital
U.S. Department of Defense. Offizielle Informationen zu Cloudverträgen und militärischen KI-Anwendungen.
Reuters. Berichte zu Pentagon-Cloudverträgen mit Amazon, Microsoft, Google und Oracle.
PitchBook / Crunchbase. Marktberichte zu KI- und Venture-Capital-Finanzierung, einschließlich der Investitionen in OpenAI und Anthropic.
A4. Globales KI-Rennen, Geopolitik
Stanford University. AI Index Report (2025). Zentrale Referenz zu Modellen, Investitionen und globalem Wettbewerb.
OECD. AI Policy Observatory. Internationale KI-Politik und nationale Strategien im Vergleich.
McKinsey. The State of AI. Adoption von KI in Unternehmen und Marktstruktur.
A5. Governance und Regulierung
Europäische Kommission. AI Act – Inkrafttreten 1. August 2024, erste Verpflichtungen ab Februar 2025.
Australian Government, Digital Transformation Agency. Policy for the Responsible Use of AI in Government.
New Zealand Government. Public Service AI Framework (2025).
African Union. Continental Artificial Intelligence Strategy (2024).
Republic of Korea. AI Basic Act – verabschiedet 2025, in Kraft seit Anfang 2026.
A6. Arbeit, Plattformökonomie, Moderation
Reuters. Kenya court rules Meta can be sued over layoffs by contractor (2024).
Eurofound. Collective Bargaining on Artificial Intelligence at Work. Zur Tarifpolitik und KI in Arbeitsbeziehungen.
Gray, Mary L. / Suri, Siddharth. Ghost Work – zur unsichtbaren menschlichen Arbeit hinter Automatisierungssystemen.
A7. Umwelt, Wasserverbrauch, Effizienz
Reuters. Berichte zu Wasserkonflikten um Datacenter in Lateinamerika, insbesondere Uruguay 2023.
Google DeepMind. Bericht zur Senkung des Energieverbrauchs für Datacenter-Kühlung um rund 40 Prozent.
A8. Public Mental Health, Plattformhaftung
Journal of Medical Internet Research (JMIR). Forschung zu digitaler Gesundheit, Social Media und psychischer Belastung.
Reuters. Berichte zu Character.AI/Google und Klagen im Zusammenhang mit psychischen Schäden.
Eurofound / niederländische Quellen zum Uber-Transparenzfall.
A9. Wissenschaftliche KI-Kritik, LeCun, AMI Labs
LeCun, Yann. Öffentliche Statements und Interviews zu AMI Labs, JEPA-Architektur und der Kritik an der Scaling Hypothesis, November 2025 – März 2026. Dokumentiert u.a. in HPCwire, TechCrunch, The Next Web und Frenchtechjournal.
AMI Labs. Offizielle Unternehmensinformationen, Seed-Runde März 2026. Bewertung 3,5 Mrd. Dollar, Investoren u.a. Nvidia, Samsung, Temasek, Eric Schmidt, Jeff Bezos.
Bender, Emily M. et al. On the Dangers of Stochastic Parrots. FAccT 2021. Grundlegende Kritik an der Verwechslung von Sprachflüssigkeit mit Verstehen.
A10. AI-Safety-Bewegung, interner Kollaps
Anthropic. Responsible Scaling Policy – Änderungen Anfang 2026, Streichung der Pausenverpflichtung. Dokumentiert in einschlägigen KI-Fachmedien.
OpenAI. Änderungen der Usage Policy bezüglich militärischer Nutzung, 2024–2025. Öffentlich dokumentiert.
Open Letter von Beschäftigten bei Anthropic, OpenAI und Google DeepMind zu Whistleblower-Schutz und Transparenz, 2024. Dokumentiert in Frenchtechjournal und weiteren Quellen.
Abschiedsbriefe und öffentliche Statements ausscheidender Sicherheitsforscher, darunter der Leiter von Anthropics Safeguards Research Team sowie eine OpenAI-Forscherin in der New York Times, 2025–2026. Dokumentiert in The Next Web.
A11. Energiepolitik, Trump-Administration, Fossilenergie
Executive Order der Trump-Administration zur Beschleunigung des Baus von KI-Rechenzentren, Juli 2025. Explizite Nennung von Erdgas, Kohle und Nuklearenergie als förderfähige Quellen; Ausschluss von Wind- und Solarenergie.
Anordnung des US-Innenministeriums zur Genehmigung erneuerbarer Energien auf Bundesland, 2025.
Europäische Kommission. Paket zur Energieeffizienz von Rechenzentren, Ziel klimaneutraler Datacenter bis 2030. Tech Policy Press.
Energieeffizienzgesetz Deutschland – Anforderungen für Rechenzentren ab 300 kW, 50% erneuerbar ab sofort, 100% ab Januar 2027. First Amendment Watch.
Berichte zu Datacenter-Stopps in Amsterdam und Dublin aufgrund von Netzüberlastung sowie Gewerkschaftskritik in Irland. Global Banking and Finance.
A12. Public Mental Health, Plattformhaftung, Design
State of New Mexico v. Meta Platforms, Inc. First Judicial District Court, Santa Fe. Ablehnung des Abweisungsantrags, 2026.
Product Liability Theory in parallelen Verfahren gegen Meta, TikTok, YouTube, Snap – MDL No. 3047, U.S. District Court, Northern District of California.
EU-Kommission. DSA-Leitlinien zum Schutz Minderjähriger, Juli 2025 – Anforderungen zu Autoplay, Push-Benachrichtigungen, Streaks und Nutzungsförderung.
EU-Kommission. Vorläufige Ergebnisse zur TikTok-Untersuchung, Februar 2026 – Befund möglicher DSA-Verstöße durch Suchtdesign.
Antonovsky, Aaron. Salutogenese – Konzept des Kohärenzgefühls als Gesundheitsfaktor. Grundlagenwerk zur strukturellen Dimension psychischer Gesundheit.
Psychoneuroimmunologische Forschung zu biologischen Effekten von chronischem Stress. Einschlägige Literatur u.a. über Christian Schubert dokumentiert im Begleitdossier.
A13. Radikalisierung, politische Anfälligkeit, Plattformökonomie
Forschung zu wahrgenommener relativer Deprivation und Wahlverhalten: Zusammenhang zwischen Arbeitslosigkeitsrisiko und rechtsradikalen Parteien. Einschlägige soziologische Literatur, u.a. Beck/Beck-Gernsheim zur Individualisierung sozialer Risiken; Castel zur Prekarisierung; Ehrenberg zur Erschöpfung durch Selbstverantwortung.
A14. Demokratie
OECD (2020): Innovative Citizen Participation and New Democratic Institutions: Catching the Deliberative Wave. — Überblick über Bürgerräte und deliberative Experimente weltweit.
Assemblée citoyenne irlandaise (2016–2018): Dokumentation der irischen Bürgerräte zu Abtreibung und Gleichstellung. citizensassembly.ie.
Landemore, H. (2015): Inclusive Constitution-Making: The Icelandic Experiment. Journal of Political Philosophy. — Zur isländischen Verfassungsgebung als demokratischem Experiment.
e-Estonia (laufend): Dokumentation des estnischen digitalen Demokratiemodells. e-estonia.com.
A15. Trainingsdaten von LLM
The New York Times v. Microsoft Corporation and OpenAI — U.S. District Court, S.D.N.Y., eingereicht Dezember 2023.
Authors Guild et al. v. OpenAI — Sammelklage amerikanischer Autoren, 2023.
Getty Images v. Stability AI — U.S. District Court, D. Del., 2023.
Europäische Kommission. AI Act, Art. 53 — Transparenzpflichten für Trainingsdaten großer Modelle. EUR-Lex, 2024.
Wikimedia Foundation. Stellungnahme zur Nutzung von Wikipedia-Inhalten durch KI-Unternehmen, 2023. wikimediafoundation.org.
B. LITERATURVERZEICHNIS
Politische Ökonomie, Plattformkapitalismus, Monopolbildung
Bratton, Benjamin. The Stack: On Software and Sovereignty. Doctorow, Cory. The Internet Con. Morozov, Evgeny. To Save Everything, Click Here / The Net Delusion. Pasquale, Frank. The Black Box Society. Srnicek, Nick. Platform Capitalism. Wu, Tim. The Master Switch / The Curse of Bigness. Zuboff, Shoshana. The Age of Surveillance Capitalism.
Materialität der KI, Rohstoffe, Infrastruktur
Crawford, Kate. Atlas of AI. Crawford, Kate / Joler, Vladan. Anatomy of an AI System. Parikka, Jussi. A Geology of Media. Starosielski, Nicole. The Undersea Network.
Training von LLM
Polanyi, Karl. The Great Transformation, Kapitel 3–5. Benkler, Yochai. The Wealth of Networks. Lessig, Lawrence. Free Culture. Penguin Press, 2004.
Digitale Arbeit, Ghost Work, Plattformarbeit
Casilli, Antonio A. En attendant les robots. Gray, Mary L. / Suri, Siddharth. Ghost Work. Roberts, Sarah T. Behind the Screen. Woodcock, Jamie / Graham, Mark. The Gig Economy. Eubanks, Virginia. Automating Inequality.
Kritik großer Sprachmodelle, KI-Grenzen
Bender, Emily M. et al. On the Dangers of Stochastic Parrots (Paper). Marcus, Gary / Davis, Ernest. Rebooting AI. Mitchell, Melanie. Artificial Intelligence: A Guide for Thinking Humans.
Gesellschaft, Ungleichheit, Diskriminierung
Benjamin, Ruha. Race After Technology. Noble, Safiya Umoja. Algorithms of Oppression. O'Neil, Cathy. Weapons of Math Destruction. Couldry, Nick / Mejias, Ulises. The Costs of Connection.
Geopolitik, Industriepolitik, Halbleiter
Miller, Chris. Chip War. Mazzucato, Mariana. The Entrepreneurial State. Tooze, Adam. Crashed sowie Essays zu Chips und Industriepolitik. Breznitz, Dan. Innovation in Real Places.
Internetgeschichte, Commons, Offenheit
Abbate, Janet. Inventing the Internet. Benkler, Yochai. The Wealth of Networks. Lessig, Lawrence. Code and Other Laws of Cyberspace.
Industrialisierung, Sozialgeschichte
Polanyi, Karl. The Great Transformation. Thompson, E. P. The Making of the English Working Class. Hobsbawm, Eric. Industry and Empire. Piketty, Thomas. Capital in the Twenty-First Century.
Public Mental Health, Aufmerksamkeitsökonomie
Turkle, Sherry. Alone Together. Hari, Johann. Stolen Focus. Twenge, Jean M. iGen. Vaidhyanathan, Siva. Antisocial Media.
Erschöpfung, Prekarisierung, Individualisierung
Castel, Robert. Les métamorphoses de la question sociale. Ehrenberg, Alain. La fatigue d'être soi / Das erschöpfte Selbst. Beck, Ulrich / Beck-Gernsheim, Elisabeth. Individualisierung.
Demokratie
Aristoteles: Politik, Buch III und IV. Arendt, H. (1951): The Origins of Totalitarianism. Harcourt. Levitsky, S. / Ziblatt, D. (2018): How Democracies Die. Crown. Müller, J.-W. (2016): What Is Populism? University of Pennsylvania Press. Habermas, J. (1992): Faktizität und Geltung. Suhrkamp. Fukuyama, F. (2014): Political Order and Political Decay. Farrar, Straus and Giroux. Streeck, W. (2013): Gekaufte Zeit. Suhrkamp. Landemore, H. (2020): Open Democracy. Princeton University Press. Foa, R. S. / Mounk, Y. (2016): The Danger of Deconsolidation. Journal of Democracy. Sintomer, Y. et al. (2012): Participatory Budgeting in Europe. Mazzucato, M. (2021): Mission Economy. Allen Lane. Rodrik, D. (2011): The Globalization Paradox. Norton.
C. VERFAHRENSÜBERSICHT: LAUFENDE VERFAHREN GEGEN GROSSE TECHNOLOGIEUNTERNEHMEN
Die folgende Übersicht bündelt zentrale Verfahren gegen die größten Plattform- und Infrastrukturunternehmen der digitalen Wirtschaft. Sie konzentriert sich auf Fälle mit potenziell systemischer Bedeutung und erhebt keinen Anspruch auf Vollständigkeit.
Meta
Mehr als vierzig US-Bundesstaaten haben Meta wegen angeblich suchtverstärkender Plattformdesigns verklagt. Im Mittelpunkt stehen algorithmische Verstärkung von Inhalten, psychologische Bindungsmechanismen und negative Auswirkungen auf die psychische Gesundheit von Jugendlichen. Besonders relevant ist das Verfahren des Bundesstaats New Mexico, das auf Undercover-Profilen basiert, die sich als Minderjährige ausgaben – und zeigen sollten, ob die Plattformarchitektur gefährliche Kontakte strukturell begünstigt. Die irische Datenschutzbehörde verhängte 2023 und 2024 Bußgelder in Höhe von insgesamt 641 Millionen Euro wegen Verstößen gegen die DSGVO. Die FTC klagt zudem wegen der Monopolisierung sozialer Netzwerke durch die Übernahmen von Instagram und WhatsApp.
Alphabet (Google)
Ein US-Bundesgericht verurteilte Google 2024 in erster Instanz wegen illegaler Monopolisierung der Internetsuche durch exklusive Voreinstellungsverträge. Ein weiteres Verfahren betrifft die Monopolisierung der digitalen Werbeinfrastruktur. Die EU-Kommission verhängte Bußgelder in Milliardenhöhe wegen Missbrauchs der Marktstellung im Bereich Android, Shopping und Werbetechnologie.
Apple
Im Mittelpunkt steht die Kontrolle über das mobile Ökosystem: exklusive Zahlungssysteme, Provisionen von bis zu 30 Prozent und die Einschränkung alternativer App-Stores. Die EU-Kommission untersucht Apple im Rahmen des Digital Markets Act.
Amazon
Die FTC klagt wegen Selbstbevorzugung eigener Produkte, Nutzung von Händlerdaten und Einschränkung des Preiswettbewerbs. Die EU-Kommission führt ein paralleles Kartellverfahren wegen Nutzung von Händlerdaten zur Wettbewerbsverzerrung.
Microsoft
Im Fokus stehen Cloud-Infrastruktur und die Integration von Software, Cloud und KI. Europäische Cloudanbieter klagen über wettbewerbsverzerrende Lizenzbedingungen. Der Kauf von Activision Blizzard wurde nach intensiver regulatorischer Prüfung durch EU und UK unter Auflagen genehmigt.
Nvidia
Ein FTC-Verfahren gegen die geplante Übernahme des Chipdesigners Arm endete 2022, nachdem Nvidia den Erwerb aufgab. Regulatorische Aufmerksamkeit richtet sich zunehmend auf Nvidias GPU-Marktdominanz und die strukturellen Abhängigkeiten der KI-Industrie von einem einzigen Chiphersteller.
Tesla
Mehrere Verfahren betreffen die Darstellung autonomer Fahrfunktionen als irreführend sowie Sicherheitsrisiken im Zusammenhang mit dem Autopilot-System. Die US-Verkehrssicherheitsbehörde NHTSA untersucht Unfälle, an denen Autopilot-Systeme beteiligt waren.
D. AUTORENÜBERSICHT
Denker, deren Arbeiten die Thesen des Essays stützen oder vertiefen.
Kate Crawford — Atlas of AI / Anatomy of an AI System (mit Joler). Macht sichtbar, dass KI kein immaterielles Softwarewunder ist, sondern ein industrielles System aus Energie, Rohstoffen, Arbeit und Infrastruktur.
Karl Polanyi — The Great Transformation. Der wichtigste historische Theoretiker für die Grundidee des Essays: Märkte und Industrialisierung erzeugen Gegenbewegungen, weil Gesellschaften sich gegen totale Verwertungslogik schützen müssen.
E. P. Thompson — The Making of the English Working Class. Zentral für die historischen Vergleiche zwischen erster Industrialisierung und heutiger Digitalökonomie.
Tim Wu — The Master Switch / The Curse of Bigness. Erklärt, warum offene Informationsindustrien strukturell zur Monopolbildung tendieren — und warum Hyperscaler und Cloudplattformen dieser Logik folgen.
Shoshana Zuboff — The Age of Surveillance Capitalism. Zeigt, wie menschliches Verhalten zum Rohstoff digitaler Kapitalakkumulation wird.
Nick Srnicek — Platform Capitalism. Erklärt, warum Plattformen nicht nur Dienste anbieten, sondern Infrastrukturen kontrollieren wollen.
Mariana Mazzucato — The Entrepreneurial State / Mission Economy. Liefert die Gegenfolie zur Silicon-Valley-Legende vom rein privaten Innovationswunder — und das Modell staatlich geleiteter Innovationspolitik als demokratisches Projekt.
Chris Miller — Chip War. Zeigt, warum Halbleiter der strategische Kern der digitalen und militärischen Gegenwart sind.
Adam Tooze — Crashed sowie Essays zu Chips und Industriepolitik. Bettet KI in die größere Geschichte von Finanzmacht, Geopolitik und Industriepolitik ein.
Emily M. Bender — On the Dangers of Stochastic Parrots. Liefert die präziseste theoretische Kritik an der Verwechslung von Sprachflüssigkeit mit Verstehen.
Gary Marcus / Ernest Davis — Rebooting AI. Argumentieren, dass Mustererkennung nicht mit robuster allgemeiner Intelligenz verwechselt werden darf.
Antonio A. Casilli — En attendant les robots. Zeigt, dass Automatisierung oft auf tausenden unsichtbaren menschlichen Mikroarbeiten beruht — und beschreibt die Individualisierung sozialer Risiken als strukturelles Merkmal der Plattformökonomie.
Mary L. Gray / Siddharth Suri — Ghost Work. Dokumentieren, wie scheinbar automatisierte Systeme auf schlecht geschützter, ausgelagerter Arbeit beruhen.
Sarah T. Roberts — Behind the Screen. Beschreibt die psychologischen und arbeitsrechtlichen Kosten der Plattformmoderation.
Benjamin Bratton — The Stack. Bietet ein Modell, um KI, Cloud, Territorium und staatliche Macht als zusammenhängendes System zu lesen.
Frank Pasquale — The Black Box Society. Liefert das Vokabular für undurchsichtige, rechenschaftsarme Entscheidungssysteme.
Ruha Benjamin — Race After Technology. Zeigt, dass technische Systeme soziale Hierarchien nicht neutral abbilden, sondern oft verstärken.
Yochai Benkler — The Wealth of Networks. Zentral für das Gegenmodell: offene, gemeinwohlorientierte Wissensproduktion.
Lawrence Lessig — Code and Other Laws of Cyberspace / Free Culture. Zeigt, dass technische Architektur immer schon politische Ordnung ist — und dokumentiert die Geschichte der Einschränkung kultureller Gemeingüter durch Urheberrechtserweiterung.
Alain Ehrenberg — La fatigue d'être soi / Das erschöpfte Selbst. Beschreibt, wie die Norm permanenter Selbstoptimierung gesellschaftliche Erschöpfung produziert — und damit die Kapazität für kollektives Handeln strukturell untergräbt.
Robert Castel — Les métamorphoses de la question sociale. Grundlegendes Werk zur Prekarisierung und zur Individualisierung sozialer Risiken: Strukturelle Probleme werden zunehmend als persönliche Aufgaben gerahmt, was kollektive Gegenmacht systematisch schwächt.
Aristoteles — Politik, Buch III und IV. Grundlegende Analyse der Stabilitätsbedingungen demokratischer Systeme — insbesondere der Rolle der Mittelschicht und der Gefährdung durch Oligarchie und Populismus.
Hannah Arendt — The Origins of Totalitarianism. Zu den strukturellen Bedingungen demokratischen Kollapses — und zur Bedeutung politischen Handelns als Grundbedingung menschlicher Freiheit.
Steven Levitsky / Daniel Ziblatt — How Democracies Die. Empirische Analyse demokratischer Erosionsmuster im 20. und 21. Jahrhundert: Demokratien sterben heute seltener durch Putsch als durch schleichende institutionelle Aushöhlung.
Jan-Werner Müller — What Is Populism? Zur Beziehung zwischen Populismus und demokratischer Erosion — und zur strukturellen Gefährdung demokratischer Institutionen durch Akteure, die vorgeben, das Volk allein zu vertreten.
Jürgen Habermas — Faktizität und Geltung. Zur deliberativen Demokratietheorie als normativer Grundlage: Demokratische Legitimität entsteht durch diskursive Verfahren, nicht durch bloße Mehrheitsentscheidung.
Francis Fukuyama — Political Order and Political Decay. Zu institutioneller Resilienz und demokratischem Verfall: Institutionen können erodieren, wenn sie nicht aktiv gepflegt und gegen Capture-Dynamiken geschützt werden.
Wolfgang Streeck — Gekaufte Zeit. Zur Beziehung zwischen Demokratie und kapitalistischer Dynamik in Europa: Der Aufschub struktureller Konflikte durch Verschuldung und Privatisierung hat demokratische Legitimitätsprobleme erzeugt, keine gelöst.
Hélène Landemore — Open Democracy. Zu neuen Modellen deliberativer und partizipativer Demokratie — und zum Potenzial zufällig ausgewählter Bürgerräte als Ergänzung repräsentativer Systeme.
Roberto Stefan Foa / Yascha Mounk — The Danger of Deconsolidation (Journal of Democracy, 2016). Empirische Belege für sinkende demokratische Bindung jüngerer Generationen in westlichen Demokratien — ein Befund, der seither intensiv diskutiert und differenziert wird.
Dani Rodrik — The Globalization Paradox. Zur strukturellen Spannung zwischen globalem Wettbewerb, nationaler Souveränität und demokratischer Selbstbestimmung — dem sogenannten trilemma of globalization.