Der EU AI Act wird oft als notwendige Antwort auf die Risiken künstlicher Intelligenz gelesen: Schutz von Grundrechten, Eindämmung von Diskriminierung, Kontrolle über Hochrisiko-Systeme. Diese Perspektive ist nicht falsch – aber unvollständig.
In seiner politischen Logik ist der AI Act weniger ein reines Governance-Instrument als vielmehr ein geopolitisches Statement.
Regulierung als Strategie des Zeitgewinns
Europa verfügt weder über dominante Plattformen noch über eigene Hyperscaler oder marktführende Foundation-Modelle. Die technologische Vormacht liegt klar bei US-amerikanischen Konzernen.
Der EU AI Act kann diese strukturelle Lücke nicht schließen – er verfolgt eine andere Strategie: Zeit gewinnen. Durch umfangreiche Dokumentationspflichten, Haftungsfragen und regulatorische Anforderungen wird das Innovations- und Skalierungstempo globaler Anbieter gebremst. Regulierung wirkt hier wie ein industriepolitisches Tempolimit.
Formale Gleichbehandlung, asymmetrische Wirkung
Dass auch europäische Unternehmen von dieser Regulierung betroffen sind, ist kein Kollateralschaden, sondern einkalkuliert. Eine explizite Bevorzugung eigener Akteure wäre politisch nicht haltbar.
Stattdessen setzt die EU auf formale Gleichbehandlung mit faktisch asymmetrischer Wirkung: Große, schnell iterierende Black-Box-Modelle leiden stärker unter Compliance-Reibung als kleinere, stärker regulierungsnahe Anbieter.
Hochrisiko-KI als nicht verhandelbarer Kern
Besonders deutlich zeigt sich dieser Ansatz bei Hochrisiko-KI. Systeme in Bereichen wie Gesundheit, Beschäftigung oder Kreditwürdigkeit bilden den harten Kern der Regulierung.
Hier wird es keine grundlegende Lockerung geben. Ein einzelner Skandal würde jede politische Rückzugsbewegung unmöglich machen. Verhandelbar ist nicht das Ob, sondern das Wie: präzisere Definitionen, Standardisierung, Erleichterungen für KMU und klarere Abgrenzungen assistiver Systeme.
Das Problem der Scheinsicherheit
Problematisch ist weniger das Ziel als die zugrunde liegende Annahme. Der AI Act behandelt KI implizit wie ein klassisches Produkt: prüfbar, dokumentierbar, kontrollierbar.
Moderne KI-Systeme sind jedoch dynamische, probabilistische Werkzeuge, deren Risiken sich oft erst im realen Einsatz zeigen. Die starke Fokussierung auf Vorab-Dokumentation erzeugt leicht eine Scheinsicherheit und verschiebt Aufmerksamkeit von Nutzungseffekten hin zu formaler Compliance.
Designentscheidungen statt Technikzwang
Viele KI-Risiken entstehen nicht aus der Technik selbst, sondern aus bewusstem Systemdesign. Autoritativ wirkende Antworten, übermäßige Plausibilität oder die Simulation von Kompetenz sind ökonomisch motivierte Designentscheidungen – keine technischen Notwendigkeiten.
Hier wäre Regulierung an Interfaces und Anreizstrukturen ehrlicher gewesen als der Versuch, epistemische Kontrolle über Dokumente herzustellen.
Fazit
Der EU AI Act ist weder reine Ethik noch reine Technikpolitik. Er ist Macht durch Recht.
Ob diese Strategie aufgeht, hängt weniger von juristischer Eleganz ab als davon, ob Europa die gewonnene Zeit nutzt – für Kompetenzaufbau, Infrastruktur und reale technologische Alternativen.
Regulierung schafft keine Souveränität. Sie kann sie höchstens absichern.