EU AI Act: Regulieren statt Innovieren

Europas riskanter regulatorischer Bremsklotz


EU AI Act: Regulieren statt Innovieren Kolumne

Während OpenAI mit der Vorstellung seines neuen Modells GPT-5 Schlagzeilen macht und China im Monatsrhythmus AI-Innovationen ausrollt, setzt Europa auf Regulierung. Der EU AI Act, der am 1. August 2024 in Kraft trat, markiert einen weltweiten Präzedenzfall – doch zu welchem Preis und mit welchen Risiken und Nebenwirkungen?

In den vergangenen Monaten hat sich das globale Wettrennen um die technologische Vorherrschaft im Bereich der AI dramatisch beschleunigt. Neben der Einführung von GPT-5 durch OpenAI wurden auch von Anthropic (Claude Opus 4 & Claude Sonnet 4 etc.), Google DeepMind (Gemini 2.5, Genie 3, Veo 3, AlphaEvolve, AlphaGenome etc.), Meta (LLaMA 4, V JEPA 2 etc.), Kimi K2 (Moonshot AI), Qwen-3 (Qwen3-235B-A22B), Ernie 4.5 / Ernie X1 (Baidu) und Mistral (Magistral, Mixtral, Voxtral etc.) wegweisende AI-Modelle vorgestellt. Diese Modelle zeigen massive Fortschritte bei Multimodalität, Energieeffizienz und adaptivem Lernen. Zugleich meldete China eine staatlich koordinierte Initiative zur Entwicklung sogenannter "sozial-verträglicher AI", die mit Milliardeninvestitionen einhergeht. Auch spezialisierte AI-Anwendungen, etwa im Bereich der Medikamentenentwicklung, des Rechtswesens oder der Finanzanalyse, erleben einen Boom.

Die Investitionsvolumina verdeutlichen die Dimension: Laut Prognosen von Morgan Stanley werden allein die vier US-Big-Tech-Giganten Amazon, Alphabet (Google), Meta und Microsoft im Jahr 2025 zusammen rund 300 Milliarden US-Dollar investieren – ein Anstieg um etwa 23 Prozent gegenüber dem Vorjahreswert von 244 Milliarden US-Dollar. Für 2026 wird ein weiteres Plus auf etwa 336 Milliarden US-Dollar erwartet. Artificial Intelligence ist dabei der entscheidende Impulsgeber. OpenAI soll Berichten zufolge gemeinsam mit Partnern in Abu Dhabi ein gigantisches Rechenzentrum mit einer Zielkapazität von fünf Gigawatt errichten – fast doppelt so viel wie die gesamte Rechenzentrumsleistung in Deutschland (2,7 Gigawatt). Amazon Web Services (AWS) kündigte zudem an, fünf Milliarden US-Dollar in eine neue "AI Zone" in Saudi-Arabien zu investieren, in Kooperation mit dem Unternehmen Humain, um die AI-Entwicklung im Königreich zu beschleunigen.

Auch China verfolgt einen klaren, dreistufigen "Next Generation AI Plan": Bis 2030 will man der weltweite Innovationsführer im Bereich AI werden. Das umfasst: Die Entwicklung eines ausgereiften Theoriesystems für AI, eine AI-Kernindustrie im Wert von rund 140–160 Milliarden US-Dollar, einen Wirtschaftsanteil bei darüber hinausgehenden AI-basierten Industrien von über 1,6 Billionen US-Dollar. Mehr als die Hälfte der führenden AI-Unternehmen in China ist über Finanzierungsbeziehungen mit den Tech-Giganten Baidu, Alibaba und Tencent (BAT) verbunden. Die Regierung investiert massiv in Finanzierung, sektorspezifische Politik, Startup-Anreize und die Anwerbung internationaler Fachkräfte.

Europa hingegen kommt auf ein Investitionsvolumen von mageren 7 bis 10 Milliarden US-Dollar, verteilt auf zahlreiche nationale Initiativen, häufig ohne die kritische Masse, um mit den globalen Spitzenreitern mitzuhalten (siehe beispielsweise Mistral AI aus Frankreich, n8n und Aleph Alpha aus Deutschland). Europa bleibt bei dieser dynamischen Entwicklung aber weitestgehend außen vor. Forschung, Recheninfrastruktur und Modellkompetenz konzentrieren sich weiterhin in Nordamerika und Ostasien und zukünftig wohl auch in den Golfstaaten. Stattdessen kann sich die EU mit dem EU AI Act brüsten, einem großen politischen Wurf zur AI-Regulierung. Die zentrale Frage lautet allerdings: Ist Regulierung ohne Innovationsbasis überhaupt wirksam?

Europa reguliert, während andere entwickeln

Europa liebt Regeln. Während Technologieunternehmen in den USA und China mit atemberaubender Geschwindigkeit neue AI-Modelle und -Anwendungen entwickeln, hat die Europäische Union im August 2024 den weltweit ersten umfassenden Rechtsrahmen für Artificial Intelligence implementiert: den EU AI Act. Der politische Anspruch: Sicherheit schaffen, Vertrauen fördern, Innovation leiten.

Doch in der Praxis wirkt der europäische Sonderweg wie ein regulatorischer Bremsklotz. Während OpenAI mit GPT-5 die nächste Evolutionsstufe generativer AI einläutet – mit multimodalen Fähigkeiten, erweiterter Autonomie und bisher unerreichter Kontextsensitivität – diskutieren europäische Kommissionen noch über Risikoklassen, Konformitätsbewertungen und Governance-Rahmen.

Der EU AI Act: Was seit August 2024 gilt

Der Artificial Intelligence Act (EU AI Act) wurde am 12. Juli 2024 im Amtsblatt der EU veröffentlicht und trat am 1. August 2024 formell in Kraft. Die Umsetzung erfolgt jedoch stufenweise:

  • Ab 2. Februar 2025 gelten erste Vorschriften, z. B. für verbotene AI-Praktiken.
  • Ab 2. August 2025 gelten zentrale Vorschriften zu General Purpose AI, Konformitätsbewertung und Governance.
  • Ab 2026 und 2027 werden die restlichen Regeln für Hochrisiko-AI und andere Anwendungsfälle verbindlich.

Der Rechtsrahmen verfolgt einen risikobasierten Ansatz: Je höher das Risiko, das eine AI-Anwendung für Gesundheit, Sicherheit oder Grundrechte darstellt, desto strenger die Auflagen.

Die zentralen Kategorien im Überblick:

  • Verbotene AI-Praktiken (Unacceptable Risk): Etwa Social-Scoring-Systeme oder manipulative AI.
  • Hochrisiko-AI (High-Risk): In kritischen Bereichen wie Medizin, Justiz, Bildung oder Infrastruktur.
  • Generelle AI-Modelle (General-Purpose AI – GPAI): Große Modelle wie ChatGPT fallen unter gesonderte Regeln, beispielsweise Transparenzpflichten (z. B. Offenlegung der Trainingsdaten und verwendeter Quellen)
  • AI-Anwendungen mit geringem Risiko (Limited Risk): AI-Anwendungen mit geringem Risiko – beispielsweise Deepfakes, Chatbots oder Bildgeneratoren – unterliegen weniger strengen Regeln, müssen aber offenlegen, dass ein AI-System genutzt wird und dafür sorgen, dass Nutzer wissen, dass sie mit einem Algorithmus interagieren, nicht mit einem Menschen.

Typische AI-Tools wie Spamfilter oder einfache Spiele gelten als minimal riskant und sind laut Gesetz weitgehend von Auflagen befreit.

Regulierung ohne klare Umsetzung – AI-Fortschritt anderswo

Ein zentrales Problem: Den Machern des Gesetzes fehlt das methodische Verständnis für die statistischen und algorithmischen Grundlagen moderner AI. Wichtige AI-Ansätze wie Neuronale Netze, Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN), Transformer-Architekturen, Reinforcement Learning, Self-Supervised Learning, Generative Adversarial Networks (GAN), Bayesian Networks, Markov-Ketten, Bayessche Inferenz, Random Forests, Gradient Boosting, Stochastische Gradientenverfahren, Variational Inference, Hidden Markov Models, Gaussian Processes, Bootstrap-Verfahren, Ensemble-Methoden, Expectation-Maximization-Algorithmus, Clustering-Methoden wie K-Means oder Bias-Variance-Tradeoff werden die wenigsten Regulatoren und Politiker nicht einmal an der Oberfläche verstehen.

Was als "Transparenz" gefordert wird, bleibt oft technologisch vage. Wie erklärt man einem Laien ein Transformer-Modell mit Milliarden von Parametern? Wie bewertet man Bias in Trainingsdaten, ohne deren stochastische Struktur zu verstehen?
Das Ergebnis: Ein Gesetz, das auf Prinzipien basiert, aber kaum operationalisierbar ist. Die Aufsichtsbehörden werden in den nächsten Jahren versuchen müssen, diese Lücken durch technische Leitlinien zu füllen – mit ungewissem Erfolg.

Zahlreiche Branchenvertreter warnen: Der AI Act könnte Europa zu einem reinen AI-Konsumenten degradieren. Die regulatorischen Hürden für General Purpose AI schrecken Start-ups und mittelständische Entwickler ab. So wird regulatorische Gleichbehandlung zur faktischen Wettbewerbsverzerrung. Wer nicht über Legal-Teams, Ethikkommissionen und Compliance-Budgets verfügt, bleibt außen vor. Währenddessen expandieren US-Konzerne und chinesische Anbieter nahezu unreguliert.
Regulatorische Asymmetrie: AI Made in Europe bleibt Wunschdenken

Europa verkennt die geopolitische Realität. Während man auf eigene Standards pocht, setzen sich faktisch US-amerikanische und chinesische Technologien weltweit durch. Die Regulierer hoffen, mit dem AI Act ein globales Referenzmodell zu etablieren – ein ähnlicher Gedanke wie bei der DSGVO. Doch wer keine eigenen Basismodelle vorweisen kann, diktiert auch keine technischen Normen.

Der AI Act verlangt tiefgreifende Überwachung: Risikoklassifizierung, Modellvalidierung, Bias-Prüfung, Robustheitstests. Doch wer soll diese Aufgaben umsetzen? Die nationalen Marktüberwachungsstellen, oft mit Produktsicherheit oder Verbraucherschutz betraut, stehen vor einer technischen Mammutaufgabe. Das neue "European AI Office" soll koordinieren – doch ohne fundierte Ausbildung und technologische Ausstattung könnten die Behörden zur reinen Kontrollattrappe werden.
Das Problem ist weniger juristisch, sondern epistemisch: Ohne tiefes Verständnis von Mathematik, Stochastik, Informatik und maschinellem Lernen lassen sich AI-Systeme nicht adäquat regulieren.

Historische Parallelen: Als Mathematik reguliert oder verboten wurde

Die Idee, mathematisches Wissen zu regulieren oder zu verbieten, ist keineswegs neu. Im Mittelalter gab es in Teilen Europas Restriktionen für den Gebrauch bestimmter Zahlenformate – beispielsweise gegen die "arabischen Ziffern", die als unsicher galten, weil sie leichter zu fälschen waren als römische Zahlen. In der Zeit der Renaissance wurde in einigen Regionen die Astrologie – damals eng mit mathematischen Berechnungen verbunden – verboten oder streng eingeschränkt. Auch der römische Rechtsgrundsatz "Iudex non calculat" ("Der Richter rechnet nicht") verdeutlicht eine historische Skepsis gegenüber der Anwendung mathematischer Methoden in Entscheidungsprozessen.

Im 20. Jahrhundert führten geopolitische Spannungen sogar zu Exportbeschränkungen für kryptografische Algorithmen, da diese als strategische Waffentechnologie galten. Während des Kalten Krieges unterlagen bestimmte Verschlüsselungsverfahren in den USA strengen Exportkontrollen, um zu verhindern, dass gegnerische Staaten Zugang zu moderner Kryptografie erhielten. In autoritären Regimen gab es zudem Versuche, statistische Methoden und Datenanalyse zu unterdrücken, weil sie gesellschaftliche Missstände sichtbar machen konnten.

Solche Beispiele zeigen: Der Versuch, Mathematik zu kontrollieren, ist so alt wie die Mathematik selbst – aber in einer global vernetzten, digitalisierten Welt oft schwer durchsetzbar. Heute sind Algorithmen und mathematische Modelle über Open-Source-Plattformen, internationale Forschungskollaborationen und dezentrale Netzwerke so verbreitet, dass ein vollständiges Verbot praktisch unmöglich ist.

Methodenkompetenz als Schlüssel für wirksame AI-Governance

AI wurde ursprünglich als eigenständiges Teilgebiet der Informatik in den 1950er Jahren gegründet. Die am weitesten verbreitete deutsche Übersetzung als "Künstliche Intelligenz" kann für das Verständnis von AI missverständlich sein. Eine adäquate Einordnung von AI-Methoden und -Modelle gibt die Interpretation von "Intelligence" als Informationsverarbeitung und Aufklärung.

AI beschäftigt sich im Wesentlichen mit der Nachbildung menschenähnlicher Entscheidungsfindungsprozesse und nutzt dafür Algorithmen, mit denen ein Computer in der Lage ist, ohne menschliche Eingriffe Aufgaben zu lösen. Das heißt, ein Computer wird so programmiert, dass er eigenständig Probleme bearbeiten kann, beispielsweise Auto fahren, Texte übersetzen oder Go spielen.

AI-Modelle verarbeiten Daten mit Algorithmen. Die zunehmende Digitalisierung treibt ein exponentielles Wachstum von Datenmengen weltweit an und spielt eine bedeutende Rolle für AI-Innovationen. So ermöglicht AI systematische und effiziente Datenanalysen, auch für große, komplexe und unstrukturierte Datenmengen (Big Data). Ihr (ökonomischer) Nutzen leitet sich jedoch vielmehr aus der Transformation von Daten in neue Erkenntnisse oder in verbesserte Entscheidungsmechanismen ab. So sammeln etwa Amazon, Alphabet (Google), Meta und Alibaba weltweit Daten, erstellen daraus Persönlichkeits- und Verhaltensprofile und untersuchen umfangreiche Datenmengen auf Muster und Zusammenhänge, um in Echtzeit Prognosen zur Kaufbereitschaft etc. zu treffen.

Das Potential von AI kann nur realisiert werden, wenn die methodischen Grundlagen verstanden werden. So ist ein kritischer Punkt bei der Implementierung von AI-Technologien der Bias (systematischer Fehler oder Verzerrung), der durch fehlerhafte Daten oder inkorrekte Analysemethoden hervorgerufen wird. AI-Modelle nutzen oft Verfahren des maschinellen Lernens und werden mit großen Datenmengen trainiert und evaluiert. So können etwa nicht repräsentative, falsch erfasste oder falsch interpretierte Daten zu tendenziell falschen Entscheidungen und Prognosen führen und z. B. eine Diskriminierung bei Kreditvergabe oder im Bewerbungsprozess hervorrufen. Aber auch falsche Algorithmen oder das Ignorieren wichtiger Einflussgrößen können dazu führen, dass die AI systematische Fehlentscheidungen generiert und z. B. eine ungerechtfertigte Ablehnung von Krediten für bestimmte Berufsgruppen oder Frauen produziert. Die Methodenkompetenz ermöglicht es, die Ursachen systematischer Verzerrungen in Daten und Modellstrukturen aufzudecken und zu eliminieren. Dies ist ausschlaggebend für faire und diskriminierungsfreie AI-Anwendungen.

In der Bilderkennung, Sprachverarbeitung und Textübersetzung haben AI-Technologien bereits erfolgreich Einzug in Unternehmen und Gesellschaft gehalten. AI kommt beispielsweise in der Diagnoseunterstützung im Rahmen der Analyse von Röntgenbildern und MTRs genauso zum Einsatz wie bei der Wartung von Maschinen. Sie beruht häufig auf komplexen Algorithmen wie Deep Learning mit extrem vielen Parametern, dessen Modellstrukturen schwer zu interpretieren sind. Methodenkompetenz trägt dazu bei die Transparenz eines AI-Modells zu erhöhen und seine Entscheidungen nachvollziehen zu können. Gerade in Sektoren, in denen AI-basierte Entscheidungen signifikante Konsequenzen auf Menschen haben können, ist die Transparenz von AI-Modellen von besonderer Relevanz.

AI verschwindet nicht mehr aus Wirtschaft und Gesellschaft. Umso bedeutsamer ist eine Auseinandersetzung mit den methodischen Grundlagen von AI seitens der Gesetzgebung. Dann kann die Legislative Regelungen so formulieren, dass sie technisch realisierbar und wirksam sind. Auch die Anforderungen an die Compliance können so gestaltet werden, dass sie von Unternehmen aller Größen effizient umgesetzt werden und eine regulatorische Gleichbehandlung gewährleistet ist. Mit einer methodischen Sicherheit kann darüber hinaus die Gesetzgebung der Unsicherheit über die Auswirkungen von AI-Anwendungen begegnen, Chancen und Risiken von AI analysieren und präventive Maßnahmen für potenzielle Risiken gesetzlich verankern. Erst eine methodisch fundierte Regulatorik verhindert unnötige Einschränkungen und schafft Gestaltungsspielräume für Innovationen "AI made in Europe".

Fazit: Ein Gesetz zwischen Ambition und Realität

Algorithmen lassen sich theoretisch regulieren, praktisch jedoch nur begrenzt kontrollieren. Effektive Regulierung muss verstehen, was sie reguliert – und darf nicht nur Symptome adressieren, sondern auch die zugrunde liegenden mathematisch-statistischen Mechanismen berücksichtigen. Historische Versuche, Mathematik zu zähmen, zeigen, dass solche Eingriffe meist nur temporär wirksam sind und oft Innovation in den Untergrund drängen. Die globale Natur des Internets und die grenzüberschreitende Verfügbarkeit von Code machen nationale Alleingänge zudem weitgehend wirkungslos. Für die AI-Regulierung heißt das: Nur eine Kombination aus technologischem Verständnis, internationaler Kooperation und flexiblen Rahmenbedingungen kann verhindern, dass Europa in einer selbstgeschaffenen digitalen Isolation endet.

Der EU AI Act ist ein regulatorisches Leuchtturmprojekt – aber er steht auf sandigem Boden. Statt Innovation durch Vertrauen zu fördern, schafft er eine Bürokratie, die nur die Größten überleben können.

Europa braucht dringend einen realistischen Dreiklang: technologische Souveränität, methodisch fundierte Regulierung und gezielte Innovationsförderung. Sonst bleibt die Vision von "AI made in Europe" ein Papiertiger – gefangen im Dschungel der eigenen Regeln.

 

Autoren: 

Frank Romeike
ist Geschäftsführer und Eigentümer des Kompetenzportals RiskNET und zählt international zu den führenden Experten für Risiko- und Chancenmanagement. Die von ihm gegründete Risk Academy hat weltweit rund 30.000 Risikomanager ausgebildet bzw. gecoacht. Er engagiert sich in der akademischen Lehre an Hochschulen im In- und Ausland.

Prof. Dr. Gabriele Wieczorek ist Mathematikerin und Professorin mit dem Lehrgebiet Industrielle Statistik und Wahrscheinlichkeitstheorie an der Hochschule Hamm-Lippstadt. Ihre Forschung zum Risikomanagement umfasst u. a. die nicht-frequentistischen Methoden zur Risikomodellierung sowie die Anwendung von Künstlicher Intelligenz im Risikomanagement.

In wenigen Monaten erscheint das gemeinsam von Frank Romeike und Gabriele Wieczorek geschriebene Buch "Data Analytics im Risikomanagement - Descriptive Analytics - Diagnostic Analytics - Predictive Analytics" im  Springer Verlag. Weitere Infos

 

[ Bildquelle Titelbild: Generiert mit AI ]
Risk Academy

Die Intensiv-Seminare der RiskAcademy® konzentrieren sich auf Methoden und Instrumente für evolutionäre und revolutionäre Wege im Risikomanagement.

Seminare ansehen
Newsletter

Der Newsletter RiskNEWS informiert über Entwicklungen im Risikomanagement, aktuelle Buchveröffentlichungen sowie Kongresse und Veranstaltungen.

jetzt anmelden
Lösungsanbieter

Sie suchen eine Softwarelösung oder einen Dienstleister rund um die Themen Risikomanagement, GRC, IKS oder ISMS?

Partner finden
Ihre Daten werden selbstverständlich vertraulich behandelt und nicht an Dritte weitergegeben. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.