Der EU AI Act: Inhalt, Technologien, Strafen und was die Regulierung für Unternehmen bedeutet.
Update 19. April 2024: Korrigierte Version veröffentlicht
Worum geht es?
Der EU AI Act der in den letzten Wochen in diversen Vorentwürfen diskutiert, teilweise auch mit gigantischen Überarbeitungstabellen über LinkedIn geleakt wurde, wurde nun vom EU-Parlament verabschiedet. Eine korrigierte Version des Acts wurde am 19.4. von der EU veröffentlicht. In meinem Artikel geht es um Folgendes:
Inhalt und Abgrenzung
Der Act ist das zentrale Regelwerk zur KI, auch wenn andere Regeln, wie GDPR, Digital Markets Act, Digital Services Act, Data Governance Act und Data Act jeweils AI-Anwendungen mitbetreffen bzw. mitbetreffen werden. Der Act ist ein mehr als hundertseitiges Papier mit einer sehr detaillierten Regulierung von KI und soll von seinen Regelungen und neu geschaffenen Institutionen eine zentrale Säule eines Framework der Regulierung von allem Digitalen in der EU sein.
Zeitleiste / Roadmap:
21.04.2021: Erster Entwurf des Acts durch die EU Kommission
06.12.2022: Genereller Ansatz des Acts wird festgelegt durch EU Rat (Vertreter der Staaten)
09.12.2023: Rat und Parlament einigen sich auf Textvorschlag
22.01.2024: Der fast finale Text mit den Änderungsentwürfen aller Seiten wurde geleakt
02.02.2024: Frankreich und Deutschland, die beiden einzigen Staaten mit nennenswerten AI-Startups in der EU geben die meisten ihrer Vorbehalte auf, ein paar Fragestellen sind noch offen.
13.03.2024: Verabschiedung im EU Parlament
19.4.2024: Veröffentlichung umfassend korrigierter Version: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138-FNL-COR01_EN.pdf
Mai 2024: Veröffentlichung des Gesetzes im Amtsblatt der EU
2024-2025: Die EU wird eine Behördenstruktur (AI Office, AI Board, etc.) aufbauen, die versucht, die Regeln durchzusetzen und weiter zu gestalten.
Q4 2024: Die Regelungen zu verbotenen KI-Anwendungen treten in Kraft
Q2 2025: Die Regelungen zu generativer AI treten in Kraft
Q2 2026. Die Regelungen zu Hochrisikosystemen treten in Kraft
(alle Daten in der Zukunft estimated)
Für welche Technologien gilt das?
In Anhang I des ursprünglichen Proposals wurde der Anwendungsbereich klar definiert: Aufgeführt sind unter anderem deep, supervised, unsupervised learning. Damit fiele praktisch die gesamte generative KI unter die Definition des Acts (z.B. ChatGPT, andere LLMs, Bildgenerierungsmodelle wie Stable Diffusion oder Dall-E, etc.). Im Gesetz wurde das wieder durch die schwammigere Formulierung „AI is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate output ...“. Hm, das gilt eigentlich für jedes hinreichend komplexe System. Gemeint ist aber weiterhin KI, so wie sie allgemein verstanden wird.
Für welche Anwendungsbereiche gilt der Act?
Für was gilt es nicht?
Wozu braucht man das?
KI Regulierung ist wichtig und viele Regierungen arbeiten daran. Allein z.B. um festzustellen, wem welches Ergebnis von AI zuzuschreiben ist und wer wie für was haftet. Das steht aber leider nicht im AI Act. Diesen EU AI Act braucht außer den EU-Verantwortlichen so richtig dringend niemand. Die EU-Chiefs in Straßburg und Brüssel wollten einfach als Erste mit einer KI-Regulierung eine Duftmarke setzen und haben sich damit selbst unter Druck gesetzt. Das hat auch dazu geführt, dass das Dokument in Teilen mit heißer Nadel gestrickt wurde, wenig praxisbezogen und oft nicht auf dem Stand der Technik ist. Was die EU-Kollegen als Motivation für den Act nennen, ist ein Sammelsurium an verschiedenen, sicherlich gutgemeinten Zielen.
Ist das der Todesstoß für die europäischen AI-Industrie?
Aus meiner Sicht, nein. Viele Praktiker und einige Politiker (unter anderem der französische Präsident Macron) haben kritisiert dass der AI Act Innovation in Europa bremsen wird und den europäischen AI-Gründern massiv schaden wird.
"Wir können beschließen, viel schneller und stärker zu regulieren als unsere großen Konkurrenten. Aber wir werden Dinge regulieren, die wir nicht mehr produzieren oder erfinden werden. Das ist keine gute Idee."
Macron hat recht, es ist ein zusätzlicher, heftiger Layer an Bürokratie und Einschränkungen für einige Anwendungen und macht das Arbeiten für Unternehmen und vor allem für Startups im Bereich generativer AI schwieriger. Der Hauptgrund, warum sich in Europa kein der USA vergleichbares Ecosystem an AI-Playern entwickelt, liegt aber meines Erachtens eher an den Einschränkungen im Bereich der Kapitalmärkte für Startups und Technologieunternehmen insgesamt in Europa. Ob mit oder ohne AI Act: Mistral und Aleph Alpha wird es wahrscheinlich weiter geben, aber sie werden trotz großartiger Ideen und Produkte auf lange Sicht nur sehr schwer - vielleicht in bestimmten Nischen - mit den amerikanischen Unternehmen konkurrieren können. Damit teilen sie das Schicksal fast der gesamten digitalen Industrie Europas.
Ist das eine Hilfe, ein Orientierungsrahmen für die Industrie?
Margrethe Vestager, die EU Chefin für Wettbewerb und Digitales, sagt, dass der Act Innovation nicht behindert, sondern befördert und klare Vorgaben schafft.
Das macht er in der jetzigen Form nicht. Er schafft keinen Rahmen, weil er eher eine Sammlung von verschiedenen, oft überschneidenden Vorschriften ist und eine strukturierte Sicht auf das Feld fehlt. Und die Entwickler, die Anwender von KI profitieren nicht: Es gibt in dem Act nahezu keinen einzigen Absatz, der es für Unternehmen einfacher macht, als vor dem Act, KI zu entwickeln, zu testen, zu nutzen, auszurollen. Aber, es gibt aber immerhin (siehe unten) sehr große Anwendungsbereiche, in denen sich die Situation nicht verschlechtert zum heutigen Status Quo.
Open Source
Es zieht sich durch das gesamte Dokument. Für die Produzenten von Open Source Modellen / Software gibt es in vielen Bereichen signifikante Ausnahmen von den relativ umfassenden Dokumentations-, Melde- und Nachweispflichten.
Generative KI / Foundation Models
Generative KI, die nach dem ChatGPT-Release auch auf dem Radar der EU auftauchte, wurde erst in den letzten Überarbeitungen des Entwurfs im Dezember integriert, man nennt die generative KI in der EU „general-purpose AI“. Hier werden vorrangig die Anbieter der Modelle reguliert, also z.B. Unternehmen wie OpenAI, Meta, Google oder z.T. wissenschaftliche Einrichtungen, aber nicht die Anwendungsentwickler.
Risikobasierter Ansatz
Es gibt im Act ganz wenige Bestimmungen, die sich auf alle AI-Systeme und Modelle beziehen. Nahezu alle Vorschriften, Regulierungen und zum Teil auch die Strafen sind auf Risikoklassen der AI bezogen – deswegen ist es extrem wichtig, sie zu verstehen. Der Act selbst ist nicht sehr systematisch strukturiert – ein Erbe des Entstehungsprozesses. Eine gründliche Analyse fördert diese Risikokategorien zu Tage:
Basierend auf der Risikobewertung, was muss ein Unternehmen bei der Entwicklung von AI Lösungen tun?
Hier gibt es sehr viele Regelungen, von denen der größte Teil bei den Hochrisiko-Anwendungen aufgeführt ist:
Innovationsförderung
Die EU hat in das Gesetz auch einige sogenannte „Maßnahmen zur Innovationsförderung“ beschrieben: Erstens sollen sogenannte Sandboxes eingerichtet, werden, in denen Unternehmen unter „behördlicher Anleitung“ und der Beachtung einer Reihe von Regeln einigermaßen regulierungsfrei mit KI und echten Nutzern experimentieren können - aber ohne die AI vermarkten zu dürfen. Der Grundgedanke der Sandbox ist sehr gut, hier kommt es auf die Umsetzung an.
Zweitens: Startups werden nicht ausgenommen von dem Wust an Regeln, sondern die nationalen Regierungen werden verpflichtet, den AI Act möglichst gut an kleinere Unternehmen zu kommunizieren (wie, wird auf mehreren Seiten ausdetailliert): Das ist eigentlich keine Innovationsförderung, sondern ein Eingeständnis des Scheiterns beim verständlichen und strukturierten Abfassen des Textes.
Insgesamt ist das natürlich enttäuschend wenig an Innovationsförderung. Hier wäre es spannend gewesen, nicht nur Bürokratie auf-, sondern auch abzubauen, in dem KI-Entwickler z.B. von bestimmten Produkthaftungs-, Datenschutz- oder Copyright-Regeln ausgenommen werden, die Anwendungs- und Modelentwicklung bremsen.
KI Behörden
Für die Einhaltung der Vorschriften baut die EU eine umfangreiche Behördenstruktur auf. Es wird geben
Strafen
Die Strafen für Verstöße gegen den AI Act gehen bis 7% des Jahresumsatzes eines Unternehmens. Ziemlich heftig dafür, dass bei einem Verstoß typischerweise nichts wirklich passiert, sondern z.B. eine Dokumentationspflicht verletzt wurde. Es gibt aber auch Kategorien von Verstößen, bei denen die Strafen nur noch bei 1% oder 3% des Jahresumsatzes liegen. Startups können einen Extra-Rabatt bekommen.
Das Beste am AI Act
Das Beste ist, was im AI Act gar nicht explizit drin steht: Ein sehr großer Teil der AI wird, da unkritisch, überhaupt nicht oder sehr schwach (Hinweispflicht) reguliert und kann auch nicht (so einfach) von Mitgliedsländern reguliert oder eingeschränkt werden.
Fazit
Insgesamt ist der Act leider nur mittelprächtig. Aus einer Sicht von jemand, der mit KI arbeitet, bekäme er eine 3-4 nach dem deutschen Schulnotensystem. Zugute halten muss man der EU, dass es einfach noch etwas früh ist, um eine vernünftige, wirkungsvolle aber auch pragmatische Gesetzgebung zu dem Thema zu machen.
Positiv für alle, die mit KI arbeiten und Lösungen entwickeln:
Negativ:
Leider hat die EU die Chance verpasst, der europäischen AI-Industrie einen deutlichen Schub zu geben durch eine einfache, erleichternde, innovationsfördernde Regulierung. Die EU-Verantwortlichen werden ja nicht müde zu betonen, dass sie Hochtechnologie in Europa fördern wollen – aber in diesem Fall muss man leider sagen „this act speaks louder than words“.
Und wie geht es jetzt weiter?
Unternehmen sollten sich auf das Gesetz einstellen. Für die meisten Anwendungen sind die Regulierungen nicht sehr aufwändig oder es gibt es gibt keine.
Also, liebe AI aficionados, seht Euch den Act an, aber bitte, bitte macht weiter in der Entwicklung und verliert Euch nicht in Bürokratie und in "wir können nicht", "wir dürfen nicht"!
Für KI in den EU-Risikobereichen wie Fahrzeugen wird die begleitende Bürokratie allerdings ein Zeitfresser bzw. eine Entwicklungsbremse, die noch on-top kommt zu der gesamten, nicht sehr schlanken bisherigen Regulierung der Bereiche.
Lead Link Development @Dr.Klein AG. Also a pretty good programmer.
1 JahrDer AI Act bedeutet eigentlich ungefaehr nichts. Die wirklichen make or break Themen werden von Copyright Anwaelten vor Gericht entschieden. Letztenendes ist selbst modernste generative AI nicht mehr und nicht weniger als ein stochastischer Papagei. Es gibt hier eigentlich nur 2 Kriterien: wie sehr wird sich die Copyright Lobbyt durchsetzen koennen und wie gut wird generative AI damit umgehen koennen, wenn sie nahezu nur noch von ihr generierte Inhalte ingested.
Co-Founder of Altrosyn and DIrector at CDTECH | Inventor | Manufacturer
1 JahrYou talked about the impending EU AI Act and its potential impact on machine learning regulation. Analyzing the proposals and leaks reveals a nuanced approach. Considering the scope, which companies will face the most significant challenges under this regulation, and how do you anticipate it affecting startups versus established players? Delving into the specifics, when it comes to regulating generative AI, do you foresee challenges in distinguishing between benign and potentially harmful uses, given the technology's evolving nature? Moreover, in your opinion, if we imagine a scenario where advanced AI systems need to collaborate across borders, how would this regulation address potential conflicts in compliance standards, and what technical measures could be employed to navigate such complexities?