Autor

Dr. Benedikt Kohn, CIPP/E

Senior Associate

Read More
Autor

Dr. Benedikt Kohn, CIPP/E

Senior Associate

Read More

27. November 2023

AI Act in Gefahr? – die Regulierung von Basismodellen und Allzweck-KI

  • In-depth analysis

Die aktuellen Trilogverhandlungen zwischen Rat, Parlament und Kommission der EU konzentrieren sich auf die Regulierung von Basis- und Allzweck-KI. Nach anfänglichen Fortschritten mit einem abgestuften Regulierungsansatz, der strengere Auflagen für mächtigere KI-Modelle vorsieht, stieß die spanische Ratspräsidentschaft im November 2023 auf Widerstand. Insbesondere Deutschland, Frankreich und Italien lehnen nun unter dem Druck ihrer heimischen KI-Unternehmen eine umfassende Regulierung ab und befürworten eine Selbstregulierung durch einen Verhaltenskodex. Diese Kehrtwende könnte den gesamten AI Act gefährden. Die Europäische Kommission schlug daraufhin einen Kompromisstext vor, der den abgestuften Ansatz beibehält, aber die Regulierung insgesamt abschwächt. 

Dieser Text bildet nun die Grundlage für die weiteren Beratungen, allerdings ist mit Widerstand vor allem aus dem Parlament zu rechnen. Die Zeit drängt, da bereits im Dezember ein abschließender Trilog stattfinden soll, bevor Belgien die Ratspräsidentschaft übernimmt und im Sommer ein neues Europaparlament gewählt wird. Womit das Gesetzgebungsverfahren erheblich verzögert würde oder gar scheitern könnte. Die EU sieht sich in der weltweiten Vorreiterrolle bei der KI-Regulierung, steht aber angesichts globaler Entwicklungen und der bevorstehenden Europawahlen unter Druck, eine Lösung zu finden.

Vorgeschichte – Bisherige Berücksichtigung von Basismodellen und Allzweck-KI im AI Act

ChatGPT ist mittlerweile fast jedem ein Begriff, denn besonders leistungsstarke Basismodelle und Allzweck-KI – wie GPT-3 und GPT-4 von OpenAI, auf denen ChatGPT basiert – haben sich in den letzten Monaten rasant verbreitet. Als Basismodell (zu Englisch: „foundation model“) versteht man nach der zuletzt vom Rat der Europäischen Union („Rat“) eingeführten Definition 

„ein großes KI-Modell, das auf der Grundlage einer großen Datenmenge trainiert wurde und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben zu erfüllen, wie z. B. die Erstellung von Videos, Texten und Bildern, die Konversation in einer Fremdsprache, Berechnungen oder die Erstellung von Computercode“. 

Der damit verwandte Begriff der Allzweck-KI (zu Englisch: „general purpose AI“) steht laut Rat für Systeme, 

„die auf einem KI-Modell basieren, zusätzliche Komponenten wie herkömmliche Softwares enthalten können und über eine Benutzerschnittstelle die Möglichkeit bieten, eine Vielzahl von Zwecken zu erfüllen, sowohl für die direkte Nutzung als auch für die Einbindung in andere KI-Systeme“. 

Danach kann also eine Allzweck-KI auf einem Basismodell basieren und eine Implementierung dessen sein, ist diesem somit aber nachgelagert. Beide Begriffe stehen im Ergebnis jedoch für KI-Modelle bzw. KI-Systeme, auf deren Grundlage die Realisierung eines breiten Spektrums verschiedenster Anwendungszwecke möglich ist.

Zum Zeitpunkt des ursprünglichen Vorschlags der Europäischen Kommission („Kommission“) für den AI Act im April 2021 waren Basismodelle und Allzweck-KI in der breiten Öffentlichkeit noch nicht derart präsent, weswegen sich im AI Act zunächst auch keine Regelungen hierzu fanden. Schon im August 2021 forderten jedoch bereits erste Stimmen deren Regulierung. Die slowenische Ratspräsidentschaft fügte kurz darauf den Artikel 52a AI Act ein, welcher allerdings noch besagte, dass Allzweck-KI – der Begriff „Basismodell“ war noch nicht eingeführt – nicht per se unter die Vorschriften des AI Act zu fassen sei. Lediglich das Inverkehrbringen, die Inbetriebnahme oder der Einsatz von Allzweck-KI zu einem spezifischen Anwendungszweck, welcher unter den AI Act fällt, sollten entsprechende Pflichten auslösen. 

Unter französischem Vorsitz modifizierte der Rat die Vorschriften zur Regulierung von Allzweck-KI jedoch wesentlich. So sollten nun bestimmte Pflichten für Allzweck-KI gelten, wenn sie als Hochrisiko-KI-Systeme oder als Komponenten von solchen hochriskanten KI-Systemen eingesetzt werden können. Die darauffolgende tschechische Ratspräsidentschaft ging noch einen Schritt weiter und schlug vor, dass hochriskante Allzweck-KI sogar sämtliche Pflichten von hochriskanten KI-Systemen erfüllen sollte. 

Schließlich veröffentlichte das Europäische Parlament („Parlament“) im Juni 2023 seine Position, in dem es Artikel 28b AI Act und damit erstmals den Begriff des Basismodells in den Gesetzestext einfügte. Das Parlament sah eine Reihe von Pflichten für Basismodelle unabhängig von ihrer Risikokategorie vor.

Zähe Verhandlungen

Auch in den derzeit laufenden Trilogverhandlungen zwischen Rat, Parlament und der Kommission spielt die Regulierung von Allzweck-KI und Basismodellen weiterhin eine zentrale Rolle und wird kontrovers diskutiert. Nach dem vergangenen politischen Trilog am 24. Oktober 2023 schien zunächst eine Einigung über einen abgestuften Ansatz bei der Regulierung von Basismodellen in Aussicht. Hiernach sollten insbesondere für die leistungsstärksten KI-Modelle mit größerem Einfluss auf die Gesellschaft strengere Pflichten gelten. Diese träfen im Ergebnis vor allem führende – meist außereuropäische – KI-Anbieter. Das Parlament ließ damit von seinem ursprünglichen Plan ab, horizontale Regeln ausnahmslos für alle Basismodelle einzuführen. 

In der Folge stellte sodann der Rat unter spanischer Präsidentschaft am 5. November 2023 einen entsprechenden Textentwurf vor, welcher eine Reihe von – im Detail wiederum umstrittenen – Pflichten verschriftlichte. Anbieter von Basismodellen sollen hiernach Transparenzverpflichtungen nachkommen, etwa durch Bereitstellung technischer Unterlagen zu Leistungen und Grenzen ihrer Systeme und Nachweisen zur Einhaltung des Urheberrechts. Anbieter der leistungsstärksten Basismodelle sollen ihre KI-Modelle darüber hinaus beispielsweise in der öffentlichen Datenbank der EU registrieren, eine Bewertung ihrer systemischen Risiken vornehmen und Prüfpflichten haben. Insbesondere entbrannte eine Debatte über die Bestimmungskriterien der „leistungsstärksten“ KI innerhalb des abgestuften Ansatzes. Während der Rat der Kommission aufgeben wollte, diese innerhalb von 18 Monaten nach Inkrafttreten des AI Act durch sekundäre Rechtsvorschriften festzulegen, forderte das Parlament eine Regelung bereits im AI Act selbst, um eine solch wichtige Entscheidung gesetzgeberisch vorgeben zu können.

Auch für Allzweck-KI legte die spanische Ratspräsidentschaft im veröffentlichten Text Pflichten für den Fall fest, dass der Anbieter solcher Allzweck-KI-Systeme Lizenzvereinbarungen mit nachgelagerten Wirtschaftsakteuren abschließt, die das KI-System zu als riskant eingestuften Zwecken einsetzen. Hier soll der Anbieter sodann mögliche risikoreiche Einsatzbereiche angeben und Informationen bereitstellen müssen, um dem nachgelagerten Akteur die Erfüllung der Anforderungen des AI Act zu ermöglichen.

Gegenwind der Mitgliedstaaten

Die Trilogverhandlungen schritten also voran, wenngleich über zentrale Punkte noch hitzig diskutiert wurde. Am 9. November 2023 erfuhren die Verhandlungen dann jedoch unerwartet einen starken Dämpfer. In einer Sitzung der Arbeitsgruppe „Telekommunikation“, einem technischen Gremium des Rats, wurden Stimmen gegen jegliche Pläne zur Regulierung von Basismodellen laut. Angeblich beendeten Vertreter des Parlaments die Sitzung aufgrund dessen zwei Stunden früher als geplant. Es sei nichts mehr zu diskutieren gewesen. Denn insbesondere politische Schwergewichte wie Deutschland, Frankreich und Italien machten – unter dem Druck vonseiten nationaler KI-Unternehmen – eine plötzliche Kehrtwende hinsichtlich der Regulierung von Basismodellen. 

So fürchten vor allem das deutsche Unternehmen Aleph Alpha sowie das französische Start-up Mistral, sie könnten durch eine exzessive Regulierung von Basismodellen in der EU gegenüber ihren amerikanischen und chinesischen Konkurrenten massive Wettbewerbsnachteile erleiden. Zwar seien außereuropäische KI-Giganten – wie OpenAI, Meta oder Google – den EU-Unternehmen ohnehin bereits um Längen bezüglich Rechenressourcen, Finanzierung, Daten und Expertise voraus. Doch europäische Unternehmen seien auf dem Vormarsch: So erhielt Aleph Alpha kürzlich eine Finanzierungszusage in Höhe von 500 Millionen Dollar. Eine Regulierung von Basismodellen in der EU behindere die Entwicklung europäischer KI-Anbieter. So werde in einem entscheidenden Zeitpunkt die Aufholjagd ausgebremst und ein weiteres Abfallen der EU von der weltweiten KI-Spitze ausgelöst. Der abgestufte Ansatz für Basismodelle sei eine „Regulierung in der Regulierung“ und gefährde sowohl Innovation als auch den risikobasierten Ansatz, welcher dem AI Act zu Grunde liegt.

Statt einer verbindlichen Regelung, entsprechenden Pflichten und Sanktionen machen sich Frankreich, Deutschland und Italien nun für eine Selbstregulierung anhand eines Code of Conduct zu Basismodellen stark.

Ist der AI Act in Gefahr?

Was bedeutet die plötzliche Richtungsänderung einflussreicher Mitgliedstaaten zur Regulierung von Basismodellen nun für den AI Act? Ist dieser möglicherweise in Gefahr? 

Der Ausgang ist derzeit schwer einzuschätzen. Die spanische Ratspräsidentschaft will die Regulierungspläne für Basismodelle aufgrund der starken Gegenstimmen nun überdenken und sich direkt mit den betreffenden Mitgliedstaaten um eine akzeptable Lösung bemühen. Denn die Regulierung von Basismodellen stellt einen zentralen Aspekt des AI Act dar.

Vor diesem Hintergrund brachte die Kommission am 19. November 2023 einen möglichen Kompromisstext vor. Darin hielt sie zwar den abgestuften Ansatz des Parlaments aufrecht, milderte die Regulierung jedoch im Übrigen deutlich ab. Zunächst taucht der Begriff des Basismodells nun nicht mehr auf. Die Kommission unterscheidet stattdessen zwischen Allzweck-KI-Modellen (zu Englisch: „general purpose AI models“) und Allzweck-KI-Systemen (zu Englisch: „general purpose AI systems“) – nach der Definition der Kommission decken sich diese Begrifflichkeiten aber weiterhin mit den Begriffen Basismodell und Allzweck-KI, welche das Parlament eingeführt hatte. Anbieter von Allzweck-KI-Modellen sollen laut Vorschlag unter anderem verpflichtet sein, mittels sogenannter Modellkarten (zu Englisch: „model cards“) die Funktionsweise ihrer KI-Modelle zu dokumentieren. Weist das KI-Modell ein systemisches Risiko auf – was sich zunächst an der Rechenleistung bemisst – treffen sie zusätzliche Überwachungspflichten. Zudem beinhaltet der Text einen Artikel, nach welchem die Kommission – unverbindliche – Codes of Practice aufsetzen soll. Gemeint sind Praxishinweise, etwa zur Umsetzung der Modellkarten, auf deren Grundlage Akteure ihre Konformität mit dem AI Act sicherstellen können. Mögliche Sanktionen sind jedoch nicht benannt.

Am 21. November trafen sich sodann Abgeordnete des Parlaments und Vertreter von Rat und Kommission, um den Vorschlag der Kommission zu besprechen. Zwar wurde noch keine Einigung erzielt, es scheint aber, als sei der Text nun die neue Verhandlungsgrundlage. Etwaiger Widerstand des Parlaments, welches deutlich striktere Regeln forderte, ist jedoch zu erwarten.

Es bleibt abzuwarten, was die weiteren Verhandlungen ergeben. Eine Einigung sollte in jedem Fall schleunigst her, denn die Zeit drängt. Schon am 6. Dezember soll der nächste – und eigentlich finale – Trilog stattfinden. Danach bleibt der spanischen Ratspräsidentschaft nur noch wenig Zeit, bevor zum Januar 2024 Belgien den Vorsitz übernehmen wird. Unter belgischer Leitung bestünde dann besonderer Einigungsdruck. Denn bereits im Juni 2024 stehen die Europawahlen an, in deren Folge sich das Parlament neu zusammensetzen wird. 

Ein Scheitern des Projekts „AI Act“ wäre wohl für alle Beteiligten ein herber Schlag, sah sich die EU mit ihrem Vorhaben zur Regulierung künstlicher Intelligenz doch lange in der weltweiten Vorreiterrolle. Seit dem Kommissionsentwurf im April 2021 haben allerdings auch andere Staaten mittlerweile Schritte zur KI-Regulierung eingeleitet. US-Präsident Joe Biden erließ ein sogenanntes Executive Order bezüglich KI, das Vereinigte Königreich richtete den AI Safety Summit aus und die G7-Staaten veröffentlichten einen AI Code of Conduct. Es bleibt also mit Spannung abzuwarten, ob, wie und wann die Verantwortlichen die harten Fronten zusammenbringen können und ihrer Vorreiterrolle gerecht werden. Die Verhandlungen rund um einen Kompromiss zur Regulierung von Basismodellen laufen jedenfalls mit Hochdruck weiter.

Co-Autor

Lennart van Neerven

Lennart van Neerven

Wissenschaftlicher Mitarbeiter, Taylor Wessing


Call To Action Arrow Image

Newsletter-Anmeldung

Wählen Sie aus unserem Angebot Ihre Interessen aus!

Jetzt abonnieren
Jetzt abonnieren

Related Insights

Informationstechnologie

Analyse des Durchbruchs beim Trilog des AI Act

11. Dezember 2023
Briefing

von mehreren Autoren

Klicken Sie hier für Details
KI-Verordnung (AI-Act)

Quo vadis ChatGPT – Rechtsfragen zum gehypten KI-Textgenerator

8. Mai 2023
Briefing

von Fritz–Ulli Pieper, LL.M. und Dr. Benedikt Kohn, CIPP/E

Klicken Sie hier für Details
KI-Verordnung (AI-Act)

KI-Regulierung in der EU und Schweiz

Folgt die Schweiz dem Vorstoß der EU?

27. Dezember 2021
In-depth analysis

von Dr. Benedikt Kohn, CIPP/E

Klicken Sie hier für Details