Autoren

Thanos Rammos, LL.M.

Partner

Read More

Richard Gläser

Associate

Read More
Autoren

Thanos Rammos, LL.M.

Partner

Read More

Richard Gläser

Associate

Read More

28. März 2024

Die KI-Verordnung der EU und KI-Modelle mit allgemeinem Verwendungszweck

  • Briefing

Die KI-Verordnung der EU („AI Act“) befindet sich auf der Zielgeraden. Besonders über „general-purpose AI“, d.h. KI-Systeme mit allgemeinem Verwendungszweck, wurde in den vergangenen Monaten viel diskutiert. Solche Modelle wie GPT-4 basieren häufig auf maschinellem Lernen, werden in großem Umfang mit Daten trainiert und können in eine Vielzahl anderer KI-Systeme integriert werden. Daraus ergibt sich eine besondere Verantwortung entlang der KI-Wertschöpfungskette. Dementsprechend streng werden sie im AI Act reguliert.

KI-Modelle mit allgemeinem Verwendungszweck („GPAI-Modelle“) sind in letzter Zeit in aller Munde. Ob es sich um den Hype um GPT-4, vielversprechende Entwicklungen im Gesundheitswesen zur Diagnoseverbesserung, für neue personalisierte Medizin oder bessere, auf die Bedürfnisse der Nutzer zugeschnittene Online-Dienste handelt – GPAI scheint die Zukunft zu sein. Folglich war die Regulierung von GPAI wahrscheinlich der umstrittenste Aspekt des neuen AI Acts. Er wurde so heftig debattiert, dass die Verhandlungen zwischen den EU-Mitgliedstaaten beinahe zum Stillstand gekommen wären. Als im Dezember 2023 ein Kompromiss zum AI Act erzielt wurde, sprachen sich wichtige Akteure wie Deutschland und Italien gegen eine strengere Regulierung aus. Frankreich versuchte, den AI Act zu blockieren. Nun hat die EU eine endgültige Einigung erzielt, die harmonisierte Regeln für GPAI-Modelle enthält. Im Folgenden stellen wir die wichtigsten Aspekte dieser Regeln vor.

Was sind GPAI-Modelle und wie können sie klassifiziert werden?

GPAI-Modelle sind „KI-Modelle, die eine erhebliche allgemeine Verwendbarkeit aufweisen, in der Lage sind, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden können“. Bekannte Beispiele für solche GPAI-Modelle sind GPT-4, DALL-E, Google BERT oder Midjourney 5.1.
Der AI Act sieht eine abgestufte Risikoklassifizierung für GPAI-Modelle vor. Diese ähnelt den Risikokategorien für KI-Systeme (siehe zu diesen hier) und unterscheidet zwischen normalen „GPAI-Modellen“, „offen und frei lizenzierten GPAI-Modellen“ und „GPAI-Modellen mit systemischen Risiken“. Die EU-Kommission hat die Aufgabe zu beurteilen, ob ein GPAI-Modell systemische Risiken birgt. Dies ist der Fall, wenn ein Modell eine bestimmte technische Schwelle an Rechenoperationen erreicht oder vorhersehbare negative Folgen hat.

Wer unterliegt den GPAI-bezogenen Vorschriften des AI Acts?

Der AI Act richtet sich an „Anbieter“ von GPAI. Der Schwerpunkt liegt also auf Unternehmen, die GPAI entwickeln oder „integrieren“ und sie auf dem europäischen Markt anbieten. 
In diesem Zusammenhang besteht ein Risiko, in den Anwendungsbereich des KI-Gesetzes zu fallen, wenn bereits bestehende Modelle wie GPT-4 durch Änderung oder Anpassung der Datenquellen modifiziert werden. Ein solches „Finetuning“ könnte als unabhängige Entwicklung betrachtet werden.

 

Was sind die neuen Verpflichtungen bei GPAI im AI Act?

Generell müssen Anbieter von GPAI-Modellen eine detaillierte technische Dokumentation des Modells erstellen und der zuständigen Behörde auf Anfrage zur Verfügung stellen. Das sind zum Beispiel die für das Training und Testverfahren verwendeten Daten, die genutzten Rechenressourcen und der bekannte oder geschätzte Energieverbrauch. Darüber hinaus müssen sie anderen KI-Anbietern, die das GPAI-Modell integrieren, ermöglichen, dessen Fähigkeiten und Grenzen gut zu verstehen und eine hinreichend detaillierte Zusammenfassung über die für das Training verwendeten Inhalte erstellen und veröffentlichen.

Anbieter von GPAI-Modellen, von denen systemische Risiken ausgehen, müssen zusätzlich ein angemessenes Maß an Cybersicherheit gewährleisten sowie Modellbewertungen, einschließlich sog. Angriffstests, durchführen und mögliche Systemrisiken ermitteln und mindern. Schwerwiegende Vorfälle müssen dokumentiert und gemeldet werden.

Anbieter von GPAI-Modellen mit Open-Source-Lizenz, d.h. offen und frei lizenzierte Modelle ohne systemische Risiken, müssen die oben genannten detaillierten Dokumentationsstandards nicht erfüllen.

Wie und wann werden diese Verpflichtungen durchgesetzt?

Der AI Act wird vermutlich im nächsten Monat verabschiedet und gilt im Allgemeinen 24 Monate später. Die Vorschriften über GPAI-Modelle, Governance und Sanktionen sollen jedoch bereits zwölf Monate nach der Verabschiedung gelten. Die Durchsetzung und Überwachung von GPAI-Modellen wird durch das “Amt für künstliche Intelligenz“ erfolgen: eine neue, von der EU-Kommission geschaffene Behörde. Außerdem wird ein wissenschaftliches Gremium gebildet, welches das Amt für künstliche Intelligenz unterstützt. Die EU-Kommission kann Geldbußen in Höhe von bis zu drei Prozent ihres gesamten weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr oder 15 Millionen Euro verhängen, wenn Anbieter von GPAI-Modellen vorsätzlich oder fahrlässig gegen einschlägige Bestimmungen des AI Acts verstoßen. Wie bei anderen EU-Vorschriften im digitalen Bereich wird es interessant sein, wie schnell die neu gebildete Behörde tatsächlich in der Lage ist, die neuen Regeln durchzusetzen.

Welche anderen Gesetze sind für GPAI relevant?

Die Regulierung digitaler Märkte und Dienste steht weit oben auf der Agenda der EU. Viele andere Richtlinien und Verordnungen greifen ineinander und sind für die Entwicklung und den Einsatz von GPAI von Bedeutung. In der EU werden derzeit vor allem die Themen Datenschutz, Urheberrecht und Cybersicherheit im Zusammenhang mit GPAI diskutiert.
Insbesondere die Rechtsgrundlage nach der DSGVO für das Training und spätere Nutzung von GPAI-Modellen sowie die Grundsätze der Transparenz, Datenminimierung und Zweckbindung sind wichtige Themen. Diese sind bereits in Richtlinien einiger Regulierungsbehörden (siehe z.B. Vereinigtes Königreich, Frankreich, Bayern, Baden-Württemberg und Hamburg) ausführlich behandelt worden. 

Abgesehen davon können beim Training und im Output von GPAI Urheberrechte verletzt werden. Auf EU-Ebene gibt es eine sog. Schranke für das „Text- und Data-Mining“. Dabei handelt es sich um eine gesetzliche Erlaubnis, urheberrechtlich geschützte Inhalte auch für GPAI-Trainingszwecke zu verwenden, es sei denn, die Rechteinhaber haben sich dagegen ausgesprochen. Viele Rechteinhaber tun dies, indem sie entsprechende Nutzungsvorbehalte in maschinenlesbarem Format erklären. Diese Ausnahmeregelung gilt jedoch nicht in allen einschlägigen Rechtsordnungen, z. B. im Vereinigten Königreich (siehe die Leitlinien des ICO hier), oder in den USA (siehe die Informationen des Copyright Office hier). Außerhalb der EU gibt es bereits Rechtsstreitigkeiten wie die NY Times gegen OpenAI (New York Times Co. gegen Microsoft Corp. et al.) oder den Fall Getty (Getty Images (US), Inc. gegen Stability AI, Inc.), bei dem es um das Training von auf maschinellem Lernen basierenden Modellen geht. Es wird interessant, die Entwicklungen sowohl innerhalb als auch außerhalb der EU zu verfolgen. 

Schließlich sind auch Cybersicherheitsrisiken zu berücksichtigen. Diese reichen von Versuchen, das Modell zu täuschen um falsche Ergebnisse zu erzeugen (sog. “adversarial attacks“) bis hin zu Fehlinformationen wie Halluzinationen“ (d.h. scheinbar plausible Ergebnisse, die aber den Eingabedaten widersprechen).

Call To Action Arrow Image

Newsletter-Anmeldung

Wählen Sie aus unserem Angebot Ihre Interessen aus!

Jetzt abonnieren
Jetzt abonnieren