28. März 2024
Die KI-Verordnung der EU („AI Act“) befindet sich auf der Zielgeraden. Besonders über „general-purpose AI“, d.h. KI-Systeme mit allgemeinem Verwendungszweck, wurde in den vergangenen Monaten viel diskutiert. Solche Modelle wie GPT-4 basieren häufig auf maschinellem Lernen, werden in großem Umfang mit Daten trainiert und können in eine Vielzahl anderer KI-Systeme integriert werden. Daraus ergibt sich eine besondere Verantwortung entlang der KI-Wertschöpfungskette. Dementsprechend streng werden sie im AI Act reguliert.
KI-Modelle mit allgemeinem Verwendungszweck („GPAI-Modelle“) sind in letzter Zeit in aller Munde. Ob es sich um den Hype um GPT-4, vielversprechende Entwicklungen im Gesundheitswesen zur Diagnoseverbesserung, für neue personalisierte Medizin oder bessere, auf die Bedürfnisse der Nutzer zugeschnittene Online-Dienste handelt – GPAI scheint die Zukunft zu sein. Folglich war die Regulierung von GPAI wahrscheinlich der umstrittenste Aspekt des neuen AI Acts. Er wurde so heftig debattiert, dass die Verhandlungen zwischen den EU-Mitgliedstaaten beinahe zum Stillstand gekommen wären. Als im Dezember 2023 ein Kompromiss zum AI Act erzielt wurde, sprachen sich wichtige Akteure wie Deutschland und Italien gegen eine strengere Regulierung aus. Frankreich versuchte, den AI Act zu blockieren. Nun hat die EU eine endgültige Einigung erzielt, die harmonisierte Regeln für GPAI-Modelle enthält. Im Folgenden stellen wir die wichtigsten Aspekte dieser Regeln vor.
GPAI-Modelle sind „KI-Modelle, die eine erhebliche allgemeine Verwendbarkeit aufweisen, in der Lage sind, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen, und in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden können“. Bekannte Beispiele für solche GPAI-Modelle sind GPT-4, DALL-E, Google BERT oder Midjourney 5.1.
Der AI Act sieht eine abgestufte Risikoklassifizierung für GPAI-Modelle vor. Diese ähnelt den Risikokategorien für KI-Systeme (siehe zu diesen hier) und unterscheidet zwischen normalen „GPAI-Modellen“, „offen und frei lizenzierten GPAI-Modellen“ und „GPAI-Modellen mit systemischen Risiken“. Die EU-Kommission hat die Aufgabe zu beurteilen, ob ein GPAI-Modell systemische Risiken birgt. Dies ist der Fall, wenn ein Modell eine bestimmte technische Schwelle an Rechenoperationen erreicht oder vorhersehbare negative Folgen hat.
Der AI Act richtet sich an „Anbieter“ von GPAI. Der Schwerpunkt liegt also auf Unternehmen, die GPAI entwickeln oder „integrieren“ und sie auf dem europäischen Markt anbieten.
In diesem Zusammenhang besteht ein Risiko, in den Anwendungsbereich des KI-Gesetzes zu fallen, wenn bereits bestehende Modelle wie GPT-4 durch Änderung oder Anpassung der Datenquellen modifiziert werden. Ein solches „Finetuning“ könnte als unabhängige Entwicklung betrachtet werden.
Generell müssen Anbieter von GPAI-Modellen eine detaillierte technische Dokumentation des Modells erstellen und der zuständigen Behörde auf Anfrage zur Verfügung stellen. Das sind zum Beispiel die für das Training und Testverfahren verwendeten Daten, die genutzten Rechenressourcen und der bekannte oder geschätzte Energieverbrauch. Darüber hinaus müssen sie anderen KI-Anbietern, die das GPAI-Modell integrieren, ermöglichen, dessen Fähigkeiten und Grenzen gut zu verstehen und eine hinreichend detaillierte Zusammenfassung über die für das Training verwendeten Inhalte erstellen und veröffentlichen.
Anbieter von GPAI-Modellen, von denen systemische Risiken ausgehen, müssen zusätzlich ein angemessenes Maß an Cybersicherheit gewährleisten sowie Modellbewertungen, einschließlich sog. Angriffstests, durchführen und mögliche Systemrisiken ermitteln und mindern. Schwerwiegende Vorfälle müssen dokumentiert und gemeldet werden.
Anbieter von GPAI-Modellen mit Open-Source-Lizenz, d.h. offen und frei lizenzierte Modelle ohne systemische Risiken, müssen die oben genannten detaillierten Dokumentationsstandards nicht erfüllen.
Der AI Act wird vermutlich im nächsten Monat verabschiedet und gilt im Allgemeinen 24 Monate später. Die Vorschriften über GPAI-Modelle, Governance und Sanktionen sollen jedoch bereits zwölf Monate nach der Verabschiedung gelten. Die Durchsetzung und Überwachung von GPAI-Modellen wird durch das “Amt für künstliche Intelligenz“ erfolgen: eine neue, von der EU-Kommission geschaffene Behörde. Außerdem wird ein wissenschaftliches Gremium gebildet, welches das Amt für künstliche Intelligenz unterstützt. Die EU-Kommission kann Geldbußen in Höhe von bis zu drei Prozent ihres gesamten weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr oder 15 Millionen Euro verhängen, wenn Anbieter von GPAI-Modellen vorsätzlich oder fahrlässig gegen einschlägige Bestimmungen des AI Acts verstoßen. Wie bei anderen EU-Vorschriften im digitalen Bereich wird es interessant sein, wie schnell die neu gebildete Behörde tatsächlich in der Lage ist, die neuen Regeln durchzusetzen.
Die Regulierung digitaler Märkte und Dienste steht weit oben auf der Agenda der EU. Viele andere Richtlinien und Verordnungen greifen ineinander und sind für die Entwicklung und den Einsatz von GPAI von Bedeutung. In der EU werden derzeit vor allem die Themen Datenschutz, Urheberrecht und Cybersicherheit im Zusammenhang mit GPAI diskutiert.
Insbesondere die Rechtsgrundlage nach der DSGVO für das Training und spätere Nutzung von GPAI-Modellen sowie die Grundsätze der Transparenz, Datenminimierung und Zweckbindung sind wichtige Themen. Diese sind bereits in Richtlinien einiger Regulierungsbehörden (siehe z.B. Vereinigtes Königreich, Frankreich, Bayern, Baden-Württemberg und Hamburg) ausführlich behandelt worden.
Schließlich sind auch Cybersicherheitsrisiken zu berücksichtigen. Diese reichen von Versuchen, das Modell zu täuschen um falsche Ergebnisse zu erzeugen (sog. “adversarial attacks“) bis hin zu Fehlinformationen wie Halluzinationen“ (d.h. scheinbar plausible Ergebnisse, die aber den Eingabedaten widersprechen).