13. Mai 2024
Das EU-KI-Gesetz sollte der erste Versuch sein, regulatorische Leitplanken für eine sich entwickelnde disruptive Technologie zu setzen. Das zugrundeliegende Konzept ist ein risikobasierter Ansatz, und die Bedenken waren vor allem Überlegungen zur Produktsicherheit, die eine Generation von Gesetzgebern anregten, die mit Filmen wie Stanley Kubricks „2001: Odyssee im Weltraum “ und Sequels wie „The Terminator“ oder „The Matrix“ aufgewachsen ist - nicht zu vergessen… aber wir kommen schon im ersten Absatz vom Thema ab.
Während diese Gesetzgeber fleißig Prinzipien ausarbeiteten, um uns vor HAL 9000 und Arnie zu retten, tauchte unerwartet im November 2022 Chat GPT auf. Aber wir müssen zum Urheberrecht kommen. Es folgte ein Jahr der juristischen Aufregung, in dem die US-Akteure mit der Einleitung von Gerichtsverfahren zu urheberrechtlichen Aspekten reagierten, China seine umfassenden KI-Vorschriften mit den „Measures for the Management of Generative Artificial Intelligence Services 2023“ änderte, und die EU eilig Bestimmungen zur Regulierung generativer oder „allgemeiner“ KI (general-purpose AI - „GPAI“) einführte, die unter anderem einige urheberrechtliche Aspekte berühren.
Bei näherer Betrachtung des Urheberrechts im Zusammenhang mit KI gehören zu den „üblichen Verdächtigen“ die Verwendung von Werken für das Training von Modellen (1), Fragen der Schutzfähigkeit des Inputs und des generierten Outputs (2) sowie das Risiko eines möglicherweise rechtsverletzenden Outputs (3). Hier ist unser Update anlässlich des Inkrafttretens des EU-KI-Gesetzes, das in den nächsten Monaten erwartet wird.
Das menschliche Denken sammelt verfügbare Informationen, gleicht sie mit den im Gehirn gespeicherten relevanten Erinnerungen ab und generiert als Ergebnis dieser Analyse einen Vorschlag. Je mehr Erfahrungen gemacht werden, desto besser wird die Qualität des Vorschlags. Das Gleiche gilt für KI, die große Mengen an maschinenlesbaren Inhalten für ihr Training benötigt. Die EU-Richtlinie 2019/790 vom 17. April 2019 zur Urheberrecht im digitalen Binnenmarkt („DSM-Richtlinie“) sieht Schranken des Vervielfältigungsrechts für Text und Data Mining vor, und zwar zum Zwecke wissenschaftlicher Forschung in Art. 3, und für jedermann in Art. 4, der jedoch die Möglichkeit des „Opt-out“ für die Rechteinhaber vorsieht. Nach dem Start von ChatGPT gab es eine kontroverse Diskussion darüber, ob Art. 4 DSM-Richtlinie insbesondere die Verwendung von im Internet zur Verfügung gestellten Werken für das Training von KI-Modellen abdeckt, da ein solches Training auch die Erstellung zumindest vorübergehender Vervielfältigungen dieser Werke umfasst. Vertreter von Urhebern und der Kreativwirtschaft hatten u.a. Bedenken geäußert, wie und ob überprüft werden kann, ob derjenige, der das Modell trainiert hat, die Grenzen der Text und Data Mining -Schranke eingehalten hat oder nicht.
Das KI-Gesetz (in der vom Europäischen Rat angenommenen Fassung vom 14. Mai 2024) enthält zwar keine neuen Bestimmungen zu den Ausnahmen vom Urheberrecht, die Formulierung in Erwägungsgrund 105 ist in diesem Punkt jedoch glasklar: Die Nutzung von urheberrechtlich geschützten Inhalten bedarf der Genehmigung des Rechteinhabers, sofern keine Schranke eingreift. Die Text und Data Mining-Schranke der DSM-Richtlinie ist per se anwendbar. Sollten die Rechteinhaber entschieden haben, sich ihre Rechte vorzubehalten, um Text und Data Mining zu verhindern, muss der Anbieter des Modells eine Genehmigung für die Nutzung solcher geschützten Inhalte zu Zwecken des Text und Data Mining einholen.
Das KI-Gesetz hat sich jedoch auch mit dem Problem befasst, wie die Rechtskonformität überprüft werden kann: Alle Anbieter von GPAI-Modellen müssen den Dokumentationspflichten nach Art. 53 (1) KI-Gesetz und Anhang XI nachkommen. Dazu gehört auch eine Dokumentationspflicht, die den Trainings- und Testprozess umfasst und u.a. eine detaillierte Beschreibung der „Informationen über die für das Trainieren, Testen und Validieren verwendeten Daten, einschließlich der Art und Herkunft der Daten und der Aufbereitungsmethoden (zum Beispiel Bereinigung, Filterung usw.), der Zahl der Datenpunkte, ihres Umfangs und ihrer Hauptmerkmale; gegebenenfalls die Art und Weise, wie die Daten erlangt und ausgewählt wurden“, verlangt. Der Anbieter muss eine solche Dokumentation erstellen und auf dem neuesten Stand halten und sie auf Anfrage dem KI-Büro und den zuständigen nationalen Behörden vorlegen.
Um den Bedenken der Urheber Rechnung zu tragen, enthält das KI-Gesetz zwei weitere spezifische Anforderungen, die die Anbieter zu erfüllen haben: Nach Art. 53 Abs. 1 lit. (c) müssen sie eine Urheberrechts-Policy einführen und betreiben, einschließlich dem Stand der Technik entsprechender Technologien, um mögliche Opt-Out-Vorbehalte von Urhebern nach Art. 4 Abs. 3 der DSM-Richtlinie zu erkennen und zu beachten. Darüber hinaus sieht Art. 53 Abs. 1 lit. (d) KI-Gesetz vor, dass Anbieter „eine hinreichend detaillierte Zusammenfassung der für das Training des GPAI-Modells verwendeten Inhalte erstellen und veröffentlichen.“ Um dafür einen angemessenen und einheitlichen Standard zu gewährleisten, wird das künftige KI-Büro beauftragt, eine Vorlage für eine solche Zusammenfassung zu erstellen.
Als dieses Dokumentationskonzept zum erstmals vorgeschlagen wurde, wurde argumentiert, dass es den Entwickler des KI-Modells einen exponiert. Der Ansatz des KI-Gesetzes, einerseits die Anwendbarkeit der Text und Data Mining-Schranke zu bestätigen und andererseits Dokumentationspflichten einzuführen, stellt einen Kompromiss dar: KI-Modelle funktionieren nur, wenn sie trainiert wurden, und ein Teil des Trainingsmaterials ist urheberrechtlich geschützt.
Wie die „hinreichend detaillierte Zusammenfassung“ aussehen soll, wird durch eine vom KI-Büro zu entwickelnder Vorlage geregelt werden. In Erwägungsgrund 107 wird darauf hingewiesen, dass die Zusammenfassung eher allgemein umfassend als technisch detailliert sein sollte, z. B. durch Auflistung „der wichtigsten Datensammlungen oder Datensätze , die beim Training des Modells verwendet wurden“. Bevor die Vorlage zur Verfügung steht, könnten die Anbieter gut beraten sein, „best practices“ der Branche zu entwickeln. Es wird auch interessant sein zu sehen, wie die Dokumentation der in der Vergangenheit verwendeten Trainingsdaten in Zukunft erfolgen wird.
Die Fälle, in denen es darum geht, ob das erfolgte Training von KI-Modellen innerhalb der von der Text und Data Mining-Schranke gesetzten Grenzen stattgefunden hat oder nicht, werden bald die Details des Vervielfältigens klären, das während der Datenaufbereitung und des Trainings des Modells stattgefunden hat. Sobald der Sachverhalt geklärt ist, werden sich die Parteien wahrscheinlich darauf konzentrieren, zu argumentieren, warum eine solche Vervielfältigung entweder noch flüchtig und/oder vorübergehend ist, um nur das zugrundeliegende und nicht schutzfähige Konzept und die Idee des Werks zu erfassen, und/oder das Gegenteil: dass die Vervielfältigung die Grenzen der eng auszulegenden Ausnahmen überschritten und das Wesen des geschützten Werks ausgesaugt hat.
In einem derzeit vor dem Landgericht Hamburg anhängigen Verfahren klagt ein Stockfotograf gegen die gemeinnützige Organisation LAION, die den LAION-5B-Datensatz anbietet, der zum Training großer Bild-Text-Modelle dient. Die Klage erhebt den Vorwurf der unerlaubten Vervielfältigung und zielt darauf ab, dass die Bilder aus dem Trainingsset entfernt werden. LAION beruft sich dagegen insbesondere auf die allgemeine Text- und Data-Mining-Ausnahme nach Art. 4 DSM-RL, aber auch auf die Text und Data Mining-Schranke zum Zwecke der wissenschaftlichen Forschung nach Art. 3 DSM-RL, die kein „Opt-out“ vorsieht. Die mündliche Verhandlung wird voraussichtlich im Juli 2024 stattfinden.
Das KI-Gesetz enthält Ausnahmen für Open-Source-KI, die allerdings von geringer praktischer Relevanz sein dürften: Die Verpflichtungen aus Art. 53 Abs. 1 lit. (a) und (b) KI-Gesetz gelten nicht, wenn der Anbieter das GPAI-Modell unter einer „freien und quelloffenen Lizenz“ anbietet, Art. 53 (2). Diese Erleichterung gilt nicht, wenn das GPAI-Modell unter die Kategorie der Modelle mit systematischen Risiken fällt. Außerdem wird in Erwägungsgrund 103 präzisiert, dass die Ausnahmen nur dann gelten, wenn das Modell nicht gegen einen Preis oder eine andere Monetarisierung, einschließlich der Verwendung personenbezogener Daten, bereitgestellt wird.
Erwägungsgrund 106 befasst sich mit der internationalen Dimension der Ausnahme für Text und Data Mining und/oder fairen Marktbedingungen: Anbieter, die KI in der EU auf den Markt bringen, sollten sicherstellen, dass die einschlägigen Verpflichtungen des KI-Gesetzes eingehalten werden. Insbesondere sollte jeder Anbieter der ein GPAI Modell auf dem EU-Markt in Verkehr bringt, diese Verpflichtungen einhalten, unabhängig davon, wo die urheberrechtlich relevanten Handlungen stattgefunden haben. Damit will das KI-Gesetz ein „level playing field“ schaffen und verhindern, dass aus der Anwendung etwaiger geringerer urheberrechtliche Standards außerhalb der EU Vorteile gezogen werden - ein Ansatz, der bereits als „long-arm“ Gesetz kritisiert wurde, die über geltendes Urheberrecht hinausgeht. Da die Einhaltung der Anforderungen überwacht werden soll, siehe z.B. Art. 89 AI Act - können Versuche, die Anforderungen zu umgehen, aufgedeckt werden.
Das KI-Gesetz berührt Fragen der Schutzfähigkeit nicht.
Der traditionelle Standard im Rahmen des Urheberrechtskonzepts sieht den Schutz von schöpferischen Ergebnissen vor, die von Menschen geschaffen wurden. Folglich können von Menschen erstellte Prompts urheberrechtlichen Schutz genießen, z. B. als Sprachwerke.
Da geschickte Eingabeaufforderungen wertvoll sind, sollten die Nutzer besser prüfen, ob der Anbieter des KI-Systems sich das Recht vorbehält, den Inhalt der Prompts für seine eigenen Zwecke, einschließlich der Weiterentwicklung des KI-Systems, zu verwenden oder nicht.
Der Output, der z. B. durch die Verwendung eines Allzweckmodells erzeugt wird, wird in den meisten Fällen wohl keinen Urheberrechtsschutz genießen. Es wird versucht zu argumentieren, dass es keinen Unterschied zwischen der Verwendung einer Kamera zur Erstellung eines fotografischen Werks und der Verwendung eines KI-Systems zur Erstellung entsprechender Ergebnisse gibt. Wir glauben nicht, dass solche Argumente stichhaltig sind, da der Grad der Beteiligung und des Einflusses auf die kreativen Prozesse einfach nicht vergleichbar ist. Die Ergebnisse der KI beruhen auf Wahrscheinlichkeitsberechnungen, die in einem Black-Box-System mit einer Geschwindigkeit stattfinden, die die menschliche Wahrnehmung übersteigt. Die Nicht-Schutzfähigkeit des Outputs scheint mit der derzeitigen Situation in den USA übereinzustimmen (siehe die Entscheidung des US Copyright Office (USCO) vom Februar 2023 zu „Zarya of the Dawn“ oder des District Court für den District of Columbia in der Rechtssache „Thaler v. Perlmutter“). Zu den vom USCO angewandten einschlägigen Kriterien gehört die Frage, ob das „Werk“ im Wesentlichen von einem Menschen geschaffen wurde und der Computer lediglich ein „Hilfsinstrument“ ist, oder ob die traditionellen Elemente der Urheberschaft in dem Werk (literarischer, künstlerischer oder musikalischer Ausdruck oder Elemente der Auswahl, des Arrangements usw.) tatsächlich „nicht von einem Menschen, sondern von einer Maschine“ erdacht und ausgeführt wurden. Bei Werken, die KI-generiertes Material enthalten, prüft das Amt, ob die KI-Beiträge das Ergebnis einer „mechanischen Reproduktion“ sind oder ob es sich stattdessen um eine „eigene ursprüngliche geistige Konzeption des Urhebers handelt, der er eine sichtbare Form gegeben hat“. In China scheint es eine gegenteilige Tendenz zu geben, die die Eignung des Outputs für den Urheberrechtsschutz akzeptiert (Beijing Internet Court, Lee v. Liu).
In der EU wird bereits darüber diskutiert, ob es einen gewissen Schutz für Output geben sollte oder nicht. Dies könnte z. B. durch ein neues Leistungsschutzrecht geschehen, da das Konzept des Leistungsschutzrechts nicht notwendigerweise eine menschliche Schöpfung voraussetzt. Nach geltendem Recht können bestimmte von KI erzeugte Ergebnisse bereits durch bestehende benachbarte Rechte geschützt sein, wie z. B. Tonträger oder Datenbanken sui generis.
Presseberichte über die in den USA im Jahr 2023 eingeleiteten Verfahren deuten darauf hin, dass ein Teil des Outputs, der insbesondere von bildgebenden KI-Systemen erzeugt wird, Merkmale aufweist, die Werken Dritter erstaunlich ähnlich sind.
Das KI-Gesetz enthält neben der bereits erwähnten Pflicht, eine Policy zur Einhaltung des EU-Urheberrechts zu entwickeln, keine weiteren spezifischen Vorschriften zu Rechtsverletzungen. Der EU-Gesetzgeber betont in Erwägungsgrund 108, dass das KI-Büro die Erfüllung dieser Verpflichtungen durch die Anbieter überwachen sollte, ohne sich auf eine werkbezogene Bewertung der Trainingsdaten im Hinblick auf die Einhaltung des Urheberrechts einzulassen. Dies scheint eine kurze formalistische Prüfung zu sein, so dass die Durchsetzung weiterhin hauptsächlich von den Maßnahmen der Rechteinhaber abhängt.
Bislang gibt es keinen allgemeinen Sorgfaltsmaßstab für die Vermeidung von Rechtsverletzungen. Einige Systemanbieter wälzen die gesamte Verantwortung und das Risiko auf die Nutzer ab. Dieser Ansatz hat eine gewisse Logik, zumindest insofern, als es sicherlich möglich ist, durch gezielte Formulierung von Aufforderungen rechtsverletzende Ausgaben zu provozieren. Andere Anbieter bieten Filter an, die verletzende Ausgaben verhindern sollen. Bei Aktivierung versprechen diese Anbieter, Nutzer zu unterstützen, die wegen der Verletzung von Rechten Dritter durch die so erzeugten Inhalte abgemahnt werden. Darüber hinaus bieten einige KI-Anbieter ihren Nutzern im Falle von rechtsverletzenden Inhalten Schadensersatz an, wenn auch mit gewissen Einschränkungen. Da es noch keine einschlägige Rechtsprechung zu verletzendem generativem KI-Output gibt, bleibt eine Reihe von Fragen offen: Wie werden die bestehenden Tests für Rechtsverletzungen im Zusammenhang mit (generativer) KI angewendet? Können bestehende Verteidigungsmittel gegen Urheberrechtsverletzungen angewandt werden? Wer ist haftbar - der Nutzer, der KI-Entwickler oder beide?
Das KI-Gesetz bietet also sicherlich kein umfassendes Regelwerk für das Spannungsfeld zwischen KI-Technologien und Urheberrecht. Viele Details, um einen vernünftigen Ausgleich zwischen den gegensätzlichen Interessen zu erreichen, werden von den Gerichten geklärt werden müssen. Auf der Zielgeraden hat das KI-Gesetz einige Konzepte zur Anwendbarkeit der Text und Data Mining-Schranke und der Dokumentationspflichten aufgegriffen, die die Lösung der verbleibenden rechtlichen Fragen erleichtern könnten. Abschließend lohnt sich noch ein kurzer Blick auf die Regelungen zu Inkrafttreten und Geltung: Der Großteil der Regelungen wird zwei Jahre nach Inkrafttreten des EU-KI-Gesetzes (siehe Art. 113) gelten, voraussichtlich ab dem Sommer 2026. Die GPAI-Vorschriften gelten schon früher, nämlich bereits ab 12 Monaten nach Inkrafttreten. Für GPAI-Modelle, die vor Ablauf von 12 Monaten ab Inkrafttreten des KI-Gesetzes auf den Markt gebracht wurden, gilt eine Übergangsfrist von 36 Monaten ab Inkrafttreten (Art. 111 (3)).