Die Entschließung des Europäischen Parlaments vom 10. März 2026 zu Urheberrecht und generativer künstlicher Intelligenz – Chancen und Herausforderungen ist kein Gesetz. Sie ändert weder die DSM-Richtlinie noch öffnet sie den AI Act erneut; sie schafft auch kein neues Lizenzierungsregime. Sie ist das Ergebnis eines Initiativverfahrens des Parlaments, welches letztlich der Auffassung ist, dass die bestehende urheberrechtliche Systematik auch in der durch den AI Act konkretisierten Form die Nutzung geschützter Inhalte durch General-Purpose-AI nur unzureichend regle.
1. Das rechtliche Spielfeld für GPAI-Modelle in der EU
Der AI Act hat keine neue urheberrechtliche Schranke für das Training von Modellen geschaffen. Art. 53 Abs. 1 lit. c und d AI Act setzt vielmehr voraus, dass GPAI-Training innerhalb des bestehenden urheberrechtlichen Rahmens zu beurteilen ist, einschließlich des Vorbehaltsmechanismus aus Art. 4 Abs. 3 DSM-RL. In Erwägungsgrund 105 wird betont, dass Text-und Data-Mining-Techniken in großem Umfang für das Abrufen und die Analyse von Inhalten eingesetzt werden können, die urheberrechtlich und durch verwandte Schutzrechte geschützt sein können; ebenso, dass Rechteinhaber ihre Rechte vorbehalten können; und dass Anbieter von GPAI-Modellen eine Strategie einführen müssen, um solche Vorbehalte zu identifizieren und zu beachten, sowie eine hinreichend detaillierte Zusammenfassung der Trainingsinhalte öffentlich machen müssen. Der AI Act enthält damit keine neue Schrankenregelung, verweist aber auf die operative Bedeutung des TDM-Systems für GPAI-Training — ohne mit Details oder Abgrenzungsfragen zu fassen.
2. Der Ansatz des EU-Parlaments
Das ist der Anker der Parlamentsentschließung. Sie basiert auf der Auffassung, der bestehende Rahmen sei als Marktordnung unzureichend geworden. Die entsprechende Aussage in Ziffer 2 ist ungewöhnlich klar: Das Parlament „believes that current copyright law is insufficient to address the challenge of licensing copyrighted material for GenAI“. Ausgehend hiervon mäandert die Resolution weg von einem bloßen Opt-out-Modell und hin zu einer Konzeption von Marktorganisation: funktionierende Lizenzmärkte, sektorale kollektive Lizenzierung, standardisierte maschinenlesbare Vorbehalte, mehr Transparenz, angemessene Vergütung und beweisrechtliche Erleichterungen, wenn Anbieter nicht hinreichend offenlegen. Der Ansatz beweisrechtlicher Erleichterungen wurde zuletzt ja in der Reform der Produkthaftungsrichtlinie umgesetzt; praktische Erfahrungen hiermit wird es in Kürze geben.
Hier befindet sich letztlich der Kern der Resolution. Sie akzeptiert, dass die EU mit Art. 4 DSM-RL in das Zeitalter generativer KI eingetreten ist und rüttelt hieran schon deswegen nicht, weil das Parlament die Stärkung der Wettbewerbsfähigkeit der EU im Auge hat. Die Parlamentarier sind aber der Auffassung, dass ein Opt-out Mechanismus unzureichend ist um Verhandlungsmacht, Vergütung und Durchsetzung in einem Markt für Milliarden von Trainingsinputs realistisch zu organisieren, wenn er nicht von mehr Transparenz begeleitet wird. Deshalb fordert das Parlament einen „working licensing market“, ein „coherent and functioning licensing framework“, „voluntary collective licensing agreements per sector“ und sogar „immediate, fair and proportionate remuneration“ für vergangene Nutzungen, wo ein funktionierender Lizenzmarkt noch nicht bestand.
Die Entschließung das Problem befasst sich ferner mit einem im AI Act angetippten Problem der Internationalität des KI Trainings bzw. der Durchsetzung der rechtlichen Anforderungen. Immaterialgüterrecht ist territoriales Recht, KI-Modelle werden aber in der Praxis kaum in der EU trainiert. Erwägungsgrund 106 im AI Act hatte ausdrücklich festgehalten, dass die Trainings-bezogenen Pflichten gelten auch dann, wenn das Training nicht in der EU stattfand, solange das GPAI-Modell in der Union in Verkehr gebracht wird. Die praktische Durchsetzbarkeit dieser Anforderung hing bislang ein wenig in der Luft. Hier setzt die Entschließung in Erwägungsgrund P an und zielt über das Training hinaus:. Transparenz- und Dokumentationspflichten sollen nicht beim Training enden. Vielmehr heißt es, dieselbe Logik müsse mutatis mutandis auch für „inference, retrieval-augmented generation or fine-tuning“ gelten. Für Echtzeit-Crawling fordert das Parlament in Erwägungsgrund Y, dass Transparenz auch „the act of crawling itself“ erfassen müsse; Crawler sollten sich gegenüber Website-Betreibern identifizieren, und AI-Anbieter müssten detaillierte Aufzeichnungen über Crawling-Aktivitäten führen. Das weniger ein technischer Zusatz, sondern mehr die Forderung, dass urheberrechtliche Relevanz in der GenAI-Wertschöpfungskette nicht mit dem Abschluss des Trainings endet.
3. Die jüngste Rechtsprechung europäischer Gerichte zu GPAI-Modellen
Die Resolution des Parlaments ist auch vor dem Hintergrund der sich gerade erst entwickelnden Rechtsprechung zu bewerten:
So hatte das Hanseatische Oberlandesgericht in seiner LAION Entscheidung vom 10.12.2025. Az 5 U 104/24, ausgeführt, die Normen zum Text und Data Mining (§§ 44b, 60d UrhG) seien „nicht teleologisch dahingehend einzuschränken, dass sie vorbereitende Maßnahmen für das KI-Training nicht erfassen“. Der Senat stützt dies ausdrücklich auf die Gesetzesmaterialien, wonach TDM „für das maschinelle Lernen als Basis-Technologie für Künstliche Intelligenz von besonderer Bedeutung“ sei. Zugleich hält das OLG fest, dass der spätere Einsatz des Datensatzes für generative KI der Anwendung von § 44b Abs. 1 UrhG auf die streitgegenständliche Vervielfältigung „nicht entgegen“ stehe. Maßgeblich war im konkreten Fall aber auch, dass unstreitig „in den Datensatz nicht die Bilder, sondern nur Hyperlinks aufgenommen wurden“. Für den Nutzungsvorbehalt entschied das OLG mit ausdrücklichem Verweis auf die Gesetzesbegründung, dass ein in natürlicher Sprache formulierter Vorbehalt so ausgestaltet sein müsse, dass ein automatisiertes System ihn nicht nur entdecken, sondern in seiner Bedeutung verarbeiten könne; der Senat spricht insofern von einem erforderlichen „maschinellen Textverständnis“.
Anders setzte am 11.November 2025 das LG München I im GEMA ./.Open AI-Urteil an. Es bestätigt ebenfalls, dass § 44b UrhG und Art. 4 DSM-RL auf Text und Data Mining beim Training künstlicher Intelligenz anwendbar sind und dass „Vervielfältigungshandlungen zur Vorbereitung des Trainingskorpus“ grundsätzlich erfasst sein können. Allerdings konzentriert es sich in seiner Entscheidung dann auf eine Bewertung des Output, der aus sich der Kammer belege, dass eine geschützte Ausdrucksgestalt im Modell selbst verbleibt. Die Bedeutung des Urteil liegt nicht in der Erkenntnis, dass § 44b UrhG keine durch die Memorisierung im Modell gegebene Vervielfältigungen decke, sondern in seinem Weg zu diesem Ergebnis. Es hat nämlich eine Beweiserhebung über diese im Verfahren streitige Frage nicht für erforderlich gehalten und schlicht im Weg einer freien Beweiswürdigung festgestellt, dass die dort geltend gemachten Liedtexte nach seiner Überzeugung im Modell enthalten seien und es offenbleiben könne, wie die Memorisierung im Einzelnen funktioniere.
Dieser doch überraschend pragmatischen Abkürzung der Erkenntnisgewinnung hatte sich in genau eine Woche zuvor der High Court in Getty Images v Stability AI gerade nicht angeschlossen. Das Gericht stellte fest, dass die Modelle nach Abschluss des Trainings Rückschlüsse ziehen könnten, ohne dass eine Nutzung der Trainingsdaten erfolge, zugleich aber technisch durchaus Fälle von memorisierten oder von Trainingsdaten abgeleitete Bildern vorkommen können. Vor allem hat der High Court eine umfangreiche Beweisaufnahme durchgeführt, sich mit den Details von Modellen und Modellgewichten befasst und ist dann zu dem Ergebnis kam, dass nach eingehender Untersuchung der Funktionsweisen des dortigen Modells die These, dass das Modell selber eine Vervielfältigung der geschützten Werke speichere nicht bewiesen worden sei.
4. Die Zielrichtung des Parlaments
Liest man LAION, GEMA und Getty zusammen, wird die Stoßrichtung der Entschließung deutlich: Alle Urteile kämpfen damit, wie mit den zugrundeliegenden Tatsachen des Funktionieren der GPAI Modelle umgegangen werden soll. Das Parlament hat hierauf auch keine Antwort, sieht aber die Beweisprobleme und kommt daher zu dem Schluss, dass Art. 4 DSM-RL und die Transparenzregelungen im AI Act seiner Ansicht nach allein nicht mehr genügen. Darum fordert es nicht nur sektorale freiwillige Kollektivlizenzen, sondern auch standardisierte maschinenlesbare Vorbehaltsformate, eine Rolle des EUIPO als „trusted intermediary“, Transparenz über die für das Training verwendeten Inhalte bis hin zu einer „itemised list identifying each item of copyright-protected content used for training“ und schließlich eine beweisrechtliche Flankierung durch eine „rebuttable presumption“, wenn Anbieter keine vollständige Transparenz leisten. Das ist kein technisches Nachschärfen, sondern ein ordnungspolitischer Vorschlag aus dem Werkzeugkasten der Produkthaftungsrichtline.
Institutionell ist der nächste Schritt unspektakulär. Das Parlament hat mit der Entschließung getan, was es in einem Initiativverfahren tun kann: Es formuliert einen Arbeitsauftrag an die Kommission, die Eignung des acquis für GenAI rasch und sorgfältig zu prüfen, einen funktionierenden Lizenzrahmen zu entwickeln, Transparenz- und Dokumentationspflichten zu vertiefen, den EUIPO institutionell einzubinden und Vergütungs- sowie Vermutungsmodelle zu prüfen. Dem Parlament geht es damit vor allem um europäische Urheberrechtspolitik und um Marktordnung weniger um Details einer Schrankenregelung.
Für weitere Spannung ist insofern gesorgt.