Autoren

Fritz–Ulli Pieper, LL.M.

Salary Partner

Read More

Alexander Schmalenberger, LL.B.

Knowledge Lawyer

Read More
Autoren

Fritz–Ulli Pieper, LL.M.

Salary Partner

Read More

Alexander Schmalenberger, LL.B.

Knowledge Lawyer

Read More

4. Oktober 2022

"AI Liability Directive“ – Welche Haftungsregeln erwarten uns zukünftig für KI?

  • Briefing

Co-Autorin: Hannah Krüßmann (Wissensch. Mitarbeiterin)

Die Europäische Kommission hat am 28. September 2022 einen Entwurf für eine Richtlinie über KI-Haftung („Richtlinie“) veröffentlicht. Die Notwendigkeit, zivilrechtliche Haftungsregeln an die – sich aus der Anwendung von KI-Systemen ergebenden – Herausforderungen anzupassen, steht bereits seit Langem im Fokus des EU Gesetzgebers. Nun wird vorgeschlagen, dass die Mitgliedstaaten in diesem Bereich die Erfolgsaussichten auf Schadensersatz von Geschädigten durch Offenlegungspflichten für Beweismittel und widerlegbare Vermutungen verbessern. Durch die Aussicht auf Kompensation soll die Akzeptanz von KI im Binnenmarkt gestärkt werden. Da der Richtlinienentwurf im Wesentlichen Nachteile für diejenigen vorsieht, die ihre Pflichten aus der KI-Verordnung („KI-VO“) verletzen, soll sie zugleich einen wirtschaftlichen Anreiz setzen, eben diese einzuhalten.


Kerninhalte der Richtlinie

Die Richtlinie bezweckt eine risikoarme, erleichterte Rechtsdurchsetzung von Ansprüchen durch Geschädigte. Wer plausibel eine Schädigung durch eine KI geltend macht, kann zunächst von in Betracht kommenden Schadensersatzschuldnern die Herausgabe von Informationen verlangen. Offenlegungspflichten und widerlegbare Vermutungen hinsichtlich des Kausalzusammenhangs zwischen der Schädigung und einem Verhalten der KI – sei es ein Tun oder ein Unterlassen. Diese Maßnahmen sollen Personen, die Ersatz für durch KI-Systeme verursachte Schäden suchen, dabei helfen, ihre Verfahren kostengünstig und schnell durchzuführen und so berechtigte Haftungsansprüche erfolgreich durchzusetzen. Durch eine Vermutung von Kausalität wird den Geschädigten erspart, den Wirkungsmechanismus der KI vor Gericht beweisen zu müssen. Im Einzelnen regelt die Richtlinie grob Folgendes:

  • Anwendungsbereich (Artikel 1): Die Richtlinie gälte für nichtvertragliche Ansprüche auf Ersatz von Schäden, die durch ein KI-System verursacht wurden, wenn solche Ansprüche im Rahmen nationaler verschuldensabhängiger Haftungsregelungen geltend gemacht werden. Unberührt bleiben laut dem Vorschlag aber die Bereiche öffentlicher Verkehr, das Produkthaftungsrecht – zu dem die Kommission ebenfalls einen Vorschlag präsentiert hat –, die Haftungsfreistellungen gemäß dem Gesetz über digitale Dienste und Regelungen zur strafrechtlichen Verantwortlichkeit.
  • Begriffsbestimmungen (Artikel 2): Die Begriffsbestimmungen in Artikel 2 Abs. 1 bis 4 folgen denjenigen des von der Kommission präsentierten Entwurfs der KI-VO, um Kohärenz zu gewährleisten. Daneben werden weitere, für die Anwendung der Richtlinie wichtige Begriffe definiert, wie „Anspruchsteller“ und „potenzieller Anspruchsteller“.
  • Offenlegung von Beweismitteln und widerlegbare Vermutung eines Verstoßes (Artikel 3):
    • Der Zugang zu Beweismitteln über KI-Systeme, die eventuell an einem Schadensereignis mitgewirkt haben, sind für den potentiell Geschädigten relevant hinsichtlich der Feststellung, ob ein Anspruch auf Entschädigung besteht, sowie zur Begründung eines solchen Anspruchs. Daher soll die Richtlinie einem potentiellen Geschädigten ermöglichen, die Offenbarung von relevanten Beweismitteln vorgerichtlich geltend zu machen oder gerichtlich anordnen zu lassen. Ebenso können Maßnahmen zur Sicherung der Beweismittel beantragt werden. Voraussetzung ist aber, wenn noch keine Klage anhängig ist, dass der potenzielle Anspruchsteller erfolglos um die Herausgabe der Informationen gebeten hat und ausreichend Tatsachen und Beweise vorlegt, um die Plausibilität eines Schadensersatzanspruchs zu belegen.
    • Die Beweismittel bezüglich derer der Offenbarungsanspruch besteht sind in Art. 3 Abs. 1 nicht abschließend aufgezählt. Dazu zählen dürften in der Regel aber Datensätze, die zur Entwicklung des KI-Systems verwendet wurden, technische Unterlagen, Protokolle, das Qualitätsmanagementsystem und alle Korrekturmaßnahmen.
    • Adressat der Offenbarungspflicht sind Anbieter oder ihnen gleichgestellte Händler, Einführer, Nutzer oder sonstige Dritte von Hochrisiko KI-Systemen (zu letztgenannten Gruppe gehören alle, die die KI unter eigenem Namen, nach einer Zweckänderung oder einer Änderung an der KI verwenden) sowie Nutzer, die derartige Systeme verwenden.
    • Die Offenbarungspflicht ist dahingehend begrenzt, dass sie erforderlich und verhältnismäßig für den Schadensersatzanspruch ist. Eine Nichteinhaltung der Offenbarungsanordnung führt im Rahmen einer Klage zu der widerleglichen Vermutung derjenigen Sorgfaltspflichtverletzung (insbesondere solche nach Artikel 4 Abs. 2 und 3), die die angeforderten Beweise für den betreffenden Schadensersatzanspruch belegen sollte. Weiter soll sich im Zusammenhang mit einem Schadensersatzanspruch die Offenbarungspflicht grundsätzlich auf den Beklagten beschränken; es sei denn, der Kläger hat die Beweismittel trotz angemessener Anstrengungen von diesem nicht erlangen können.
  • Widerlegbare Vermutung eines ursächlichen Zusammenhangs im Fall eines Verschuldens (Artikel 4): Ziel der Richtlinie ist es, Geschädigte von Kausalitätsfragen bei der Geltendmachung von Schadensersatzansprüchen insbesondere im Zusammenhang mit der Nichteinhaltung der KI-VO zu entlasten. Unter bestimmten Voraussetzungen bestünde daher eine widerlegliche Vermutung, dass ein ursächlicher Zusammenhang – die Kausalität – zwischen einem Verschulden bezüglich der Nichteinhaltung einer Pflicht nach der KI-VO und dem durch das KI-Ergebnis herbeigeführten Schaden besteht. Diese Vermutung ist für den Anspruchsteller deshalb so wichtig, da der Beweis des Kausalzusammenhangs oft nur durch ein „Nachvollziehen“ der „Entscheidung“ der KI geführt werden könnte und – wenn dies nicht möglich ist – der fehlende Beweis der Kausalität zu Lasten des Geschädigten ginge. Hier setzt der Vorschlag an:
    • Abs. 1: Die Kausalität wird von den Gerichten vermutet, wenn
    1. Die schuldhafte Nichteinhaltung der KI-VO vom Anspruchsteller bewiesen oder vom Gericht wegen Verstoßes gegen eine Anordnung zur Vorlage von Beweisen gem. Art. 3 Abs. 5 anzunehmen ist 
    2. der schuldhafte Verstoß „nach vernünftigem Ermessen“ die KI zu dem schädigenden Verhalten veranlasst hat,
    3. Der Anspruchsgegner nachgewiesen hat, dass das Verhalten der KI den Schaden verursacht hat.
    • Abs. 2: Richtet sich der Schadensersatzanspruch gegen den Betreiber eines Hochrisiko KI-Systems greift die Vermutung nur, wenn er eine der in Abs. 2 aufgezählten Pflichten nicht erfüllt. Dazu zählen zum Beispiel die Pflicht zu geeigneter Risikomanagementmaßnahmen (Art. 16(a), 9 KI-VO), geforderte Qualitätskriterien beim Schulungsdatensatz (Art. 10 Abs. 2 bis 5 KI-VO) oder Transparenzvorschriften (Art. 13 KI-VO).
    • Abs. 3: Richtet sich der Schadenersatzanspruch gegen den Nutzer eines Hochrisiko KI-Systems wird ein schuldhafter Verstoß gegen die KI-VO angenommen, wenn dieser seine Verpflichtungen zur Nutzung oder Überwachung des Systems in Übereinstimmung mit der beigefügten Gebrauchsanweisung nicht beachtet oder Eingabedaten auf das KI-System angewandt wurden, die dessen Zweckbestimmung nicht entsprechen (Art. 29 KI-VO).
    • Abs. 4: Bei einem Schadensersatzanspruch im Zusammenhang mit einem Hochrisiko KI-System gilt die Vermutung nach Abs. 1 nicht, wenn der Beklagte nachweist, dass der Kläger vernünftigerweise auf Beweismittel und Fachkenntnisse zurückgreifen kann, um die Kausalität zu beweisen,
    • Abs. 5: Bezüglich KI-Systeme, die kein hohes Risiko bergen, gilt die Vermutung nur, wenn das Gericht es als übermäßig schwierig für den Kläger ansieht, den Kausalzusammenhang gemäß Absatz 1 nachzuweisen
    • Abs. 6: Richtet sich der Schadensersatzanspruch gegen einen Verbraucher, der die KI einsetzt, gilt die Kausalitätsvermutung nur, wenn dieser erheblich in die Betriebsparameter der KI eingegriffen hat.
    • Abs. 7: In allen Fällen kann die Vermutung widerlegt werden
  • Bewertung und gezielte Überprüfung (Art. 5): Die Richtlinie soll spätestens nach fünf Jahren evaluiert werden. Dabei soll ein Augenmerk auf die Abwicklung von Schadensfällen gelegt und weiter geprüft werden, ob Vorschriften über eine verschuldensunabhängige Haftung angemessen sind. Die Mitgliedstaaten sollen zwei Jahre Zeit haben, die Richtlinie nach ihrer Verkündung umzusetzen.
  • Umsetzung (Art. 7): Nationale Vorschriften müssen spätestens zwei Jahre nach Inkrafttreten der Richtlinie umgesetzt werden. 

 

Gesetzgeberischer Hintergrund

Der Richtlinienentwurf kann auf eine lange Vorgeschichte zurückblicken: Bereits in ihrem im Februar 2020 veröffentlichten Weißbuch zur künstlichen Intelligenz, warf die Kommission Haftungsfragen im Zusammenhang mit der Anwendung von KI auf. Zusammen mit dem Weißbuch wurde ein „Bericht über die Auswirkungen von Künstlicher Intelligenz, des Internets der Dinge und der Robotik auf Sicherheits- und Haftungsfragen“ vorgelegt. Der Bericht kam zu dem Schluss, dass die geltenden Produktsicherheitsvorschriften eine Reihe von Lücken enthalten, die geschlossen werden müssten, allerdings ohne einen konkreten gesetzgeberischen Weg vorzuschlagen. Im Weißbuch warf die Kommission die Frage auf, ob neben einer bloßen Anpassung bestehender Rechtsvorschriften, möglicherweise neue KI-spezifische Regelungen erforderlich seien. 

Anders positionierte sich das Europäische Parlament in einer am 20. Oktober 2020 veröffentlichten Entschließung mit Empfehlungen an die Kommission für eine Regelung der zivilrechtlichen Haftung beim Einsatz künstlicher Intelligenz. Darin vertritt das Parlament insbesondere die Ansicht, dass eine vollständige Überarbeitung der gut funktionierenden Haftungsvorschriften nicht erforderlich, dafür konkrete abgestimmte Anpassungen notwendig seien. Die Produkthaftungsrichtlinie erweise sich als wirksames Mittel, das entsprechend überarbeitet werden solle.

Im Zeitraum vom 18. Oktober 2020 bis zum 10. Januar 2022 hat die Europäische Kommission eine öffentliche Konsultation zu dem Thema „Zivilrechtliche Haftung – Anpassung der Haftungsregeln an das digitale Zeitalter und an die Entwicklungen im Bereich der künstlichen Intelligenz“ abgehalten. Zweck der Konsultation war es, Informationen darüber zu sammeln, wie die Produkthaftungsrichtlinie verbessert und insbesondere im Hinblick auf die mit KI einhergehenden Herausforderungen angepasst werden könne. Vor diesem Hintergrund erscheint die Entscheidung der Kommission, die KI-spezifischen Haftungsfragen nun im Rahmen einer eigenständigen Richtlinie zu regeln, auf den ersten Blick überraschend. Allein im Weißbuch wurde dieser Weg ausdrücklich erwähnt. 

Erste Einschätzung 

Mit der „AI Liability Directive“ versucht die Europäische Kommission einen weiteren Schritt in Richtung eines digitalen Europas. Es bleibt abzuwarten, ob sich das Ziel der Richtlinie, den Geschädigten zu helfen ihre Schadensersatzansprüche erfolgreich durchzusetzen, auch in der Praxis widerspiegeln wird. Die Verwendung unbestimmter Rechtsbegriffe lassen allerdings Skepsis aufkommen – wie soll etwa ein Geschädigter im Vorhinein wissen, wann ein Beweis „übermäßig schwierig“ zu führen ist? Oder dass er „vernünftigerweise“ über „Beweismittel und Fachkenntnisse verfügt“, um den Kausalitätsbeweis anzutreten? Erwägungsgrund 27 verweist den Geschädigten hier auf die Dokumentationen und die Protokollierung von Daten, aber damit dürften Laien wenig anfangen können und ob es „unvernünftig“ ist, auf eigene Kosten einen Sachverständigen zu beauftragen? Am Ende wird es gegebenenfalls auf Feinheiten des Zivilprozessrechts ankommen, mit seinem komplexen Verhältnis zwischen Darlegungs- und Beweislast, Beweismaßen und Beweiserleichterungen. Deutlich wird bereits jetzt die enge Verzahnung zwischen der Richtlinie und der KI-VO - was die Bedeutung der KI-VO nochmals verstärkt und deren Umsetzung weiter in den Fokus von nach der KI-VO Verpflichteten rücken dürfte. Wann genau die Richtlinie tatsächlich in Kraft treten wird und wann dementsprechend nationale Umsetzungsvorschriften anwendbar sein werden, ist aktuell noch offen.

KI-Verordnung (AI-Act)

Alle relevanten und aktuellen Informationen zum AI-Act auf einen Blick!

Jetzt reinschauen
Jetzt reinschauen
Call To Action Arrow Image

Newsletter-Anmeldung

Wählen Sie aus unserem Angebot Ihre Interessen aus!

Jetzt abonnieren
Jetzt abonnieren

Related Insights

Informationstechnologie

EDPB betont Wichtigkeit freier Zustimmung bei „Pay or Okay” Modellen

18. April 2024
Briefing

von mehreren Autoren

Klicken Sie hier für Details
Metaverse

Navigating New Realities: The Impact of the revised eIDAS Regulation on the Metaverse and VLOPs

25. März 2024
Quick read

von mehreren Autoren

Klicken Sie hier für Details
KI-Verordnung (AI-Act)

Wie viel Rechtsunsicherheit steckt in Europas KI-Verordnung?

19. Februar 2024
In-depth analysis

von Fritz–Ulli Pieper, LL.M. und Alexander Schmalenberger, LL.B.

Klicken Sie hier für Details