8. Mai 2023
In den letzten Wochen war ChatGPT, ein KI-Textgenerator von OpenAI, in aller Munde, allerdings nicht nur wegen seiner Fähigkeit, menschenähnliche Texte zu generieren, sondern auch aufgrund eines Konflikts mit der italienischen Datenschutzbehörde. Die neuesten Entwicklungen um das vermeintliche Verbot von ChatGPT haben bis in die Allgemeinmedien für Aufsehen gesorgt. Aber was genau ist passiert und wie ist das alles einzuordnen?
Die italienische Datenschutzbehörde hat gegenüber OpenAI eine „sofortige vorübergehende Einschränkung“ der Verarbeitung von Daten italienischer Nutzer angeordnet. Es fehle die Rechtsgrundlage für die Datenverarbeitung, gebe kein Altersverifikationssystem für Kinder und die Nutzer sowie Betroffene, deren Daten von Open AI verarbeitet werden, würden nicht ausreichend über die Datenverarbeitung informiert.
In der Zwischenzeit hat OpenAI den Betrieb von ChatGPT in Italien wieder aufgenommen. Das Unternehmen gab bekannt, dass es beispielsweise Transparenz- und Informationspflichten erweitert nachkomme oder die Möglichkeit für Nutzer eingeführt habe, der Verarbeitung ihrer Daten für das Training von Algorithmen zu widersprechen. Die italienische Datenschutzbehörde begrüßte die von OpenAI ergriffenen Maßnahmen und forderte das Unternehmen darüber hinaus auf, den in ihrer Verfügung von April gestellten zusätzlichen Forderungen nachzukommen.
Auch in Deutschland ist ChatGPT in den Fokus der Behörden gerückt. Der Hessische Datenschutzbeauftragte forderte OpenAI in Abstimmung mit der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) auf, einen Fragenkatalog zur Datenverarbeitung bei ChatGPT zu beantworten. Es sei unklar, zu welchen Zwecken eingegebene Daten, welche teils besonders schützenswerte Informationen beinhalten könnten, verarbeitet würden und aus welchem Datenpool die hinter dem Dienst liegende, künstliche Intelligenz ihr Wissen speise. Die Fragen betreffen die datenschutzrechtlichen Grundprinzipien, die Rechtsgrundlage, Datenspeicherung sowie Transparenz der Verarbeitung, insbesondere, ob Nutzungsdaten als Trainingsdaten verwendet werden und welche Quellen genutzt werden. Dazu wird gefragt, welche Altersgrenze für die Nutzung von ChatGPT bestimmt ist, wie ihre Einhaltung überprüft wird und ob die Einwilligung der Erziehungsberechtigten eingeholt wird.
Die datenschutzrechtliche Posse um ChatGPT geht also weiter. Und es steht zu erwarten, dass auch andere KI-Anwendungen ähnliche Erfahrungen machen könnten, sofern sie unter anderem auf Basis personenbezogener Daten funktionieren - was bei der aktuell besonders im Fokus stehenden „generativen KI“ wohl regelmäßig der Fall sein dürfte.
Doch damit nicht genug: Die Verwendung KI-basierter Systeme wie Chat GPT wirft nicht nur datenschutzrechtliche Fragen auf, sondern könnte auch urheberrechtlich problematisch sein. Auch in diesem Bereich ist derzeit noch vieles ungeklärt. Klar ist jedoch, dass beispielsweise KI-basierte Textgeneratoren mittels einer großen Menge von Texten trainiert werden, welche aus verschiedenen teils unbekannten Quellen stammen. Auch wenn diese Texte öffentlich verfügbar sind, kann nicht ausgeschlossen werden, dass sie urheberrechtlich geschützt sind. Wenn ein Nutzer einen KI-basierten Textgenerator verwendet, der urheberrechtlich geschütztes Material (beispielsweise urheberrechtlich geschützte Texte oder Bilder) enthält, kann, neben der Nutzung von Werken im Rahmen des Trainings, auch die Veröffentlichung des KI-Ergebnisses eine Urheberrechtsverletzung darstellen. Da Texte typischerweise nicht unverändert wiedergegeben werden und somit ihre Quellen nicht genannt werden können, ist es faktisch jedoch schwierig festzustellen, ob eine Urheberrechtsverletzung vorliegt. Hinzu kommt: Nach § 44 b UrhG und § 66 d UrhG ist das Text und Data Mining, also die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen, erlaubt - jedenfalls unter bestimmten Voraussetzungen. Beispielsweise gilt dies nur für die Analyse von Werken, nicht unbedingt hingegen für die Weiternutzung von KI-generierten Inhalten. Außerdem müssen die Kopien geschützter Werke nach Wegfall der Erforderlichkeit gelöscht werden. Eine komplexe Thematik also, die künftig wohl auch Gerichte beschäftigen wird. Einer der wohl ersten Fälle in Deutschland ist nun vor dem Landgericht Hamburg gelandet - man darf gespannt sein.
Auch wenn ChatGPT in Italien den Betrieb wieder aufgenommen hat, bleiben datenschutzrechtliche und urheberrechtliche Fragen hinsichtlich KI-Textgeneratoren bestehen. Die regulatorischen Anforderungen dürften in Zukunft auch nicht sinken, denn der „Artificial Intelligence Act“ der EU, welcher die Herstellung und Nutzung von KI-Systemen regulieren soll und ganz eigene Herausforderungen mit sich bringen wird, steht bereits in den Startlöchern. Gleichzeitig wird die Entwicklung von KI-Textgeneratoren weiter voranschreiten, und es ist zu erwarten, dass sie in vielen Bereichen zunehmend eingesetzt werden, um die Arbeit von Menschen zu unterstützen und zu ergänzen. Es ist daher nicht auszuschließen, dass die rechtlichen Bestimmungen für KI-Textgeneratoren in Zukunft weiter verschärft werden, um die Verwendung von KI-Systemen auf eine verantwortungsvolle und ethische Weise zu gewährleisten. Insbesondere werden Fragen bezüglich der Verantwortlichkeit für von KI-Systemen generierte Inhalte in den kommenden Jahren weiter an Bedeutung gewinnen. Unternehmen und Organisationen, die KI-Textgeneratoren nutzen, sollten sich fragen, welche rechtlichen Regeln für sie gelten und wie sie diese umsetzen können.
KI-Verordnung (AI-Act)
Alle relevanten und aktuellen Informationen zum AI-Act auf einen Blick!
Jetzt reinschauenFolgt die Schweiz dem Vorstoß der EU?