12. Februar 2025
Digital Health 360° – 6 von 35 Insights
Artikel 5 des AI Acts trat am 2. Februar 2025 in Kraft. Dieser verbietet bestimmte KI-Praktiken, die als „unannehmbares Risiko“ eingestuft werden. Inzwischen hat die Europäische Kommission hierzu auch ihre Leitlinien veröffentlicht. Dieser Artikel fasst zusammen, welche Folgen dies für den Healthcare-Sektor hat.
KI-Systeme, die darauf abzielen, das Verhalten von Menschen auf eine Weise zu beeinflussen, die zu physischen oder psychischen Schäden führen kann, sind grundsätzlich verboten. Für den medizinischen Bereich gibt es jedoch eine entscheidende Ausnahme: Das Verbot gilt nicht für KI-Systeme, die ausschließlich aus medizinischen oder sicherheitstechnischen Gründen in Verkehr gebracht werden, wie z. B. Systeme, die für therapeutische Zwecke bestimmt sind.
Die Leitlinie nennt als Beispiel für eine erlaubte Praktik ein therapeutischer Chatbot nutzt unterschwellige Techniken, um die Benutzer zu einem gesünderen Lebensstil zu bewegen und schlechte Gewohnheiten, wie das Rauchen, aufzugeben. Selbst wenn die Benutzer, die den Ratschlägen des Chatbots und der unterschwelligen Therapie folgen, aufgrund der Anstrengungen, mit dem Rauchen aufzuhören, unter körperlichen Beschwerden und psychischem Stress leiden, kann nicht davon ausgegangen werden, dass der KI-gestützte Chatbot wahrscheinlich erheblichen Schaden anrichtet. Solche vorübergehenden Beschwerden sind unvermeidlich und werden durch die langfristigen Vorteile für die Gesundheit der Benutzer aufgewogen. Es gibt keine versteckten Versuche, die Entscheidungsfindung über die Förderung gesunder Gewohnheiten hinaus zu beeinflussen.
Diese Ausnahmen schaffen Klarheit für medizinische Anwendungen, lassen aber Fragen offen, wie mit grenzwertigen Technologien umzugehen ist. So kann beispielsweise ein therapeutischer Chatbot, der darauf abzielt, Menschen mit geistigen Behinderungen Unterstützung im Bereich der psychischen Gesundheit und Bewältigungsstrategien zu bieten, ihre begrenzten intellektuellen Fähigkeiten ausnutzen, um sie zum Kauf teurer medizinischer Produkte zu bewegen oder sie zu Verhaltensweisen zu verleiten, die für sie selbst oder andere Personen schädlich sind.
Außerdem ist der Einsatz von KI-Systemen zur Ableitung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen grundsätzlich untersagt. Dies betrifft auch Krankenhäuser und Pflegeeinrichtungen, wo Emotionserkennung in verschiedenen Bereichen für eine Vielzahl von Anwendungen eingesetzt werden kann, wie z. B. zur Erkennung von Depressionen, zur Suizidprävention oder zur Erkennung von Autismus. Sofern die Systeme beispielsweise Stresslevel oder emotionale Zustände von Patienten analysieren sollen, dies aber auch bei Ärztinnen oder Pflegern tun, könnte das Verbot greifen.
Zwar gibt es eine Ausnahme, wenn ein KI-System aus medizinischen oder sicherheitstechnischen Gründen eingeführt oder auf den Markt gebracht wird. Systeme zur reinen Müdigkeitsüberwachung von Chirurgen oder Notärzten könnten daher zulässig bleiben.
Angesichts des Ziels des AI Acts, ein hohes Maß an Grundrechtsschutz zu gewährleisten, muss diese Ausnahme jedoch eng ausgelegt werden. Die allgemeine Überwachung des Stressniveaus am Arbeitsplatz (z.B. ein KI-System, das Burnout oder Depressionen bei Ärzten und Pflegern erkennen soll) ist aus Gesundheits- oder Sicherheitsgründen jedenfalls nicht zulässig und wäre weiterhin verboten. Jede Verwendung aus medizinischen und sicherheitstechnischen Gründen muss immer auf das unbedingt Notwendige und Verhältnismäßige beschränkt bleiben und von ausreichenden Schutzmaßnahmen (z.B. ein Gutachten eines Sachverständigen im Zusammenhang mit dem konkreten Anwendungsfall) begleitet sein. Die Notwendigkeit sollte auf objektiver Grundlage in Bezug auf den medizinischen und sicherheitstechnischen Zweck beurteilt werden und nicht auf die „Bedürfnisse“ des Arbeitgebers Bezug nehmen. Auch hier ist eine Einzelfallprüfung also angezeigt.
Die Nutzung von KI zur biometrischen Kategorisierung basierend auf sensiblen Merkmalen wie Ethnie, politischer Überzeugung oder sexueller Orientierung ist verboten. Dies betrifft insbesondere Anwendungen, die biometrische Daten für Diagnosezwecke nutzen. Der AI Act sieht jedoch Ausnahmen vor, wenn die Verarbeitung biometrischer Daten im Einklang mit EU- oder nationalem Recht erfolgt. Beispielsweise könnten KI-gestützte Systeme zur Erkennung genetischer Risikofaktoren unter diese Ausnahme fallen – eine genaue Prüfung bleibt aber erforderlich.
KI-Systeme zur Verhaltensvorhersage sind im medizinischen und sicherheitskritischen Kontext zulässig, etwa zur Früherkennung aggressiven Verhaltens in der Psychiatrie. Problematisch wird es jedoch, wenn die Bewertung über diesen Kontext hinausgeht – wenn etwa Patienten auch ausserhalb des Behandlungskontextes anhand der Bewertung des Systems anders behandelt werden. Der AI Act untersagt Social-Scoring-Praktiken, die zu einer unverhältnismäßigen oder ungerechtfertigten Schlechterstellung führen. Krankenhäuser und Anbieter sollten daher genau prüfen, dass ihre Systeme nicht über ihren eigentlichen Zweck hinaus genutzt werden.
Auf den ersten Blick scheint die KI-Entwicklung, -Nutzung und der Betrieb im Healthcare-Sektor von den Verboten des AI Act verschont zu bleiben. Bei Licht betrachtet birgt die KI-Verordnung jedoch für einige Anwendungsfälle auch Unsicherheiten in der praktischen Anwendung. Für Akteure im Gesundheitswesen – von Kliniken über MedTech-Anbieter bis hin zu Forschenden – bedeutet das: KI-Systeme sollten spätestens jetzt auf ihre Konformität mit dem AI Act überprüft werden.
8. May 2025
8. May 2025
3. April 2025
von mehreren Autoren
27. February 2025
12. February 2025
von mehreren Autoren
22. October 2024
von mehreren Autoren
17. July 2024
von Kathleen Munstermann-Senff, LL.M. (Medizinrecht), Dr. Marina Schulte
12. April 2024
von Karolina Lange-Kulmann, LL.M. (Medizinrecht), Rica Nauschütte
27. March 2024
13. March 2024
21. September 2023
von Dr. Tim Schwarz
10. July 2023
14. March 2023
12. September 2022
12. September 2022
22. July 2022
12. April 2022
30. March 2022
4. March 2022
von Karolina Lange-Kulmann, LL.M. (Medizinrecht), Dr. Niclas von Woedtke, MBA (Kellogg/ WHU)
Gründe des Urteils des Bundesgerichtshofs vom 9. Dezember 2021 veröffentlicht
15. February 2022
Strategie zur digitalen Potentialentfaltung des Gesundheitswesens der Zukunft
7. July 2021
29. April 2021
von mehreren Autoren
„Best Practices” für das Vertragsmanagement ab Tag 1
22. April 2021
von mehreren Autoren
von mehreren Autoren
21. October 2020
von Karolina Lange-Kulmann, LL.M. (Medizinrecht), Dr. Niclas von Woedtke, MBA (Kellogg/ WHU)
von Mareike Christine Gehrmann und Dr. Carolin Monsees, CIPP/E