Im Versicherungssektor besteht ein zunehmendes Interesse am Einsatz von Big Data und künstlicher Intelligenz (Big Data und Artificial Intelligence (AI) – kurz: „BDAI“). Rück- und Erstversicherungsunternehmen sehen hierin die Chance und zunehmend auch das Geschäftserfordernis im Wettbewerb, die (Rück-)Versicherbarkeit von Risiken durch den Einsatz von BDAI besser einschätzen zu können. Angesichts des voranschreitenden Klimawandels gilt dies insbesondere in Bezug auf die Einschätzung von Naturgefahrenrisiken. Zudem kann der Einsatz von BDAI die (Rück-)Versicherungsunternehmen dabei unterstützen, neue (Rück-)Versicherungsprodukte zu entwickeln bzw. bereits bestehende (Rück-) Versicherungsprodukten zu verbessern. Nicht zuletzt kann die Nutzung von BDAI zur Schaffung neuer Ökosysteme – insbesondere bei der effizienteren Gestaltung und Ausführung der Schadenbearbeitung und auch im Versicherungsvertrieb – beitragen. Der Einsatz von BDAI durch Versicherungsunternehmen bringt jedoch nicht nur neue Geschäftschancen, sondern auch Rechtsfragen der Versicherungsaufsicht mit sich: Der aktuelle Vorschlag einer neuen KI-Verordnung durch die EU-Kommission vom 21. April 2021 bezweckt Rechtsharmonisierung und Rechtssicherheit und teilt AI nach ihrer Auswirkung auf Grundrechte, Sicherheit und Privatsphäre ein. Explizit an die (Rück-)Versicherungsunternehmen gerichtete Anforderungen sind darin nicht zu finden. Ausgangspunkt der KI-Verordnung ist die Gliederung von KI-gestützten Lösungen entsprechend ihres Risikos in vier Kategorien: „unannehmbar, hoch, gering und minimal.“ Die Kategorie „hohes Risiko“, bei der es um Anwendungen geht, die Personendaten verarbeiten, dürfte für Versicherer besonders relevant sein: insbesondere etwa bei der Analyse von Vertragsdaten und damit der Daten der Versicherungsnehmer, zum einen Industrieunternehmen, zum anderen aber auch natürliche Personen. Ein „geringes Risiko“ besteht bei interaktiven Tools, die klar als Software erkennbar sind und bei denen die Nutzer:innen eigenverantwortlich und frei über den Einsatz entscheiden. Hierzu zählen die inzwischen von den meisten deutschen Versicherungsunternehmen im Kundenservice verwendeten Chatbots. Parallel zur EU-Kommission hat eine durch die EU-Versicherungsaufsichtsbehörde EIOPA (European Insurance and Occupational Pensions Authority) eingesetzte Sachverständigengruppe am 17. Juni 2021 mit dem Papier„Artificial intelligence governance principles: towards ethical and trustworthy artificial intelligence in the European insurance sector“ Leitlinien der EIOPA veröffentlicht, die sechs beim Einsatz von AI zu berücksichtigenden Governance-Prinzipien erläutern: das Proportionalitätsprinzip, das Prinzip der Fairness und Nichtdiskriminierung, das Prinzip der Transparenz und Erklärbarkeit, das Prinzip der Beaufsichtigung durch Menschen, das Prinzip der Beachtung des EU-Datenschutzrechts und das Prinzip der Robustheit und Leistungsfähigkeit von AI. Die deutsche Versicherungsaufsichtsbehörde BaFin (Bundesanstalt für Finanzdienstleistungs-aufsicht) betrachtet BDAI schön länger als Teil ihrer Aufsicht (s. BaFin-Studie „Big Data trifft auf künstliche Intelligenz“ aus 2018). Technisch definiert die BaFin den Begriff AI in dieser Studie „als Kombination aus großen Datenmengen (Big Data), Rechenressourcen und maschinellem Lernen (Machine Learning – ML).“ Laut BaFin bedeutet maschinelles Lernen, dass Computern auf Basis spezieller Algorithmen die Fähigkeit verliehen wird, aus Daten und Erfahrungen zu lernen. Unter Algorithmen versteht die BaFin Handlungsvorschriften, die in der Regel in ein Computerprogramm integriert sind und ein (Optimierungs-)Problem oder eine Klasse von Problemen lösen. In ihrer aktuellen Veröffentlichung „Big Data und künstliche Intelligenz: Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen“ vom 15. Juni 2021 erklärt die BaFin, dass es aus ihrer Sicht bislang keine trennscharfe Definition von AI gibt und formuliert Prinzipien für den Einsatz von Algorithmen in Entscheidungsprozessen von Finanzunternehmen. In Bezug auf die Entwicklungsphase von AI werden Anforderungen beschrieben, wie der Algorithmus ausgewählt, kalibriert und validiert werden soll. In Bezug auf die Anwendungsphase sind die Ergebnisse des Algorithmus durch die Finanzunternehmen zu interpretieren und in Entscheidungsprozesse einzubinden. In diesem Zusammenhang äußert sich die BaFin zu (i) dem konzeptionellen Rahmen, (ii) den übergeordneten Prinzipien für die Verwendung von Algorithmen in Entscheidungsprozessen, (iii) den spezifischen Prinzipien für die Entwicklungsphase und (iv) den spezifischen Prinzipien für die Anwendungsphase und nennt jeweils auch konkrete Use Cases.
Die BaFin will nennt diese Prinzipien selbst „vorläufige Überlegungen zu aufsichtlichen Mindestanforderungen für den Einsatz von künstlicher Intelligenz“. Sie sollen eine Diskussionsgrundlage für den Austausch mit diversen Stakeholdern bieten und sind ausdrücklich in die vorstehend erwähnten internationalen Regulierungsvorhaben eingebettet.
1 von 9 Insights
2 von 9 Insights
3 von 9 Insights
4 von 9 Insights
5 von 9 Insights
6 von 9 Insights
7 von 9 Insights
8 von 9 Insights
Zurück zur