11. Februar 2026
Veröffentlichungsserie
Wenn Automobilhersteller in der EU den Einsatz von Fahrzeug-Software und KI-basierten Systemen (z. B. für Fahrerassistenz oder autonome Fahrfunktionen) planen, müssen sie eine Vielzahl von zulassungsrechtlichen und anderen normativen Anforderungen beachten. Entsprechende Pflichten treffen sodann auch die Dienstleister im Entwicklungsprojekt, für die bestimmte gesetzliche Vorgaben, die eigentlich den OEM treffen, zumindest mittelbare Geltung erlangen.
Dieses FAQ befasst sich mit dem rechtlichen Rahmen und den wichtigsten Normen und Standards für Regulierung und Zulassung — speziell mit Fokus auf Software und KI im Fahrzeug.
Marktzugangsvoraussetzung für Fahrzeuge und ihre Komponenten im europäischen Binnenmarkt ist das sog. Type Approval, dass durch die jeweils zuständigen Marktüberwachungsbehörden (in Deutschland das Kraftfahrtbundesamt, KBA) erteilt werden.
Hersteller müssen im Rahmen des Typengenehmigungsverfahrens nachweisen, dass das Fahrzeug (oder Bauteil) den technischen Anforderungen genügt. Hierfür gelten neben den allgemeinen Vorgaben der Regulation (EU) 2018/858 die Vorgaben der Regulation (EU) 2019/2144 (General Safety Requirements). Commission Implementing Regulation (EU) 2022/1426 beinhaltet besondere Regelungen für das autonome Fahrzeuge (z. B. Funktionen der Stufen SAE Level 4) und entsprechende automated driving systems (ADS). Ergänzt werden dieses Regelwerke durch Regelungen auf Ebene der UNECE, e.g., UN Regulation No. 157 ("Automated Lane-Keeping Systems, ALKS"), die per Referenz in den Geltungsbereich der europäischen Normen einbezogen werden.
Besondere Regelungen für den Einsatz von softwarebasierter KI im Fahrzeug existieren darüber hinaus derzeit nicht. Die jeweiligen Aspekte werden von den o.g. Regelungen mit erfasst und über Standards und ergänzende Normen weiter präzisiert (vgl. hierzu nachfolgend).
Mit Blick auf KI-basierte Fahrzeugfunktionen werden diese Regelwerke durch den EU Artificial Intelligence Act („KI-Gesetz“) als Querschnittsrahmen ergänzt: Für „High-Risk-AI-Systeme“, insbesondere wenn sie in sicherheitskritischen Fahrzeugfunktionen eingesetzt werden, gelten zusätzliche Anforderungen wie Datenqualität, Transparenz, Nachverfolgbarkeit und Human-Oversight.
Nach der Regelungssystematik des AI Act gelten die Vorgaben des AI Acts nur mittelbar für AI-basierten Anwendungen und Systeme, die selbst Teil der Typengenehmigung sind (vgl. Art. 6 AI Act). Die konkreten Anforderungen an KI-basierte Fahrzeugtechnologien werden danach durch sektorspezifischer Gesetzgebung weiter konkretisiert. Entsprechende Regelwerke liegen bislang nicht vor. Da die Vorgaben des AI Act bei der Erstellung dieser Regelwerke aber zu berücksichtigen sind, bilden die Vorgaben des AI Act einen Basis- oder Mindeststandard, der zukünftig auch für den Einsatz von KI im Fahrzeugumfeld relevant wird.
Weitere Aspekte für den Einsatz von Software im Fahrzeugumfeld werden durch ergänzende Regelungen wie R156 (Softwareupdates) und R155 (Vehicle Cyber Security) der UNECE geregelt, die per Referenz in EU-Normen für die Typengenehmigung einbezogen werden.
Darüber hinaus finden sich auf Ebene der Mitgliedstaaten unterschiedliche Regelwerke, die die Zulassung und Betriebserlaubnis für automatisiertes und autonomes Fahren regeln. Für SAE Level 3 und Level 4 beinhaltet das Straßenverkehrsgesetz (StVG) in den §§ 1a ff. StVG Vorgaben für die Zulassung von Kraftfahrzeuge mit hoch- oder vollautomatisierter Fahrfunktion (§§ 1a-c StVG) sowie Kraftfahrzeuge mit autonomer Fahrfunktion in festgelegten Betriebsbereichen (§§ 1d-j StVG i.V.m. der Verordnung zur Genehmigung und zum Betrieb von Kraftfahrzeugen mit autonomer Fahrfunktion in festgelegten Betriebsbereichen (AFGBV)). Einen Überblick, wie dieser Rechtsrahmen derzeit in Deutschland genau aussieht und welche Vorgaben entsprechende Fahrzeuge erfüllen müssen, findet sich hier.
Hersteller - und mittelbar somit auch deren Zulieferer - müssen nach all den zuvor genannten Regelwerken stets nachweisen, dass Software/Hardware/KI-Systeme gemäß „Stand der Technik“ entwickelt wurden, Sicherheits- und Funktionalitätsanforderungen erfüllen und ausreichend validiert/verifiziert sind.
Normen und Standards spielen hier eine zentrale Rolle. Sie definieren den „Stand der Technik“ und fließen damit zumindest indirekt in den Zulassungsprozess ein. Behörden und Prüforganisationen sehen diese Normen bei der Bewertung von Sicherheitskonzepten als Referenz.
Nachfolgend findet sich ein Überblick über die wichtigsten Normen mit Bezug auf Software, E/E-Systeme und KI im Fahrzeug:
ISO 26262 „Road vehicles - Functional safety“
ISO 21448 „Safety of the Intended Functionality (SOTIF)”
ISO/PAS 8800 „Road Vehicles – Safety and Artificial Intelligence“
Weitere relevante Standards/Normen
Entwickler sicherheitsrelevanter Software für automatisierte Fahrfunktionen müssen nach den einschlägigen Automotive-Normen sicherstellen, dass Systeme nachvollziehbar entwickelt, sicher beherrscht und technisch abgesichert sind. Die Anforderungen ergeben sich vor allem aus ISO 26262 (Funktionale Sicherheit), ISO 21448 (SOTIF), ISO/SAE 21434 (Cybersecurity), UNECE R155/R156 sowie Prozessstandards wie ASPICE und lassen sich wie folgt zusammenfassen:
✔️ Strukturierte und rückverfolgbare Entwicklung
Anforderungen müssen vollständig dokumentiert und über den gesamten Entwicklungsprozess rückverfolgbar sein (Requirement → Architektur → Code → Test). Systemgrenzen, Schnittstellen und die Operational Design Domain (ODD) sind eindeutig zu definieren.
✔️ Umsetzung funktionaler Sicherheit (ISO 26262)
Software muss fehlertolerant ausgelegt sein und sicher reagieren können. Dazu gehören Plausibilitätsprüfungen, Überwachungsmechanismen, deterministisches Verhalten sowie die Unterstützung von Sicherheitsanalysen (z. B. FMEA/FTA). Sicherheitsmechanismen müssen ASIL-gerecht implementiert sein.
✔️ Beherrschung von Wahrnehmungs- und KI-Grenzen (SOTIF)
Auch ohne technischen Defekt darf das System keine unvertretbaren Risiken erzeugen. Entwickler müssen Unsicherheiten erkennen, Sensoreinschränkungen berücksichtigen und sichere Degradationsstrategien (Minimal Risk Condition) implementieren. Edge Cases sind systematisch zu adressieren.
✔️ Spezifische Anforderungen an KI/ML
Trainingsdaten, Modellversionen und Trainingsprozesse müssen dokumentiert und reproduzierbar sein. Systeme benötigen Robustheitsprüfungen, Abdeckungsanalysen sowie Mechanismen zur Erkennung ungewöhnlicher oder unbekannter Situationen (OOD-Detection).
✔️ Cybersecurity by Design (ISO/SAE 21434, R155)
Software ist nach Secure-Coding-Prinzipien zu entwickeln. Bedrohungsanalysen, Absicherung von Schnittstellen, sichere Kommunikation und geschützte Update-Mechanismen sind verpflichtend.
✔️ Update-Fähigkeit (R156)
Systeme müssen updatefähig, versioniert und rücksetzbar sein. Änderungen dürfen die Sicherheit nicht beeinträchtigen und erfordern erneute Verifikation.
✔️ Umfassende Verifikation und Validierung
Neben klassischen Tests sind simulations- und szenariobasierte Validierungen erforderlich, insbesondere für KI-Funktionen. Jede Änderung erfordert Regressionstests.
✔️ Nachweisführung
Alle Arbeiten müssen die Erstellung eines Safety- und Security-Case ermöglichen. Änderungen, Tools und Softwarestände sind kontrolliert zu dokumentieren.
Kurz gesagt: Entwickler müssen sicherstellen, dass ihre Software vorhersehbar, fehlersicher, gegen Angriffe geschützt, testbar, updatefähig und hinsichtlich KI-Unsicherheiten beherrscht ist – und dass dies jederzeit belegbar ist. Supplier müssen diese Anforderungen im Entwicklungsprozess berücksichtigen, damit der Auftraggeber (z.B. ein OEM) seinen Pflichten als Inverkehrbringer entsprechender Technologien nachkommen kann.
Ja, möglicherweise. Ob eine bestehende Genehmigung betroffen ist, hängt davon ab, ob die Änderung genehmigungsrelevante Merkmale des genehmigten Fahrzeugtyps betrifft.
Rechtlicher Rahmen
Eine Neubewertung der Genehmigung ist regelmäßig erforderlich, wenn Änderungen z. B.:
Solche Änderungen können eine Revision oder Extension der Typgenehmigung auslösen.
Nachrüstungen in Legacy-Fahrzeugen (z. B. neue Assistenz- oder Connectivity-Funktionen) können neue Schnittstellen, Datenflüsse und Cyberrisiken erzeugen. Dadurch wird manchmal auch die ursprüngliche Genehmigungsbasis verändert. Solche Maßnahmen müssen daher wie genehmigungsrelevante Änderungen behandelt und regulatorisch abgesichert werden.
Aus Sicht der Rechts-/Compliance-Abteilung eines Automobilherstellers oder Entwicklers von Fahrzeugtechnologien, die auf KI basiert, empfehlen sich folgende Schritte:
✔️ Frühzeitige Einbindung: Bereits in der Konzept- und Architekturphase sicherstellen, dass Software/KI-Funktionen die relevanten Normen und Zulassungsanforderungen berücksichtigen, ggf. durch „Kochbücher“ und andere Hilfen für Entwicklerteams
✔️ Normen-Mapping: Eine systematische Übersicht, welche Norm(en) für welche Funktion (E/E-System, ADAS, KI) gelten – z. B. ISO 26262 für Hardware/Software‐Fehlfunktionen, ISO 21448 für Systemgrenzen, ISO/PAS 8800 für KI.
✔️ Anforderungen mit Auftraggebern klären: Frühzeitig mit Auftraggebern in Entwicklungsprojekten klären., welche Normen zu berücksichtigen sind, um dem Auftraggeber später den Nachweis der Normenkonformität zu ermöglichen
✔️ Dokumentation & Nachweisführung: Entwicklungsnachweise, Verifikations- und Validierungsberichte, Szenariotests, Datenqualität, Änderungen (OTA) dokumentieren.
✔️ Monitoring & Lifecycle Management: Softwareupdates und KI‐Modelle nicht nur vor dem Marktstart prüfen, sondern auch nach Inverkehrbringen überwachen, Fehlfunktionen analysieren, ggf. Rückrufe oder Updates steuern und entsprechende Prozesse und Monitoring implementieren.
✔️ Schnittstellen zu Zulassung & Produkthaftung: Abstimmung mit Typgenehmigung / Konformitätsprüfungen und Produkthaftungsrecht (z. B. Rückrufpflichten, Änderungsfreiheit, Haftungsrisiken).
✔️ Datenschutz & Datensicherheit: „by design“ in den Entwicklungsprozess implementieren
✔️ Schulung & Awareness: Entwicklungs-, Steuerungs- und Management-Teams müssen die Besonderheiten von Fahrzeug-Software/KI (Edge-Cases, Sensorik, Umweltbedingungen) und deren Rechts-/Regelwerksimplikationen kennen.
11. Februar 2026
10. Februar 2026
6. Februar 2026
von Thomas Kahl, Teresa Kirschner, LL.M. (Informations- und Medienrecht)
3. Februar 2026
30. Januar 2026
von Thomas Kahl, Teresa Kirschner, LL.M. (Informations- und Medienrecht)
30. Januar 2026
von Thomas Kahl, Teresa Kirschner, LL.M. (Informations- und Medienrecht)
29. Oktober 2025
16. September 2025
12. September 2025
von Dr. Markus Böhme, LL.M. (Nottingham), Dr. Christian Ertel
1. September 2025
28. April 2025
27. März 2025
von Thomas Kahl
17. März 2025
17. März 2025
von Nils von Reith
17. März 2025
von Nils von Reith
17. März 2025
von Thomas Kahl, Teresa Kirschner, LL.M. (Informations- und Medienrecht)
17. März 2025
von Thomas Kahl, Teresa Kirschner, LL.M. (Informations- und Medienrecht)
6. Februar 2025
von Dajin Lie
28. Januar 2025
von Thomas Kahl
von Thomas Kahl und Nils von Reith
von Thomas Kahl und Teresa Kirschner, LL.M. (Informations- und Medienrecht)
von Thomas Kahl und Teresa Kirschner, LL.M. (Informations- und Medienrecht)