Während autonome Fahrzeuge zunehmend Realität werden, bleibt ein entscheidender Aspekt oft unterschätzt: der Mensch am Steuer – auch wenn dieser nur im Notfall eingreifen soll. Sicherheitsfahrer spielen heute eine essenzielle Rolle im Testbetrieb selbstfahrender Fahrzeuge. Doch wie definiert sich ihre Verantwortung in einem komplexen technologischen Umfeld, das zwischen Automatisierung und menschlicher Kontrolle oszilliert?
Autonomes Fahren auf dem Prüfstand – wo stehen wir 2026?
Seit der Jahrtausendwende hat das autonome Fahren enorme Fortschritte gemacht. Hersteller wie Waymo, Tesla, Mercedes-Benz und Mobileye investieren Milliarden in die Entwicklung von autonomen Fahrzeugplattformen. Laut einer aktuellen Analyse von McKinsey & Company (2025) wird erwartet, dass bis 2030 weltweit rund 12 % aller Neufahrzeuge über „Level 4“-Fähigkeiten verfügen – also weitgehend autonom unterwegs sein können, jedoch unter bestimmten Bedingungen noch einen Fahrer voraussetzen.
Doch trotz technischer Fortschritte bleibt die Realität eine andere: Wirklich fahrerlose Fahrzeuge sind außerhalb kontrollierter Umgebungen noch selten. In nahezu allen gegenwärtigen Praxistests sitzt nach wie vor ein Mensch hinter dem Steuer – der Sicherheitsfahrer oder Safety Driver. Diese Person haftet im Ernstfall, greift bei Fehlfunktionen ein und sorgt dafür, dass das Testfahrzeug sicher wieder auf Kurs kommt.
Der Sicherheitsfahrer – Menschliche Rückversicherung in einem autonomen System
Der Begriff „Sicherheitsfahrer“ mag suggerieren, dass es sich um eine passive Rolle handelt – doch das Gegenteil ist der Fall. Sicherheitsfahrer leisten einen aktiven Beitrag zur Systemsicherheit. Sie beobachten permanent das Umfeld, die Fahrparameter und greifen notfalls blitzschnell ein. In einem Bericht der National Highway Traffic Safety Administration (NHTSA) über autonome Fahrzeugtests aus dem Jahr 2023 wurde festgestellt, dass 26 % aller Disengagements – also manuelle Übernahmen durch den Sicherheitsfahrer – durch unerwartetes Verhalten von Fußgängern oder anderen Verkehrsteilnehmern ausgelöst wurden.
Ein aktuelles Beispiel liefert Waymo: Das Unternehmen veröffentlichte im Juni 2025 einen Transparenzbericht, wonach auf 1 Million autonome Testkilometer in San Francisco und Phoenix durchschnittlich 12 manuelle Eingriffe durch Sicherheitsfahrer notwendig waren. Die Gründe reichten von Fehlinterpretationen durch das System bis hin zu plötzlich auftauchenden Baustellen.
Verantwortung und Haftung – wer trägt die Konsequenzen?
Solange ein Mensch an Bord ist, liegt die endgültige Verantwortung rechtlich meist noch bei ihm. Das deutsche Straßenverkehrsgesetz (StVG) schrieb in Paragraph 1b in der Fassung von 2023 vor, dass bei sogenannten „hochautomatisierten Fahrfunktionen“ der Fahrer jederzeit zur Rückübernahme verpflichtet ist. Zwar sind Hersteller verpflichtet, ihre Systeme sicher zu gestalten – etwa durch Sensor-Redundanz oder situatives Lernen – doch im Testbetrieb sind es die Sicherheitsfahrer, die als letzte Instanz fungieren.
Diese Verantwortung ist keineswegs trivial: Ein Fehler kann Menschenleben kosten. Die Anforderungen an Sicherheitsfahrer sind deshalb hoch. Sie müssen geschult sein in technischen Abläufen, schnelles Gefahrenbewusstsein besitzen und sogenannte „situative Awareness“ zeigen – also das konstante Wahrnehmen und bewerten der Umgebung.
Ausbildung, Anforderungen und psychologische Belastung
Die Position eines Sicherheitsfahrers verlangt weit mehr als einen Führerschein. Unternehmen wie Cruise, Zoox oder Mobileye setzen auf umfangreiche interne Schulungsprogramme. Dazu zählen unter anderem:
- Szenarioschulungen mit VR-Simulationen zur Reaktionsbeschleunigung
- Technische Einführung in die zugrundeliegenden KI-Entscheidungsmodelle
- Verhaltenspsychologische Schulungen zur Stressresilienz
Diese Anforderungen sind notwendig: Laut einer Studie des Fraunhofer IVI (2024) gaben 64 % der befragten Sicherheitsfahrer an, dass sie große Verantwortung verspüren – insbesondere bei Langzeittests in urbanem Umfeld. Die Dauerbelastung, stets in Alarmbereitschaft zu sein, kann zu kognitiver Ermüdung führen – eine unterschätzte Sicherheitslücke.
Technologie trifft auf Ethik: Wie menschliche Entscheidungen über Leben und Tod entscheiden
Ein besonders schwieriger Aspekt ist die Notfallentscheidung. Autonome Systeme kalkulieren Risiken mathematisch. Der menschliche Sicherheitsfahrer dagegen muss im Bruchteil einer Sekunde ethisch und intuitiv entscheiden. Soll er einem plötzlich auftauchenden Tier ausweichen und dabei einen Unfall riskieren? Oder geradeaus fahren und das System seinem Kalkül überlassen? Diese sogenannten moralischen Dilemmata beschäftigen nicht nur Ethiker – sie beeinflussen ganz konkret die Softwaretrainings von Fahrzeugen.
Ein Forscherteam des MIT Media Lab stellte bereits 2018 mit dem Projekt „Moral Machine“ weltweit ethische Unterschiede im Fahrverhalten fest. Diese Debatte hat sich seitdem verschärft, da mit KI-basierter Entscheidungsmodellierung neue Dimensionen erreicht werden. Doch solange Menschen im Entscheidungsloop bleiben – was im Testbetrieb und teils auch bei Level-3-Fahrzeugen der Fall ist – bleibt die finale Verantwortung individuell.
Sicherheitssysteme und Standards – was die Technik kann (und was nicht)
Zur Absicherung setzen die meisten autonomen Fahrzeuge auf eine Kombination verschiedener Technologien: LiDAR, Radar, Kamerasysteme, GPS-gestützte Positionsbestimmung, High-Definition-Karten und neuronale Netze zur Mustererkennung. Doch keine dieser Komponenten ist allein fehlerfrei. Vielmehr ist es das Zusammenspiel – kombiniert mit der Möglichkeit menschlicher Kontrolle –, das für operative Sicherheit sorgt.
Weltweit arbeiten Normungsgremien wie die ISO oder das deutsche VDA-Komitee an Standards für autonome Systeme. Die ISO 21448 (Safety of the Intended Functionality, SOTIF) adressiert beispielsweise Risiken aus unzureichenden Sensorwahrnehmungen. Ergänzend definiert die SAE J3016 die verschiedenen Automatisierungsstufen. Doch auch die sicherste Technik benötigt ein Sicherheitsnetz – und das bleibt oftmals menschlich.
Drei Handlungsempfehlungen für Entwickler, Betreiber und Entscheider
- Sicherheitsfahrer professionell ausbilden: Trainings sollten über Fahrsicherheit hinausgehen und psychologische, technologische und ethische Module enthalten.
- Redundanz und menschliche Eingriffsmöglichkeiten sichern: Auch bei hochentwickelten Systemen muss jederzeit ein manueller Eingriff möglich und wirksam sein.
- Kommunikation und Transparenz stärken: Offenlegung von Disengagement-Daten und klare Rollendefinitionen erhöhen Vertrauen bei Nutzern und in der Öffentlichkeit.
Der Blick nach vorn – Mensch und Maschine im Gleichklang
Der Sicherheitsfahrer ist kein Relikt einer Übergangszeit, sondern das personifizierte Sicherheitsnetz in einem hochkomplexen Prozess der Mobilitätsveränderung. Während Unternehmen daran arbeiten, vollständig fahrerlose Systeme zu realisieren, steht fest: Ohne den Menschen im Loop ist die Sicherheitsarchitektur autonomer Mobilität derzeit unvollständig.
Der Weg zum vollautomatisierten Verkehr wird auch künftig in Etappen verlaufen – mit dem Menschen als aktiven Begleiter, nicht als störenden Faktor. Wer Verantwortung ernst nimmt, integriert diesen Faktor bewusst und reflektiert in seine Systementwicklung. Diskutieren Sie mit: Welche Rolle sollte der Mensch in KI-gesteuerten Systemen noch spielen – und wo liegt die Grenze der Automatisierung?




