Firmenchef Elon Musk versprach diese Woche abermals selbstfahrende Tesla-Autos. (Urheber/Quelle/Verbreiter: Soeren Stache/dpa-Zentralbild/dpa)

Die US-Verkehrsbehörde hat ein neues Ermittlungsverfahren zu Teslas Fahrassistenzsystem «Autopilot» eingeleitet. Sie geht dabei der Frage nach, ob ein «Autopilot»-Update von Dezember ausreicht, um die Sicherheitsbedenken der Behörde auszuräumen. Die NHTSA (National Highway Traffic Safety Administration) war in einer mehrjährigen Untersuchung zu dem Schluss gekommen, dass «Autopilot» es Fahrern zu leicht machte, die Kontrolle komplett dem System zu überlassen, obwohl sie ständig die Verkehrslage im Blick behalten müssen.

Die NHTSA analysierte insgesamt 956 Unfälle aus dem Zeitraum von Januar 2018 bis August 2023. Bei 29 davon gab es Tote. In vielen Fällen seien die Unfälle vermeidbar gewesen, wenn die Fahrer aufgepasst hätten, betonte die Behörde in ihrem Bericht. So sei bei 59 von 109 Zusammenstößen, zu denen es genug Daten für eine solche Analyse gebe, das Hindernis mindestens fünf Sekunden vor dem Unfall sichtbar gewesen. Als ein Beispiel nannte die NHTSA einen Unfall im März 2023, bei dem ein Minderjähriger, der einen Schulbus verließ, von einem Model Y angefahren und schwer verletzt wurde. 

Lücken in Teslas Sammlung von Fahrzeugdaten

Tesla hatte mit dem als offizielle Rückrufaktion durchgeführten Online-Update unter anderem zusätzliche Hinweise für die Fahrer eingeführt. Der Elektroauto-Hersteller weist zwar darauf hin, dass «Autopilot» einen Tesla nicht zu einem selbstfahrenden Auto mache und die Menschen am Steuer jederzeit bereit sein müssten, die Kontrolle zu übernehmen. Schon die US-Unfallermittlungsbehörde NTSB warnte aber, dass Fahrer sich zu sehr auf die Technik verließen.

Die NHTSA stellte in ihrem Bericht zugleich fest, dass es Lücken in Teslas Sammlung von Fahrzeugdaten gebe, durch die die tatsächliche Zahl von «Autopilot»-Unfällen schwer zu ermitteln sei. So bekomme der Autobauer Unfalldaten größtenteils nur, wenn Airbags oder Gurtstraffer ausgelöst würden.

Das passiere aber nach der allgemeinen Unfallstatistik von 2021 nur bei 18 Prozent aller der Polizei gemeldeten Zusammenstöße. Außerdem sei eine Voraussetzung für die Datenübertragung an Tesla, dass ein Mobilfunk-Netz vorhanden sei und die Antenne nach dem Unfall funktioniere. Elektroautos brennen nach Unfällen in vielen Fällen aus, weil Batterien in Flammen aufgehen. 

Kritik an Bezeichnung «Autopilot»

Die Verkehrssicherheitsbehörde NHTSA kritisierte auch den Namen des Systems. Die Bezeichnung «Autopilot» könne Fahrer dazu verleiten, die Fähigkeiten der Software zu überschätzen und sich auf sie zu verlassen. US-Autofahrer können aktuell eine fortgeschrittene «Autopilot»-Version mit dem Namen «Full Self-Driving» (komplett selbstfahrend) als Test-Version nutzen.

Auch FSD macht die Wagen allerdings offiziell nicht zu einem autonomen Fahrzeug und sieht permanente Aufmerksamkeit des Menschen vor. Tesla ergänzte den Namen jüngst mit dem Zusatz «beaufsichtigt» in Klammern. Firmenchef Elon Musk versprach diese Woche abermals tatsächlich selbstfahrende Tesla-Autos. Anfang August will er ein Robotaxi vorstellen.

Das Standard-«Autopilot»-System kann das Tempo und den Abstand zum Fahrzeug davor sowie die Spur halten. Die FSD-Version soll unter anderem auch Ampeln, Stopp-Schilder und Vorfahrtsregeln auf Kreuzungen beherrschen. Die US-Senatoren Edward Markey und Richard Blumenthal forderten die NHTSA nach dem Bericht auf, den Einsatz von «Autopilot» nur auf die Straßen zu beschränken, für die das System konzipiert sei. 

Von