Tödlicher Tesla-Unfall: US-Behörde legt Bericht vor
Tesla-Fahrer ignorierte Warnhinweise
Im vergangenen Jahr verunglückte ein Tesla-Fahrer tödlich. Jetzt gibt es neue Erkenntnisse zu dem Fall. Der Fahrer ignorierte Sicherheitswarnungen des "Autopiloten".
Washington - Der Unfall im vergangenen Jahr erregte reichlich Aufsehen. Ein Tesla-Fahrer starb, nachdem der Autopilot offenbar einen Lkw "übersehen" hatte. Die US-Verkehrssicherheitsbehörde NTSB hat den Fall untersucht und jetzt Ergebnisse veröffentlicht. Demnach hat der Fahrer vor dem Unfall mit dem vom Computer gesteuerten Tesla-Elektroauto mehrere Warnhinweise der Software ignoriert. Daten des Fahrzeugs zeigten, dass der 40-Jährige mehrfach aufgefordert worden sei, die Hände wieder auf das Lenkrad zu legen, heißt es in den veröffentlichten Unterlagen.
Der Mann war Anfang Mai 2016 ums Leben gekommen, als sein von Teslas Fahrassistenzsystem "Autopilot" gesteuertes Auto unter einen querenden Lastwagen-Anhänger raste. Nach Tesla-Angaben hielt die Software die weiße Seitenwand des Anhängers für ein hochhängendes Autobahnschild. Der Konzern betont stets, "Autopilot" sei nur ein Fahrassistenzsystem und mache die Teslas nicht zu komplett selbstfahrenden Autos. Deshalb müssten die Fahrer stets den Überblick und die Hände am Steuer behalten. Einige Tesla-Besitzer ignorierten das jedoch und veröffentlichten sogar Videos, in denen sie die Steuerung ihrer Autos komplett der Software überlassen.
Die mehr als 500 Seiten, die von der NTSB in der Nacht zum Dienstag veröffentlicht wurden, enthalten die zusammengetragenen Ermittlungsunterlagen. Schlussfolgerungen zur Ursache wird die Behörde erst später vorlegen. Die NTSB hatte - genauso wie die Straßenverkehrsbehörde NHTSA - bereits erklärt, dass der "Autopilot" wie von Tesla beschrieben funktioniert habe. Das System soll unter anderem Spur und Abstand zum vorderen Fahrzeug halten.
Quelle: dpa
Naja, im Prinzip keine neue Information, sondern nur das was sowieso schon zu 99% sicher war.
Die Frage die bleibt, warum verhält sich das Fahrzeug so, wenn Tesla doch sehr genau weiß, das diese Technik derart missbraucht wird. In dem Fall ist zum Glück nur der Depp selber ums leben gekommen beim nächsten mal könnten es aber auch dritte unbeteiligte sein, und dann sehe ich hier durchaus eine Mitschuld von Tesla.
Soviel ich weiß fahren die Assistenzsysteme der anderen Hersteller an den Fahrbahnrand, und halten dort wenn die Aufforderungen die Hände ans Lenkrad zu nehmen mißachtet werden.
Außer man klebt eine Coladose ans Lenkrad... 😮
Ist halt die Zeit, wer macht sich schon die Mühe, die Bedienunsanleitung zu lesen?!
Gut das keine Unbeteiligten zu Schaden kamen.
Allerdings denke ich auch, dass der Wagen selbständig anhalten muss, wenn die Warnhinweise ignoriert werden. Wenn der Fahrer dann fit ist, müsste er noch mit anschließender Schleichfahrt "belohnt" werden...
Das ganze Assitenzgedöns ist eh bescheuert, entweder fahre ich oder nehme Bus, Bahn, Taxi, Flieger, Chauffeur.
Assis sollten nur zur Unfallvermeidung eingreifen können und dann auch noch vom Fahrer überstimmt werden können, wenn eine Fehlfunktion vorliegt.
Sorry, aber das ist doch ein Sinnlos-Artikel von Motor-Talk.
Es geht im konkreten Fall um den Notbremsassistenten (Längsführung), der versagt hat, weil seine Hindernis-Erkennung versagt hat. Nicht den Spurhalte-Assistenten. (Hände am Lenkrad, Querführung).
Bremsen hätte der Fahrautomat müssen. *Darum* geht's. Und das kann der mit oder ohne Hände am Lenkrad. Dass Tesla zusätzlich im Marketing Erwartungen geweckt hat, die überzogen sind/waren, kommt dann dazu. Aber die Fahrer haben sich auch nicht mit eigenverantwortlichem Training beschäftigt.
500 Seiten Untersuchungsbericht schaffen manche Flugzeugunfälle mit 200 Toten nicht mal. Da hat die NTSB aber mächtig Gas gegeben.
Untersucht jetzt die NTSB jeden Unfall mit autonomen Fahrzeugen? Die haben doch schon mit den ganzen Flugunfällen genug zu tun.
BTT: Der Abstandstempomat hat sich eine Fehlinterpretation der Situation erlaubt, was nicht weiter schlimm ist, denn dafür ist ja der Fahrer der Verantwortliche. Versäumt er, einzugreifen, hat er den Unfall verursacht und nicht das Fahrzeug.
Genau so, wie das Auto keine Schuld trägt, wenn ein platter Reifen dazu führt, dass der Wagen nach rechts zieht und irgendwann in den Graben fährt, wenn man nicht gegenlenkt.
Aber 500 Seiten...
Das ist nur fast richtig, da kann man schon eine Ewigkeit (ca. 30 Sekunden) ignorant sein, bis der Wagen (mein Skoda) mit Warnblinker rechts ran fährt.
Genau das macht auch der Tesla. 😉 Das gab es schon vor dem Unfall, die Frequenz, in der man bestätigen muss die Hände am Lenkrad zu haben wurde danach nochmal erhöht.
@topic:
Im Artikel steht ja (bis auf die Neuigkeit der enormen 500 Seiten) wirklich nichts Neues was man nicht schon wusste. Es war vom Fahrer provozierte Fehlbedienung.
Schön dass MotorTalk auch diese Information weitergibt und nicht nur die Sensationsstories abdruckt. Daumen hoch!!
Ich hatte damals auch sehr offen und mutig von Tesla gefunden, dass man sofort nach dem Unfall bekannt gab, dass das System einen Fehler gemacht hat. Nämlich indem es den LKW mit einem Überkopfwegweiser verwechselte. Wie würde die (Vertusch-)Taktik in so einem Fall bei anderen Unternehmen aussehen?
Und wie "Grasoman" schreibt: Es handelte sich eigentlich nicht um einen "Autopilot"-Unfall, sondern um einen ACC- oder Notbremsassi-Unfall, der in einem anderen Fahrzeugtyp als in einem Tesla nie so großes Aufsehen erregt hätte.
Das ist auch beim Tesla so. Kommt die Meldung am Display man soll die Hände ans Lenkrad nehmen und wird diese ignoriert, wird irgendwann die Warnblinkanlage angeschaltet und der Wagen rollt aus.
Im originalen Bericht stand aber auch dass der verunglückte Fahrer immer wieder mal für ein paar Sekunden das Lenkrad berührte um die Warnmeldungen zu resetten🙁
Wann passiert das den?
Ich habe meine ich mal ein Video gesehen wo jemand auf einer deutschen Autobahn mehrere Minuten ohne Lenkradberührung fahren konnte ohne das auch nur ein Warnsignal kam.
Dabei ist er mit Abstandstempomat und Spurhalteassistentem einem anderen Fahrzeug hinterhergefahren.
Das ist von mehreren Parametern abhängig. Geschwindigkeit, Kurvenhäufigkeit der Straße, Lesbarkeit der Markierungen, Art der Straße...nach der Verschärfung würde ich sagen so 30 Sekunden bis 1,5 Minuten bis zur ersten Warnung. Nur bei Stop-and-Go-Verkehr kommt es so gut wie nicht.
Das ist unterschiedlich, wohl abhängig von der Verkehrssituation und vom Straßenabschnitt. Ich habe noch nie auf die Uhr gesehen, schaffe es jedenfalls gefühlt maximal 2 Minuten bis zur Aufforderung.
Da autonomes Fahren ein riesen Thema ist, ist es richtig, dort auch Ressourcen rein zu stecken, wenn es nicht funktioniert hat.
Und natürlich trägt Tesla eine nicht unerhebliche Mitschuld daran. Erstens weil es ein Autopilot ist ... achne, stimmt ja gar nicht, wenn man ins Kleingedruckte schaut und zweitens weil dieses Assistenzsystem trotz Warnungen einfach weiter macht, obwohl es dazu gar nicht in der Lage ist. Das hat die Qualität des VW-Dieselgates für mich. Bewusste Täuschung.
Also 2 Minuten bis zur ersten Warnung (im Extremfall) finde ich schon häftig viel, für das bisschen was die Assistenten bisher können.
10 Sekunden bis zur Warnung, nach 20 Sekunden vom Gas gehen nach 40 Sekunden stehen bleiben, das wäre für mich eine sinnvolle Regelung.
Meiner Meinung nach müsste das auch staatlich geregelt sein, und nicht jeder Hersteller sein eigenes Süppchen kochen.
Weißt du wie nervig es schon ist, wenn dich ein Auto bei manchen langgezogenen Kurven ständig daran erinnert, die Hände ans Lenkrad zu legen, obwohl sie dort sind? Würde das schon nach 10 Sekunden erfolgen, würde ich es deaktivieren, weil mir die Meldung im KI und das fünf Sekunden später folgende "Pling" auf den Wecker gehen würde.
Es hapert ja schon daran, zu erkennen, dass meine Hände am Steuer sind. Und heute wäre ich trotz Assistent fast in den Gegenverkehr gefahren, weil ich am Navi rumgespielt hatte. Danach war ich jedenfalls wieder bei der Sache, weil es eben nur ein Assistent ist und ich weiterhin der Fahrer, auch wenn es so scheint, dass das Auto selbst fahren würde.
Es geht hier um einen Autopiloten!
Warum sollte man den einschalten, wenn man die Hände am Lenkrad hat und selbst lenkt?
Es ist hier eben schon ein gewisser Zwitter, allerdings einer, der so schlecht ist, dass er weiter 100% Aufmerksamkeit seitens des Fahrers braucht und damit eigentlich untauglich ist.