Tesla: NTSB-Ermittlungen im tödlichen Crash abgeschlossen
Teslas Autopilot trägt Mitschuld
Die NTSB hat ihre Ermittlungen im Fall eines tödlichen Unfalls abgeschlossen. Der Autopilot habe richtig funktioniert, jedoch waren die Sicherheitsvorkehrungen zu lasch.
Washington - Am tödlichen Crash eines Tesla-Fahrers im vergangenen Jahr war der Autopilot mitschuld. Zu dieser Einschätzung kommen amerikanische Unfallermittler, die den Unfall untersucht haben. Die Software, die den Tesla teilautonom fahren lässt, habe zu lasche Sicherheitsvorkehrungen. Das Fahrassistenzsystem hätte nicht zulassen dürfen, dass der Fahrer es nicht wie vom Hersteller vorgeschrieben nutzt, erklärte die Untersuchungsbehörde NTSB am Dienstag.
Bei dem Unfall war Anfang Mai 2016 ein 40-Jähriger ums Leben gekommen, als sein von Teslas Autopilot gesteuertes Auto unter einen Lastwagenanhänger raste, der die Straße querte. Der Lkw-Fahrer habe ihm die Vorfahrt genommen, befanden die NTSB-Ermittler. Zugleich habe sich der Tesla-Fahrer zu sehr auf den Fahrassistenten verlassen.
Das Autopilotsystem habe zwar wie vom Hersteller beschrieben funktioniert - sei aber für diese Situation nicht konzipiert gewesen. Zugleich habe es zugelassen, dass der Fahrer nicht auf den Verkehr geachtet habe, obwohl Tesla grundsätzlich vorschreibt, dass beim Einsatz des Autopiloten der Mensch stets den Überblick behalten müsse.
Sicherheitsvorkehrungen wurden verschärft
Laut einem ersten NTSB-Bericht hatte der Tesla-Fahrer mehrere entsprechende Warnhinweise der Software ignoriert. Tesla verschärfte nach dem Unfall die Sicherheitsvorkehrungen und machte es unmöglich, die Hände für einen längeren Zeitraum vom Lenkrad zu nehmen. Der Konzern hatte stets betont, dass der Autopilotassistent einen Tesla nicht zum selbstfahrenden Auto mache. Fahrer hatten die Kontrolle jedoch immer wieder dem System überlassen, wie Youtubevideos belegten.Die NTSB (National Transportation Safety Board) untersucht neben Flugzeugabstürzen relevante Unfälle im gesamten Transportwesen der USA und formuliert Empfehlungen auf dieser Basis. Dazu gehört in diesem Fall unter anderem die Entwicklung von Systemen, die die Aufmerksamkeit des Fahrers besser im Blick behalten. Außerdem sollten Daten zu Verkehrsereignissen in standardisierten Formaten gespeichert werden, hieß es.
Quelle: dpa
"Tesla verschärfte nach dem Unfall die Sicherheitsvorkehrungen und machte es unmöglich, die Hände für einen längeren Zeitraum vom Lenkrad zu nehmen." - Na so ein Quatsch. Ich könnte immer noch stundenlang fahren ohne einmal auf die Straße zu schauen. Es reicht gelegentlich am Lenkrad zu wackeln, mit der Hand oder dem Knie.
ich warte schon darauf bis man den ersten App- oder Handyhersteller Mitschuld an einem Verkehrsunfall gibt. Schliesslich lenkt so ein WhatsApp auf einem Iphone schon sehr vom Verkehr ab.
Das ist dann aber grober Vorsatz und so ein unverantwortliches Verhalten mendelt sich dann irgendwann automatisch raus. Das geht aber bei allen anderen Herstellern entsprechender Assistenz-System auch, bei einigen reicht es, eine halbvolle Cola-Flasche ins Lenkrad zu klemmen, damit es die Assistenten nicht abschaltet.
Ist jetzt kein spezielles Tesla-Problem.
Autopilot heißt doch, dass das Auto von selbst fährt. Was Tesla anbietet, ist maximal ein Co-Pilot. Unverständlich, warum Tesla mehr verspricht, als man liefern kann.
Wahrscheinlich regieren auch bei Tesla die Marketingschreier.
Naja, nach dieser Logik müßten Sie auch einen Hammer-Hersteller verklagen an der Mitschuld an einem Mord, der mit dem Hammer aussgeführt worden ist (er hat ja den Hammer schließlich ehrgestellt). Wenn Sie ein Ding (egal, ob Hammer, Auto oder Mikrowelle) entgegen der Betriebserlaubnis und entgegen dem gesunden Menschenverstand benutzen, dann können Sie in der Regel schwerlich den Hersteller dafür verantworlich machen, wenn Sie grob fahrlässig ein Gerät zweckentfremden.
Aber nichtsdestotrotz hat ja Tesla trotzdem gleich nach dem Unfall reagiert und die Möglichkeiten des Mißbrauchs deutlich eingeschränkt. Sie sagten, sie hätten nicht damit gerechnet, daß die Nutzer so verantwortungslos wären. Da waren sie etwas zu blauäugig...
Weder im Internet nocht beim Verkaufsgespräch noch bei der täglichen Aktivierung des System noch in der Betriebsanleitung steht, daß das Auto damit komplett autonom fahren kann. Es wird von allen und überall erwähnt, daß es sich um eine Assistenzsystem handelt, daß dauerhaft vom Fahrer überwacht werden muß. Wenn das der Fahrer nicht macht, tja, ...
Oder glauben Sie auch, daß ein Allesschneider-Messer tatsächlich alles schneiden kann? Steine? Stahlträger?
Und wenn sie den Tesla-Autopilot mit dem Flugzeug-Autopilot vergleichen, dann macht der von Tesla exakt dasselbe, was der im Flugzeug macht. Eingestellten Kurs geradeaus folgen. Er kann keinem Berg oder anderem Flugzeug ausweichen, sondern muß dauerhaft vom Piloten überwacht werden.
Das ist dann aber grober Vorsatz und so ein unverantwortliches Verhalten mendelt sich dann irgendwann automatisch raus. Das geht aber bei allen anderen Herstellern entsprechender Assistenz-System auch, bei einigen reicht es, eine halbvolle Cola-Flasche ins Lenkrad zu klemmen, damit es die Assistenten nicht abschaltet.
Ist jetzt kein spezielles Tesla-Problem.
Grober Vorsatz klar, aber nicht mehr oder weniger Vorsatz als vor dem Update.
Der Mensch sollte die Technik beherrschen und nicht die Technik den Menschen.
Autonomes Fahren ist wie Planwirtschaft - man überläßt das Denken und entscheiden dem Führungsstab.
Jeder wie er will :-)
Das ist halt leider so, auch bei Mercedes, BMW oder Audi. Eine kleine Bewegung reicht da schon aus.
Erst der Cadillac CT6 mit dem Super Cruise System behält den Fahrer wirklich via Kamera im Auge.
Schon ein bischen was verpasst: 😉
https://www.heise.de/.../...le-nach-toedlichem-Autounfall-3583052.html
Gruß Metalhead
Und wenn ich dann sowas lese frage ich mich wie soll es jemals möglich sein das selbstfahrende Autos durch die Gegend rollen, womöglich wirklich noch ohne Lenkrad wo man sich 100% auf die Technik verlassen muss.
Es ist quasi unmöglich ein Auto 100% Idiotensicher zu bauen und die KI dazu zu programmieren. Damit so etwas funktioniert dürften Fußgänger keinerlei Möglichkeit haben in den fließenden Verkehr einzugreifen und sämtliche Fahrzeuge müssten Autonom unterwegs sein und miteinander komunizieren können. Dann bleibt immer noch ein Restrisiko, z.b. Software oder Hardwarefehler.
Klar ist diese Sichtweise recht krass und man könnte sagen dass das Leben an sich ja schon gefährlich ist. Doch würde ich behaupten das viele das eben so sehen, auch die Entwickler dürften zustimmen. Das ist wie bei Schlössern, egal wie sicher es auch sein mag, wenn man es zuschließen kann findet sicher immer irgendjemand der es auch wieder aufbekommt ohne das er den Schlüssel besitzt.
Ich für meinen Teil bin froh das mir mein Auto keinerlei Vorschriften macht und nicht eingreift. Assistenten die im Notfall unterstützen sind eine gute Sache und da kann man gerne weiterentwickeln das sie immer besser werden. Alles andere nicht
Autopilot bedeutet doch nicht, dass es unabhängig funktioniert... Siehe Flugzeug
Ansonsten hat hier halt Darwin zugeschlagen...
Die Dummen sterben nie aus, keine Sorge.
Es dauert auch noch bis lvl5.
Es ist ja auch ein Teufelskreis, irgendwie. Die Technik entwickelt sich immer weiter, immer mehr wird automatisiert und hilfreicher, so das die Leute immer weniger machen müssen und immer weniger Denken müssen. Eigentlich soll die Technik unterstützen und hilfreich sein, stattdessen verdummt anscheinend die Mehrheit durch die Nutzung. "Smombies" sind doch ein schönes Beispiel dafür, die Technik ist gut doch die Art wie damit umgegangen wird ist abgrundtief dämlich. Aber statt das die Leute halt die Konsequenz daraus ziehen müssen wird gesagt: "Das ist die Zukunft, so entwickelt sich das, also lass uns für Idioten Ampeln in den Boden bauen. Der Umwelt die Aufmerksamkeit zu schenken ist ja nicht zumutbar"
Da möchte man teilweise pausenlos Backpfeifen verteilen wenn man sich umschaut