Daimler erwartet völlig autonomes Fahren nicht vor 2030
Ethische Fragen bremsen das autonome Fahren
Autos werden laut Daimler auch in naher Zukunft nicht auf den Fahrer verzichten. Bis zum autonomen Fahren müssen noch viele ethische und rechtliche Fragen geklärt werden.
Berlin - Autos völlig ohne Fahrer wird es auf deutschen Straßen nach Einschätzung von Daimler nicht vor 2030 geben. "Dazu fehlt heute noch vieles", sagte der Chef der Forschungsabteilung, Thomas Weber, am Dienstag in Berlin. Eine Art Autobahnpilot, bei dem ein Fahrer eingriffbereit am Steuer sitze, traue er der Branche aber bis 2020 zu. Während autonomes Fahren technisch fast schon möglich ist, bleiben ethische und rechtliche Fragen weiter unbeantwortet. Diese Fragen seien in den kommenden zehn Jahren für die Serienproduktion aber noch nicht relevant, betonte Weber.
Problematisch ist vor allem, dass ein autonomes Auto im Extremfall über Leben und Tod entscheiden muss. Während ein Fahrer in Gefahrensituationen spontan reagiert, müssen die Grundlagen für solche Entscheidungen in einem autonomen Fahrzeug durch Programmierer festgelegt werden.
Weitere MOTOR-TALK-News findet Ihr in unserer übersichtlichen 7-Tage-Ansicht
Das Problem ist die Entscheidung, bringe ich den Passagier oder das Kind auf der Straße um, wenn das Kind nur durch einen Unfall mit wahrscheinlichem Schaden für die Insassen gerettet werden kann.
Klare Sache, da brauchen wir gesetzliche Regelungen. Wenn sich die Hersteller der autonomen Autos aus der Verantwortung stehlen könnten, indem man das grundsätzliche Verhalten als Fahrer festlegen müßte, wäre das fatal.
Gruß Michael
Es reicht doch wenn die Autos auf der Autobahn autonom fahren und im Stadtverker umfangreich assistieren.
Das wäre ein guter Kompromiss.
Lösungsvorschlag:
wer autonom fahren will holt sich einen Maybach und einen Chauffeur - löst eine Menge Probleme und schafft Arbeitsplätze 😆
Ich hoffe nicht vor 2040 und ich hoffe nicht, dass ich dann noch lebe.
Dann gibt es nur noch Personen vom Schlage Susi Sorglos und Nobert Naiv, prost Mahlzeit.
Zu Recht müssen die ethischen und rechtlichen Fragen ausführlich, ohne Zeitdruck und - ganz wichtig - unter Einbeziehung der ganzen Gesellschaft "ergebnisoffen" diskutiert werden. Am Ende kann auch das Ergebnis stehen, dass autonomes Fahren gar nicht erlaubt wird. Die Industrie ist mE gut beraten, auch auf diesen Fall vorbereitet zu sein.
2030 ist sogar überraschend früh. So früh mag ich gar nicht dran glauben.
Man bedenke: 2020 soll ein Auto kommen, dass auf der Autobahn "meistens" autonom fahren kann. Aber bei jeder Schwierigkeit (fehlende Fahrbahnmarkierungen etc.) den Fahrer wieder in die Verantwortung nimmt. Und das sind immer noch recht leichte Rahmenbedingungen.
Man bedenke mal wie viel zusätzliche Funktionen benötigt werden um lediglich gut ausgebaute Bundesstraßen befahren zu können.
2030? Völlig autonom? Immer? Überall? Unrealistisch! Dann würden die eigenen Autos auch derart schnell veralten, dass die Kunden lieber abwarten als ein neues Modell zu kaufen.
Allein bis sich das autonome Autobahnfahren auf 10% der Neuzulassungen ausgebreitet hat, dauert es mehrere Jahre. Für 100% kann man von einem Jahrzehnt ausgehen. So schnelle Sprünge? Glaub ich nicht.
Es geht schon jetzt!
https://www.youtube.com/watch?v=SUOC8tE4bdM&spfreload=10
Tja, umgekehrt wird ein Schuh draus:
Dann bist du so alt, dass du als Selbstfahrer nicht mehr mobil wärest, dein Leben aufgeben und ins Altenheim ziehen müsstest, weil du dich nicht mehr selbst versorgen könntest.
Falls ein selbstfahrendes Fahrzeug zur Verfügung steht, dann wärst du hingegen noch in der Lage, deine Wege selbst zu bewältigen und hättest ungleich mehr Lebensqualität.
Die Fragen sind uralt und es wird sich darauf keine absolute Lösung finden lassen, da kannst du noch soviele Arbeitskreise bilden.
Man nehme die Robotergesetze von Asimov. Die klingen recht vernünftig.
Nur jetzt sitzt halt auch noch ein Mensch im Roboter aka "selbstfahrendes Auto" mit drin. Das machts kompliziert.
Man könnte ja einen Kippschalter in die Autos einbauen...drei Stufen...Egoist - Würfeln - Altruist.
Naja was heißt hier das Auto muss entscheiden ob Kind oder Passagier usw.
Wenn ich als Mensch entscheiden muss und eher falsch entscheide weil Stress und Hektik und wenn ich dann gehandelt habe und jemand dennoch tot ist wird es auch zerpflückt und geschaut: warum wieso
Es geht doch eher um die Schuldfrage im Falle des Falles. Sonst nichts.
Und den CPU einsperren wird halt nicht gehen.
Böser Bit! Böse! ab in Cyberknast 😆
Mit dem Kind auf der Straße wird schon ein einseitig emotionales Szenario gezeichnet.
Dann bitte schon: Kind auf der Straße vs. mein Kind im Auto.
Oder zurück auf die sachliche Ebene: Insassen vs. Fußgänger
Nur wird sich niemals jedes Szenario im Vorfeld klären lassen, bzw. die Routinen werden mit Wahrscheinlichkeiten rechnen und dabei wird es kompliziert:
90% Tötungswahrscheinlichkeit Fußgänger vs. 50% Tötungswahrscheinlichkeit Insasse ........
Oder weg vom WorstCase Todesfall:
Schwere Verletzung Fußgänger vs. leichte Verletzung Insasse
Auch hier wird es Wahrscheinlichkeiten Schwere Verletzung vs. leichte Verletzungen geben.....
IMHO wird das im dichten Stadtverkehr erst wirklich klappen, wenn zumindest die Fahrzeuge untereinander vernetzt sind (dazu sind wohl 20 Jahre nötig, bis alle unvernetzten Fahrzeuge verschwunden sind), inkl. Verkehrsleitsysteme, bzw. die Verkehrsstruktur dementsprechend angepasst wurde.
Aber IMHO reicht es, wenn es auf der Autobahn funktioniert und dies sollte machbar sein, bis 2030, wobei auch hier hilfreich wäre, wenn die Autos vernetzt sind (und somit jedes Fahrzeug den Verkehr davor kennt und auch ohne Sensorenhilfe drauf reagieren kann).
Eben. Die Szenarien werden, je länger man darüber nachdenkt, beliebig komplex.
Beim Kind auf der Straße wäre die Entscheidung zunächst: "Draufhalten" und Vollbremsung oder ausweichen mit möglicher Selbstgefährdung. Beim ausweichen kann es aber dann wiederum zu einer Fremdgefährdung kommen, wenn man in den Gegenverkehr oder auf den Fußgängerweg ausweicht (und dort dann einen Kinderwagen mit Zwillingen "trifft"). Was dann? Kann man wirklich alle Eventualitäten vorher beachten?
Daher würde (ich persönlich) ein Ausweichmanöver als "Lösung" gar nicht erst implementieren, sondern immer eine Vollbremsung auf der gerade befahrenen Straße ohne Änderung der Fahrtrichtung. Das ist auch physikalisch am einfachsten zu handhaben und zu berechnen.
Gesamt betrachtet würde es ja schon reichen, wenn autonome Fahrzeuge weniger Unfälle verursachen als menschliche Fahrer - 100% Sicherheit gibt's sowieso nicht.
Ich hätte jedenfalls kein Problem damit, wenn mich ein Auto daheim abholt, durch den Stau manövriert, mich vor der Arbeit 'rauslässt und sich selbst einen Parkplatz sucht (meinetwegen auch außerhalb, wo es nichts kostet).
Und so interessant das Beispiel mit "fahre ich in Kind X oder Erwachsener Y rein" ist, so irrelevant ist es eigentlich auch:
Erstens dürfte die Situation extrem (und damit meine ich: so richtig extrem) selten auftreten. Vor allem für ein autonomes Fahrzeug, das mit erheblicher Sensorik ausgestattet ist, die komplette Umgebung erfasst, immer zu 100% aufmerksam und nicht abgelenkt ist und sich an alle Verkehrsregeln hält.
Zweitens: selbst wenn der Fall auftritt, sehe ich keinen großen Unterschied zu einem menschlichen Fahrer, der in dieser Situation auch nicht rational überlegt handelt... vermutlich noch weniger als die Maschine. Dem wird hinterher auch kein Richter sagen: "nä hätten se mal lieber den Alten umgemäht". Wenn das Auto mit den richtigen Algorithmen ausgestattet ist, macht es auch nix anderes als der menschliche Fahrer: Wahrscheinlichkeiten abschätzen und die beste Möglichkeit wählen. Da habe ich ehrlich gesagt mehr Vertrauen in eine gut programmierte Maschine als in die meisten meiner Mitmenschen 😉
Und manchmal passiert halt Scheiße, und niemand kann etwas dagegen machen.
So lange die Algorithmen sauber funktionieren, passt das schon für mich (auch wenn ich natürlich nie gesagt bekommen möchte: das Auto hat deine Tochter überfahren, weil der Computer sie "ausgesucht" hat).
Viel spannender ist doch die Frage: was, wenn das nicht der Fall ist? Wenn sich irgendwo ein kleiner Programmierfehler eingeschlichen hat, der das Auto plötzlich in den Gegenverkehr lenken lässt? Oder das Auto etwas macht, das keiner vorhergesehen hat.
2030 sehe ich als absolut machbar an - vermutlich sogar ein ganzes Stück früher - die Technik ist ein beherrschbares Problem, der gesellschaftliche Diskurs wird die harte Arbeit.