Autonomes Fahren: Ethikprobleme
Eine Frage auf Leben und Tod
Autonome Autos entscheiden schnell, aber gewissenlos. Was heißt das, wenn es um Menschenleben geht? Und wie reagiert das Auto bei einem unausweichlichen Crash?
Vancouver/Kanada - Technisch gesehen stehen autonom fahrende Autos kurz vor der Serienreife. Neben rechtlichen Problemen gibt es allerdings auch moralische Fragestellungen. Damit hat sich jetzt eine kanadische Initiative von Roboter-Ethikern befasst.
Darf man ein Menschenleben opfern, um ein anderes zu retten?
Für ihre Umfrage wählten die Experten des Online-Portals „Open Roboethics Initiative“ ein klassisches philosophisches Dilemma: Darf man ein Menschenleben opfern, um ein anderes zu
retten? Das Szenario sah wie folgt aus: Ein autonom fahrendes Auto mit einem Passagier fährt über eine kurvige Bergstraße und nähert sich einem Tunnel. Kurz bevor es in diesen einfährt, springt ein Mädchen auf die Straße.Wie soll sich das Roboterauto entscheiden? Soll sie das Kind überfahren, um den Passagier nicht zu gefährden? Oder weicht es dem Mädchen aus und stürzt samt Insasse in die Tiefe?
64 Prozent der Umfrageteilnehmer plädierten für die Weiterfahrt und das Überrollen des Kindes. 36 Prozent würden ein Ausweichen und den eigenen Tod vorziehen. Jeweils 50 Prozent beider Lager mussten nicht lange über ihre Antwort nachdenken. Ernsthafte moralische Schwierigkeiten bereitete die Fragestellung nur einem Viertel der Teilnehmer.
Wie soll das Fahrzeug entscheiden?
Was nach einem eher theoretischen Gedankenexperiment klingt, ist in Wahrheit ein grundlegendes Problem von autonomen Autos, mit dem sich Wissenschaftler bereits auseinandersetzen.
Dabei geht es neben der Art der Entscheidungsfindung vor allem darum, wer diese dem Fahrzeug einprogrammiert – Hersteller, Gesetzgeber oder Insasse. In der Umfrage sprachen sich 44 Prozent für den Insassen aus, 33 Prozent sehen den Staat in der Pflicht. Den Fahrzeughersteller nannten lediglich 12 Prozent.Bei der Entscheidungsfindung eines autonom fahrenden Autos geht es natürlich nicht immer um Leben und Tod. Auch in anderen Fällen muss eine Wahl getroffen werden. Wenn ein Unfall unvermeidlich ist, sollte man dann besser mit einem sparsamen oder einem spritschluckenden Auto kollidieren? Lieber mit einem versicherten oder einem nicht-versicherten Fahrzeug? Mit dem Auto eines armen oder eines reichen Halters?
Klar ist nur: Künftige Algorithmen müssen sich an etwas orientieren können, wenn es eine Wahl zu fällen gilt. Und irgendjemand muss anschließend die Verantwortung tragen.
Weitere MOTOR-TALK-News findet Ihr in unserer übersichtlichen 7-Tage-Ansicht
Ganz ehrlich, wer denkt sich sowas aus? Wieso soll das Auto mehr denken als ich? Wen jemand vor mir auf die Straße springt, wieso soll ich in Gefahr geraten? Lieber mit einem spritschluckendem Auto kollidieren? Sind da wieder Hippies am programmieren?
Weil im Gegensatz zum Menschen ein Computer je nach Lage noch genug Zeit hat verschiedenste Szenarien durchzuspielen. Der Mensch entscheidet sich in so einer urplötzlichen Lage nicht mehr bewusst sondern handelt instinktiv. Er kann es nicht besser. Ein Computer aber könnte - und darum beschäftigt man sich damit. Irgendwas muss nämlich auch der Computer tun - und wenn es Nichtstun ist. In jedem Fall ist es eine Entscheidung auf Grundlage von Berechnungen und Parametern. Und die muss man halt definieren.
Als Informatiker kann ich das Problem sehr gut verstehen. Ein Prozessor mit 1GHz Taktfrequenz kann 1Mrd Rechenoperationen pro Sekunde durchführen (wenn ich mich jetzt nicht vertan habe 😆 ). Das ist die Zeit, die ein Mensch üblicherweise zum Reagieren braucht.
Allerdings kann sich ein Computer nicht instinktiv entscheiden, so wie ein Mensch das kann, er braucht knallharte Vorgaben, die auch eiskalt umgesetzt werden. Selbst wenn da drin steht "niete alles um, um den Fahrgast nicht zu gefährden".
Das mit dem nicht-versicherten Auto etc finde ich dann doch übertrieben. Tauschen die Autos bald schon unter der Fahrt ihre Versicherungsdaten aus?
Was waren das denn für Leute in der Studie, die meinen, dass man die Prioritäten des Autos selbst festlegen können sollte. Super, ich freu mich schon auf die Schüsseln, Sicherheitsstufe auf "Egoist" gestellt.
Wird natürlich nicht passieren. Recht machen kann man es nie allen (siehe "I, Robot"), aber insg. wird die Sicherheit steigen, von daher...
Ich bin uach fürs selbst einstellen, Egoist siehste ja daran das 64% das Mädchen umgefahren hätten..
sry aber wenn ich fehlerfrei mit erlaubter Geschwindigkeit fahre und ein Kind einfach so auf dei strasse findet sehe ich nicht ein zu sterbe nur weil das Kind schlecht erzogen wurde !
Ich finde Autonomes fahren eh Käse, mich kotzt der Abstandregeltempomat ja schon gewaltig an 😆
Übrigens hätte ich bei dem Mädchen einfach nur gebremst, anstatt irgendwo die Klippen runterzustürzen 😆 Hätte es gereicht, toll. Hätte es nicht gereicht, pech gehabt, hätte das Mädchen halt noch eine Chance.
Du solltest dich ein wenig zurückhaltender äussern, nachdem du offenbar nichtmal das Thema kapierst 🙄
Die Dinger sollen ja angeblich so programmiert werden, dass sie sich an die Verkehrsregeln halten. Wenn es trotzdem zu Kollision kommt, ist folglich der Unfallgegner schuld (zumindest mit sehr hoher Wahrscheinlichkeit). Also ein Defakto-Selbstmord um einen Unfallverursacher zu schonen kommt nicht in Frage.
Oder es kommt heraus, dass man die Dinger genau aufgrund solcher Fragestellungen wie im Artikel nicht gescheit hinkriegt und sollte von dem Thema die Finger weglassen...
Oder es kommt heraus, dass die Dinger aus "Sicherheitsgründen" in allen unmöglichen Situationen auf die Bremse treten und der Insasse von der Durchschnittsgeschwindigkeit her hätte laufen können, während andere Kfz unfallfrei und ohne grob gegen die Verkehrsregeln zu verstoßen in einem Bruchteil der Zeit am gleichen Ziel sind...
notting
... es geht ja eben gerade nicht um Regeln, sondern um ethische Fragen jenseits davon (erst Recht jenseits der StVO).
Das kann man so nicht sagen. Denn diese Fragen stellen sich naturgemäss ja wegen der technischen Möglichkeiten. Ein menschlicher Fahrer hätte idR in vergleichbaren Situationen weder eine Wahl noch eine Chance, überhaupt eine Entscheidung zu treffen. Der Zufall würde mitspielen. Den Zufall gibts hier aber praktisch nicht. Es müsste also auch für solche Momente eine vorgegebene Reaktion eingebaut werden. Dies erfordert, daß man sich im Prinzip vorher festlegt, wie die Reaktion des Fahrzeugs sein sollte.
Wenn autonome Fahrzeuge langsamer sind, dann wird das vorauss. daran liegen, dass sie sich an die Regeln halten.
Ich bin dafür, das hier die 3 Regeln der Robotik von Asimov Anwendung finden. Besser kann man die Zielproblematik wohl im Moment nicht lösen.
Dem Großteil der Menschheit wird dann aber erstmal klar werden, wie unpraktikabel viele Regeln formuliert sind. Soll der gesamte Verkehr auf der Hauptstr. auf Schritttempo abgebremst werden, nur weil mal ein Kind, das sich gut an die Verkehrsregeln hält, auf dem Gehweg läuft, um "Kinder nicht zu gefährden"? Man kann ja so argumentieren, dass man das Kind ja nicht gefährdet, wenn es eben einfach so auf dem Gehweg läuft und man mit 50km/h auf der Fahrbahn dran vorbeifährt. Nur wenn das Kind plötzlich gegen Regeln verstößt, die für es gelten, wird's im Zweifelsfall den kürzeren ziehen.
Andererseits stellen sich Frage wie "Soll man Kinder quasi komplett in Watte einpacken?" (sowohl im übertragenen Sinne physisch als auch psychisch), was auch div. negative Folgen auf die Entwicklung der Kinder hat.
Wobei man auch daran erinnern muss (aber wohl niemanden interessiert), dass div. Züge, die eine viel schlechtere Bremswirkung als ein Auto haben und im Gegensatz zum Auto nie aus eigener kurzfristiger Steuerung heraus ausweichen können, vielerorts ohne jeden Zaun etc. mit ca. 80-120km/h direkt an Wohngrundstücken vorbeifahren dürfen, selbst wo auf der Straße nur 30km/h erlaubt sind 😱
Also IMHO wird das Problem bei (autonomen) Autos einfach nur aufgebauscht. Solange man nicht alles verbietet, was sich bewegt (inkl. Fahrräder) und keinen cm-dicken-Watte-Ganzkörperschutz mit Protektoren zur Pflicht macht wird es immer wieder Verletzte oder gar Tote geben. Wenn man es macht, wird man dafür andere Probleme haben, wie z. B. dass der Rettungsdienst/Feuerwehr halt zu Fuß viel länger braucht, sodass eine Verletzung oder sonstiger Notfall, die schnell behandelt kein wirkliches Problem darstellt, dadurch ein großes Problem wird.
notting
OT: Und das sollte meiner Meinung nach auch so bleiben!!
Ich finde das Szenario ist extrem unwahrscheinlich und wenn man ausweicht bekommt man eventuell Probleme mit der Versicherung. Man soll ja auch Tieren auf der Fahrbahn eher nicht ausweichen wegen eventueller Gefährdung des Gegenverkehrs und außerdem ist ein totes Tier der beste Beweis für einen Wildunfall.
Am besten macht man einfach eine Vollbremsung und hofft das keiner stirbt.
Ich gehe davon aus, dass auch Automaten in aller Regel an Kindern auf dem Gehweg einfach vorbeifahren.
Ich glaube nicht, daß das hier der Punkt ist. Kann mir aber vorstellen, dass man bei der Entwicklung eines autonomen Fahrzeugs festlegen würde, wie riskant (oder optimistisch) es sich verhält.
Das Fahrzeug wird aber wahrscheinlich vorher "wissen", ob die Bremsung noch klappt oder nicht (auch wieder so ein Unterschied).
Dann müsste man einen Zufallsgenerator im Fahrzeug einbauen, welcher (mal im Beispiel geblieben) 50:50 "würfelt" ob du stirbst oder dein Unfallgegner. Ich glaube, das ist nicht der beste Weg.