Ethikkommission legt Leitlinien für Roboterautos vor
Ethische Regeln fürs autonome Fahren
Schuld, Verantwortung, Moral - kennen Computer nicht. Doch wenn sie Auto fahren, brauchen sie Regeln. Die Ethikkommission fürs autonome Fahren hat Vorschläge erarbeitet.
Berlin – Manchmal geht es beim Autofahren um Leben und Tod. Klingt dramatisch, ist aber so. Mit dem autonomen oder automatisierten Fahren ergeben sich daraus neue ethische Fragen. Wo der Mensch nur reagieren kann, hat der Computer Zeit zu „entscheiden“. Er kann ausrechnen, ob er den Vordermann im Auto anfährt oder ausweicht und den Fußgänger auf dem Bürgersteig erwischt.
Damit es im Zweifel nur verbogenes Blech und keine gebrochenen Knochen gibt, hat Verkehrsminister Alexander Dobrindt eine Ethikkommission eingesetzt. Die sollte ethische Richtlinien erarbeiten und hat jetzt ihren Bericht vorgelegt.
Es sind keine 10 Gebote geworden und auch keine 95 Thesen, aber immerhin 20. Gleich zu Anfang stellt die Kommission klar, dass es beim automatisierten und autonomen Fahren vor allem darum geht, die Verkehrssicherheit zu erhöhen. Und zwar die „aller Beteiligten“. Dabei soll der Schutz von Menschen „Vorrang vor allen anderen Nützlichkeitserwägungen“ haben.Nach Auffassung des ehemaligen Bundesverfassungsrichters Udo Di Fabio, der die Kommission geleitet hat, sind damit „erste Leitlinien entwickelt, die eine Zulassung automatisierter Fahrsysteme erlauben.“ Er verweist auf die „besonderen Anforderungen“, die Sicherheit, Menschenwürde und persönliche Entscheidungsfreiheit sowie Datenautonomie betreffen.
Fünf Kernpunkte destilliert das Verkehrsministerium aus den 20 Thesen. Wir erklären, was sie bedeuten:
Förderung autonomen Fahrens
- Automatisiertes und vernetztes Fahren ist ethisch geboten, wenn dadurch weniger Unfälle passieren als mit Menschen am Steuer.
Die Bundeskanzlerin hatte es bereits vor einer knappen Woche angedeutet: Sie gehe davon aus, dass man in 20 Jahren nur noch „mit Sondererlaubnis selbständig Auto fahren“ dürfe. Aus der These der Ethikkommission ergibt sich eine Pflicht, das autonome Fahren zu fördern. Jedenfalls dann, wenn die autonomen Systeme die Sicherheit erhöhen. „Ich bin überzeugt davon, dass wir in 20 Jahren keine 3.000 Tote im Straßenverkehr mehr haben werden“, sagt Di Fabio.
Menschen gehen immer vor
- Im Zweifelsfall heißt es: Sachschaden geht vor Personenschaden. Der Schutz des menschlichen Lebens hat höchste Priorität.
Bei einem unvermeidlichen Unfall sollen Computerautos lieber eine Laterne oder ein Reh umfahren als einen Menschen. Für die Hersteller bedeutet das, dass sie ihre Systeme entsprechend programmieren müssen. Sie müssen „im Rahmen des technisch Machbaren“ so angelegt werden, dass Tier- oder Sachschäden in Kauf genommen werden, wenn es einen Konflikt gibt.
Und wenn es Mensch gegen Mensch steht?
- Ist ein Unfall mit Personenschaden unvermeidlich, dürfen persönliche Merkmale wie Alter, Geschlecht, körperliche oder geistige Konstitution keine Rolle spielen.
Die Kommission stellt fest, dass die Unfallvermeidung absolute Priorität haben muss. Ist der Zusammenstoß nicht vermeidbar, wird es schwer. Dass autonome Systeme die Entscheidung eines menschlichen Fahrers ersetzen oder vorwegnehmen können, glaubt die Kommission nicht.
Ein Beispiel: Wer als Autofahrer einen Menschen tötet, um einen anderen zu retten, würde rechtswidrig handeln. Vor Gericht würde er unter Umständen trotzdem freigesprochen, weil seine Handlung als nicht schuldhaft angesehen würde. Ein solches Urteil ließe sich jedoch nicht in eine entsprechende Programmierung umwandeln. Allerdings könnte laut der Kommission „eine Programmierung auf die Minimierung der Opfer (…) gerechtfertigt werden“.
Die Kommission empfiehlt die Schaffung einer öffentlichen Einrichtung, die Unfalldaten beim autonomen Fahren sammelt und systematisch verarbeitet.
Wer haftet bei einem Unfall?
- Es muss immer klar dokumentiert und gespeichert werden, ob der Computer oder der Mensch am Steuer saß.
Die Kommission klärt diese Frage recht eindeutig: Sitzt der Mensch am Steuer, haftet er. Fährt der Computer, haftet der Hersteller. Ist die vernetzte Infrastruktur schuld, hängt es an deren Betreiber. Hier sollen die „gleichen Grundsätze wie in der übrigen Produkthaftung“ gelten. Die Hersteller oder Betreiber werden also verpflichtet, ihre Systeme „fortlaufend zu optimieren und auch bereits ausgelieferte Systeme zu beobachten und zu verbessern“.
Dazu muss nicht nur gespeichert werden, wer gerade fährt, sondern auch, wann die Übergabe zwischen Technik und Mensch stattfindet. Oder hätte stattfinden sollen. Die Kommission empfiehlt eine internationale Standardisierung der Übergabevorgänge. Abrupte Übergaben sollen „praktisch ausgeschlossen“ werden.
Herr über die Daten
- Der Fahrer muss über die Weitergabe und Verwendung seiner Fahrzeugdaten entscheiden können.
Hier will die Kommission vor allem ausschließen, dass die notgedrungen gesammelten Daten nicht gegen den Willen der Autofahrer genutzt werden. Die Weitergabe der Daten für geschäftliche Zwecke soll nur freiwillig erfolgen. „Einer normativen Kraft des Faktischen, wie sie etwa beim Datenzugriff durch die Betreiber von Suchmaschinen oder sozialen Netzwerken vorherrscht“ solle frühzeitig entgegengewirkt werden.
Was passiert jetzt?
Verkehrsminsiter Dobrindt sieht in dem Bericht der Ethikkommission „Eckpfeiler für nationale und internationale Regelwerke“. Faktisch handelt es sich aber nur um Empfehlungen.
Bis die aktuell werden, wird es noch etwas dauern. Die Leitlinien der Kommission legen ihren Fokus auf die Stufen 4 und 5 des autonomen Fahrens. Also erst, wenn der Fahrer zumindest in bestimmten Situationen das Auto sich selbst überlassen kann, werden die ethischen Leitlinien relevant. Aktuell gibt es noch keine Serienfahrzeuge, die Stufe 3 beherrschen. Vorerst bleibt der Fahrer in der technischen und ethischen Verantwortung.
Den kompletten Bericht der Ethikkommission mit allen 20 Thesen findet Ihr hier (pdf)
Quelle: Mit Material von dpa
Würfeln. Bei der Entscheidung "Leben gegen Leben" soll das Auto per Zufallsgenerator entscheiden.
Alles andere ist ethisch zumindest fragwürdig.
Völlig lächerlich. Die Kommission hat die offensichtlichen Regeln noch mal klar gestellt und die schwierigen, wichtigen nicht. Damit "tun sie sich schwer".
http://moralmachine.mit.edu
Wer nicht selber fahren will, der soll halt Zug oder Bus fahren. Solange die Fragen von dem Link nicht geklärt sind, bin ich n absoluter Gegner von autonomen Fahrzeugen.
Das ist alles richtig und wichtig, für mich muss aber der Eigenschutz bzw. der Schutz der Insassen immer an oberster Stelle stehen.
Die meisten Unfälle, bei denen unbeteiligte Personen zu Schaden kommen beruhen auf Unachtsamkeit oder riskantem bzw. rücksichtslosem Verhalten - ein selbstfahrendes Auto legt solche Verhaltensweisen nicht an den Tag. Daher halte ich das für richtig. Einfach mal angenommen, das Auto fährt mit 100km/h über die Landstraße, und plötzlich rennt eine Person auf die Straße. Rechts der Straße steht ein Baum, auf der Gegenfahrbahn kommt ein LKW.
Ein Mensch hat in solchen Situationen nicht die Möglichkeit, eine rationale Entscheidung zu treffen und kann noch viel weniger die Folgen der verschiedenen möglichen Unfallszenarien abschätzen - er handelt impulsiv. Ein Computer hingegen kann das.
Angenommen, ich, der Insasse des Autos, würde bei der Kollision mit dem Baum oder dem LKW höchstwahrscheinlich ums Leben kommen. Der Computer muss dann die Person überfahren - das Auto selbst hat ja keinen Fehler gemacht, der zu dieser Situation geführt hat.
Ich werde mich jedenfalls nie in ein Selbstfahrendes Auto setzen, solange dieses in der Lage ist, mein Leben gegen andere Faktoren abzuwägen und im Zweifelsfall sich zu entscheiden, mich umzubringen.
"...Die Bundeskanzlerin hatte es bereits vor einer knappen Woche angedeutet: Sie gehe davon aus, dass man in 20 Jahren nur noch „mit Sondererlaubnis selbständig Auto fahren“ dürfe..."
Bullshit. Sorry.
Das ist lächerlich, Bus und Bahn sind für einen Großteil der Mobilitätsaufgaben völlig ungeeignet.
Genauso lächerlich ist auch diese Ethikdebatte, mit irgendwelchen an den Haaren hergezogenen Beispielen bei denen es überhaupt kein richtig und kein falsch gibt.
...ist doch heute schon so, nennt sich Führerschein.
Völlig zustimm... Das Auto soll machen was ich als Mensch auch machen würde - Erstmal nach meinem eigenen Überleben schauen und dieses über außenstehende stellen (Nennt sich Überlebensinstinkt 😉)
Vor allem wenn das Auto richtig gefahren ist und nichts für die Situation kann, lieber den Verursacher erwischen der für die Situation gesorgt hat, als mich.
Eiskalt, aber wahr...
Dass diese Umfrage sehr einfach gehalten ist, ist gleichermaßen gut, aber auch schlecht.
Warum? Die Auswahlmöglichkeiten sind mir zu einfach gestrickt.
Tot oder tot, das ist hier die Frage? Solche Situationen kommen meiner Meinung nach selten bis nie zum Tragen, sollten es zumindest nicht im öffentlichen Straßenverkehr, wenn ein autonomes Auto unterwegs ist.
Erstens gibt es dann in 99 % der Fälle die Variante 3 und dass Insassen getötet werden, sollte so gut wie nie zum Tragen kommen - dann hat das System nämlich grundlegend versagt und sollte statt ein passendes "Ziel" (= geringeres Übel) zu suchen, lieber schon vorher rechts rangefahren sein.
Diese Umfrage vermittelt für mich das Bild als hätte das autonome Fahrzeug die Kontrolle verloren, die Bremse würde nicht funktionieren und es käme mit 100 km/h angeschossen. Dafür braucht es Lösungen, meinetwegen zweifach redundante und diversitäre Systeme und sobald eines ausfällt, ist die Karre lahmgelegt. Das wäre meine Folgerung.
Nicht "wer hat draufzugehen", sondern "wann muss das Fahrzeug von sich aus die Fahrt beenden" bzw. wie schließt es solche Szenarien aus.
Ich sehe dabei aber auch das "einfache" Problem. Woher weiß das Auto in jedem Fall, dass es sich um einen Menschen handelt oder eben nicht?
Wärmebild + Umriss + Bewegung + ?
So richtig wohl würde ich micht nicht fühlen, allein weil man dem Auto - falls die IT-Sicherheit nicht zu 100,00 % gegeben ist - auch die Erkennung einfach umkehren kann. Dann heißt es nämlich nicht mehr "Fußgänger = Anhalten" sondern "Fußgänger = Draufhalten". Ein einzelner Terminator ist ein Dreck gegen eine Autoflotte (z. B. wenn jemand die Kontrolle über 2 Mio Car-Sharing-Autos oder alle Modelle des Herstellers XY übernimmt).
Die Autos sind nämlich überdies unberechenbar - man könnte jedes Fahrzeug von jetzt auf gleich, zeitversetzt oder rein zufällig verwenden. Dann weiß man morgens nicht, ob das eigene Fahrzeug... man kennt weder den Ort noch die Zeit, man weiß nicht ob, nur dass es passieren könnte?!
Ethische Regeln?! Würde ich hinten anstellen. Redundanz, zwei oder dreifach und Diversifzierung der Systeme, überdies eine IT-Sicherheit, die man sich heute noch gar nicht ausmalen kann und dann derart defensiv fahren, dass erst gar keine Unfälle passieren können (u. a. gar keine zulässigen Höchstgeschwindigkeiten ausreizen (!)).
Bin ich solz auf unsere analog gesteuerten Kernkraftwerke. 😱 😊
PS:
Ich hoffe meine größtenteils "blind" getroffenen Entscheidungen verfälschen die Studie nicht allzusehr.
PPS:
Dass man Autos gezielt antrainiert Menschen zu erkennen, das ist schon nicht schlecht. Wobei... fast jede Kamera kann Gesichter erkennen, jedes Handy Stimmen. Wie nahe sind wir eigentlich schon dem eigenen Untergang?
Vor allem zwei Dinge fallen mir zu diesem Bericht ein:
1.) Die "Katze" wird schön langsam aus dem Sack gelassen!
"Scheibchenweise" erfolgen nun mehr oder weniger dezente Andeutungen, die darauf hinauslaufen, dass hier eine scheinbar schon lange festgelegte Agenda beinhart und gegen jeden Widerstand verfolgt werden wird. Es geht ganz eindeutig nicht um "Assistenz"systeme und die "Option" des automatisierten Fahrens sondern am Ende soll ganz einfach der alternativlose Zwang für alle Verkehrsteilnehmer stehen.
"Vehikel" dazu diesmal die Anzahl der Straßenverkehrsopfer - deren Anzahl ja in Wahrheit ohnehin in den letzten rund 30 Jahren gewaltig gesunken ist ... Vergleichbar für mich ist das Ganze mit dem Totschlagargument der Terrorgefahr als "Türöffner" für allerlei Überwachungsphantasien.
2.) Keinerlei neue Erkenntnisse zur (vielleicht einzigen) wichtigen Frage ...
Beim Punkt "Und wenn es Mensch gegen Mensch steht? "versucht man sich mit allerlei Beschwichtigungen, Ausflüchten und dem "auf die lange Bank schieben" eher unbeholfen aus der Affaire zu ziehen.
Genau andersherum sollte es sein.
Wenn ich mich ins autonome Fahrzeug setzte, um mich von diesem wohin fahren zu lassen, dann sollte mir bewusst sein, das ich ein Risiko eingehe. Nämlich jenes, das dieses Fahrzeug in eine Unfallsituation geraten kann.
Und da kann es nicht sein, das durch algorithmische Entscheidungen, Menschen gefährdet werden, die eben nicht freiwillig dieses Risiko eingegangen sind.
Oder fährst du auch freiwillig eine eine Personengruppe am Fahrbahnrand, weil du dem Unfallgeschehen, unmittelbar vor dir, nur auf diese Art ausweichen kannst?
Bei einer von CDU/CSU eingesetzten Ethik-Kommission bedarf es für die Beantwortung dieser Frage keinen Zufallsgenerator.
Gerettet wird, wer
- mehr Parteispenden zahlt (Dank vollkommener Überwachung und Echtzeit-Datenabgleich mit einem Bundesserver ist es kein Geheimnis, wer im anderen Auto sitzt. Dazu sind ja deutsche Autohersteller gern gesehene Spender der CDU, wodurch auch die Automarke ihren Anteil zur Aufklärung beiträgt).
- mehr Steuern zahlt (siehe vorheriger Punkt).
- das deutsche Gesundheits-, Arbeitslosen- und Rentensystem weniger belastet (Siehe vollkommene Überwachung. Dazu sieht man ja, wer alt oder krank ist und nur noch kassiert, statt zahlt).
Eine nicht ganz triviale Frage ist allein schon wie schnell ein autonomes Fahrzeug an einer Personengruppe überhaupt vorbeifahren darf.
Zulässige Höchstgeschwindigkeit? Ganz sicher nicht!
Sobald sich Kinder am Straßenrand befinden, müsste das Auto eigentlich auf Schrittgeschwindigkeit verzögern, weil es nicht ausschließen kann, dass das Kind vor die Haube läuft.
Oder darf ein Auto eine Gefährdung eingehen, wenn diese vom Menschen ausgeht? Das Kind darf nicht auf die Straße laufen, also darf es auch mit echten 50 km/h nur 20 cm entfernt dran vorbeifahren?
In solch einer Situation geht selbst mancher Autofahrer ganz bewusst vom Gas, nur dass der Autofahrer (bewusst oder unbewusst) das Risiko eingeht, dass das Kind losläuft und er weiß, dass er auch mit "nur" 30 km/h ab Punkt X nicht mehr bremsen kann. Ein Auto darf doch gar nicht selbst entscheiden, dass das Kind nicht plötzlich losläuft oder darf es diese Möglichkeit einfach ausschließen?
Im Endeffekt sind wir bei den Robotergesetzen, denn nichts anderes ist ein autonom fahrendes Auto, das solche Entscheidungen trifft:
https://de.wikipedia.org/wiki/Robotergesetze
Nur dass ein Auto aufgrund seiner Motorleistung und seiner Masse und der Technik ganz allgemein den Robotern schon heute meilenweit voraus ist. Es kann keine Waffen bedienen, es kann keine Treppen steigen, nicht über Hindernisse klettern, nicht schwimmen und nicht in Häuser eindringen (generell durch Öffnungen, die schmäler als ca. 1,8 m sind), aber sonst steht dem Auto die Welt quasi "offen".
Mit der Erkennung von Personen, Routen, Verkehrsgegebenheiten und vielem mehr mag ein Auto zwar noch nicht selbst denken können, man kann ihm aber sehr wohl eine "Idee" einsetzen.
Nur mit Ethik im Falle eines "kleinen Unfalls" (überfährst du lieber a oder b) hat das eigentlich nichts mehr zu tun.
Vielleicht denke ich aber auch schon wieder zu weit, überschätze die Technik und deren Möglichkeiten.
😉
Schade, dass erst einer oder mehrere Menschen von einem fahrenden Computer getötet werden müssen, damit diejenigen, die uns mit Gewalt das Steuer aus der Hand zerren wollen, auch raffen, was für ein Hirnfurz das ist.
Es ist bestimmt ein unvergessliches Erlebnis für die Angehörigen, wenn die Auswertung der Blackbox nach einem tödlichen Unfall ergibt:
"Der Computer hatte die Wahl, Ihre 10jährige Tocher umzufahren oder den 47jährigen Herrn, der überlebt hat. Er hat sich leider für Ihre Tochter entschieden - mein Beileid"
Sobald genau dies so (oder so ähnlich) passiert, wird ein unglaublicher Shitstorm losbrechen, der sich beim nächsten Vorfall dieser Art noch vervielfacht.
Es ist ganz einfach: Menschen machen Fehler. Auch Fehler, die andere versehentlich töten. Das ist bekannt, das war schon immer so, das kann der Mensch verzeihen. Dem Computer hingegen wird man solche Fehler nicht verzeihen.
Man muss sich das mal auf der Zunge zergehen lassen: Wir legen mit diesen "Plänen" das Schicksal eines jeden, der im Strassenverkehr unterwegs ist, in die Hände von Millionen mobilen Computern, die eine "Waffe" (das Auto ist eine Waffe, wie in div. DIskussionen immer so gerne herausgestrichen wird) führen. Diese Computer werden von profitgierigen Konzernen programmiert, die heute schon bescheissen, tricksen, heucheln, beschönigen, lügen, unterlassen und vertuschen, so gut sie können - WER ZUM TEUFEL WILL SOWAS?
Das wird es sein.
Wenn Technik wirklich so intelligent wäre, wie mancheiner es berschreibt (von träumt 😆), warum wurden Fluglotsen noch nicht von Computern ersetzt?
Das Problem wird immer bleiben, das Technik keine Intuition besitzt und nie besitzen wird.