Schuld, Verantwortung, Moral - kennen Computer nicht. Doch wenn sie Auto fahren, brauchen sie Regeln. Die Ethikkommission fürs autonome Fahren hat Vorschläge erarbeitet.
Berlin – Manchmal geht es beim Autofahren um Leben und Tod. Klingt dramatisch, ist aber so. Mit dem autonomen oder automatisierten Fahren ergeben sich daraus neue ethische Fragen. Wo der Mensch nur reagieren kann, hat der Computer Zeit zu „entscheiden“. Er kann ausrechnen, ob er den Vordermann im Auto anfährt oder ausweicht und den Fußgänger auf dem Bürgersteig erwischt. Damit es im Zweifel nur verbogenes Blech und keine gebrochenen Knochen gibt, hat Verkehrsminister Alexander Dobrindt eine Ethikkommission eingesetzt. Die sollte ethische Richtlinien erarbeiten und hat jetzt ihren Bericht vorgelegt. Quelle: dpa/Picture Alliance Es sind keine 10 Gebote geworden und auch keine 95 Thesen, aber immerhin 20. Gleich zu Anfang stellt die Kommission klar, dass es beim automatisierten und autonomen Fahren vor allem darum geht, die Verkehrssicherheit zu erhöhen. Und zwar die „aller Beteiligten“. Dabei soll der Schutz von Menschen „Vorrang vor allen anderen Nützlichkeitserwägungen“ haben. Nach Auffassung des ehemaligen Bundesverfassungsrichters Udo Di Fabio, der die Kommission geleitet hat, sind damit „erste Leitlinien entwickelt, die eine Zulassung automatisierter Fahrsysteme erlauben.“ Er verweist auf die „besonderen Anforderungen“, die Sicherheit, Menschenwürde und persönliche Entscheidungsfreiheit sowie Datenautonomie betreffen. Fünf Kernpunkte destilliert das Verkehrsministerium aus den 20 Thesen. Wir erklären, was sie bedeuten: Förderung autonomen Fahrens
Die Bundeskanzlerin hatte es bereits vor einer knappen Woche angedeutet: Sie gehe davon aus, dass man in 20 Jahren nur noch „mit Sondererlaubnis selbständig Auto fahren“ dürfe. Aus der These der Ethikkommission ergibt sich eine Pflicht, das autonome Fahren zu fördern. Jedenfalls dann, wenn die autonomen Systeme die Sicherheit erhöhen. „Ich bin überzeugt davon, dass wir in 20 Jahren keine 3.000 Tote im Straßenverkehr mehr haben werden“, sagt Di Fabio. Menschen gehen immer vor
Bei einem unvermeidlichen Unfall sollen Computerautos lieber eine Laterne oder ein Reh umfahren als einen Menschen. Für die Hersteller bedeutet das, dass sie ihre Systeme entsprechend programmieren müssen. Sie müssen „im Rahmen des technisch Machbaren“ so angelegt werden, dass Tier- oder Sachschäden in Kauf genommen werden, wenn es einen Konflikt gibt. Und wenn es Mensch gegen Mensch steht?
Quelle: dpa/Picture Alliance Die Kommission tut sich schwer, das Dilemma Menschenleben gegen Menschenleben aufzulösen. Klar ist, dass das autonome Auto jeden Menschen als gleichwertig ansehen und behandeln muss. „Die alte Frau mit dem Rollator oder die Kindergruppe - wen muss man jetzt bevorzugt niederfahren? Ein solches Szenario ist ausgeschlossen“, sagt Di Fabio. Die Kommission stellt fest, dass die Unfallvermeidung absolute Priorität haben muss. Ist der Zusammenstoß nicht vermeidbar, wird es schwer. Dass autonome Systeme die Entscheidung eines menschlichen Fahrers ersetzen oder vorwegnehmen können, glaubt die Kommission nicht. Ein Beispiel: Wer als Autofahrer einen Menschen tötet, um einen anderen zu retten, würde rechtswidrig handeln. Vor Gericht würde er unter Umständen trotzdem freigesprochen, weil seine Handlung als nicht schuldhaft angesehen würde. Ein solches Urteil ließe sich jedoch nicht in eine entsprechende Programmierung umwandeln. Allerdings könnte laut der Kommission „eine Programmierung auf die Minimierung der Opfer (…) gerechtfertigt werden“. Die Kommission empfiehlt die Schaffung einer öffentlichen Einrichtung, die Unfalldaten beim autonomen Fahren sammelt und systematisch verarbeitet. Wer haftet bei einem Unfall?
Die Kommission klärt diese Frage recht eindeutig: Sitzt der Mensch am Steuer, haftet er. Fährt der Computer, haftet der Hersteller. Ist die vernetzte Infrastruktur schuld, hängt es an deren Betreiber. Hier sollen die „gleichen Grundsätze wie in der übrigen Produkthaftung“ gelten. Die Hersteller oder Betreiber werden also verpflichtet, ihre Systeme „fortlaufend zu optimieren und auch bereits ausgelieferte Systeme zu beobachten und zu verbessern“. Dazu muss nicht nur gespeichert werden, wer gerade fährt, sondern auch, wann die Übergabe zwischen Technik und Mensch stattfindet. Oder hätte stattfinden sollen. Die Kommission empfiehlt eine internationale Standardisierung der Übergabevorgänge. Abrupte Übergaben sollen „praktisch ausgeschlossen“ werden. Herr über die Daten
Hier will die Kommission vor allem ausschließen, dass die notgedrungen gesammelten Daten nicht gegen den Willen der Autofahrer genutzt werden. Die Weitergabe der Daten für geschäftliche Zwecke soll nur freiwillig erfolgen. „Einer normativen Kraft des Faktischen, wie sie etwa beim Datenzugriff durch die Betreiber von Suchmaschinen oder sozialen Netzwerken vorherrscht“ solle frühzeitig entgegengewirkt werden. Was passiert jetzt?Verkehrsminsiter Dobrindt sieht in dem Bericht der Ethikkommission „Eckpfeiler für nationale und internationale Regelwerke“. Faktisch handelt es sich aber nur um Empfehlungen. Bis die aktuell werden, wird es noch etwas dauern. Die Leitlinien der Kommission legen ihren Fokus auf die Stufen 4 und 5 des autonomen Fahrens. Also erst, wenn der Fahrer zumindest in bestimmten Situationen das Auto sich selbst überlassen kann, werden die ethischen Leitlinien relevant. Aktuell gibt es noch keine Serienfahrzeuge, die Stufe 3 beherrschen. Vorerst bleibt der Fahrer in der technischen und ethischen Verantwortung. Den kompletten Bericht der Ethikkommission mit allen 20 Thesen findet Ihr hier (pdf) Quelle: Mit Material von dpa |