Die Entwicklung autonomer Autos hat ein Menschenleben gekostet. Ein tragisches Ereignis, das betont: Zwischen Wunsch und Wirklichkeit liegt noch viel Entwicklungsbedarf.
Ein Gastbeitrag von Fabian Mechtel Berlin – Es war unvermeidlich. Der autonome Testwagen des Anbieters Uber, der am Sonntagabend eine Fahrradfahrerin erfasste und tötete, hatte keine Chance. Die Polizei von Tempe im US-Bundesstaat Arizona bestätigte, dass nicht das Computerauto die Schuld am Unfall trug, sondern die Frau. Ein Video zeigt, wie sie aus dem Schatten direkt vor das Auto tritt – zu knapp für eine Vollbremsung. Die Bestätigung der Staatsanwaltschaft steht noch aus. Allerdings zeigt das Video auch, dass der Testfahrer abgelenkt war. Dazu später mehr. Der Unfall war allerdings aus einem zweiten Grund unvermeidlich. Nicht speziell dieser, aber ein erster Crash mit zumindest schweren Verletzungen war langfristig zu erwarten. Denn autonome Autos befinden sich noch in der Entwicklung. Zur Perfektion fehlen Erfahrung und Technik. Zeit für einen Blick auf die vergangenen Jahre und den Status Quo. Hersteller, Digitalkonzerne und Newcomer entwickeln parallel Es bleiben die anderen neuen Player: Uber, Waymo, Lyft und wie sie alle heißen. Dienste, die die Personenbeförderung revolutionieren wollen, indem sie billiger sind. Und weil ein Fahrer immer den teuersten Faktor im System Taxi darstellt, muss er im Hinblick auf den Fahrpreis weg. Deshalb versuchen die „Ride-Hailer“ krampfhaft, den autonomen Karren ans Fahren zu bekommen. Und was treiben die Hersteller? Sie basteln ein paar Studien, zeigen Autonomie mal mit, mal ohne Lenkrad. Im Verborgenen werfen sie aber mit viel Geld um sich, weil sie das Rennen ebenfalls gewinnen wollen. Das Ziel ist in allen Fällen gleich. Autos sollen die Umgebung aufnehmen, interpretieren, verstehen und sich selbstständig darin bewegen. Aber was muss ein Auto sehen, damit es autonom fahren kann? Viel wichtiger noch: Wie sieht es das? Und was macht es aus dieser Information? Autonomes Fahren mit einer Vielzahl von Sensoren Sein Steuergerät führt die einzelnen Signale der Sensoren zusammen. Die Kameras liefern ein einfaches Bild, auf dem sich Entfernungen nur schwer interpretieren lassen. Die kommen deshalb von den Radarsensoren. Zusammen ergibt sich eine dreidimensionale Karte der unmittelbaren Umgebung, in der die Steuerung einzelne Objekte ausmachen und zuordnen kann. Es ist im Übrigen gar nicht so leicht für das Auto, eine derartige Klassifizierung vorzunehmen. Wer höchste Auflösung und Echtzeit verlangt, der sieht sich heute noch einem vollgepackten Kofferraum gegenüber, dessen Rechenleistungsabwärme die Klimaanlage vor ein eher großes Problem stellt. In einem Serienauto ist das nicht praktikabel. Deshalb arbeiten aktuelle Oberklasselimousinen mit künstlicher Intelligenz. Grundlage ist eine Datenbank mit Millionen Beispielfotos. Doch um Objekte klassifizieren zu können, muss man sie überhaupt erst erkennen. Was sich leicht sagt, ist in der Praxis gerne eine große Herausforderung. Es beginnt schon bei der Ampelfarbe. Je nach Winkel und Sonneneinstrahlung ist die nämlich schwer bis gar nicht zu erkennen. An Kreuzungen mit mehreren Ampeln kann außerdem die Zuordnung ein Problem darstellen. Autos müssen sehen und sich orientieren Denn die exakteste Karte ist in der Sekunde, in der sie digitalisiert wurde, alt und damit unbrauchbar. Die Umgebung verändert sich ständig. Das Auto muss also in der Lage sein, sich ein eigenes Bild zu machen. Das mag in der Sonne Südkaliforniens funktionieren. Im nebligen Schneeschauer auf dem Sustenpass? Eher nicht. Es braucht deshalb – wie etwa im Audi A8 – eine Kombination verschiedenster Systeme: Kamera, Radar und Laser. Jedes einzelne System hat seine Vor- aber auch Nachteile, weshalb nur eine intelligente Fusion zu einem Ergebnis führen kann. Ein Lidar erzeugt in Kombination mit einer HD-Karte bereits ein brauchbares Bild. Mit Kameras und Radar wird es schon fast übersichtlich. Laserscanner sind teuer oder ungenauDas Problem: Im statischen Foto sieht das alles wunderbar aus. Nicht mehr so wunderbar ist die Sache, wenn das Auto in Bewegung ist. Einer der besten Laserscanner auf dem zivilen Markt (Velodyne HDL-64E) misst mit 64 Laserstrahlen, einer Auflösung von 0,4 Grad und einer Reichweite von 120 Metern. Das Ergebnis? Es ist okay. Im Audi sitzt kein rotierender 360°-Laser, sondern ein statisches System mit einer Spiegelauslenkung von vier Laserstrahlen und einer Reichweite von 80 Metern. Spätestens hier wird klar, warum Audi die autonome Fahrfunktion auf wenige Verkehrssituationen beschränkt. Experten sprechen in diesem Fall vom sogenannten „Level 3“ des autonomen Fahrens: Das Auto steuert für kurze Zeiträume in definierten Bereichen selbst. Die Verantwortung liegt in diesen Situationen nicht mehr beim Fahrer, sondern beim Hersteller. Die rechtliche Grundlage hierfür fehlt allerdings noch. Vollständige Autonomie gibt es erst im Level 5. Autos fahren noch längst nicht autonomDie Bildgebung ist heute nicht ansatzweise soweit, dass Fahrzeuge bald komplett eigenständig im Verkehr funktionieren können. In Testumgebungen fahren sie vielleicht. Möglicherweise sogar im durchorganisierten, geradlinigen Innenstadtverkehr Nordamerikas. Aber ganz sicher nicht bei hohem Tempo auf kleinen Landstraßen, in Autobahnbaustellen oder sonstigen alltäglichen Verkehrssituationen. Zum fertigen Auto gehört übrigens noch mehr als Sensorik und Rechenpower. Verschuldet ein autonom fahrendes Fahrzeug einen Unfall, muss der Hersteller haften. Das gilt auch, wenn ein Defekt auftritt. Audi legt deshalb das Bremssystem redundant aus: Fällt der Bremskraftverstärker aus, baut ein Backup-Bauteil den Bremsdruck auf. Video: Der Unfall des Uber-AutosDas veröffentlichte Video der Polizei von Tempe zeigt die Sekunden vor dem Unfall. Die Frau überquert die Straße, aus Sicht des Autos von links nach rechts. Sie taucht erst im Lichtkegel des Fahrzeugs auf, als sie bereits auf seiner Spur angekommen ist. Ein Fahrer sitzt zur Sicherheit hinter dem Lenkrad. Er ist abgelenkt und sieht die Frau zu spät. Es kommt zum Aufprall. Die Aufnahmen werfen Fragen auf. War das Testauto zu schnell unterwegs, weil es nicht innerhalb des eigenen Lichtkegels anhalten konnte? Warum war der Wagen nicht mit Fernlicht unterwegs? Und warum haben Laserscanner und Radar die Person nicht erkannt? Uber beobachtet das Umfeld des Autos mit einem Laserscanner, sieben Kameras und "360° Radar Coverage", also Radarsensoren rundum. Zur Einordnung: General Motors baut fünf Laserscanner auf das Dach des Cruise AV, der noch in diesem Jahr in Kleinserie entstehen soll. GM würde keine fünf Laser am Dach montieren, wenn sie nicht nötig wären. Hier ist die konservative Automobilindustrie den jungen Techies vielleicht doch noch das ein oder andere Jahr an Erfahrung überlegen. Denn sie weiß: Selbst mit dem Sensor-Overkill fahren die Cruise AVs heute noch mit großer Zielsicherheit über rote Ampeln. Hinweis: Dieses Video zeigt nicht den Aufprall selbst, könnte aber dennoch als verstörend wahrgenommen werden.
***** In eigener Sache: Wir verschicken unsere besten News einmal am Tag (Montag bis Freitag) über Whatsapp und Insta. Klingt gut? Dann lies hier, wie Du Dich anmelden kannst. Es dauert nur 2 Minuten. |
