Autonome Autos: Technik, Funktionen, Status Quo

Autos ersetzen noch lange nicht den Fahrer

MOTOR-TALK

verfasst am Thu Mar 22 12:25:07 CET 2018

Die Entwicklung autonomer Autos hat ein Menschenleben gekostet. Ein tragisches Ereignis, das betont: Zwischen Wunsch und Wirklichkeit liegt noch viel Entwicklungsbedarf.

Hersteller, Zulieferer und Newcomer testen selbstfahrende Autos. Ein Unfall im US-Bundesstaat Arizona wirft Fragen auf

Ein Gastbeitrag von Fabian Mechtel

Berlin – Es war unvermeidlich. Der autonome Testwagen des Anbieters Uber, der am Sonntagabend eine Fahrradfahrerin erfasste und tötete, hatte keine Chance. Die Polizei von Tempe im US-Bundesstaat Arizona bestätigte, dass nicht das Computerauto die Schuld am Unfall trug, sondern die Frau. Ein Video zeigt, wie sie aus dem Schatten direkt vor das Auto tritt – zu knapp für eine Vollbremsung. Die Bestätigung der Staatsanwaltschaft steht noch aus. Allerdings zeigt das Video auch, dass der Testfahrer abgelenkt war. Dazu später mehr.

Der Unfall war allerdings aus einem zweiten Grund unvermeidlich. Nicht speziell dieser, aber ein erster Crash mit zumindest schweren Verletzungen war langfristig zu erwarten. Denn autonome Autos befinden sich noch in der Entwicklung. Zur Perfektion fehlen Erfahrung und Technik. Zeit für einen Blick auf die vergangenen Jahre und den Status Quo.

Hersteller, Digitalkonzerne und Newcomer entwickeln parallel

Die Umfeldbeobachtung in einer Mercedes S-Klasse
Quelle: Daimler
Bei der Autonomie schienen die großen Autokonzerne zu schlafen. Google und Apple werden die Autobranche überrollen, auslachen, zerlegen, hieß es. Passiert ist bisher nicht sehr viel. Die Anstrengungen, eigene Autos zu bauen: vergessen, abgeschrieben. Stattdessen konzentrieren sie sich auf das, was sie am besten können. Daten sammeln, sortieren und daraus Algorithmen ableiten. Sie liefern die Software, andere die harte Schale.

Es bleiben die anderen neuen Player: Uber, Waymo, Lyft und wie sie alle heißen. Dienste, die die Personenbeförderung revolutionieren wollen, indem sie billiger sind. Und weil ein Fahrer immer den teuersten Faktor im System Taxi darstellt, muss er im Hinblick auf den Fahrpreis weg. Deshalb versuchen die „Ride-Hailer“ krampfhaft, den autonomen Karren ans Fahren zu bekommen.

Und was treiben die Hersteller? Sie basteln ein paar Studien, zeigen Autonomie mal mit, mal ohne Lenkrad. Im Verborgenen werfen sie aber mit viel Geld um sich, weil sie das Rennen ebenfalls gewinnen wollen.

Das Ziel ist in allen Fällen gleich. Autos sollen die Umgebung aufnehmen, interpretieren, verstehen und sich selbstständig darin bewegen. Aber was muss ein Auto sehen, damit es autonom fahren kann? Viel wichtiger noch: Wie sieht es das? Und was macht es aus dieser Information?

Autonomes Fahren mit einer Vielzahl von Sensoren

Um die Umgebung in Echtzeit und hoher Auflösung zu beobachten, bedarf es hoher Computerpower. Die lässt sich derzeit nicht elegant in ein Auto integrieren
Quelle: Daimler
Was die Sensorik angeht, ist der aktuelle Audi A8 das fortschrittlichste Auto am Markt. Er kombiniert Kameras, Radarsensoren und erstmals einen Laserscanner. Gemeinsam mit einem rechenstarken Steuergerät soll er bald selbstständig im Stau mitschwimmen können – bis 60 km/h, auf einer Spur, ganz ohne Beteiligung des Fahrers. Der darf derweil fernsehen oder E-Mails lesen.

Sein Steuergerät führt die einzelnen Signale der Sensoren zusammen. Die Kameras liefern ein einfaches Bild, auf dem sich Entfernungen nur schwer interpretieren lassen. Die kommen deshalb von den Radarsensoren. Zusammen ergibt sich eine dreidimensionale Karte der unmittelbaren Umgebung, in der die Steuerung einzelne Objekte ausmachen und zuordnen kann.

Es ist im Übrigen gar nicht so leicht für das Auto, eine derartige Klassifizierung vorzunehmen. Wer höchste Auflösung und Echtzeit verlangt, der sieht sich heute noch einem vollgepackten Kofferraum gegenüber, dessen Rechenleistungsabwärme die Klimaanlage vor ein eher großes Problem stellt. In einem Serienauto ist das nicht praktikabel. Deshalb arbeiten aktuelle Oberklasselimousinen mit künstlicher Intelligenz. Grundlage ist eine Datenbank mit Millionen Beispielfotos.

Doch um Objekte klassifizieren zu können, muss man sie überhaupt erst erkennen. Was sich leicht sagt, ist in der Praxis gerne eine große Herausforderung. Es beginnt schon bei der Ampelfarbe. Je nach Winkel und Sonneneinstrahlung ist die nämlich schwer bis gar nicht zu erkennen. An Kreuzungen mit mehreren Ampeln kann außerdem die Zuordnung ein Problem darstellen.

Autos müssen sehen und sich orientieren

Die Umgebungsbeobachtung des Audi A8 im Überblick
Quelle: Audi
Für diese Fälle benötigt man extrem detaillierte Karten, auf deren Basis das Fahrzeug seinen Fahrkorridor möglichst auf eine Handvoll Zentimeter exakt berechnen kann. Der Dreh- und Angelpunkt für alle Entwicklungen des autonomen Fahrens ist der, dass das Auto präzise wissen muss, wo es ist. Keine einfache Aufgabe.

Denn die exakteste Karte ist in der Sekunde, in der sie digitalisiert wurde, alt und damit unbrauchbar. Die Umgebung verändert sich ständig. Das Auto muss also in der Lage sein, sich ein eigenes Bild zu machen. Das mag in der Sonne Südkaliforniens funktionieren. Im nebligen Schneeschauer auf dem Sustenpass? Eher nicht.

Es braucht deshalb – wie etwa im Audi A8 – eine Kombination verschiedenster Systeme: Kamera, Radar und Laser. Jedes einzelne System hat seine Vor- aber auch Nachteile, weshalb nur eine intelligente Fusion zu einem Ergebnis führen kann. Ein Lidar erzeugt in Kombination mit einer HD-Karte bereits ein brauchbares Bild. Mit Kameras und Radar wird es schon fast übersichtlich.

Laserscanner sind teuer oder ungenau

Das Problem: Im statischen Foto sieht das alles wunderbar aus. Nicht mehr so wunderbar ist die Sache, wenn das Auto in Bewegung ist. Einer der besten Laserscanner auf dem zivilen Markt (Velodyne HDL-64E) misst mit 64 Laserstrahlen, einer Auflösung von 0,4 Grad und einer Reichweite von 120 Metern. Das Ergebnis? Es ist okay.

Nach dem Crash: Dieses Testauto des Anbieters Uber erfasste eine Fahrradfahrerin
Quelle: dpa / Picture Alliance
Dieser Scanner kostet 80.000 Euro – fast so viel wie ein nackter Audi A8. Selbst ein Scanner wie der Velodyne Puck wäre für den Automobilsektor noch zu teuer. Er kostet 8.000 Euro und misst mit 16 Laserstrahlen, 2,0 Grad Auflösung und 100 Metern Reichweite. Auf dieses Ergebnis möchte man sich im Straßenverkehr nicht verlassen: Link zum Video.

Im Audi sitzt kein rotierender 360°-Laser, sondern ein statisches System mit einer Spiegelauslenkung von vier Laserstrahlen und einer Reichweite von 80 Metern. Spätestens hier wird klar, warum Audi die autonome Fahrfunktion auf wenige Verkehrssituationen beschränkt.

Experten sprechen in diesem Fall vom sogenannten „Level 3“ des autonomen Fahrens: Das Auto steuert für kurze Zeiträume in definierten Bereichen selbst. Die Verantwortung liegt in diesen Situationen nicht mehr beim Fahrer, sondern beim Hersteller. Die rechtliche Grundlage hierfür fehlt allerdings noch. Vollständige Autonomie gibt es erst im Level 5.

Autos fahren noch längst nicht autonom

Die Bildgebung ist heute nicht ansatzweise soweit, dass Fahrzeuge bald komplett eigenständig im Verkehr funktionieren können. In Testumgebungen fahren sie vielleicht. Möglicherweise sogar im durchorganisierten, geradlinigen Innenstadtverkehr Nordamerikas. Aber ganz sicher nicht bei hohem Tempo auf kleinen Landstraßen, in Autobahnbaustellen oder sonstigen alltäglichen Verkehrssituationen.

Zum fertigen Auto gehört übrigens noch mehr als Sensorik und Rechenpower. Verschuldet ein autonom fahrendes Fahrzeug einen Unfall, muss der Hersteller haften. Das gilt auch, wenn ein Defekt auftritt. Audi legt deshalb das Bremssystem redundant aus: Fällt der Bremskraftverstärker aus, baut ein Backup-Bauteil den Bremsdruck auf.

GM Cruise AV: Fünf Radarsensoren auf dem Dach des Fahrzeugs
Quelle: General Motors
Ein System, das nur in seinem eigenen Kosmos funktioniert, wenn alle Randbedingungen exakt auf das eigene Bedürfnis eingestellt sind, das ist – mit Verlaub – ein schlechtes. Bevor autonome Serienautos auf öffentlichen Straßen fahren, muss ihre Technik viel mehr können. Auch, wenn das der Radfahrerin nicht geholfen hätte.

Video: Der Unfall des Uber-Autos

Das veröffentlichte Video der Polizei von Tempe zeigt die Sekunden vor dem Unfall. Die Frau überquert die Straße, aus Sicht des Autos von links nach rechts. Sie taucht erst im Lichtkegel des Fahrzeugs auf, als sie bereits auf seiner Spur angekommen ist. Ein Fahrer sitzt zur Sicherheit hinter dem Lenkrad. Er ist abgelenkt und sieht die Frau zu spät. Es kommt zum Aufprall.

Die Aufnahmen werfen Fragen auf. War das Testauto zu schnell unterwegs, weil es nicht innerhalb des eigenen Lichtkegels anhalten konnte? Warum war der Wagen nicht mit Fernlicht unterwegs? Und warum haben Laserscanner und Radar die Person nicht erkannt?

Uber beobachtet das Umfeld des Autos mit einem Laserscanner, sieben Kameras und "360° Radar Coverage", also Radarsensoren rundum. Zur Einordnung: General Motors baut fünf Laserscanner auf das Dach des Cruise AV, der noch in diesem Jahr in Kleinserie entstehen soll.

GM würde keine fünf Laser am Dach montieren, wenn sie nicht nötig wären. Hier ist die konservative Automobilindustrie den jungen Techies vielleicht doch noch das ein oder andere Jahr an Erfahrung überlegen. Denn sie weiß: Selbst mit dem Sensor-Overkill fahren die Cruise AVs heute noch mit großer Zielsicherheit über rote Ampeln.

Hinweis: Dieses Video zeigt nicht den Aufprall selbst, könnte aber dennoch als verstörend wahrgenommen werden.

 

*****

In eigener Sache: Wir verschicken unsere besten News einmal am Tag (Montag bis Freitag) über Whatsapp und Insta. Klingt gut? Dann lies hier, wie Du Dich anmelden kannst. Es dauert nur 2 Minuten.

Hochauflösende Umgebungskarten sind eine wichtige Grundlage für autonomes Fahren
Quelle: Daimler
Um die Umgebung in Echtzeit und hoher Auflösung zu beobachten, bedarf es hoher Computerpower. Die lässt sich derzeit nicht elegant in ein Auto integrieren
Quelle: Daimler
Die Umfeldbeobachtung in einer Mercedes S-Klasse
Quelle: Daimler
Der Audi A8 ist das erste Serienauto, das mit einem Laserscanner ausgerüstet wird
Quelle: Audi
Audis Staupilot startet, sobald es das Gesetz erlaubt. A6, A7 und A8 fahren dann bis Tempo 60 vollständig autonom im Stau
Quelle: Audi
Die Umgebungsbeobachtung des Audi A8 im Überblick
Quelle: Audi
Der Laserscanner im Audi A8: Statisches System mit Spiegelauslenkung
Quelle: Audi
Der übliche Weg zum Testen: Sensoren werden auf dem Dach eines Serienautos nachgerüstet
Quelle: Ford
Computersysteme müssen wissen, welche Zeichen und Ampel für das Fahrzeug relevant ist
Quelle: HERE
Uber schnallt eine Batterie von Kameras und Sensoren auf die Dächer der Testfahrzeuge
Quelle: dpa / Picture Alliance
Die Autos sind in den Tests nur eine austauschbare Hülle
Quelle: dpa / Picture Alliance
Nach dem Crash: Dieses Testauto des Anbieters Uber erfasste eine Fahrradfahrerin
Quelle: dpa / Picture Alliance
Aktuell möglich, aber noch nicht erlaubt: Autonomielevel 3
Quelle: Audi
GM Cruise AV: Fünf Radarsensoren auf dem Dach des Fahrzeugs
Quelle: General Motors
Der Innenraum des GM Cruise AV. Hersteller zeigen seit einigen Jahren Studien mit und ohne Lenkräder
Quelle: General Motors
Hersteller und Zulieferer arbeiten an möglichst genauen Umgebungskarten
Quelle: Daimler
Die Entfernungserkennung im S500 "Intelligent Drive"
Quelle: Daimler
So funktioniert die Fußgängererkennung der S-Klasse im "Intelligent Drive"-Trim. Sie greift auf eine Datenbank von Beispielen zurück
Quelle: Daimler
Es ist mitunter für eine Kamera unmöglich, die Ampelfarbe zu erkennen
Quelle: Daimler
Ein einfaches Lidar-System: Das Velodyne Puck kostet 8.000 Euro
Quelle: Velodyne
Sehr detailliertes Lidar-Bild: Velodyne HDL-64E für 80.000 Euro - zu viel für den Automobilbau
Quelle: Velodyne