• Online: 2.505

Neue Bedienkonzepte auf der CES 2017 - Drehen, drücken, wischen, klimpern

verfasst am

Auf der CES in Las Vegas zeigen die Hersteller ihre Ideen für die Auto-Bedienung der Zukunft. Knöpfe werden virtuell und reagieren auf Blicke. Nicht alles davon ist sinnvoll.

Las Vegas – Es fühlt sich wie ein leichter Stromschlag an. Ein ganz leichter. Nur die Fingerkuppen zittern, während sie ein Leuchten in der Luft berühren. Wenn man das so nennen kann: "berühren". Bei BMWs Active Holo Touch ist der Touchscreen nur noch eine Projektion. Die Finger berühren nichts physisches. Das soll die Zukunft der Menüführung sein.

Rückmeldung gibt es trotzdem. Ultraschallwellen zielen auf die Fingerkuppe und erzeugen ein Kribbeln ähnlich der Vibration eines Smartphones. Die farbige Anzeige wird wie beim Head-up-Display durch Spiegel erzeugt, schwebt frei im Raum vor dem Armaturenbrett. Sie kann neben Menüpunkten auch kleine Videos anzeigen. Wer später autonom fährt, soll beispielsweise an einer Videokonferenz teilnehmen können.

Drehen, drücken, wischen und mit den Augen klimpern. Die neuen Bedienkonzepte sollen künftig das Autofahren erleichtern und mehr Sicherheit bieten. Sie sind ein großes Thema auf der Elektronikmesse CES in Las Vegas. Neben BMW zeigen auch andere Hersteller ihre Ideen von der Zukunft.

Das nächste i-Modell mit Hologramm

Bei BMW dauert es bis zu dieser Zukunft noch ein paar Jahre. Im nächsten i-Modell soll "Active Holo Touch" in Serie gehen. Das wäre im Jahr 2021. Fragt sich natürlich: Warum? Nur weil Konzepte neu sind, müssen sie beim Autofahren nicht helfen.

Holo Touch zeigt beim Ausprobieren auf den ersten Blick keine Vorteile gegenüber Knöpfen, Tasten und Touchscreens. Zwar registriert eine hochempfindliche Kamera die Handbewegungen, das Display kombiniert die Touch-Bedienung mit Gestensteuerung. Aber eine Projektion muss man genauso treffen wie eine Touchscreen-Schaltfläche. Da ist jeder BMW-Fahrer schneller mit der Hand am Controller als auf der Projektion.

Doch die Hersteller entwickeln ihre Konzepte ja (auch) fürs autonome Fahren. Wenn sich der Pilot nicht mehr auf den Verkehr konzentrieren muss, verschieben sich die Prioritäten. Aber macht es wirklich einen Unterschied, ob die Finger einen realen Bildschirm berühren oder einen virtuellen? Wohl vor allem für die Cockpit-Gestaltung.

Die Schalter reagieren auf Blicke

So wie bei Toyota in der Studie Concept-i. Hier liefert ein Head-up-Display dem Fahrer alle Informationen, ein zentrales Cockpit ist nicht mehr vorhanden. Das schafft Platz im Innenraum, gibt mehr Gestaltungsfreiheit für die Designer.

Doch Toyota geht weiter. Wo BMW nur den Screen eliminiert, verzichten die Japaner sogar auf den Touch. Stattdessen gibt es Eyetracking. Bei dieser Technik verfolgt eine Kamera die Blicke des Fahrers und erkennt, wohin er schaut. Wandern sie zum Lichtschalter, aktiviert das System die Scheinwerfer. Damit muss der Fahrer nicht mehr zu Tasten und Schaltern greifen – sie werden überflüssig.

Zukunftsmusik, klar. Aber Eyetracking an sich wird es schon früher in unsere Sereinautos schaffen. Volkswagen zeigt zum Beispiel Touchscreens, bei denen Menüs erst dann im Display erscheinen, wenn sich der Blick auf sie richtet. Daimler arbeitet an einer Technik, die vorhersieht, welche Tasten und Schalter als nächstes benötigt werden und nur noch die relevanten Funktionen einblendet.

Mit dem Finger auf der Lichtleiste

Die Finger braucht es noch für das, was VW auf der CES zeigt. Hier besteht der Bildschirm eigentlich aus zwei Screens, die hintereinander angeordnet eine 3-D-Grafik erzeugen. Die Finger bedienen eine Fläche und einen virtuellen Knopf hinter einer Lichtleiste. So sparen sich die Ingenieure physische Schalter für Radio und Klimaanlage. Ein solches System könnte 2018 bei VW zum Einsatz kommen. Erstmal ist wohl Audi dran. Im A8 dürften Elemente davon in Serie gehen.

Vielleicht ist es nur eine Frage der Gewohnheit. Hologramme, Gestensteuerung - so richtig mag uns der Mehrwert nicht einleuchten. Es gibt schon Bediensysteme, die ganz ohne wischen und drücken auskommen: per Spracherkennung. Doch viele Autohersteller sagen: Autofahrer mögen nicht mit ihren Autos sprechen. Was auch damit zusammen hängen könnte, dass ihre Autos sie nicht gut verstehen.

In den nächsten Jahren wird sich das ändern. Google und Apple zeigen mit ihren Sprachassistenten schon jetzt, dass die Bedienung intuitiver und natürlicher funktionieren kann. In den nächsten Jahren wird es auch im Auto einen Schub geben. Dann werden nicht nur einzelne Befehle vom System entziffert, sondern auch natürliche Sprache. Endlich hört damit diese gestelzte Robotersprache auf. Und der Fahrer kann die Hände am Steuer lassen. Oder ganz was anderes machen, wenn er ohnehin autonom chauffiert wird. Zum Beispiel ein Buch lesen.

Zurück zur Startseite

Avatar von Reifenfüller133278
26
Hat Dir der Artikel gefallen? 2 von 3 fanden den Artikel lesenswert.
Diesen Artikel teilen:
26 Kommentare: