Fast die Hälfte (47 Prozent) aller deutschen Internetnutzer hat laut Statista Digital Market Outlook schon einmal einen virtuellen Sprachassistenten wie Apple Siri oder Google Now verwendet. In der Zwischenzeit haben Autohersteller die Entwicklung von intelligenten Steuerungssystemen mit Spracherkennung und Gesten vorangetrieben. Das Navigationssystem per Sprache steuern – für viele Fahrer ist das ein Traum. Doch wie gut funktionieren solche Systeme bereits?
Sprachsteuerung: Das Auto versteht den Menschen besser als er sich selbst
Die Spracherkennung im Auto funktioniert mittlerweile passabel und ist nicht nur bei Premiummarken gängig. Mittlerweile beherrschen viele Systeme die „natürlichsprachliche Eingabe“: Dabei erfasst die Elektronik normale Sätze und pickt sich die entsprechenden Schlüsselworte heraus. So gesehen lernt der Computer Vokabeln. Zahlen verdeutlichen, wie weit die Entwicklung hier schon vorangeschritten ist: Vor 20 Jahren verstanden solche Systeme rund 20 Vokabeln. Zehn Jahre später waren es 50.000 bis 70.000, heute sind es laut Hersteller mehrere Millionen.
Doch nicht nur die Anzahl der Begriffe macht eine intelligente Sprachsteuerung aus. Das Auto sollte den Fahrer besser kennen, als er sich selbst. Wer ein Fußballstadion als Ziel in das Navigationssystem eingibt, will schließlich nicht direkt vor dem Haupteingang halten, sondern sucht in der Regel den nächstgelegenen Parkplatz.
Gestikbedienung: Wischen und Winken am Lenkrad
In Oberklassewagen hält auch die Gestensteuerung Einzug. Im aktuellen BMW 7er beispielsweise kann der Fahrer einen Anruf per Wischbewegung ablehnen. Mit einem Wink vor dem Display des Autos ist es auch möglich, den Radiosender zu wechseln. Die Rückfahrtkamera des Wagens löst sogar das Problem mit dem toten Winkel, indem die Kameraansicht sich mit Daumen und Zeigefinger drehen lässt.
Verglichen mit der Spracherkennung befindet sich die Gestensteuerung allerdings noch in den Kinderschuhen. Das zeigt die eingeschränkte Anzahl an Bewegungen, die solche Systeme erkennen. Sie ist also noch eher ergänzend zu anderen Steuerungsmöglichkeiten wie dem Touchscreen und der Spracheingabe zu sehen.
Eine weitere Herausforderung für die Bewegungsbedienung: In verschiedenen Kulturen bedeuten Gesten nicht immer das gleiche. Der Computer in einem BMW versteht zum Beispiel eine Hand mit abgespreiztem Daumen und kleinen Finger als das in Deutschland übliche Zeichen für das Telefonieren. Ein Australier wäre darüber verwundert, diese Geste bedeutet in Down Under in etwa “cool/in Ordnung”.
Wo es in Zukunft beim Thema Steuerungssysteme hingehen soll, zeigen Autohersteller gerne auf großen Messen, wie der CES in Las Vegas. BMW hatte dort im Januar beispielsweise ein Concept Car vorgestellt, das über einen berührungslosen Touchscreen (BMW AirTouch) gesteuert werden kann. Zahlreiche Sensoren sorgen dafür, dass der Fahrer Funktionen ohne Berühren des Bildschirms auswählen kann. VW präsentierte dort ein Auto, bei dem sich die Türen mit Gesten öffnen lassen. Audi wiederum zeigte einen Touchscreen, der die Handschrift des Fahrers erkennt.
Die Zukunft der Sprachsteuerung, soviel steht fest, liegt in der Individualisierung. Anhand von Aussprache, Sprechgeschwindigkeit und weiteren Merkmalen ist die Stimme eines Menschen unverwechselbar. So können intelligente Sprachsteuerungssysteme künftig lernen, welche Stimme zu welchem Fahrer gehört. Das System macht dem Fahrer dann individuelle Vorschläge und weiß zum Beispiel, dass es Erika Mustermann anrufen muss, wenn er “meine Frau” verlangt. Welche dieser Trends sich schließlich durchsetzen, wird die Zukunft zeigen.