Sehen, Hören, Fühlen - was steckt hinterm autonomen Fahren?

Frankfurt (dpa) - Gut fünf Jahre ist es her, dass Google seine Forschung an einem fahrerlosen Auto bekanntgab. Inzwischen feilen alle Autohersteller an der Technik, die Fahrzeuge künftig zu autonomen Teilnehmern im Verkehr und den Autofahrer überflüssig machen soll.

Foto: dpa

Doch wie können Autos in Zukunft unsere Sinneswahrnehmungen kopieren?

Foto: dpa

Kameras sind eine Grundvoraussetzung für autonome Fahrzeuge. Monokameras funktionieren, als ob sich ein Mensch ein Auge zuhält. Sie bilden die Umwelt also nur begrenzt räumlich ab und haben nur eine Reichweite von 150 Metern. Dafür bemerken sie charakteristische Bildausschnitte: „Einen Fußgänger, Straßenschilder oder Fahrzeuge kann sie gut wiedererkennen“, erklärt Thomas Classen, Leiter Produktmanagement für Fahrerassistenzsysteme bei Bosch.

Foto: dpa

Für die räumliche Wahrnehmung sind Stereokameras zuständig, die Entfernungen abmessen können. „In gleicher Weise gelingt es Menschen mit ihren zwei Augen, Entfernungen gut abzuschätzen“, erklärt Classen. Mindestens eine solche Kamera muss in ein selbstfahrendes Auto eingebaut sein.

Für die Rundumsicht werden Kameras mit Fischaugenoptik eingesetzt, die aber nur den Nahbereich erfassen können. „Es braucht mindestens eine Kamera nach vorne, möglichst eine Stereokamera. Zusätzlich eventuell auch ein Surround-View-System, das vier Nahbereichskameras nutzt“, sagt Claassen.

Ultraschalsensoren werden vor allem zum Parken eingesetzt. Für einen Parkassistenten braucht es allein zwölf Ultraschallsensoren. „Sie haben eine Reichweite von etwa fünf Metern“, erklärt Classen. Auch deshalb sind sie auf der Autobahn nur geeignet, um Objekte direkt neben dem eigenen Fahrzeug zu erkennen, wie den Motorradfahrer im toten Winkel.

Radarfunktioniert ähnlich wie Ultraschall, nur mit elektromagnetischen Wellen. Seine Reichweite liegt bei 250 Metern, deshalb lassen sich auch weiter entfernte Fahrzeuge erkennen. Ein Zusatzeffekt: Auch die Geschwindigkeit der Objekte kann gemessen werden. „Das ist gerade für Autobahnfahrten sehr wertvoll“, erklärt Classen. „Entfernung und Geschwindigkeit des vorausfahrenden Fahrzeugs sind die erforderlichen Informationen, um rechtzeitig zu bremsen oder die Spur zu wechseln.“ In seinen Testfahrzeugen für autonomes Fahren verbaut Bosch sechs Radarsensoren.

Nach einem ähnlichen Prinzip funktionieren Lasersensoren (Lidar) mit einer Reichweite von 150 bis 200 Metern. „Der Laser generiert keine Geschwindigkeitsinformationen, dafür genauere Konturinformationen“, sagt Classen. Bis zu fünf solcher „Lidare“ braucht es für ein hochautomatisierte Fahrzeuge. Die sind allerdings zumindest beim Zulieferer Bosch noch nicht seriennah.

Ebenfalls Zukunftsmusik ist die sogenannte Kommunikation von „Car-To-X“ und „Car-To-Infrastruktur“. Autos, aber auch Brücken oder Tunnel sollen in Zukunft den Verkehrsstand an andere Verkehrsteilnehmer weitergeben. „Dort werden wichtige, erfasste Informationen, wie zum Beispiel ein Stauende zum Backend gefunkt und dort logisch ausgewertet“, sagt Alfred Eckert, Leiter der Zukunftsentwicklung in der Sparte Chassis & Sicherheit bei Continental.

Ein Hochgenaues GPS zusammen mit hochgenauen Karten ist wiederum die Grundvoraussetzung dafür, dass das Auto exakt weiß, wo es gerade steckt und was auf es zukommt. Auch daran feilt die Industrie.

Hinzu kommen Fühler, die auf die Gesamtpositionierung des Fahrzeuges schließen lassen. Bereits in herkömmlichen Fahrzeugen verbaut sind Lagesensoren, die das Verhalten des Fahrzeugs zur Schwerkraft anzeigen. Auch Drehratensensoren, die anzeigen, wie schnell sich welches Rad gerade dreht, gibt es bereits. „Das wird heute zum Beispiel für Elektronische Stabilitätskontrolle (ESP) genutzt“, sagt Classen.

Eine große Herausforderung wird nach Einschätzung der Experten die Vernetzung, die heute im Verkehr häufig das menschliche Gehirn übernimmt. „Was die Systeme heute noch gar nicht können, ist Lernen“, sagt Ralph Lauxmann, Leiter Systems & Technology in der Sparte Chassis & Sicherheit bei Continental. Komplexe Situationen, die sich schnell ändern und den Verkehrsfluss in Gang halten, könnten die Systeme deshalb noch nicht erfassen.

Hinzu komme die logische Verknüpfung des Wahrgenommenen. „Alles was der Mensch sieht, kann die Kamera theoretisch ebenfalls sehen“, erklärt Classen. „Sie muss es aber auch erkennen können. Der Mensch nutzt dazu viel Hintergrundwissen, um Situationen auflösen zu können.“ Die Sensoren von heute müssten alle noch besser werden. Aber auch die Verarbeitungskette danach fehle noch.

Gänzlich ungeklärt sind bislang ethische Fragen in komplexen Situationen, wenn ein Auto etwa durch ein Ausweichmanöver einen Menschen schont, aber einen anderen verletzt. Diese Fragen werde aber auch keine Firma allein lösen, sagt Classen. Technologisch stelle sie sich derzeit nicht: „Derzeit vermeiden wir jegliche Form der Kollision.“