Es geht nicht ohne LiDAR!

Seit Elon Musk gesagt hat, dass LiDAR für das autonome Fahren nicht benötigt wird, herrscht eine rege Diskussion in der Branche. Geht es wirklich ohne LiDAR? Reichen Kameras aus, um sicher autonom zu fahren?
Es geht nicht ohne LiDAR!

Autonomes Fahren auf Basis eines Sensorverbunds

Die wichtigste Prämisse im Straßenverkehr ist das Nicht-Kollidieren der Verkehrsteilnehmer. Sicherheit ist das höchste Gebot. Um sichere Fortbewegung in der komplexen 3D Welt zu ermöglichen, muss immer ausreichend Abstand zu den umgebenden Objekten und Fahrzeugen gehalten werden. In manuell gesteuerten Fahrzeugen ist der Fahrer dafür verantwortlich, dass diese Abstände eingehalten werden und dass Kollisionen mit anderen Verkehrsteilnehmern vermieden werden. In den höheren Automatisierungsleveln wird das Fahrzeug selber dafür verantwortlich sein, das Umfeld zu erfassen. Umfelderfassung ist daher ein kritischer und essentieller Bestandteil des automatisierten Fahrens. Hierzu werden Sensorverbünde, bestehend aus Ultraschall, Kamera, Radar und LiDAR in die Fahrzeuge integriert.

Doch warum werden so viele verschiedene Sensorsysteme zum automatisierten Fahren benötigt?

Ist LiDAR eine „Krücke“?

Geht es nach Tesla-Chef Elon Musk, so ist zumindest eine Sensortechnologie nicht notwendig, um autonom zu fahren. Bei einer Investorenkonferenz 2019 erklärte er, dass LiDAR-Sensoren ein Irrweg und Kameras mit fähigen Algorithmen in Kombination mit Radar ausreichend für automatisierte Fahrfunktionen seien. Seine Argumentation, dass LiDAR-Sensoren zu teuer und groß seien, um sie in aktuelle Serienfahrzeuge zu integrieren, mag zwar bisher stimmen – genau aus diesem Grund wurde die Blickfeld-Technologie entwickelt – aber nur auf Kamera und Radar zu vertrauen ist heute kein sicherer Weg.

Ein Vorfall, der sich vor Kurzem auf einer Autobahn in Taiwan ereignet hat, zeigt warum: Ein Lastwagen war auf einer Autobahn umgekippt und versperrte die Autobahnspuren. Die Oberseite der weißen Plane zeigte dabei in Richtung des nachkommenden Verkehrs. Ein Tesla ist ungebremst in den LKW gerast. Glücklicherweise hatte dieser keine Fracht geladen, sodass niemand verletzt wurde. Wie kam es zu diesem Unfall? Da das Fahrzeug nicht langsamer wurde, als es auf das Hindernis zufuhr, kann davon ausgegangen werden, dass der so genannte Autopilot angeschaltet war. Ein menschlicher Fahrer hätte vermutlich zumindest kurz vor dem Aufprall noch reagiert. Der Autopilot von Tesla basiert auf einer Sensor-Suite ohne LiDARs, sondern baut auf Kameras, unterstützt von Radar und Ultraschall. Die Bilderkennungssoftware, die die aufgenommenen Kameradaten auswertet und damit die Basis für Fahrentscheidungen liefert, hat mit der unbekannten Situation des umgekippten LKW nichts anzufangen gewusst und gar nicht erst einen Gegenstand auf der eigenen Fahrspur erfasst. Das Kamerasystem hat die Lastwagenplane falsch erkannt und die weiße Fläche nicht als Hindernis interpretiert.

Kameras – die Augen der Autos?

Kameras sind unseren menschlichen Augen ähnlich – sie fangen Bilder so ein, wie wir sie sehen, also in Farbe. Was Kamera-Aufnahmen jedoch fehlt, ist die dritte Dimension, die notwendig ist um Abstände zu messen. Diese Fähigkeit ist allerdings essentiell, wenn es darum geht, Gegenständen auszuweichen. Das menschliche Gehirn interpretiert die aufgenommenen 2D-Informationen um Entfernungen abzuschätzen. Kameras benötigen hierzu eine Bilderkennungssoftware.

Die Beatles als 3D-Zeichnung auf einem Zebrastreifen
Aufgezeichnete Menschen werden von einer Bilderkennungssoftware genauso identifiziert, wie tatsächliche Menschen

Das Problem an der Bilderkennung: Um Bilder interpretieren zu können, müssen Algorithmen lernen, indem erlebte Situationen gelabelt und gespeichert werden. Dies wird mit Hilfe von Künstlicher Intelligenz, Machine Learning und Tausenden von Testkilometern – real und in Simulation – erreicht. Doch was passiert, wenn das Fahrzeug auf eine unbekannte Situation trifft? Diesen so genannten „Long Tail“ abzudecken, also all jene Situationen aufzunehmen, die nicht zum alltäglichen Fahren gehören und als außergewöhnlich bezeichnet werden können, ist eine bislang ungelöste Herausforderung. Solange diese besteht, kann eine Kamera nicht als alleinige Sensorik, auf der automatisierte Fahrfunktionen basieren, herhalten. Die notwendige Interpretation der Kameradaten durch Algorithmen schafft Raum für Fehler und Fehler gefährden die Sicherheit der Verkehrsteilnehmer.

LiDARs: Keinen Interpretationsspielraum lassen

Sensortechnologien wie LiDAR bieten keinen Interpretationsspielraum in der Frage, ob sich ein Objekt auf der Fahrbahn befindet, indem sie Laserstrahlen aussenden, die von umgebenden Objekten abprallen und anschließend vom Sensor wieder aufgefangen werden. Sie nehmen von vornherein 3D-Daten auf und überspringen somit den Zwischenschritt der Umwandlung von 2D in 3D. Befindet sich ein Hindernis vor dem Fahrzeug auf der Straße, dann erkennen LiDAR-Sensoren dies frühzeitig und zuverlässig und detektieren die genauen Abmaße und vor allem den Abstand zum Fahrzeug.

Klassifizieren von Objekten

Nun kann allerdings auch entscheidend sein, was für ein Objekt sich in der Fahrbahn des Fahrzeugs befindet. Denn nicht jedes Objekt stellt auch gleich ein Hindernis dar, dass eine Bremsung herbeiführen sollte. Die verschiedenen Sensor-Technologien klassifizieren Objekte auf unterschiedliche Art und Weise: LiDAR-Sensoren beispielsweise identifizieren Punkte-Cluster in den Sensor-Daten. Anhand der Größe dieser Cluster lassen sich Objekte in Kategorien, wie etwa Autos, Motorräder oder Fußgänger einteilen. Um beispielsweise eine aufgewehte Plastiktüte als eben solche und damit ungefährlich zu identifizieren, ist jedoch die Auswertung der Kameradaten wieder hilfreich, die, wie bereits beschrieben, auf Bilderkennungssoftware zurückgreift. Auch um etwa Straßenschilder zu erkennen, werden Kameras benötigt, da LiDAR-Sensoren keine Farben aufzeichnen.

LiDAR-Sensoren für mehr Sicherheit

Somit hat jede Sensor-Technologie ihre Vor- und Nachteile und ihre Daseinsberechtigung. Vielmehr noch: Es ist deutlich, dass die Redundanzen in einem Sensorverbund nötig sind, um die Sicherheit von Fahrzeugen mit automatisierten Fahrfunktionen zu gewährleisten. Keine der Sensortechnologien wird alleinstehend autonomes Fahren ermöglichen. Zwischenfälle, wie der oben genannte Unfall in Taiwan, zeigen zudem deutlich, dass in den Sensorverbünden nicht auf LiDAR-Sensoren verzichtet werden darf. Denn automatisierte Fahrzeuge müssen in erster Linie eines sein: Sicher. Mit LiDAR-Sensoren kommen autonome Fahrzeuge diesem Ziel einen großen Schritt näher.

Beitrag teilen

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
Email
Es geht nicht ohne LiDAR!

Keine Neuigkeiten mehr verpassen?

Abonnieren Sie unseren Newsletter für regelmäßige Updates.

Das könnte Sie ebenfalls interessieren

Florian Petit
Mobilität der Zukunft
Selbstständig einparken können Autos heute schon – doch was kommt als Nächstes? Automatisierte Autobahnfahrt oder doch gleich die Möglichkeit am Steuer ein Nickerchen zu machen? Wie sieht die deutsche Gesetzgebung dahingehend aus und was wollen die Nutzer?
Florian Petit
Mobilität der Zukunft
Die Welt bewegt sich in zügigem Tempo auf die Einführung autonomer Fahrzeuge zu - aber inwiefern wird sich diese Entwicklung auf die Umwelt auswirken? In diesem Blogpost werfen wir einen Blick auf die wichtigsten wirtschaftlichen, sozialen und verhaltensbezogenen Faktoren der autonomen Revolution und ihr Einfluss auf die Vision einer grünen Zukunft.
Florian Petit
Mobilität der Zukunft
Damit Fahrzeuge autonom fahren können, müssen sie ihre Umgebung mit Hilfe von Sensoren erfassen: Kamera-, Radar-, Ultraschall- und LiDAR-Sensoren im Überblick.

Kommende Events

ITS World Congress

11.10.2021
- 15.10.2021
Hamburg

DVN

15.11.2021
- 16.11.2021
Frankfurt

Security Expo

24.11.2021
- 25.11.2021
Munich