Blickfeld Cube 1 LiDAR sensors

Mit den LiDAR-Mythen aufgeräumt – Teil 1

Die LiDAR-Technologie bietet in vielen verschiedenen Anwendungsbereichen einen großen Mehrwert und hat das Potential, ganze Anwendungsfelder zu revolutionieren – doch es ranken sich auch zahlreiche Mythen und falsche Annahmen um die Technologie. Wir haben einmal zusammengetragen, welche Mythen uns am häufigsten zu Ohren kommen und hoffen, mit ihnen in dieser zweiteiligen Artikelserie aufräumen zu können.
Florian Petit Blickfeld founder

Die Welt wird intelligenter und effizienter – dank Technologien wie LiDAR, die sich daher in den letzten Jahren immer größerer Beliebtheit erfreut. Doch trotz der wachsenden Bekanntheit der Technologie, halten sich einige LiDAR-Mythen, etwa über die Relevanz und Leistung der Technologie, hartnäckig. In diesem Artikel wollen wir sechs dieser Mythen diskutieren und sie aufklären.

1. Mythos: Die LiDAR-Technologie ist sehr kompliziert

LiDAR-Sensoren sind zwar recht komplex und bestehen aus verschiedenen Hardware-Komponenten, aber das zugrunde liegende Funktionsprinzip ist tatsächlich nicht zu kompliziert. Der Sensor arbeitet mit dem Laufzeitprinzip, ähnlich wie Fledermäuse mit Schallwellen oder Radare mit Mikrowellen.

Zerlegt man den Sensor in seine Komponenten Laser, Detektor und die Strahlablenkungseinheit (im Fall von Blickfeld sind dies die MEMS-Spiegel) und betrachtet diese einzeln, erscheint LiDAR nicht mehr so komplex: Die Laserquelle schießt Laserpulse aus, die von den Spiegeln auf die Szene abgelenkt werden, und der Detektor fängt anschließend das reflektierte Licht wieder auf. Die Zeit zwischen dem Aussenden und dem Zurückkommen des Laserpulses wird gemessen und auf dieser Basis werden exakte Entfernungen berechnet.

Wiederholt man diesen Vorgang Tausende oder sogar Millionen Mal pro Sekunde, entsteht eine präzise 3D-Karte der Umgebung in Echtzeit. Diese 3D-Karte enthält Daten, die sich leicht analysieren und z. B. für autonome Fahrentscheidungen nutzen lassen. 

Die LiDAR-Technologie wurde in den frühen 1960er Jahren nach der Erfindung des gepulsten Lasers entwickelt, der Lichtimpulse anstelle einer kontinuierlichen Welle aussendet.

Mehr über die LiDAR-Technologie und ihre Funktionsweise erfahren Sie in diesem Artikel.

Nummer 1 der LiDAR-Mythen: Die Technologie ist zu komplex. Hier ist das Funktionsprinzip vereinfacht erklärt.
Das Funktionsprinzip des LiDAR


2. Mythos: Autonomes Fahren kann ohne LiDAR-Sensoren umgesetzt werden

2019 hat Elon Musk berühmterweise auf einer Konferenz den Satz gesagt, dass LiDAR eine Krücke sei und den Nutzen der Technologie für autonome Fahrzeuge gänzlich verneint, was für viel Verwirrung und Aufregung rund um das Thema sorgte. Musk, und damit Tesla, setzt auf Kameras und ergänzende intelligente Algorithmen, die die Kamerabilder auswerten. LiDAR Daten sind für Musk damit überflüssig.

Während Kameras für das Farbsehen und etwa das Erkennen von Straßenschildern und ähnlichem benötigt werden, birgt ihre Eigenschaft, nur 2D-Daten zu erfassen, Gefahren: Sie sind anfällig für optische Täuschungen und die Fehleinschätzung von Entfernungen. Wie einige tragische Fälle gezeigt haben, können diese Fehler gefährlich und sogar tödlich sein.  

Im Gegensatz dazu erfassen LiDAR-Sensoren ihre Umwelt, und damit Entfernungen und Dimensionen, zuverlässig in 3D, sodass kein Raum für Interpretation bleibt.

Diese präzisen 3D-LiDAR-Daten helfen in Situationen, in denen Kameras „blind“ werden können, z. B. bei starker Veränderung von Lichtverhältnissen nach der Ausfahrt aus einem Tunnel oder bei der Erkennung von Objekten, die durch Hindernisse teilweise verdeckt werden. Zudem reichen die von Kameras generierten 2D-Daten in ihrer Detailtiefe nicht aus, um mit ihnen Machine Learning (ML) Algorithmen für das autonome Fahren zu speisen. Selbstlernende Algorithmen ermöglichen das autonome Fahren, da sie, auf der Basis von Sensordaten, lernen die Umwelt des Fahrzeugs zu interpretieren und Handlungsanweisungen aus Situationen abzuleiten. Dabei müssen sie den so genannten „Long Tail“ abdecken.

Das bedeutet, dass es nicht ausreicht, nur die 95 % der Szenarien abzudecken, mit denen Fahrzeuge tagtäglich auf der Straße konfrontiert sind. Die ML-basierten autonomen Fahrfunktionen müssen auch für die kniffligen 5 % der seltenen, aber möglichen, Fälle trainieren und gleichzeitig ihre Leistung kontinuierlich verbessern, was für ein reines Kamerasystem enorme Mengen an Trainingsdaten erfordert.

3. Mythos: LiDAR kann durch andere Sensoren ersetzt werden


Man hört immer wieder, dass LiDAR-Sensoren durch Kameras oder Radarsensoren ersetzbar sind. Um zu verstehen, warum dies nicht der Fall ist, werfen wir einen Blick darauf, wie unterschiedlich diese Sensortechnologien Objekte klassifizieren. Um die komplementären Funktionen zu schätzen ist es wichtig, die unterschiedlichen Stärken dieser Sensoren und die Art der erzeugten Daten zu verstehen.

  • Kameras erstellen eine visuelle Repräsentation der Welt in einem 2D-Bild und liefern Graustufen- oder Farbinformationen, Textur- und Kontrastdaten. Um diese Daten für weitere Anwendungen zu analysieren, wird eine Bilderkennungssoftware benötigt. Da Kameras ein passives Messprinzip verwenden, müssen Objekte zur Erkennung zudem beleuchtet werden. Um 3D-Bilder zu erzeugen, werden zwei oder mehr Kameras sowie eine hohe Rechenleistung benötigt.
  • Radar-Sensoren messen 3D-Informationen und messen Entfernung und Geschwindigkeit eines Objekts mit großer Präzision. Allerdings ist die Auflösung von Radardaten zu gering, um Objekte genau, also im Zentimeterbereich, zu erkennen und damit klassifizieren zu können.
  • LiDAR-Sensoren erfassen Punkte in 3D und erstellen Punktwolken aus den Sensordaten. Objekte werden als Punktcluster dargestellt und basierend auf der Größe dieser Cluster präzise erkannt, sodass sie sogar in verschiedene Kategorien wie Personen, Autos, Gebäude usw. eingeteilt werden können.

LiDAR sammelt sehr detaillierte und zuverlässige 3D-Informationen und gleicht damit Schwächen anderer Sensortechnologien aus. Basierend auf der Kategorisierung von Objekten anhand von LiDAR-Daten können Kamera-Daten für eine tiefer gehende Analyse und anschauliche Darstellung genutzt werden. In ähnlicher Weise können Entfernungs- und Geschwindigkeitsdaten, die von einem Radar erfasst wurden, mit einem LiDAR verifiziert werden, um eine höhere Genauigkeit zu erreichen. Das bedeutet, dass alle sensorbasierten Anwendungen von einem Mix aus Kameras, Radarsystemen und LiDAR-Sensoren sowie anderer Sensorik profitieren können.

Sensor-Suite mit Rundum-Erfassung durch LiDAR
Sensor-Suite mit Rundum-Erfassung durch LiDAR


4. Mythos: LiDAR-Sensoren funktionieren nicht in schlechten Umgebungsbedingungen


Kameras funktionieren in der Regel nicht ohne ausreichende Umgebungsbeleuchtung, und in Fahrzeugen kann eine Kamera z. B. nur so weit wie die Scheinwerfer sehen. Im Gegensatz dazu kann die Reichweite eines LiDAR unabhängig von den Lichtverhältnissen mehrere hundert Meter betragen, da die Technologie auf Infrarot-Laserstrahlen statt auf sichtbares Licht setzt. Das bedeutet, dass ein autonomes Fahrzeug, das mit einem LiDAR-Sensor ausgestattet ist, im Stockdunkeln genauso gut fahren kann wie bei Tageslicht, selbst wenn die traditionellen Scheinwerfer ausgeschaltet wären. 

Auch bei schlechten Witterungsbedingungen wie Regen, Nebel, oder Schnee schneiden LiDAR-Sensoren besser ab, als andere Sensortechnologien.

Bei Regen beispielsweise, kommt den LiDAR-Sensoren ihr großer optischer Laserstrahl zu Gute: Selbst wenn er auf kleine Hindernisse (wie etwa Regentropfen oder Schneeflocken) trifft, ist nur ein Teil des Laserstrahls blockiert, weshalb die Reichweite von LiDAR zwar beeinflusst wird, der Sensor aber im Regen nicht unbrauchbar wird. Dies ist möglich durch eine Funktion, die sich „Multiple Return“ nennt. Hierbei nimmt der Sensor wahr, wenn der Laserstrahl auf mehrere „Objekte“ trifft und verarbeitet nur das Signal, das am stärksten zurückkommt. Die Reflektionen von Schneeflocken beispielsweise werden somit nicht als Objekte aufgezeichnet, sondern nur tatsächliche Gegenstände als solche detektiert. Im Vergleich dazu ist die Pixelgröße von Kameras viel kleiner als Regentropfen, was folglich ihr Sichtfeld verdeckt.

Zudem haben LiDAR-Sensoren kürzere Expositionszeiten, beziehungsweise eine höhere Auslösegeschwindigkeit (ein Millionstel einer Sekunde), als Kameras (ein Tausendstel einer Sekunde), was bedeutet, dass ein Regentropfen nicht als Streifen über mehrere Pixel, sondern in seiner ursprünglichen Form erfasst wird.

Mit LiDAR erzeugte Punktwolke bei starkem Nebel im Vergleich zu einem mit der Kamera aufgenommenen Bild

Da LiDAR ein optisches Messystem ist, wird auch die Lasertechnologie bei Bedingungen wie starkem Regen, Nebel oder Schnee beeinträchtigt. Dennoch liefert der Sensor auch in schwierigen Umweltbedingungen mehr wertvolle Daten als manch andere Technologie, z.B. die Kamera, wie im Bild oben zu sehen.


5. Mythos: LiDAR-Sensoren sind teuer

Es gab eine Zeit, in der mechanische LiDAR-Sensoren die einzigen auf dem Markt erhältlichen waren. Dieser Sensor-Typ ist sehr teuer, groß und nicht automatisiert in großen Mengen produzierbar. MEMS (mikroelektromechanische Systeme) basierte Sensoren haben dies grundlegend geändert. Die MEMS-Komponenten werden aus Silizium gefertigt, was sie produktionsskalierbar und damit sehr kosteneffizient macht. Kombiniert mit anderen Standardkomponenten und einer Technologie, die keine regelmäßige Wartung benötigt, werden

Solid-State LiDAR-Sensoren deutlich erschwinglicher. In den letzten Jahren sind die Kosten für diese Sensoren von Tausenden von Dollar auf einige Hundert gesunken, und dieser Trend wird sich in Zukunft fortsetzen. In der Tat können Sensoren mit mittlerer Reichweite sogar zu dreistelligen Preisen erhältlich, wenn sie in großen Mengen produziert werden.


6. Mythos: MEMS-basierte LiDAR-Sensoren sind nicht besonders leistungsstark


Während Vorteile wie hohe Skalierbarkeit und niedrige Kosten oft mit MEMS-basierten Sensoren in Verbindung gebracht werden, besagt ein weit verbreiteter Irrglaube, dass diese Geräte eine geringe Reichweite haben. Dies rührt von der Tatsache, dass MEMS-Spiegel in der Regel sehr klein sind (daher der Begriff „Mikro“ in MEMS). Generell gilt: Je größer der Spiegel, desto größer der Erfassungsbereich und desto größer die Reichweite. Blickfeld hat einen eigenen MEMS-Spiegel mit beeindruckenden Abmessungen von mehr als 10 Millimetern entwickelt, mit dem ein hoher Anteil der Photonen auf den Photodetektor gelenkt werden und somit eine hohe Reichweite erzielt werden kann. 

MEMs have large mirrors that accentuate the range
MEMs LiDARs haben große Spiegel, die die Reichweite erhöhen

Der koaxiale Aufbau der Blickfeld-Sensoren ermöglicht zudem eine sehr effektive räumliche Filterung, so dass die Lichtphotonen genau aus der Richtung gesammelt werden, aus der sie ausgesendet wurden. Dies minimiert das Hintergrundlicht und ermöglicht ein sehr hohes Signal-Rausch-Verhältnis, was die Reichweite noch weiter erhöht.

Für mehr Information zu den Besonderheiten der von Blickfeld eingesetzten MEMS-Technologie finden Sie in diesem Blogpost.

Dies waren einige der gängigen LiDAR-Mythen über die Technologie und ihre Anwendungen. Den zweiten Teil der Serie, in dem wir weitere Missverständnisse aufklären und beseitigen werden, finden Sie hier auf dem Blog.

Florian Petit Blickfeld founder

Keine Neuigkeiten mehr verpassen!

Abonnieren Sie unseren Newsletter für Updates aus der Blickfeld-Welt.

Indem Sie den Newsletter der Blickfeld GmbH abonnieren, erklären Sie sich mit unserer Datenschutzerklärung und dem Tracking der Öffnungsrate einverstanden.

Das könnte außerdem interessant sein

Terrain top view stock image
Florian Petit
Die Welt der LiDAR-Technologie
Die LiDAR-Technologie tauchte bereits in den 60er Jahren auf und hat sich von der Anwendung in der Luft- und Raumfahrt zu Bereichen der Umwelterkennung wie dem autonomen Fahren von heute entwickelt.
MEMS mirrors
Mathias Müller
Die Welt der LiDAR-Technologie
Um die Anforderungen der Automobilindustrie zu erfüllen, müssen LiDAR-Sensoren hochleistungsfähig und skalierbar sein. MEMS-basierte LiDARs sind eine geeignete Lösung. Aber wie wird die Größe der Spiegel definiert?
Mathias Müller
Die Welt der LiDAR-Technologie
Warum ist die Blickfeld-Punktwolke augenförmig? Wie kann sie konfiguriert werden? Und welche Vorteile bringen diese Einstellungsmöglichkeiten für verschiedene Anwendungen mit sich?

Kommende Events

Perimeter Protection 2025

14. Januar
- 16. Januar, 2025
Nürnberg
Suche
Suche