Sensorfusion – Schlüsselkomponenten für autonomes Fahren

Damit Fahrzeuge autonom fahren können, müssen sie ihre Umgebung mit Hilfe von Sensoren erfassen: Kamera-, Radar-, Ultraschall- und LiDAR-Sensoren im Überblick.
Sensorfusion – Schlüsselkomponenten für autonomes Fahren

Wie Sensoren das autonome Fahren ermöglichen

Ein VW Käfer ist zwar schön anzusehen, würdigt seine Umgebung aber selber keines Blickes. Die Umgebung zu erfassen, wie wir Menschen es mit unseren Sinnen tun, ist jedoch essentiell, damit Autos autonom fahren können. Moderne Fahrzeuge sind deshalb mit verschiedenster Sensorik ausgestattet, die ihnen hilft, ihre Umgebung zu erfassen und somit den Fahrer zu unterstützen oder sogar von einzelnen Aufgaben wie zum Beispiel dem Einparken zu entbinden. Im Folgenden ein Überblick über die verschiedenen Sensoren für autonomes Fahren.

Die wichtigsten Fahrzeugsensoren für das Erfassen der Umgebung sind Kameras, Radar-, Ultraschall– und LiDAR-Sensoren. Mit Ausnahme von Kameras basieren sie alle auf dem Prinzip der Laufzeitmessung.

Wie unterscheiden sich all diese Perzeptionstechnologien und wo liegen ihre Stärken und Schwächen? Welcher Abstandssensor eignet sich am besten für das autonome Fahren? LiDAR versus Radar? Werden Autos zukünftig mit Hilfe von Kameras navigieren oder sollten Hersteller auf Sensorfusion setzen?

Laufzeitmessung kurz erklärt:

Bei der Laufzeitmessung werden indirekt Entfernungen und Geschwindigkeiten anhand der Zeit gemessen, die ein Signal benötigt, um auf ein Objekt zu treffen und wieder zurückgeworfen zu werden.  Dieses Prinzip ist in der Tierwelt zu finden und ist auch als Echoortung bekannt, die zum Beispiel Delfine oder Fledermäuse zur Orientierung nutzen.

Ein Blick auf die einzelnen Technologien gibt Aufschluss:

Farbig sehen dank Kameras

Kameras sind bereits fester Bestandteil neuer Serienfahrzeuge: Sie erleichtern das Rangieren und Einparken. Darüber hinaus ermöglichen Kameras beim Fahren zum Beispiel die adaptive Anpassung der Geschwindigkeit oder den Spurhalteassistenten. Neben der Anbringung im Außenbereich des Fahrzeugs sollen in naher Zukunft auch Kameras im Innenraum eingesetzt werden. Sie erkennen, ob der Fahrer zum Beispiel abgelenkt, nicht angeschnallt oder müde ist. Dies ist insbesondere für die nächsten Stufen im autonomen Fahren wichtig. Beispielsweise dann, wenn das Fahrzeug im Autobahnpilot fährt und der Fahrer stets bereit sein muss, die Kontrolle zu übernehmen.

Hochauflösende Farbbilder abhängig von Umwelteinflüssen

Die Aufnahmen von Kameras zeigen eine visuelle Repräsentation der Welt in Farbbildern. Dabei werden neben Farbinformationen auch Textur- und Kontrastinformationen gewonnen. Diese können mithilfe einer Software ausgewertet werden, um beispielsweise eine Fahrbahnmarkierung oder ein Verkehrsschild als solches zu identifizieren. Statische und sich bewegende Objekte werden präzise erfasst und erkannt. Da die Kameratechnologie auf einem passiven Messprinzip basiert, werden Gegenstände allerdings nur erfasst, wenn sie von Licht angestrahlt werden. Die Zuverlässigkeit von Kameras ist daher bei schwierigen Umweltbedingungen wie Schnee, Eis oder Nebel und bei Dunkelheit eingeschränkt. Darüber hinaus liefern Kameras keine Abstandsinformationen. Um 3D-Bilder zu erhalten, werden mindestens zwei Kameras, wie es etwa bei Stereokameras der Fall ist, oder eine Bilderkennungssoftware benötigt, was zu einem hohen Rechenaufwand führt.

Deep Dive: Mono- vs. Stereokamera
Generell kommen zwei unterschiedliche Systeme zum Einsatz: Mono- und Stereokameras. Worin unterscheiden sich die Systeme?

Monokameras (ein „Auge“), verfügen über eine Kameralinse sowie einen Bildsensor und liefern 2D-Bilder. Diese Bilder dienen unter anderem als Grundlage für den Spurassistenten, die Erkennung von Verkehrszeichen und die intelligente Scheinwerfersteuerung. Abstandsmessungen sind allerdings nicht möglich. Entfernungen können nur mithilfe komplexer, oft selbstlernender Algorithmen errechnet werden.

Stereokameras (zwei „Augen“) sind die teureren und größeren Systeme. Sie bestehen aus zwei Kameralinsen und zwei Bildsensoren. Stereokameras nehmen zwei Bilder aus unterschiedlichen Winkeln gleichzeitig auf. Durch deren Abgleich wird eine 3D-Abbildung erzeugt. Diese ermöglicht die Errechnung von Entfernungen und Geschwindigkeiten, wodurch Abstände geschätzt werden können. Stereokameras kommen bereits bei einigen Serienfahrzeugen zum Einsatz und liefern Informationen für Fahrerassistenzsysteme wie die adaptive Geschwindigkeitsanpassung und den Notbremsassistenten.


Radar– Etablierter Abstandssensor

Radar-Sensoren (radio detection and ranging) haben dank der sogenannten „Radarfallen“ weitreichende Berühmtheit erlangt. In den letzten Jahrzenten wurden sie zudem für die Abstandsmessung im Fahrzeug verbaut, um unabhängig von Wetterbedingungen zuverlässige Daten für Systeme wie den Abstandshalter und Notbremsassistenten zu erhalten.

Wie messen Radar-Sensoren Abstände? Die Radartechnologie basiert auf dem Prinzip der Laufzeitmessung. Die Sensoren senden dazu kurze Impulse in Form von elektromagnetischen Wellen (Radiowellen) aus, die sich nahezu in Lichtgeschwindigkeit ausbreiten. Sobald diese auf ein Objekt treffen, werden sie reflektiert und zurückgeworfen.

Je kürzer der Zeitabschnitt zwischen Aussenden und Auffangen, desto näher ist das Objekt.

Auf Grundlage der Ausbreitungsgeschwindigkeit der Wellen kann somit der Abstand zum Objekt berechnet werden, sodass Entfernungen genau bestimmt werden können. Durch die Aneinanderreihung mehrerer Messungen ermittelt die Fahrzeugsensorik auch Geschwindigkeiten. Dies ermöglicht zum Beispiel Fahrerassistenzsysteme, wie die adaptive Geschwindigkeitsanpassung und die Kollisionsvermeidung.


Witterungsbeständig mit eingeschränkter Auflösung

Radar-Sensoren sind robust, kostengünstig und liefern auch bei schlechten Witterungsbedingungen meist zuverlässige Daten. Größere Schwierigkeiten haben die Abstandssensoren allerdings bei der Identifikation und Unterscheidung von Objekten. Grund hierfür ist die geringe Auflösung der Radardaten, die dazu führt, dass Objekte erkannt, aber nicht klassifiziert werden können.







Deep Dive: Short- vs. Long-Range-Radar
Heutzutage kommen meist zwei verschiedene Radarsysteme zum Einsatz, um sowohl den Nah- und den Fernbereich abzudecken.

Short-Range-Radar: Der Nahbereich (bis zu 30 Meter) wird mit dem Short-Range-Radar erfasst, der meist auf einem Frequenzband im 24GHz Spektrum basiert. Er ist kompakt, hat geringe Interferenzprobleme und ist die kostengünstigere Variante. Mithilfe des Short-Range-Radars werden zum Beispiel Ein- und Ausparkmanöver erleichtert, der tote Winkel überwacht und der Fahrer vor Kollisionen gewarnt.

Long-Range-Radar: Um Objekte und Fahrzeuge auch in Entfernungen von bis zu 250 Metern zu detektieren und deren Geschwindigkeit zu messen, wird der Long-Range-Radar eingesetzt. Dieser nutzt Frequenzen zwischen 76 GHz und 77 GHz und verfügt über eine höhere Leistung. Allerdings können aufgrund der niedrigen Auflösung Objekte in großer Entfernung nicht immer zuverlässig selektiert werden. Da der Long-Range-Radar unter anderem den Notbremsassistenten und die adaptive Geschwindigkeitsanpassung auch bei hohen Geschwindigkeiten ermöglicht, spielt er für die nächsten Schritte im autonomen Fahren wie zum Beispiel den Autobahnpiloten eine wichtige Rolle.


Ultraschall – Spezialist im Nahbereich

Kaum ein Fahrzeug ist heutzutage nicht mit einer Einparkhilfe ausgestattet. Nähert sich das Fahrzeug zum Beispiel einem Parkplatzpfosten, ertönt ein Warnton und im Bordcomputer werden farbige Balken anzeigt. Diese Hinweissignale geben Aufschluss darüber, wo genau sich der Pfosten im überwachten Bereich und somit im direkten Umfeld des Fahrzeuges befindet. Ermöglicht wird dieses Assistenzsystem durch mehrere Ultraschallsensoren, die meist in den Stoßfängern rund um das Fahrzeug eingebaut sind.

Ultraschall basiert ebenfalls auf dem Prinzip der Laufzeitmessung. Hierbei werden Schallwellen, für das menschliche Ohr unhörbar, in einer Wellenfrequenz von 20.000 Hz ausgesendet. Neben der Einparkhilfe, werden Ultraschall-Sensoren auch zur Überwachung des toten Winkels sowie bei Notbremsassistenten eingesetzt.


Kompakter Abstandssensor mit begrenzter Reichweite

Ultraschall-Sensoren sind robust und liefern bei Nacht und Nebel zuverlässige Abstandsinformationen. Darüber hinaus sind sie kostengünstig und erfassen Objekte unabhängig von Material oder Farbe. Die Reichweite dieser Fahrzeugsensoren ist mit weniger als 10 Metern jedoch stark begrenzt, sodass diese Technologie nur im Nahbereich eingesetzt werden kann.




Deep Dive: Sonar
Im Zusammenhang mit Ultraschall fällt oftmals der Begriff Sonar, also die Anwendung von Ultraschall im maritimen Bereich.

Sonar (sound navigation and ranging): Sonar ist eine Messtechnik die Schallwellen, meist Ultraschall, zur Ortung nutzt und überwiegend unter Wasser zum Einsatz kommt, da die Ausbreitung des Schalls vor allem bei hohen Frequenzen deutlich verlustärmer ist als in der Luft. Basierend auf der Geschwindigkeit des Schalls unter Wasser und der Reflektionszeit vom Objekt, kann die Entfernung berechnet werden.


LiDAR – Zuverlässige Umgebungsinformationen in 3D

Im Gegensatz zu Ultraschallsensoren sind LiDAR-Sensoren (light detection and ranging) sowohl für den Nah- als auch für den Fernbereich geeignet. Obwohl sie bereits seit vielen Jahren existieren, kommen sie erst seit den 2000er Jahren verstärkt im Fahrzeug zum Einsatz. LiDAR gilt als Schlüsseltechnologie für höhere Autonomielevel.

Schlüsseltechnologie LiDAR: Eine wesentliche Prämisse für die nächste Stufe im autonomen Fahren ist die Vermeidung von Kollisionen. Dafür werden zuverlässige und hochauflösende 3D-Daten benötigt. Diese Daten liefert einzig LiDAR auch bei einer hohen Geschwindigkeit und für eine hohe Reichweite.

Auch die LiDAR-Sensoren basieren auf dem Prinzip der Laufzeitmessung. Statt Radio- oder Ultraschallwellen senden sie Laserpulse aus, die von einem Objekt reflektiert und von einem Photodetektor wieder aufgenommen werden. LiDAR-Sensoren senden bis zu einer Million Laserpulse pro Sekunde aus und fassen die Ergebnisse in einer hochauflösenden 3D-Karte der Umwelt zusammen.


Hohe Auflösung bei großer Reichweite

Diese sogenannten Punktwolken sind so detailliert, dass Objekte nicht nur erkannt, sondern auch kategorisiert werden können. So kann zum Beispiel ein Fußgänger von einem Fahrradfahrer unterschieden werden. LiDAR-Sensoren haben eine hohe Reichweite, sind robust und liefern somit weitgehend unabhängig von Umwelteinflüssen zuverlässige Daten, anhand derer Fahrzeuge im Stande sind, die richtigen Fahrentscheidungen abzuleiten. In der Vergangenheit waren die Sensoren allerdings oftmals sehr teuer, was vor allem an dem komplexen und wartungsintensiven Aufbau der mechanisch rotierenden Geräte lag. Dank der Solid-State-Bauweise, die sich zunehmend etabliert, werden die Kosten der hochauflösenden 3D-Sensoren stark allerdings gesenkt.  

Deep Dive: Rotierend vs. Solid-State LiDAR
Zwei der populärsten LiDAR-Systeme sind die rotierenden Sensoren und die Solid-State Sensoren:

Mechanisch rotierende LiDAR-Systeme: Mechanische Systeme nutzen Getriebe und Motoren, um die Laserdioden zu rotieren und so die Laserpulse über die Umgebung zu lenken. Aufgrund der Drehung wird ein Blickfeld mit bis zu 360° ermöglicht. Der manuelle Aufbau ist jedoch komplex und kostenintensiv. Stückpreise sind deshalb auch in großen Mengen für den Einsatz in Serienfahrzeugen zu teuer. Aufgrund der Bauweise sind mechanisch rotierende Sensoren außerdem zum Beispiel bei Erschütterungen empfindlicher. Aktuell werden sie unter anderem in Robotaxi-Flotten eingesetzt.

Solid-State LiDAR-Systeme: Diese Bauart basiert auf Halbleitertechnik und verzichtet auf mechanisch freibewegliche Teile. Die Systeme sind dadurch weniger komplex, kompakter und wartungsfrei. Sie sind sie zudem kostengünstiger und lassen sich besser in Serie produzieren. Solid-State LiDAR-Systeme spielen somit für die nächsten Schritte im autonomen Fahren eine entscheidende Rolle, da sie den Einsatz in Serienfahrzeugen jeglicher Fahrzeugklasse ermöglichen.


Stärken nutzen durch Sensorfusion

Für das autonome Fahren steht Sicherheit an erster Stelle und dafür müssen die Fahrzeuge ihre Umgebung stets detailliert im Blick haben. Um dies zu ermöglichen, können sich Kamera-, Radar, Ultraschall- sowie LiDAR-Sensoren als komplementäre Technologien ergänzen. Dabei geht es vor allem darum, die Stärken der einzelnen Fahrzeugsensoren zu nutzen, um mögliche Schwächen anderer auszugleichen und so in der Sensorfusion letztlich sicheres Fahren zu ermöglichen.

Beitrag teilen

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
Email
Sensorfusion – Schlüsselkomponenten für autonomes Fahren

Keine Neuigkeiten mehr verpassen?

Abonnieren Sie unseren Newsletter für regelmäßige Updates.

Das könnte Sie ebenfalls interessieren

Florian Petit
Mobilität der Zukunft
Selbstständig einparken können Autos heute schon – doch was kommt als Nächstes? Automatisierte Autobahnfahrt oder doch gleich die Möglichkeit am Steuer ein Nickerchen zu machen? Wie sieht die deutsche Gesetzgebung dahingehend aus und was wollen die Nutzer?
Florian Petit
Mobilität der Zukunft
Seit Elon Musk gesagt hat, dass LiDAR für das autonome Fahren nicht benötigt wird, herrscht eine rege Diskussion in der Branche. Geht es wirklich ohne LiDAR? Reichen Kameras aus, um sicher autonom zu fahren?
Florian Petit
Mobilität der Zukunft
Die Entwicklungsstufen bis zum autonomen Fahrzeug werden in fünf Level eingeteilt. Wie sieht diese Unterteilung aus und wie sind die einzelnen Level definiert?

Kommende Events

ITS World Congress

11.10.2021
- 15.10.2021
Hamburg

DVN

15.11.2021
- 16.11.2021
Frankfurt

Security Expo

24.11.2021
- 25.11.2021
Munich