Blickfeld LiDAR pointcloud background subtraction person

On-Device Bewegungserkennung minimiert LiDAR-Datenübertragung

LiDAR-Sensoren erzeugen hochgenaue Punktwolken und liefern damit die Basis für viele Anwendungen. Die Verarbeitung und Speicherung dieser Datenmengen ist jedoch eine Herausforderung. Wir erklären, wie man dieser gerecht wird und wie die On-Device Bewegungserkennung von Blickfeld dabei unterstützen.
Portrait Rolf Wojtech Blickfeld

Die Entwicklungen in der LiDAR-Technologie haben eine ganz neue Welt von Anwendungsfällen eröffnet. Die Möglichkeit, anonymisierte Entfernungsinformationen als Punktwolken zentimetergenau zu erfassen, eröffnet in verschiedenen Industrien spannende Perspektiven. Im Normalfall erfassen LiDAR-Sensoren ihre Umgebung und geben die gesamte Szene in Form einer Punktwolke aus, bevor jegliche Datenverarbeitungsschritten folgen. Die unverarbeiteten Punktwolken sind zwar für viele Anwendungen äußerst hilfreich, stellen aber auch eine technologische Herausforderung dar, da sie hohe Ressourcen für die Übertragung, Speicherung und Analyse der großen erzeugten Datenmengen erfordern.

On-Device Vorverarbeitung ermöglicht Bewegungserkennung

Blickfeld ist dieses Problem mit der Einführung eines Algorithmus angegangen, der direkte Bewegungserkennung auf dem Gerät ermöglicht und dank dieser Vorverarbeitungsfunktionen die Blickfeld Sensoren zu Smart LiDARs macht. Erreicht wird dies, indem der statische Hintergrund bereits  auf dem Gerät selbst unter Verwendung des im LiDAR integrierten Hochleistungs-System-on-Chip (SoC) abgezogen wird. Damit ermöglicht die neue Funktion die Extraktion aufschlussreicher Informationen, insbesondere die dynamische Bewegungserkennung, zu einem frühen Zeitpunkt in der Verarbeitungspipeline und erzeugt somit vorverarbeiteter Punktwolkendaten, die für die Analyse und Verarbeitung in den jeweiligen Anwendungen bereitgestellt werden. Obwohl es von der Menge der Aktivität in der Szene abhängt, führt der Algorithmus im Allgemeinen zu einer drastischen Reduzierung der zu übertragenden Datenmenge, insbesondere wenn die Szene überwiegend statisch ist. Wie im Beispiel, müssen >98% weniger Daten übertragen werden, da die Gesamtzahl der Datenpunkte von 8800+ auf nur ~ 163 reduziert wird, was eine lineare Reduzierung des Speichers und der Übertragungszeit zur Folge hat.

Die Gesamtzahl der Datenpunkte wird von 8800+ auf ~ 163 reduziert; >98% Reduzierung der Daten

Damit sind LiDAR-Sensoren besser in Anwendungen einsetzbar, die die Erfassung, Verfolgung und Analyse von bewegten Objekten in einer Vielzahl von Umgebungen beinhalten. Zu den Use Cases, die von dieser Funktion immens profitieren, gehören intelligente visuelle Überwachungs- und Trackingsysteme für den Verkehr und auf öffentlichen Plätzen wie Straßen, Bahnhöfen und Flughäfen sowie viele Sicherheitsanwendungen.

So funktioniert die Hintergrundsubtraktion

Der Algorithmus zum Abziehen des Hintergrunds, der die Bewegungserkennung ermöglicht, verwendet eine konfigurierbare Anzahl von Referenzrahmen, um statische Punkte (Hintergrund) in der Szene zu erfassen. Sobald die Referenzframes verarbeitet sind, entfernt er alle statischen Punkte aus der Punktwolke, indem er den erfassten Hintergrund mit dem aktiven Frame vergleicht und die nicht statischen Punkte (Vordergrund) erhält.

Punkte im aktiven Frame, die deutlich vom Hintergrund abweichen, werden als bewegte Objekte erkannt. Diese „Vordergrund“-Punkte werden dann sowohl zur Objektlokalisierung und -tracking als auch zur Bewegungserkennung für verschiedene Anwendungsfälle weiterverarbeitet.

Die Vorverarbeitungsfunktion für die Bewegungserkennung kann für eine Vielzahl von Anwendungen von großem Nutzen sein, z. B. für die folgenden:

On-Device-Bewegungserkennung für Personenzählung

Personenzählung wird in verschiedenen Umgebungen benötigt, z. B. in Flughäfen, Einzelhandelsgeschäften, Universitäten, Banken oder Freizeiteinrichtungen – im Grunde überall dort, wo Einblicke in die Bewegung von Kunden, Passanten oder Besuchern Mehrwert bringen können.

Die Berechnung der Anzahl von Personen, die eine bestimmte Zone passieren, kann beispielsweise für die Verbesserung von Abläufen und die Optimierung der Ressourcennutzung von Vorteil sein. So können etwa LiDAR-Sensoren am Eingang eines Supermarkts installiert werden, um die Umgebung in 3D zu erfassen.

Die vollständige Punktwolke bestehend aus statischem Hintergrund und dynamischem Vordergrund (Person): Der gelbe Kasten rechts ist die virtuelle Zählzone
Die vollständige Punktwolke bestehend aus statischem Hintergrund und dynamischem Vordergrund (Person): Der gelbe Kasten rechts ist die virtuelle Zählzone

Indem eine Zone definiert wird, die Personen zählt, die das Geschäft betreten oder verlassen, kann berechnet werden, wie der Personalbedarf während verschiedener Betriebskosten normalerweise aussieht und dieser somit optimiert werden. Dies senkt auf lange Sicht Betriebskosten.

Die Vorverarbeitung führt dazu, dass nur das dynamische Objekt (Person) in dieser Punktwolke übertragen wird. Die weitere Nachbearbeitung erzeugt abstrakte und verwertbare Informationen: Das als Person klassifizierte Objekt hat das Zähltor überquert
Die Vorverarbeitung führt dazu, dass nur das dynamische Objekt (Person) in dieser Punktwolke übertragen wird. Die weitere Nachbearbeitung erzeugt abstrakte und verwertbare Informationen: Das als Person klassifizierte Objekt hat das Zähltor überquert

Der erzeugte Datenfeed würde jedoch auch viele statische Objekte wie Türen, Theken, Lebensmittelregale usw. festhalten. Mit dem Algorithmus zur Hintergrundsubtraktion würden nur die sich bewegenden Datenpunkte, also die Personen, über die Verbindung übertragen werden, wodurch die Belastung der Netzwerkressourcen drastisch reduziert wird. Um genau zu sein, betrug in diesem Fall die Gesamtdatenmenge vor der Hintergrundsubtraktion ~3 MB/s pro Sensor, die auf ~0,2Mb/s pro Sensor reduziert wurde.

On-Device-Bewegungserkennung für Verkehrsüberwachung:

LiDAR-basierte Verkehrsüberwachungssysteme haben großes Potential, da sie 3D-Daten in Echtzeit und anonymisiert liefern. Dies bedeutet, dass das System zwar zwischen einem Fußgänger oder einem Radfahrer in gemischten Verkehrssituationen unterscheiden kann, eine Identifizierung von Einzelpersonen jedoch nicht möglich ist, wodurch die Privatsphäre der Verkehrsteilnehmer geschützt ist.  Detailliertere Anwendungen, wie z. B. die Erfassung der Bewegungsdaten verschiedener Verkehrsteilnehmer und anderer Metriken, wie z. B. die Durchschnittsgeschwindigkeit pro Fahrspur, die Anzahl der Fahrzeuge pro Fahrspur, die Verweildauer der Fahrzeuge, die Anzahl der Personen und die Durchschnittsgeschwindigkeit der Fußgänger, können mit LiDAR-Sensoren, die in  Verkehrsüberwachungssysteme integriert sind, berechnet werden. Aber auch bei der Verkehrsüberwachung fallen zu jedem Zeitpunkt riesige Datenmengen an, sodass ein dringender Bedarf an intelligenten Lösungen zur Reduzierung des Rechenaufwands besteht.

On-Device Bewegungserkennung Überwachung von Verkehrsknotenpunkten mit der geräteinternen Bewegungserkennung von Blickfeld Smart LiDAR
Überwachung von Verkehrsknotenpunkten mit der geräteinternen Bewegungserkennung von Blickfeld Smart LiDAR

Analysieren wir beispielsweise eine typische Kreuzung, die mit unseren Smart LiDARs überwacht wird. Eine Punktwolke würde nicht nur aus den Fahrzeugen und Fußgängern bestehen, die sich einer Kreuzung nähern, sondern auch aus statischen Objekten in und um die Szene herum, wie z. B. Bürgersteige, Straßen und Gebäude, wie in der „vollständigen Szene“.

Die On-Device Datenanalysefunktionen des Smart LiDAR würden jedoch die statischen Objekte identifizieren und den Hintergrund entfernen, sodass nur die dynamischen Objekte im Vordergrund wie der Fußgänger und das fahrende Auto übrig bleiben, die als „Vordergrund“ bezeichnet werden.

Dieser Schritt kann die zu verarbeitende Datenmenge deutlich reduzieren und damit die Genauigkeit und Geschwindigkeit der Objekterkennung verbessern und gleichzeitig die Belastung des Netzwerks bei der Übertragung der Daten verringern.

LiDAR-Technologie auf dem Vormarsch

LiDAR entwickelt sich zu einer der vielversprechendsten sensorbasierten Technologien und definiert die Zukunft intelligenter Anwendungen, indem sie räumliche Daten und Insights mit höchster Genauigkeit bieten. Die Smart LiDARs von Blickfeld haben dies auf die nächste Ebene gebracht, indem sie mithilfe der Vorverarbeitungsalgorithmen schnell und einfach verwertbare Erkenntnisse aus Punktwolken extrahieren.

Beginnend mit dem Algorithmus zur dynamischen Bewegungserkennung hat sich die On-Device Hintergrundsubtraktion bereits in vielen Projekten bewährt. Und mit der Erweiterung der Bibliothek an Vorverarbeitungsalgorithmen werden sich viele Möglichkeiten für komplexere Interpretationen der Umgebung und Anwendungsfälle eröffnen, wodurch die Zugänglichkeit und der Nutzen von LiDAR-Sensoren für alle Anwender erhöht wird.

Portrait Rolf Wojtech Blickfeld

Keine Neuigkeiten mehr verpassen!

Abonnieren Sie unseren Newsletter für Updates aus der Blickfeld-Welt.

Indem Sie den Newsletter der Blickfeld GmbH abonnieren, erklären Sie sich mit unserer Datenschutzerklärung und dem Tracking der Öffnungsrate einverstanden.

Das könnte außerdem interessant sein

Laptop Blickfeld Percept zone configuration
Rolf Wojtech
Die Software hinter der Technologie
Chief Software Architect Rolf Wojtech stellt die Software-Lösung Blickfeld Percept vor
LiDAR pointcloud person in bounding box
Rolf Wojtech
Die Software hinter der Technologie
Was passiert nachdem ein LiDAR-Sensor Umgebungsdaten gesammelt hat? Wie werden aus Punktwolken Informationen generiert, mit denen Anwendungen wie die Steuerung von Menschenmassen umgesetzt werden?
Rolf Wojtech
Die Software hinter der Technologie
Die Grundlage für die Umsetzung LiDAR-basierter Anwendungen ist die Extraktion von Informationen aus den 3D-Daten. Diese Informationen beginnen in den meisten Fällen mit der Detektion und dem Tracken von Objekten. Wie funktioniert das?

Kommende Events

The Security Event

30. April
- 2. Mai, 2024
Birmingham
BWSV SecTec Kongress für Sicherheitstechnik

BVSW SecTec Kongress für Sicherheitstechnik

11. Juli
- 12. Juli, 2024
München
Logo Security Essen

security essen

17. September
- 20. September, 2024
Essen
Suche
Suche