{"id":4205,"date":"2020-04-30T14:19:26","date_gmt":"2020-04-30T14:19:26","guid":{"rendered":"https:\/\/v220210444402149283.megasrv.de\/blog\/objektdetektion\/"},"modified":"2025-06-06T08:39:53","modified_gmt":"2025-06-06T08:39:53","slug":"lidar-daten-verarbeitung","status":"publish","type":"blog","link":"https:\/\/www.blickfeld.com\/de\/blog\/lidar-daten-verarbeitung\/","title":{"rendered":"Mit dem Kopf in den (Punkt-)Wolken"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\"><strong>Verarbeitung von LiDAR-Daten zur Objektdetektion<\/strong><\/h2>\n\n\n\n<p>LiDAR-Sensoren produzieren Punktwolken, die die Sensorumgebung in 3D abbilden. Diese aus Abstandspunkten bestehende \u201eWolke\u201c liefert zahlreiche und wertvolle Umgebungsinformationen. F\u00fcr manche Anwendungen sind diese allerdings zu komplex zur Weiterverarbeitung: <a href=\"https:\/\/www.blickfeld.com\/de\/anwendungen\/crowd-analytics\/\" data-type=\"link\" data-id=\"https:\/\/www.blickfeld.com\/de\/anwendungen\/crowd-analytics\/\">Crowd Management<\/a>, <a href=\"https:\/\/www.blickfeld.com\/de\/blog\/verkehrsflussoptimierung-mit-lidar\/\" target=\"_blank\" rel=\"noreferrer noopener\">Verkehrs\u00fcberwachung <\/a>oder <a href=\"https:\/\/www.blickfeld.com\/de\/anwendungen\/security\/\">Perimeter\u00fcberwachung<\/a> etwa ben\u00f6tigen vielmehr eine Liste der im Blickfeld detektierten Objekte. Wie werden diese Informationen aus den LiDAR-Daten gewonnen?<\/p>\n\n\n\n<p>Schauen wir hierzu doch einmal auf einen konkreten Fall: Die Stadt Lidartown feiert ihr allj\u00e4hrliches Stadtfest. Es ist allerlei geboten, unter anderem wird auf einem gro\u00dfen Parkplatz im Stadtzentrum ein kostenloses Konzert gespielt. Der Zutritt der Zuschauenden wird also nicht \u00fcber Eintrittskarten reguliert, dennoch d\u00fcrfen sich aus Sicherheitsgr\u00fcnden nicht mehr als 1000 Personen auf dem Gel\u00e4nde aufhalten. Um dies sicherzustellen, installiert die Stadt einen LiDAR-Sensor, der den Eingangsbereich zum Konzertgel\u00e4nde \u00fcberblickt und somit erfasst, wer den Eingang passiert. Der Eingang ist dabei ein breiter Durchgang, durch den die Besucher das Gel\u00e4nde auch wieder verlassen. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Pr\u00e4zision und Anonymit\u00e4t durch 3D-Daten<\/strong><\/h2>\n\n\n\n<p>Ein LiDAR hat hier verschiedene Vorteile gegen\u00fcber L\u00f6sungen wie Kameras, Bewegungssensoren oder manuellem Z\u00e4hlen durch Mitarbeitende der Stadt: Zum einen erfasst er die Szene sehr detailliert und zuverl\u00e4ssig in Echtzeit. Normale Bewegungssensoren etwa haben ein Problem genaue Zahlen zu generieren, sobald mehrere Leute gleichzeitig eintreten: Laufen beispielsweise drei Personen nebeneinander, kann es passieren, dass die beiden au\u00dfen laufenden Personen zwar erfasst werden, die Person in der Mitte wird jedoch nicht mitgez\u00e4hlt. Zum anderen sch\u00fctzt der LiDAR die <strong>Privatsph\u00e4re<\/strong> der Konzertbesuchenden, indem er farblose 3D-Daten statt Kamerabilder und Gesichter verarbeitet. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Wie viele Menschen befinden sich auf dem Gel\u00e4nde?<\/strong><\/h2>\n\n\n\n<p>Der Einlass beginnt und viele Menschen str\u00f6men auf das Gel\u00e4nde. Dabei sammelt der Sensor Millionen von Abstandsdaten, die jedoch zur weiteren Verarbeitung f\u00fcr die Applikation des Besucherz\u00e4hlens zu komplex ist. Sie beinhalten f\u00fcr jeden aufgezeichneten Punkt x-, y- und z-Daten und setzen sich in einer Punktwolke zusammen. Der Veranstaltende ben\u00f6tigt diese Informationen jedoch nicht im Detail, sondern er braucht Daten, die ihm Auskunft \u00fcber die Anzahl der sich auf dem Gel\u00e4nde befindenden Besuchenden gibt. Im Grunde sind das drei Informationen, die in Echtzeit zur Verf\u00fcgung gestellt werden m\u00fcssen: Der Veranstalter muss wissen, wie viele Menschen den Eingang passieren. Die Software erkennt diese als Objekte in der Punktwolke. Zudem werden die Informationen \u00fcber den genauen Standort der identifizierten Person ben\u00f6tigt: Befinden sich die Menschen bereits hinter dem Eingang und damit auf dem Gel\u00e4nde oder stehen sie au\u00dferhalb der Begrenzungen, beispielsweise in der Schlange vor dem Eingang? Die dritte ben\u00f6tigte Information ist die der Bewegungsrichtung der Personen. So k\u00f6nnen auch Personen erfasst werden, die das Gel\u00e4nde wieder verlassen und damit von der anwesenden Menge abgezogen werden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Welche Punkte m\u00fcssen betrachtet werden?<\/strong><\/h2>\n\n\n\n<p>Wie werden\ngenau diese Daten aus den komplexen Punktwolkendaten gewonnen? Um das\nnachvollziehen zu k\u00f6nnen, schauen wir uns hier einen vereinfachten Algorithmus zur\nDatenauswertung an: Im ersten Schritt muss der Vordergrund vom Hintergrund differenziert\nwerden. Hierbei wird zun\u00e4chst wird die Szene analysiert und der Hintergrund abgezogen,\num Punktcluster erkennen zu k\u00f6nnen. Daf\u00fcr wird der statische Hintergrund in\neiner Punktwolke aufgezeichnet, bevor Besucher auf dem Gel\u00e4nde eintreffen.\nIndem der \u201eStatus Quo\u201c festgehalten wird, kann die Software feststellen, welche\nPunktgruppen ignoriert werden k\u00f6nnen, da sie statisch sind und zum Hintergrund\ngeh\u00f6ren. Mit diesem festgehaltenen Hintergrundbild wird, sobald Menschen auf\ndas Gel\u00e4nde kommen, jedes aufgenommene Bild abgeglichen, um eben diese Objekte\nzu detektieren. <\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-1 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"7467\" src=\"https:\/\/www.blickfeld.com\/wp-content\/uploads\/2021\/08\/people-clustering-with-background-zoom-in-3-1.png\" alt=\"\" class=\"wp-image-7467\"\/><figcaption class=\"wp-element-caption\">Vordergrund und Hintergrund<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"7469\" src=\"https:\/\/www.blickfeld.com\/wp-content\/uploads\/2021\/08\/background-2.png\" alt=\"\" class=\"wp-image-7469\"\/><figcaption class=\"wp-element-caption\">Hintergrund ohne Vordergrund<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"7465\" src=\"https:\/\/www.blickfeld.com\/wp-content\/uploads\/2021\/08\/only-people-zoom-in-3-1.png\" alt=\"\" class=\"wp-image-7465\"\/><figcaption class=\"wp-element-caption\">Vordergrund ohne Hintergrund<\/figcaption><\/figure>\n<\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Von H\u00fcllen und Boxen<\/strong><\/h2>\n\n\n\n<p>Kommen nun Besuchenden, \u00e4ndert sich die Punktwolke und neue Objekte sind durch Cluster in der Punktwolke zu erkennen. Sind diese im Abgleich mit dem Hintergrundbild nicht vorhanden, wird erkannt, dass ein bewegliches Objekt den Bereich betreten hat. Nach dem Prinzip der konvexen H\u00fclle wird nun eine so genannten <strong>Bounding Box<\/strong> um das Objekt gezogen. Die konvexe H\u00fclle beschreibt den kleinstm\u00f6glichen Umfang eines K\u00f6rpers, indem sie die \u00e4u\u00dfersten Punkte des Objektes miteinander verbindet. Die Bounding Box fasst das Objekt zur besseren Verarbeitung der Informationen in dem kleinstm\u00f6glichen Quader ein. Hier erfolgt also eine Datenreduzierung, die die Daten leichter handhabbar macht. <\/p>\n\n\n\n<p>Die Gr\u00f6\u00dfe dieser Bounding Box hilft bei der groben Klassifizierung des Objekts. Im Stra\u00dfenverkehr beispielsweise wird damit festgestellt, ob es sich um ein Auto, ein Fahrrad oder einen Person handelt. In unserem Beispiel-Fall des Stadtfest-Konzertes kann die Erfassung der Bounding Box-Gr\u00f6\u00dfe ebenfalls der Klassifikation von Objekten als Menschen dienen, auch wenn auf dem Gel\u00e4nde eher nicht mit Fahrr\u00e4dern oder Autos zu rechnen ist. Somit ordnet die Software die sich im Eingangsbereich befindenden Objekte der groben Kategorie \u201eMensch\u201c zu und ist in der Lage, die Anzahl eben dieser zu ermitteln. <\/p>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-2 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"7459\" src=\"https:\/\/www.blickfeld.com\/wp-content\/uploads\/2021\/07\/person-in-point-cloud-1.png\" alt=\"Person in LiDAR-Daten Punktwolke\" class=\"wp-image-7459\"\/><figcaption class=\"wp-element-caption\">Person in einer Punktwolke<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" data-id=\"7457\" src=\"https:\/\/www.blickfeld.com\/wp-content\/uploads\/2021\/07\/person-in-bounding-box-1.jpg\" alt=\"Person in einer Punktwolke, umfasst mit einer Bounding Box\" class=\"wp-image-7457\"\/><figcaption class=\"wp-element-caption\">Person in einer Punktwolke, umfasst mit einer Bounding Box<\/figcaption><\/figure>\n<\/figure>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Wie bewegen sich die Menschen?<\/strong><\/h2>\n\n\n\n<p>Die Gr\u00f6\u00dfe\nder Objekte im Eingangsbereich ist damit also identifiziert. Wie werden die\nweiteren ben\u00f6tigten Informationen zu Position und Bewegungsrichtung ermittelt? Die\nInformation \u00fcber die genaue Position der Menschen kann einfach aus der Bounding\nBox extrahiert werden, da diese den Kern der LiDAR-Information ausmacht \u2013\nLiDAR-Sensoren erfassen schlie\u00dflich Abst\u00e4nde. <\/p>\n\n\n\n<p>Die\nBewegungsrichtung kann beispielsweise festgestellt werden, indem der\nAlgorithmus die Position des Objekts in den vorangegangenen Frames beobachtet: Da\nbekannt ist, mit welchem zeitlichen Abstand Frames generiert werden, kann durch\nden Positionsabgleich des Objekts zwischen mehreren Frames einfach festgestellt\nwerden, wohin und wie schnell es sich bewegt. Entsprechend dieser\nGeschwindigkeit und der Bewegungsrichtung, kann der weitere Weg des Objektes\nantizipiert werden, sobald das gleiche Punktcluster in zwei oder mehr Frames\nidentifiziert wurde. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Das Ergebnis: Die Objektliste<\/strong><\/h2>\n\n\n\n<p>Diese Informationen werden in einer so genannten <strong>Objektliste<\/strong> zur Verf\u00fcgung gestellt. Diese Tabelle h\u00e4lt in jeder Zeile das detektierte Objekt und seine Eigenschaften, in unserem Fall die Gr\u00f6\u00dfe, Position und Bewegungsrichtung, fest. Daten in dieser Form k\u00f6nnen einfach weiterverarbeitet werden und erm\u00f6glichen im Konzert-Beispiel zu jedem Zeitpunkt die Ermittlung der genauen Personenanzahl auf dem Gel\u00e4nde. Dadurch wird erkannt, wann die Maximalanzahl an Besuchenden erreicht ist und der Einlass gestoppt werden muss. Zudem l\u00e4sst sich genau nachvollziehen, wann sich die meisten Menschen auf dem Gel\u00e4nde befinden oder wann am meisten Andrang am Eingang war. Diese Daten k\u00f6nnen f\u00fcr die Planung von zuk\u00fcnftigen Veranstaltungen n\u00fctzlich sein. <\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Geregelter Besucherstrom dank ausgewerteter\nLiDAR-Daten<\/strong><\/h2>\n\n\n\n<p>Die Stadt\nLidartown ist sehr zufrieden mit dem LiDAR-Einsatz auf dem Konzertgel\u00e4nde: Die\nSoftware in unserem Beispiel hat eine Benachrichtigung an die Veranstalter\nausgel\u00f6st, als die Besucherzahl 900 \u00fcberschritt. Somit konnte die Veranstaltungsleitung\nvon da an einen genaueren Blick auf die Besucherzahl haben, um rechtzeitig\neinen Einlassstopp zu veranlassen. W\u00e4hrend der restlichen Zeit konnte sie\njedoch andere Aufgaben verfolgen oder einfach der Band zuh\u00f6ren \u2013 der LiDAR\nhatte die wichtigen Dinge f\u00fcr sie im Blick. <\/p>\n","protected":false},"excerpt":{"rendered":"<p>Was passiert nachdem ein LiDAR-Sensor Umgebungsdaten gesammelt hat? Wie werden aus Punktwolken Informationen generiert, mit denen Anwendungen wie die Steuerung von Menschenmassen umgesetzt werden?<\/p>\n","protected":false},"author":5,"featured_media":3002,"template":"","blog-tags":[162,301,191],"blog-category":[154],"class_list":["post-4205","blog","type-blog","status-publish","has-post-thumbnail","hentry","blog-tags-datenverarbeitung","blog-tags-punktwolken","blog-tags-software-de","blog-category-lidar-software"],"_links":{"self":[{"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog\/4205","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/users\/5"}],"version-history":[{"count":2,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog\/4205\/revisions"}],"predecessor-version":[{"id":24539,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog\/4205\/revisions\/24539"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/media\/3002"}],"wp:attachment":[{"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/media?parent=4205"}],"wp:term":[{"taxonomy":"blog-tags","embeddable":true,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog-tags?post=4205"},{"taxonomy":"blog-category","embeddable":true,"href":"https:\/\/www.blickfeld.com\/de\/wp-json\/wp\/v2\/blog-category?post=4205"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}