Vergleich und Bewertung von 3D-Sensoren für mobile Roboter
Transcription
Vergleich und Bewertung von 3D-Sensoren für mobile Roboter
Seminar Vergleich und Bewertung von 3D-Sensoren für mobile Roboter Maike Kuhnert Betreuer Eingereicht am : : Dipl.-Inf. Stefan Czarnetzki 19. Oktober 2009 III Inhaltsverzeichnis 1 Einleitung 1.1 Grundlagen der 3D Sensorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Anwendungsgebiete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 3D-Laser-Entfernungsmesser 2.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Einsatzmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 5 3 Stereo-Vision Kameras 3.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Einsatzmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 8 4 Time-of-Flight Kameras 4.1 Funktionsweise . . . 4.2 bekannte Probleme 4.3 Bewertung . . . . . 4.4 Einsatzmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 9 10 12 12 5 Vergleich der vorgestellten 3D-Sensoren 13 6 Ausblick und Fazit 15 Literatur 16 IV Bildverzeichnis 1.1 Anwendungsgebiete von 3D Sensoren . . . . . . . . . . . . . . . . . . . . . . . . . . 2 2.1 3D Laser-Entfernungsmesser,Hukoyo URG-04LX [PBP08] . . . . . . . . . . . . . . . 3 3.1 Stereo-Vision Kamera, [Vid09] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Funktionsweise von Stereo-Vision [FH08] . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Vergleich von Oberflächen, betrachtet mit Stereo-Vision, [PBP08] . . . . . . . . . . . 6 6 7 4.1 4.2 4.3 4.4 Time-of-Flight-Kamera [PBP08] . . . . . . . . . . . . Prinzip von Time-of-Flight Messungen [RLS99] . . . Veränderung des Amplituden-Threshold-Parameter . fehlerhafte Messungen durch Reflektionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 10 11 12 1 1 Einleitung Heutzutage bekommen Sensoren, die die Bereitstellung von 3D-Datenbereichen unterstützen, immer mehr Aufmerksamkeit. Insbesondere Anwendungen, welche für unstrukturierte Umgebungen konzipiert wurden, können auf diese Art vereinfacht und zuverlässiger gestaltet werden. Beispiele hierzu sind vorallem die 3D-Wahrnehmung und das 3D-Mapping. Weiterhin können derartige Sensoren unterstützend in der Safety, Security und Rescue Robotik (SSRR) eingesetzt werden. Der wesentliche Vorteil von 3D-Daten ist, dass diese es ermöglichen Abschätzungen von Distanzen durchzuführen, um zum Beispiel realistische Karten von Katastrophengebieten zu zeichnen oder um verletzte Menschen von Schatten zu unterscheiden. Diese Arbeit beschreibt und bewertet zunächst drei unterschiedliche Arten von 3D Sensoren: ∙ 3D-Laser-Entfernungsmesser ∙ Stereo-Vision Kameras ∙ Time-of-Flight Kameras Hierbei werden die ersten beiden Technologien kurz vorgestellt. Die Betrachtung der Time-of-Flight Kameras fällt ausführlicher aus, da diese eine neue Technologie darstellen. Anschließend werden diese dann anhand eines Prototypen verglichen und in entsprechende Anwendungsgebiete einsortiert. 1.1 Grundlagen der 3D Sensorik Ziel der 3D-Sensorik ist es, Informationen nicht nur in 2D, sondern direkt in 3D aufzunehmen und so vorallem Informationen über Distanzen in den jeweiligen Messbereichen zu bekommen. Hierbei ist momentan der 3D-Laser-Entfernungsmesser die am häufigsten gebräuchlichste Technologie gefolgt von Stereo-Vision und Time-of-Flight-Kameras. Bei der Entwicklung von neuen Technologien ist besonders darauf zu achten, dass diese an ihren späteren Anwendungbereich angepasst werden. Zum Beispiel dürfen Sensoren für mobile Roboter nicht zu große Rechenanforderungen oder ein zu hohes Gewicht haben. 2 1 Einleitung 1.2 Anwendungsgebiete 3D Sensoren werden in vielen unterschiedlichen Bereichen eingesetzt. So gibt es beispielsweise neben der Kartenerstellung und Lokalisierung interessante Anwendungsgebiete wie z.B. 3Dsensorunterstützte, vorausschauende Sicherheitssysteme im Automobil. Ebenso finden diese aber auch in der plastischen und in der wiederherstellenden Chirurgie Verwendung. Die in dieser Ausarbeitung beschriebenen Sensoren beziehen sich in erster Linie jedoch auf 3D-Wahrnehmung und 3D-Mapping, d.h. Lokalisierung und Kartenerstellung im Bezug auf Nutzung in der autonomen Robotik. Bild 1.1: Anwendungsgebiete von 3D Sensoren 3 2 3D-Laser-Entfernungsmesser 3D-Laser-Entfernungsmesser sind die am meisten genutzte Technologie im 3D-Mapping. Viele von ihnen lassen sich jedoch aufgrund ihrer Größe und benötigten Rechenleistung, da sie normalerweise für geometrische Anwendungen konzipiert sind, nicht zusammen mit mobilen Robotern verwenden. Daher wird hier meistens ein 2D-Laser benutzt und dieser um eine dritte Dimension erweitert, z.B. durch eine spezielle Bewegung des Roboters. Den Betrachtungen in dieser Arbeit wird ein 2D-Laser-Sensor mit einer leicht nickenden Bewegung des Roboters zugrunde gelegt, vgl. [PBP08]. Bild 2.1: 3D Laser-Entfernungsmesser,Hukoyo URG-04LX [PBP08] 2.1 Funktionsweise Es gibt 2 verschiedene Funktionsweisen von Laserscannern: Zum einen gibt es punkt- oder auch streifenbasierte Laserscanner. Diese projizieren einen Laserstrahl oder auch einen Laserstreifen auf ein Objekt. Mithilfe von Sensoren, wie z.B. einer Kamera mit einer festen Position, wird dieser Punkt ermittelt und anschließend dann mit dem Prinzip der Triangulation der Abstand berechnet. Der anderen Methode liegt die Messung der Laufzeit des Lichtes zugrunde. Hierbei wird ein Laserstrahl zum Objekt gesendet und dort reflektiert, dabei wird gemessen wielange das Licht für die Strecke benötigt. Die Distanz 𝐷 zwischen 𝐴 und 𝐵 wird nun aus der Lichtgeschwindigkeit 𝑐 und der Zeit 𝑡, die das Signal von 𝐴 nach 𝐵 benötigt, berechnet: 𝐷= 𝑐𝑡 2 (2.1) 4 2 3D-Laser-Entfernungsmesser Die größte Schwierigkeit hierbei ist die Zeit 𝑡 möglichst exakt zu messen. Da die Zeiten sehr klein sind, muss die Zeit in Nanosekunden gemessen werden. Hierbei entspricht 1𝑚 genau 6, 67𝑛𝑠. Um in einem Bereich die Entfernungen zu messen, muss der 3D-Laser-Entfernungsmesser den Messbereich einzeln abtasten und somit für alle Punkte die Entfernungen abspeichern. Diese Technik benötigt natürlich eine gewisse Zeit um Informationen über den kompletten Messbereich aufzunehmen. Um dieses schneller zu gestalten wird der Laserstrahl mithilfe eines Spiegels abgelenkt, sodass man in einer Messung z.B. einen kompletten horizontalen Scan durchführen kann. Durch die nickende Bewegung des Roboters können dann viele dieser horizontalen Scans durchgeführt werden, so dass nach ca. 3 Sekunden Informationen über ein Messfeld von 240∘ × 90∘ vorliegen. 2.2 Bewertung Laser-Scanner stellen eine sehr erprobte, gut etablierte Technologie dar. Doch ist die Anwendung von 3D-Scanner momentan hauptsächlich auf geometrische Anwendungen ausgerichtet. Daher sind diese nur bedingt für die Nutzung auf mobilen Robotern geeignet, da Gewicht und Stromverbrauch zu groß sind. Eine Lösung sind hier 2D-Laser die zu 3D umfunktioniert werden. Die größten Vorteile dieser Technologie sind dann die geringe Größe, das geringe Gewicht und die geringen Rechenanforderungen. Sicherlich schwanken diese von Hersteller zu Hersteller, doch kann man Sensoren einsetzen, die gerade einmal 160g wiegen, dabei sehr kompakt sind (LBH in cm: 5, 5, 7) und einen geringen Stromverbrauch haben (2,5W). Wohingegen 3D-Sensoren schon mehrere Kilogramm wiegen und wegen des starken Laserstrahls, der wegen der späteren Exaktheit nötig ist, das 10fache und mehr an Leistung benötigen. Der größte Nachteil dieser Technik ist die Dauer eines Scans. Für das Abscannen von 90 Grad werden schon über 3 Sekunden benötigt. Das System aus [SNH03] benötigt 3.4 Sekunden um einen Scan mit 256×181 Datenpunkten in einem Messbereich von 240∘ ×90∘ zu erzeugen. Während eines Scans kann die Bewegung des Roboters somit nicht vernachlässigt werden. Hier existieren zwei mögliche Problemlösungen: Entweder muss der Roboter während des Scan-Vorgangs der Umgebung stoppen, oder es existiert eine Bewegung die eben diese Dauer kompensiert, d.h. die Bewegungen ist für den Scan-Vorgang optimiert. Ein anderer Nachteil ist, dass die Reichweite beschränkt ist. Die maximale Reichweite bei dem vorliegenden Sensor liegt bei ca. 4m. Andere Sensoren, die für mobile Roboter konzipiert wurden, liegen in ähnlichen Bereichen. Mit 3D-Laserscannern ist die Reichweite natürlich wesentlich höher, doch sind diese wie schon erwähnt, nicht für den Einsatz auf mobilen Robotern Wie sich im Verlauf dieser Arbeit noch heraustellen wird, ist die Qualität der Datenpunkte viel höher als die von Stereo-Vision und Time-of-Flight Kameras. Der Mittelwert und auch die Standardabweichung der Messungen mit der 3D-Laser Technologie gegenüber der tatsächlichen Enfernung am Boden ist wesentlich geringer als bei diesen Kameras. 2.3 Einsatzmöglichkeiten 5 2.3 Einsatzmöglichkeiten Mithilfe der 3D-Laser-Technik ist es möglich, automatische Systeme zur Vermessung und Digitalisierung von 3D-Innenräumen zu entwerfen [SNH03]. Diese Systeme können so eingerichtet werden, dass sie auf Robotern autonom ausgeführt werden, so dass die Roboter letzendlich in Gefahrenbereichen ohne zusätzliches Risiko genutzt werden können. Natürlich werden diese Systeme nicht nur in Gefahrenbereichen genutzt, sondern auch zur möglichst exakten Vermessung und Kartenerstellung und damit auch zur Lokalisierung der Roboter selbst. Die Anwendungsgebiete von 3D-Laser-Entfernungsmessern sind sehr vielfältig, da diese sehr exakt arbeiten. 6 3 Stereo-Vision Kameras Stereo-Vision ist eine zweite Alternative um Umgebungen in 3D zu vermessen. In Teilbereichen kann man diese Technologie auch auf mobilen Robotern einsetzen. Ein großer Nachteil von StereoVision-Kameras ist aber die hohe Rechenanforderung. Daher können auf mobilen Robotern nur Stereo-Vision-Kameras eingesetzt werden, die einen eingebetteten Prozessor für die entsprechenden Berechnungen besitzen. Hier wird eine stereo-on-chip-Kamera der Firma Videre Design Bild 3.1: Stereo-Vision Kamera, [Vid09] [Vid09] genauer betrachtet. 3.1 Funktionsweise Dieser Abschnitt erläutert, wie Stereo-Vision-Kameras 3D-Messungen durchführen. Zunächst nehmen beide Einzelkameras, die versetzt angeordnet sind, gleichzeitig Bilder der selben Situation auf. In beiden Bildern wird die entsprechende Entfernung zu einem Punkt gemessen. Anschießend wird die Disparität, der Versatz, zwischen den beiden Bildern berechnet. Mithilfe der Disparität 𝑑, der Brennweite 𝑓 und der Basislänge 𝑏 wird nun mittels dem geometrischen Prinzip der Triangulierung, siehe Bild 3.2, eine Tiefe im Bild erzeugt. Wichtig ist, dass die Bild 3.2: Funktionsweise von Stereo-Vision [FH08] Kamera genauestens kalibiriert werden um möglichst exakte Distanzen zu messen. Anschließend werden diese Messungen mittels IEEE 1394 (FireWire) zu einem PC übertragen oder auf dem Roboter selbst verarbeitet. 3.2 Bewertung 7 3.2 Bewertung Diese Kamera erzeugt einen 3D-Datensatz mit 640 × 480 Daten und 30 Frames in der Sekunde. Sehr wichtig ist, dass die Kamera kailbriert wird und diese Einstellungen auf dem Chip der Kamera gespeichert werden. Der größte Nachteil an dieser Methode ist die Abhängigkeit von der jeweiligen Umgebung. Wichtig sind einerseits die Lichtverhältnisse: Existieren gute Lichtverhältnisse arbeitet die Kamera, bis auf kleinste Messfehler, exakt. Sind die Lichtverhältnisse jedoch nicht ausreichend für die Kamera, können die Messungen zu schlechten und falschen Ergebnissen führen. Ebenso wichtig sind aber auch die anderen Eigenschaften der Umgebung, wie zum Beispiel reflektierende und merkmallose Oberflächen. Ein Beispiel kann man gut in Abbildung 3.3 erkennen. Bild 3.3: Vergleich von Oberflächen, betrachtet mit Stereo-Vision, [PBP08] Ebenso muss bei dem Einsatz von Stereo-Vision Kameras der Fokus der Kamera brücksichtigt werden. Die Fehlerrate bei der Schätzung der Tiefe erhöht sich deutlich mit der Entfernung. Im Nahbereich werden Entfernungen zu Gegenständen, wenn diese erkannt werden, gut gemessen. Einziger Nachteil der Kamera ist die geringe Reichweite, die durch den Versatz der beiden Kameras begrenzt ist. Allgemein ist Stereo-Vision eine gute und schnelle Möglichkeit eines 3D-Sensors für einen mobilen Roboter. 8 3 Stereo-Vision Kameras 3.3 Einsatzmöglichkeiten Stereo-Vision unterstützt Realzeitanwendungen und liefert nutzbare Informationen über die kompletten Messbereiche. Daher wird diese Technik in vielen unterschiedlichen Anwendungen verwendet: Robotik, Ortung von Personen, Umgebungsmodellierung, Hinderniserkennung, Kartenerstellung und Navigation. Natürlich sind auch alle vorher angesprochenen Anwendungsgebiete denkbar. 9 4 Time-of-Flight Kameras Eine dritte Alternative um Umgebungen in 3D zu vermessen bilden Time-of-Flight Kameras. Diese sind noch nicht so weit verbreitet wie Stereokameras oder 3D-Laser. Hier wird eine Kamera Swissranger SR-3000 der Firma „Centre Suisse d’Electronique et de Microtechnique“ näher betrachtet. Allgemein bilden diese Art von Kameras eine noch neue Technologie, die in ihrem Einsatz noch recht unerforscht ist. Dementsprechend gibt es noch Probleme, die den Einsatz auf mobilen Robotern sehr einschränken. Bild 4.1: Time-of-Flight-Kamera [PBP08] 4.1 Funktionsweise Diese Art von Sensoren benutzt eine Reihe von Zellen, ähnlich zu der Speicherung von Bildern, bei denen die Informationen in Pixel gespeichert werden, um die Phasenverschiebung von emittierten modulierten Infrarotlicht zu messen. Mit diesem kann eine Time-of-Flight basierte Abstandsmessung, ähnlich dem Prinzip der Lichtlaufzeitmessung des Laserscanners, gleichzeitig in jeder Zelle des Arrays durchgeführt werden. Da die Geschwindigkeit des Lichtes bekannt ist, kann eine Entfernung gemessen werden, indem die Zeit gestoppt wird, die ein Signal benötigt um von einem Hindernis zu einem bestimmten Punkt zu gelangen. In der Praxis [RLS99] liegen die aktive Lichtquelle und der Emfänger sehr nah beieinander. Das erleichtert das Einstellen und vermeidet Schatteneffekte. Das grundlegende Prinzip von Time-of-Flight Messungen ist in Abbildung 4.2 zu sehen. Eine Quelle sendet einen Lichtimpuls aus und beginnt mit einer Messung in Nanosekunden. Der Lichtimpuls wandert zum Ziel und zurück, wobei die Messung gestoppt wird. Da das Signal den Weg zweimal durchläuft entspricht eine Zeit von 6.67𝑛𝑠 genau 1𝑚. Daher ist es besonders wichtig, dass Sender und Empfänger im vorraus synchronisiert werden. Das größte Problem ist hier die Realisierung der Zeitmessung, welches in [RLS99] und [Lan00] näher diskutiert wird. Ein anderes Problem ist der kurze Lichtimpuls. Es kann unter Umständen auftreten, dass der Lichtimpuls zu kurz ist um aus diesem sinnvolle Informationen zu gelangen. Daher wird der Impuls in bestimmten Abständen 10 4 Time-of-Flight Kameras Bild 4.2: Prinzip von Time-of-Flight Messungen [RLS99] erneut gesendet. Mittels USB kann der Sensor mit einem Rechner verbunden werden. Der Sensor generiert farbkodierte Bilder und ebenso auch Intensitäts-Bilder. Das erste Signal entspricht der gemessenen Phasenverschiebung, das Zweite der Amplitude. Die gemessenen Entfernungen werden in Farben dargestellt, die Reichweite geht von rot (Nahbereich) zu violett (weit entfernt). Schwarze Pixel stellen nutzlose Werte dar, meistens aufgrund von zu geringem modulatem Licht. Die zugrunde liegende Technologie des SR-3000 ist noch sehr unausgereift. Daher ist es nicht ungewöhnlich, dass es noch Nachteile gibt, deren Kompensation noch nicht sehr ausgereift ist. 4.2 bekannte Probleme Eine sehr große Schwierigkeit liegt bei dem sogenannten wrap-around Fehler. Für eine beliebige Phasenverschiebung gilt die Periode von: 𝑘∗2∗𝜋 für beliebige 𝑘. Das bedeutet, wenn die Phase von 2𝜋 8𝑚 entspricht, dann werden zwei Punkten, 0.2𝑚 und 8.2𝑚 die gleichen Messwerte zugeordnet. Der sogenannte Amplituden-Threshold-Parameter dient dazu dieses Problem zu beheben. Dieser Parameter macht es möglich nur Werte für Pixel mit einer bestimmten minimalen Helligkeit zu betrachten. Der Bereich für nicht genutzte Pixel wird hierbei ignoriert. Allgemein lässt sich sagen, dass je höher der Amplituden-Threshold-Parameter desto größere Qualität aber auch desto weniger Messwerte. Das schwierigste ist, einen entsprechenden Wert für diesen Paramter zu finden. Wird er zu niedrig gewählt, werden möglicherweise korrekte Daten verworfen, wird er hingegen zu hoch gewählt, ist der Messbereich nicht mehr repräsentativ genug. Daher ist bei dieser Kamera von Nöten diesen Parameter stets der jeweiligen Umgebung anzupassen. Dieses Problem ist in Abbildung 4.3 zu erkennen. Das erste Bild zeigt das Ausgangsbild. Im zweiten Bild liegt ein sehr niedriger Amplituden-ThresholdParameter vor, so dass Fehler passieren. Der Boden und die Wand scheinen gleichweit entfernt. Das letzte Bild in der Reihe ist mit einem sehr hohem Wert des Parameters entstanden. Hierbei 4.2 bekannte Probleme 11 Bild 4.3: Veränderung des Amplituden-Threshold-Parameter sind einige nützliche Informationen verloren gegangen, so dass in dieser Situation wohl das vorletzte Bild eine fast optimale Einstellung besitzt. Hierbei kann man schon erkennen, wie schwierig es sein kann, den Parameter möglichst optimal zu wählen. Ein andere wichtiger Parameter bei der Einstellung von Time-of-Flight Kameras ist die sogenannte Integrationszeit (integration time) oder auch Belichtungszeit (exposure time). Mit dieser wird die wahrgenomme Helligkeit eingestellt. Die Belichtungszeit bestimmt Bildrate, Stromverbrauch und die Helligkeit der LEDs. Die Qualität der Bilder erhöht sich mit einer höheren Belichtungszeit, zeitgleich nimmt aber auch die minimale Entfernung zu. Eine Auto-Belichtungsfunktion kann verwendet werden um die Integrationszeit und Beleuchtungsintensität optimal einzustellen. Es existieren zwei Möglichkeiten um die Fehler, verursacht durch wrap-around, zu verringern. Eine Möglichkeit, wie oben erwähnt, ist die Veränderung des Amplituden-Threshold-Parameters. Diese Einstellung funktioniert nur bei einfach strukturierten, merkmallosen Hindernissen, z.B. Schränke oder Türen. Sobald Reflektionen von den Hindernissen abgelenkt werden, wird mit dieser Einstellung kein Vorteil mehr erzielt. Eine weitere Alternative ist es daher zwei verschiedene modulare alternierende Frequenzen zu nutzen. Also zwei verschiedene Messwerte miteinander zu vergleichen und somit Fehler auszuschließen. Der Vorteil hierbei ist, dass es zu einem Hindernis mehrere Messwerte gibt, die miteinander verglichen werden können. Von Nachteil ist, dass die Informationen nun später zur Verfügung stehen und auch Fehler nicht völlig ausgeschlossen werden können. Ein weiteres bekanntes Problem von Time-of-Flight Kameras ist das geringe Sichtfeld. Aufgrund der LED Technik wird der Bildmittelpunkt sehr stark ausgeleuchtet, die Ecken werden jedoch vernachlässigt. Dieses Problem lässt sich jedoch mit eine hohem Amplituden-Threshold ausgleichen. Ebenfalls problematisch ist die hohe Anfälligkeit der Kamera bei unterschiedlichen Lichtbedingungen, vorallem bei Sonnenlicht, da dieses ebenfalls Infrarotlicht enthält und die Messergebnisse dementsprechend beeinflusst. Das kann bei verschiedenen Situationen, z.B. helle reflektierende Gegenstände im Nahbereich, dunkle Gegenstände weiter entfernt, zu falschen Entfernungswerten führen. Dieses lässt sich in Abbildung 4.4 erkennen. 12 4 Time-of-Flight Kameras Bild 4.4: fehlerhafte Messungen durch Reflektionen 4.3 Bewertung Generell stellen Time-of-Flight Kameras eine vielversprechende Technologie dar um 3D Daten zu erzeugen. Aber die Entwicklung dieser Technologie steckt noch in den Anfängen. Bis nützliche Informationen mittels der Sensoren erzeugt werden können, müssen einige Parameter von Hand eingestellt werden. Einige Probleme sind grundsätzlicher Art, z.B. die wrap-around-Fehler oder falsche Messungen aufgrund von Reflexionen. Andere Probleme, wie die starke Lichtempfindlichkeit oder der geringe Sichtbereich, können per Software oder auch durch zukünftige Hardwareentwicklungen gelöst werden. Time-of-Flight Kameras ergänzen die Schwächen der Stereo-Vision-Systeme. Eine Time-of-Flight Kamera arbeitet sehr zuverlässig auf homogenen und ebenen Flächen, wo StereoVision Kameras eher schlecht funktionieren. Die Genauigkeit der Datenpunkte ist sehr hoch. Dennoch ist ein Einsatz von dieser Technologie für die Ermittlung von den 3D-Daten auf einem mobilen Roboter in einer beliebigen Umgebung nicht trivial, da wie oben erwähnt sehr viele Parameter von Hand eingestellt werden müssen. 4.4 Einsatzmöglichkeiten Time-of-Flight-Kameras werden in der Automobilindustrie in Assistenten- und Sicherheitssystemen eingesetzt. Ebenso finden solche Kameras in der Mensch-Maschine Interaktion Verwendung, da diese Kameras in Realzeit arbeiten können. In der mobilen Robotik sind diese Kameras ebenso zu finden. Mit diesen können sehr schnell Karten von fremden Umgebungen erzeugt werden. Da die Entfernungsberechnung sehr einfach gehalten ist, ist auch keine große Rechenleistung erforderlich, so dass diese Systeme den begrenzten Ressourcen mobiler Roboter genügen. Andere Verwendung finden diese Kameras bei jeglichen Anwendungen von Messungen in Umgebungen mit relativ konstanten Lichtbedingungen. 13 5 Vergleich der vorgestellten 3D-Sensoren Der Vergleich wird auf Basis der schon vorgestellten Beispielsensoren vorgenommen. Wichtige Punkte sind hier vorallem die Einsetzbarkeit auf mobilen Robotern, daher die Betrachtung der physikalischen Eigenschaften und im weiteren die Eigenschaften bei der Datenerfassung, um eine gewisse Genauigkeit und Aktualität der Daten garantieren zu können. Generell sind sich die drei verschiedenen Sensoren in vielen Aspekten sehr ähnlich. Zunächst ist es sehr positiv, dass alle Sensoren auf mobilen Robotern einsetzbar sind, da ihre physikalischen Eigenschaften den beschränkten Ressourcen, wie z.B. beschränkte Größe, Gewicht und Energie, dieser genügen. Ebenso sind die Kosten dieser Sensoren auf gleichem Niveau. In ihren Messungen arbeiten sie zunächst auch sehr analog, da zunächst die Anzahl der Messpunkte nicht sehr unterschiedlich ist. Wichtig ist auch, dass alle Sensoren direkt 3D-Daten zur Verfügung stellen und keine anschließende Berechnungen oder Umrechnungen mehr notwendig ist. Diese unterscheiden sich lediglich in ihrer Repräsentation, doch ist eine Koordinatenumrechnung kein großer Rechenaufwand. So dass es bei diesen Kritikpunkten für den Einsatz auf dem mobilen Roboter egal sein kann, welcher Sensor zum Einsatz kommt. Größe (LBH in mm) Gewicht Leistung 3D URG40-LX 50, 50, 70 425g 2.5 W STOC 132, 39, 44 261g 2.4 W SR-3000 42.3, 50, 67 162g 12 W Tabelle 5.1: Allgemeine physikalische Eigenschaften Leider kann man dieses nicht verallgemeinert sagen, da es gravierende Unterschiede in der Qualität der Daten, in der Reichweite und in der Updatefrequenz gibt. Der 3D-Laser-Entfernungsmesser liefert zuverlässig eine hohe Qualität der Daten, liegt aber bei der Updatefrequenz sehr hinter der Stereo-Vision Kamera und der Time-of-Flight Kamera zurück. Leider ist aber auch immer ein Fehler durch Rauschen zu erkennen. Dieser Fehler kann durch einfaches Filtern behoben werden. Diese Filterung, um eben mögliche Messfehler, die durch Rauschen verursacht worden sind, auszuzuschließen, ist aber nur bei Stereo-Vision und Time-of-Flight Kameras möglich, da diese die nötige Updatefrequenz zur Verfügung stellen. Beim Laserscanner ist dieses schwierig zu realisieren, da hier der Scanvorgang schon 100mal so lange dauert wie bei den anderen Sensoren. Diese bringen aber leider andere grundlegende Nachteile mit sich, die nicht durch einfaches Filtern gelöst werden können. 14 5 Vergleich der vorgestellten 3D-Sensoren Der Kalibrierungsaufwand nimmt von Laserscanner über Stereo-Vision-Kamera bis hin zur Timeof-Flight Kamera stets zu, ebenso steigt die Fehleranfälligkeit, vorallem in weiter entfernten Bereichen, an. Einen weiteren Unterschied gibt es bei der Reichweite. Die Time-of-Flight-Kamera hat mit einer guten Kalibrierung eine Reichweite von bis zu 8m. Die Stereo-Vision-Kamera liefert nur bis zu einer Entfernung von 3m gute Werte, da bei größeren Entfernungen die Berechnung nicht mehr möglich ist, da die beiden Kameras zu nah beieinander liegen. Der Laserscanner liefert zuverlässige Werte in einem Bereich bis zu 4m. Für eine größere Reichweite ist der Laser des Sensors zu schwach. Da die Qualität der Daten generell von den jeweiligen Umgebungen abhängig ist, lässt es sich nicht verallgemeinert sagen, welcher der drei Kamera-Sensoren nun der Beste ist. Es muss letzendlich immer situationsabhängig entschieden werden, welche Technik eingesetzt wird. 3D URG40-LX STOC SR-3000 Anzahl Messpunkte Abtastfrequenz effektives Messfeld 683 × 90 0.3 Hz 240∘ × 90∘ 640 × 480 30 Hz 70∘ × 52∘ 176 × 144 ≤ 50 Hz 47∘ × 39∘ Tabelle 5.2: Datenerfassung Reichweite 0.2m - 4m 0.75m - 3m 0.6m - 8m 15 6 Ausblick und Fazit Die Bildung und Verarbeitung von 3D-Daten wird immer wichtiger für die mobile Robotik. Hierbei sind insbesondere Systeme in unstrukturierten Bereichen, wie die Safety, Security und Rescue Robotik (SSRR) auf solche Daten angewiesen. In dieser Arbeit wurde die Funktionsweise und die Nutzbarkeit drei verschiedener 3D-Sensoren erläutert und anhand von Prototypen Beispiele aufgezeigt, die auch auf mobilen Robotern einsetzbar sind. Generell sind 3D-Laser-Entfernungsmesser die verlässlichste und dementsprechend auch die am meisten eingesetzte Technologie. Normalerweise sind diese Sensoren aber aufgrund ihrer hohen Rechenanforderungen nicht für mobile Roboter geeignet, so dass herkömmliche 2D-Sensoren mit einer zusätzlichen Roboterbewegung zu 3D-Sensoren umfunktioniert werden. Solche Systeme garantieren eine gewisse Qualität der Daten, besitzen aber nur eine geringe Update-Frequenz. Um diesen Nachteil zu umgehen werden Stereo-Vision-Kameras eingesetzt. Diese haben eine sehr hohe Update-Freuquenz, insbesondere wenn eine stereo-on-chip-Kamera eingesetzt wird. Ein Beispiel hierfür ist der hier betrachtete Prototyp STOC der Firma VidereDesign. Nachteil dieser Technologie sind die größere Fehleranfälligkeit bei geringeren Distanzen und die Abhängigkeit von der Umgebung. Insbesondere werden merkmalslose Objekte nicht erkannt. Als letztes werden Time-of-Flight Kameras untersucht, die theoretisch die Vorteile von 3D-LaserEntfernungsmessern und Stereo-Vision Kameras vereinen. Die praktische Entwicklung dieser Kameras ist noch nicht sehr ausgereift. Die Update-Frequenz ist schon sehr groß, aber die Qualität der Daten ist noch gering. Ebenso müssen vor dem Einsatz einer solchen Kamera viele Parameter genauestens eingestellt werden. Letzendlich sind alle drei vorgestellten Technologien für die Erstellung von 3D-Daten einsetzbar. Idealerweise benutzt man alle drei Technologien zusammen, wenn es die Gegebenheiten zulassen. Oder nutzt wenigstens zwei dieser Technologien um die Fehlerrate zu verringern. In der Zukunft wird die Entwicklung der Time-of-Flight Kameras sicherlich einen großen Einfluss auf die weitere Entwicklung von 3D-Daten Erfassung in der mobilen Robotik nehmen. Letzendlich wird es aber nie nur eine Technologie geben, da die Anwendungsbereiche, auch in der mobilen Robotik, sehr unterschiedlich sind und somit auch unterschiedliche Anforderungen mit sich bringen. 16 Literatur [FH08] F RANK H OFMANN, Dr. rer. n.: uni-dortmund.de Stereovision. (2008). http://www.rst.e-technik. [Lan00] L ANGE, Robert: 3D Time-of-flight distance measurement with custom solid-state image sensors in CMOS/CCD-technology. 2000 http://dokumentix.ub.uni-siegen.de/ opus/volltexte/2006/178/pdf/lange.pdf [PBP08] P OPPINGA, Jann ; B IRK, Andreas ; PATHAK, Kaustubh: A Characterization of 3D Sensors for Response Robots. (2008). http://www.robocup2009.org [RLS99] R. L ANGE, A. B. P. Seitz S. P. Seitz ; S CHWARTE, R.: Time-of-flight range imaging with a custom solid-state image sensor. In: Laser Metrology and Inspection (1999) [SNH03] S URMANN, Hartmut ; N ÜCHTER, Andreas ; H ERTZBERG, Joachim: An autonomous mobile robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments. (2003) [Vid09] V IDERE -D ESIGN (Hrsg.): Videre-Design Homepage. Videre-Design, 2009. http://www. videredesign.com