Vergleich und Bewertung von 3D-Sensoren für mobile Roboter

Transcription

Vergleich und Bewertung von 3D-Sensoren für mobile Roboter
Seminar
Vergleich und Bewertung von
3D-Sensoren für mobile Roboter
Maike Kuhnert
Betreuer
Eingereicht am
:
:
Dipl.-Inf. Stefan Czarnetzki
19. Oktober 2009
III
Inhaltsverzeichnis
1 Einleitung
1.1 Grundlagen der 3D Sensorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Anwendungsgebiete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
2
2 3D-Laser-Entfernungsmesser
2.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Einsatzmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
4
5
3 Stereo-Vision Kameras
3.1 Funktionsweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Bewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Einsatzmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
7
8
4 Time-of-Flight Kameras
4.1 Funktionsweise . . .
4.2 bekannte Probleme
4.3 Bewertung . . . . .
4.4 Einsatzmöglichkeiten
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
10
12
12
5 Vergleich der vorgestellten 3D-Sensoren
13
6 Ausblick und Fazit
15
Literatur
16
IV
Bildverzeichnis
1.1 Anwendungsgebiete von 3D Sensoren . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2.1 3D Laser-Entfernungsmesser,Hukoyo URG-04LX [PBP08] . . . . . . . . . . . . . . .
3
3.1 Stereo-Vision Kamera, [Vid09] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Funktionsweise von Stereo-Vision [FH08] . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Vergleich von Oberflächen, betrachtet mit Stereo-Vision, [PBP08] . . . . . . . . . . .
6
6
7
4.1
4.2
4.3
4.4
Time-of-Flight-Kamera [PBP08] . . . . . . . . . . . .
Prinzip von Time-of-Flight Messungen [RLS99] . . .
Veränderung des Amplituden-Threshold-Parameter .
fehlerhafte Messungen durch Reflektionen . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
10
11
12
1
1 Einleitung
Heutzutage bekommen Sensoren, die die Bereitstellung von 3D-Datenbereichen unterstützen, immer mehr Aufmerksamkeit. Insbesondere Anwendungen, welche für unstrukturierte Umgebungen
konzipiert wurden, können auf diese Art vereinfacht und zuverlässiger gestaltet werden. Beispiele
hierzu sind vorallem die 3D-Wahrnehmung und das 3D-Mapping. Weiterhin können derartige Sensoren unterstützend in der Safety, Security und Rescue Robotik (SSRR) eingesetzt werden.
Der wesentliche Vorteil von 3D-Daten ist, dass diese es ermöglichen Abschätzungen von Distanzen durchzuführen, um zum Beispiel realistische Karten von Katastrophengebieten zu zeichnen
oder um verletzte Menschen von Schatten zu unterscheiden.
Diese Arbeit beschreibt und bewertet zunächst drei unterschiedliche Arten von 3D Sensoren:
∙ 3D-Laser-Entfernungsmesser
∙ Stereo-Vision Kameras
∙ Time-of-Flight Kameras
Hierbei werden die ersten beiden Technologien kurz vorgestellt. Die Betrachtung der Time-of-Flight
Kameras fällt ausführlicher aus, da diese eine neue Technologie darstellen. Anschließend werden
diese dann anhand eines Prototypen verglichen und in entsprechende Anwendungsgebiete einsortiert.
1.1 Grundlagen der 3D Sensorik
Ziel der 3D-Sensorik ist es, Informationen nicht nur in 2D, sondern direkt in 3D aufzunehmen und
so vorallem Informationen über Distanzen in den jeweiligen Messbereichen zu bekommen. Hierbei
ist momentan der 3D-Laser-Entfernungsmesser die am häufigsten gebräuchlichste Technologie
gefolgt von Stereo-Vision und Time-of-Flight-Kameras. Bei der Entwicklung von neuen Technologien ist besonders darauf zu achten, dass diese an ihren späteren Anwendungbereich angepasst
werden. Zum Beispiel dürfen Sensoren für mobile Roboter nicht zu große Rechenanforderungen
oder ein zu hohes Gewicht haben.
2
1 Einleitung
1.2 Anwendungsgebiete
3D Sensoren werden in vielen unterschiedlichen Bereichen eingesetzt. So gibt es beispielsweise neben der Kartenerstellung und Lokalisierung interessante Anwendungsgebiete wie z.B. 3Dsensorunterstützte, vorausschauende Sicherheitssysteme im Automobil. Ebenso finden diese aber
auch in der plastischen und in der wiederherstellenden Chirurgie Verwendung. Die in dieser Ausarbeitung beschriebenen Sensoren beziehen sich in erster Linie jedoch auf 3D-Wahrnehmung und
3D-Mapping, d.h. Lokalisierung und Kartenerstellung im Bezug auf Nutzung in der autonomen Robotik.
Bild 1.1: Anwendungsgebiete von 3D Sensoren
3
2 3D-Laser-Entfernungsmesser
3D-Laser-Entfernungsmesser sind die am meisten genutzte Technologie im 3D-Mapping. Viele
von ihnen lassen sich jedoch aufgrund ihrer Größe und benötigten Rechenleistung, da sie normalerweise für geometrische Anwendungen konzipiert sind, nicht zusammen mit mobilen Robotern
verwenden. Daher wird hier meistens ein 2D-Laser benutzt und dieser um eine dritte Dimension
erweitert, z.B. durch eine spezielle Bewegung des Roboters. Den Betrachtungen in dieser Arbeit
wird ein 2D-Laser-Sensor mit einer leicht nickenden Bewegung des Roboters zugrunde gelegt,
vgl. [PBP08].
Bild 2.1: 3D Laser-Entfernungsmesser,Hukoyo URG-04LX [PBP08]
2.1 Funktionsweise
Es gibt 2 verschiedene Funktionsweisen von Laserscannern:
Zum einen gibt es punkt- oder auch streifenbasierte Laserscanner. Diese projizieren einen Laserstrahl oder auch einen Laserstreifen auf ein Objekt. Mithilfe von Sensoren, wie z.B. einer Kamera
mit einer festen Position, wird dieser Punkt ermittelt und anschließend dann mit dem Prinzip der
Triangulation der Abstand berechnet.
Der anderen Methode liegt die Messung der Laufzeit des Lichtes zugrunde. Hierbei wird ein Laserstrahl zum Objekt gesendet und dort reflektiert, dabei wird gemessen wielange das Licht für die
Strecke benötigt. Die Distanz 𝐷 zwischen 𝐴 und 𝐵 wird nun aus der Lichtgeschwindigkeit 𝑐 und
der Zeit 𝑡, die das Signal von 𝐴 nach 𝐵 benötigt, berechnet:
𝐷=
𝑐𝑡
2
(2.1)
4
2 3D-Laser-Entfernungsmesser
Die größte Schwierigkeit hierbei ist die Zeit 𝑡 möglichst exakt zu messen. Da die Zeiten sehr klein
sind, muss die Zeit in Nanosekunden gemessen werden. Hierbei entspricht 1𝑚 genau 6, 67𝑛𝑠.
Um in einem Bereich die Entfernungen zu messen, muss der 3D-Laser-Entfernungsmesser den
Messbereich einzeln abtasten und somit für alle Punkte die Entfernungen abspeichern. Diese Technik benötigt natürlich eine gewisse Zeit um Informationen über den kompletten Messbereich aufzunehmen. Um dieses schneller zu gestalten wird der Laserstrahl mithilfe eines Spiegels abgelenkt,
sodass man in einer Messung z.B. einen kompletten horizontalen Scan durchführen kann. Durch
die nickende Bewegung des Roboters können dann viele dieser horizontalen Scans durchgeführt
werden, so dass nach ca. 3 Sekunden Informationen über ein Messfeld von 240∘ × 90∘ vorliegen.
2.2 Bewertung
Laser-Scanner stellen eine sehr erprobte, gut etablierte Technologie dar. Doch ist die Anwendung
von 3D-Scanner momentan hauptsächlich auf geometrische Anwendungen ausgerichtet. Daher
sind diese nur bedingt für die Nutzung auf mobilen Robotern geeignet, da Gewicht und Stromverbrauch zu groß sind.
Eine Lösung sind hier 2D-Laser die zu 3D umfunktioniert werden. Die größten Vorteile dieser Technologie sind dann die geringe Größe, das geringe Gewicht und die geringen Rechenanforderungen.
Sicherlich schwanken diese von Hersteller zu Hersteller, doch kann man Sensoren einsetzen, die
gerade einmal 160g wiegen, dabei sehr kompakt sind (LBH in cm: 5, 5, 7) und einen geringen
Stromverbrauch haben (2,5W). Wohingegen 3D-Sensoren schon mehrere Kilogramm wiegen und
wegen des starken Laserstrahls, der wegen der späteren Exaktheit nötig ist, das 10fache und mehr
an Leistung benötigen.
Der größte Nachteil dieser Technik ist die Dauer eines Scans. Für das Abscannen von 90 Grad
werden schon über 3 Sekunden benötigt. Das System aus [SNH03] benötigt 3.4 Sekunden um
einen Scan mit 256×181 Datenpunkten in einem Messbereich von 240∘ ×90∘ zu erzeugen. Während
eines Scans kann die Bewegung des Roboters somit nicht vernachlässigt werden. Hier existieren
zwei mögliche Problemlösungen: Entweder muss der Roboter während des Scan-Vorgangs der
Umgebung stoppen, oder es existiert eine Bewegung die eben diese Dauer kompensiert, d.h. die
Bewegungen ist für den Scan-Vorgang optimiert.
Ein anderer Nachteil ist, dass die Reichweite beschränkt ist. Die maximale Reichweite bei dem
vorliegenden Sensor liegt bei ca. 4m. Andere Sensoren, die für mobile Roboter konzipiert wurden,
liegen in ähnlichen Bereichen. Mit 3D-Laserscannern ist die Reichweite natürlich wesentlich höher,
doch sind diese wie schon erwähnt, nicht für den Einsatz auf mobilen Robotern
Wie sich im Verlauf dieser Arbeit noch heraustellen wird, ist die Qualität der Datenpunkte viel höher
als die von Stereo-Vision und Time-of-Flight Kameras. Der Mittelwert und auch die Standardabweichung der Messungen mit der 3D-Laser Technologie gegenüber der tatsächlichen Enfernung am
Boden ist wesentlich geringer als bei diesen Kameras.
2.3 Einsatzmöglichkeiten
5
2.3 Einsatzmöglichkeiten
Mithilfe der 3D-Laser-Technik ist es möglich, automatische Systeme zur Vermessung und Digitalisierung von 3D-Innenräumen zu entwerfen [SNH03]. Diese Systeme können so eingerichtet
werden, dass sie auf Robotern autonom ausgeführt werden, so dass die Roboter letzendlich in
Gefahrenbereichen ohne zusätzliches Risiko genutzt werden können. Natürlich werden diese Systeme nicht nur in Gefahrenbereichen genutzt, sondern auch zur möglichst exakten Vermessung
und Kartenerstellung und damit auch zur Lokalisierung der Roboter selbst. Die Anwendungsgebiete von 3D-Laser-Entfernungsmessern sind sehr vielfältig, da diese sehr exakt arbeiten.
6
3 Stereo-Vision Kameras
Stereo-Vision ist eine zweite Alternative um Umgebungen in 3D
zu vermessen. In Teilbereichen kann man diese Technologie auch
auf mobilen Robotern einsetzen. Ein großer Nachteil von StereoVision-Kameras ist aber die hohe Rechenanforderung. Daher können auf mobilen Robotern nur Stereo-Vision-Kameras eingesetzt
werden, die einen eingebetteten Prozessor für die entsprechenden
Berechnungen besitzen.
Hier wird eine stereo-on-chip-Kamera der Firma Videre Design
Bild 3.1: Stereo-Vision Kamera, [Vid09]
[Vid09] genauer betrachtet.
3.1 Funktionsweise
Dieser Abschnitt erläutert, wie Stereo-Vision-Kameras 3D-Messungen durchführen.
Zunächst nehmen beide Einzelkameras, die versetzt angeordnet sind,
gleichzeitig Bilder der selben Situation auf. In beiden Bildern wird die
entsprechende Entfernung zu einem
Punkt gemessen. Anschießend wird
die Disparität, der Versatz, zwischen
den beiden Bildern berechnet. Mithilfe der Disparität 𝑑, der Brennweite 𝑓
und der Basislänge 𝑏 wird nun mittels
dem geometrischen Prinzip der Triangulierung, siehe Bild 3.2, eine Tiefe
im Bild erzeugt. Wichtig ist, dass die
Bild 3.2: Funktionsweise von Stereo-Vision [FH08]
Kamera genauestens kalibiriert werden um möglichst exakte Distanzen zu messen. Anschließend
werden diese Messungen mittels IEEE 1394 (FireWire) zu einem PC übertragen oder auf dem
Roboter selbst verarbeitet.
3.2 Bewertung
7
3.2 Bewertung
Diese Kamera erzeugt einen 3D-Datensatz mit 640 × 480 Daten und 30 Frames in der Sekunde.
Sehr wichtig ist, dass die Kamera kailbriert wird und diese Einstellungen auf dem Chip der Kamera
gespeichert werden. Der größte Nachteil an dieser Methode ist die Abhängigkeit von der jeweiligen
Umgebung. Wichtig sind einerseits die Lichtverhältnisse: Existieren gute Lichtverhältnisse arbeitet
die Kamera, bis auf kleinste Messfehler, exakt. Sind die Lichtverhältnisse jedoch nicht ausreichend
für die Kamera, können die Messungen zu schlechten und falschen Ergebnissen führen. Ebenso
wichtig sind aber auch die anderen Eigenschaften der Umgebung, wie zum Beispiel reflektierende
und merkmallose Oberflächen. Ein Beispiel kann man gut in Abbildung 3.3 erkennen.
Bild 3.3: Vergleich von Oberflächen, betrachtet mit Stereo-Vision, [PBP08]
Ebenso muss bei dem Einsatz von Stereo-Vision Kameras der Fokus der Kamera brücksichtigt
werden. Die Fehlerrate bei der Schätzung der Tiefe erhöht sich deutlich mit der Entfernung. Im
Nahbereich werden Entfernungen zu Gegenständen, wenn diese erkannt werden, gut gemessen.
Einziger Nachteil der Kamera ist die geringe Reichweite, die durch den Versatz der beiden Kameras
begrenzt ist. Allgemein ist Stereo-Vision eine gute und schnelle Möglichkeit eines 3D-Sensors für
einen mobilen Roboter.
8
3 Stereo-Vision Kameras
3.3 Einsatzmöglichkeiten
Stereo-Vision unterstützt Realzeitanwendungen und liefert nutzbare Informationen über die kompletten Messbereiche. Daher wird diese Technik in vielen unterschiedlichen Anwendungen verwendet:
Robotik, Ortung von Personen, Umgebungsmodellierung, Hinderniserkennung, Kartenerstellung
und Navigation. Natürlich sind auch alle vorher angesprochenen Anwendungsgebiete denkbar.
9
4 Time-of-Flight Kameras
Eine dritte Alternative um Umgebungen in 3D zu vermessen
bilden Time-of-Flight Kameras. Diese sind noch nicht so weit
verbreitet wie Stereokameras oder 3D-Laser.
Hier wird eine Kamera Swissranger SR-3000 der Firma „Centre Suisse d’Electronique et de Microtechnique“ näher betrachtet.
Allgemein bilden diese Art von Kameras eine noch neue
Technologie, die in ihrem Einsatz noch recht unerforscht ist.
Dementsprechend gibt es noch Probleme, die den Einsatz
auf mobilen Robotern sehr einschränken.
Bild 4.1: Time-of-Flight-Kamera
[PBP08]
4.1 Funktionsweise
Diese Art von Sensoren benutzt eine Reihe von Zellen, ähnlich zu der Speicherung von Bildern, bei
denen die Informationen in Pixel gespeichert werden, um die Phasenverschiebung von emittierten
modulierten Infrarotlicht zu messen. Mit diesem kann eine Time-of-Flight basierte Abstandsmessung, ähnlich dem Prinzip der Lichtlaufzeitmessung des Laserscanners, gleichzeitig in jeder Zelle des Arrays durchgeführt werden. Da die Geschwindigkeit des Lichtes bekannt ist, kann eine
Entfernung gemessen werden, indem die Zeit gestoppt wird, die ein Signal benötigt um von einem Hindernis zu einem bestimmten Punkt zu gelangen. In der Praxis [RLS99] liegen die aktive
Lichtquelle und der Emfänger sehr nah beieinander. Das erleichtert das Einstellen und vermeidet
Schatteneffekte.
Das grundlegende Prinzip von Time-of-Flight Messungen ist in Abbildung 4.2 zu sehen. Eine Quelle sendet einen Lichtimpuls aus und beginnt mit einer Messung in Nanosekunden. Der Lichtimpuls
wandert zum Ziel und zurück, wobei die Messung gestoppt wird. Da das Signal den Weg zweimal
durchläuft entspricht eine Zeit von 6.67𝑛𝑠 genau 1𝑚. Daher ist es besonders wichtig, dass Sender
und Empfänger im vorraus synchronisiert werden. Das größte Problem ist hier die Realisierung
der Zeitmessung, welches in [RLS99] und [Lan00] näher diskutiert wird. Ein anderes Problem ist
der kurze Lichtimpuls. Es kann unter Umständen auftreten, dass der Lichtimpuls zu kurz ist um
aus diesem sinnvolle Informationen zu gelangen. Daher wird der Impuls in bestimmten Abständen
10
4 Time-of-Flight Kameras
Bild 4.2: Prinzip von Time-of-Flight Messungen [RLS99]
erneut gesendet.
Mittels USB kann der Sensor mit einem Rechner verbunden werden. Der Sensor generiert farbkodierte Bilder und ebenso auch Intensitäts-Bilder. Das erste Signal entspricht der gemessenen
Phasenverschiebung, das Zweite der Amplitude. Die gemessenen Entfernungen werden in Farben dargestellt, die Reichweite geht von rot (Nahbereich) zu violett (weit entfernt). Schwarze Pixel
stellen nutzlose Werte dar, meistens aufgrund von zu geringem modulatem Licht. Die zugrunde
liegende Technologie des SR-3000 ist noch sehr unausgereift. Daher ist es nicht ungewöhnlich,
dass es noch Nachteile gibt, deren Kompensation noch nicht sehr ausgereift ist.
4.2 bekannte Probleme
Eine sehr große Schwierigkeit liegt bei dem sogenannten wrap-around Fehler. Für eine beliebige
Phasenverschiebung gilt die Periode von: 𝑘∗2∗𝜋 für beliebige 𝑘. Das bedeutet, wenn die Phase von
2𝜋 8𝑚 entspricht, dann werden zwei Punkten, 0.2𝑚 und 8.2𝑚 die gleichen Messwerte zugeordnet.
Der sogenannte Amplituden-Threshold-Parameter dient dazu dieses Problem zu beheben. Dieser
Parameter macht es möglich nur Werte für Pixel mit einer bestimmten minimalen Helligkeit zu betrachten. Der Bereich für nicht genutzte Pixel wird hierbei ignoriert. Allgemein lässt sich sagen,
dass je höher der Amplituden-Threshold-Parameter desto größere Qualität aber auch desto weniger Messwerte. Das schwierigste ist, einen entsprechenden Wert für diesen Paramter zu finden.
Wird er zu niedrig gewählt, werden möglicherweise korrekte Daten verworfen, wird er hingegen zu
hoch gewählt, ist der Messbereich nicht mehr repräsentativ genug. Daher ist bei dieser Kamera
von Nöten diesen Parameter stets der jeweiligen Umgebung anzupassen. Dieses Problem ist in
Abbildung 4.3 zu erkennen.
Das erste Bild zeigt das Ausgangsbild. Im zweiten Bild liegt ein sehr niedriger Amplituden-ThresholdParameter vor, so dass Fehler passieren. Der Boden und die Wand scheinen gleichweit entfernt.
Das letzte Bild in der Reihe ist mit einem sehr hohem Wert des Parameters entstanden. Hierbei
4.2 bekannte Probleme
11
Bild 4.3: Veränderung des Amplituden-Threshold-Parameter
sind einige nützliche Informationen verloren gegangen, so dass in dieser Situation wohl das vorletzte Bild eine fast optimale Einstellung besitzt. Hierbei kann man schon erkennen, wie schwierig
es sein kann, den Parameter möglichst optimal zu wählen.
Ein andere wichtiger Parameter bei der Einstellung von Time-of-Flight Kameras ist die sogenannte
Integrationszeit (integration time) oder auch Belichtungszeit (exposure time). Mit dieser wird die
wahrgenomme Helligkeit eingestellt. Die Belichtungszeit bestimmt Bildrate, Stromverbrauch und
die Helligkeit der LEDs. Die Qualität der Bilder erhöht sich mit einer höheren Belichtungszeit, zeitgleich nimmt aber auch die minimale Entfernung zu. Eine Auto-Belichtungsfunktion kann verwendet
werden um die Integrationszeit und Beleuchtungsintensität optimal einzustellen.
Es existieren zwei Möglichkeiten um die Fehler, verursacht durch wrap-around, zu verringern. Eine
Möglichkeit, wie oben erwähnt, ist die Veränderung des Amplituden-Threshold-Parameters. Diese
Einstellung funktioniert nur bei einfach strukturierten, merkmallosen Hindernissen, z.B. Schränke
oder Türen. Sobald Reflektionen von den Hindernissen abgelenkt werden, wird mit dieser Einstellung kein Vorteil mehr erzielt. Eine weitere Alternative ist es daher zwei verschiedene modulare
alternierende Frequenzen zu nutzen. Also zwei verschiedene Messwerte miteinander zu vergleichen und somit Fehler auszuschließen. Der Vorteil hierbei ist, dass es zu einem Hindernis mehrere
Messwerte gibt, die miteinander verglichen werden können. Von Nachteil ist, dass die Informationen nun später zur Verfügung stehen und auch Fehler nicht völlig ausgeschlossen werden können.
Ein weiteres bekanntes Problem von Time-of-Flight Kameras ist das geringe Sichtfeld. Aufgrund der
LED Technik wird der Bildmittelpunkt sehr stark ausgeleuchtet, die Ecken werden jedoch vernachlässigt. Dieses Problem lässt sich jedoch mit eine hohem Amplituden-Threshold ausgleichen.
Ebenfalls problematisch ist die hohe Anfälligkeit der Kamera bei unterschiedlichen Lichtbedingungen, vorallem bei Sonnenlicht, da dieses ebenfalls Infrarotlicht enthält und die Messergebnisse
dementsprechend beeinflusst. Das kann bei verschiedenen Situationen, z.B. helle reflektierende
Gegenstände im Nahbereich, dunkle Gegenstände weiter entfernt, zu falschen Entfernungswerten
führen. Dieses lässt sich in Abbildung 4.4 erkennen.
12
4 Time-of-Flight Kameras
Bild 4.4: fehlerhafte Messungen durch Reflektionen
4.3 Bewertung
Generell stellen Time-of-Flight Kameras eine vielversprechende Technologie dar um 3D Daten zu
erzeugen. Aber die Entwicklung dieser Technologie steckt noch in den Anfängen. Bis nützliche Informationen mittels der Sensoren erzeugt werden können, müssen einige Parameter von Hand eingestellt werden. Einige Probleme sind grundsätzlicher Art, z.B. die wrap-around-Fehler oder falsche
Messungen aufgrund von Reflexionen. Andere Probleme, wie die starke Lichtempfindlichkeit oder
der geringe Sichtbereich, können per Software oder auch durch zukünftige Hardwareentwicklungen
gelöst werden. Time-of-Flight Kameras ergänzen die Schwächen der Stereo-Vision-Systeme. Eine
Time-of-Flight Kamera arbeitet sehr zuverlässig auf homogenen und ebenen Flächen, wo StereoVision Kameras eher schlecht funktionieren. Die Genauigkeit der Datenpunkte ist sehr hoch. Dennoch ist ein Einsatz von dieser Technologie für die Ermittlung von den 3D-Daten auf einem mobilen
Roboter in einer beliebigen Umgebung nicht trivial, da wie oben erwähnt sehr viele Parameter von
Hand eingestellt werden müssen.
4.4 Einsatzmöglichkeiten
Time-of-Flight-Kameras werden in der Automobilindustrie in Assistenten- und Sicherheitssystemen
eingesetzt. Ebenso finden solche Kameras in der Mensch-Maschine Interaktion Verwendung, da
diese Kameras in Realzeit arbeiten können. In der mobilen Robotik sind diese Kameras ebenso
zu finden. Mit diesen können sehr schnell Karten von fremden Umgebungen erzeugt werden. Da
die Entfernungsberechnung sehr einfach gehalten ist, ist auch keine große Rechenleistung erforderlich, so dass diese Systeme den begrenzten Ressourcen mobiler Roboter genügen. Andere
Verwendung finden diese Kameras bei jeglichen Anwendungen von Messungen in Umgebungen
mit relativ konstanten Lichtbedingungen.
13
5 Vergleich der vorgestellten 3D-Sensoren
Der Vergleich wird auf Basis der schon vorgestellten Beispielsensoren vorgenommen. Wichtige
Punkte sind hier vorallem die Einsetzbarkeit auf mobilen Robotern, daher die Betrachtung der
physikalischen Eigenschaften und im weiteren die Eigenschaften bei der Datenerfassung, um eine
gewisse Genauigkeit und Aktualität der Daten garantieren zu können.
Generell sind sich die drei verschiedenen Sensoren in vielen Aspekten sehr ähnlich. Zunächst ist
es sehr positiv, dass alle Sensoren auf mobilen Robotern einsetzbar sind, da ihre physikalischen
Eigenschaften den beschränkten Ressourcen, wie z.B. beschränkte Größe, Gewicht und Energie,
dieser genügen. Ebenso sind die Kosten dieser Sensoren auf gleichem Niveau. In ihren Messungen arbeiten sie zunächst auch sehr analog, da zunächst die Anzahl der Messpunkte nicht sehr
unterschiedlich ist. Wichtig ist auch, dass alle Sensoren direkt 3D-Daten zur Verfügung stellen und
keine anschließende Berechnungen oder Umrechnungen mehr notwendig ist. Diese unterscheiden
sich lediglich in ihrer Repräsentation, doch ist eine Koordinatenumrechnung kein großer Rechenaufwand. So dass es bei diesen Kritikpunkten für den Einsatz auf dem mobilen Roboter egal sein
kann, welcher Sensor zum Einsatz kommt.
Größe (LBH in mm) Gewicht Leistung
3D URG40-LX
50, 50, 70
425g
2.5 W
STOC
132, 39, 44
261g
2.4 W
SR-3000
42.3, 50, 67
162g
12 W
Tabelle 5.1: Allgemeine physikalische Eigenschaften
Leider kann man dieses nicht verallgemeinert sagen, da es gravierende Unterschiede in der Qualität der Daten, in der Reichweite und in der Updatefrequenz gibt. Der 3D-Laser-Entfernungsmesser
liefert zuverlässig eine hohe Qualität der Daten, liegt aber bei der Updatefrequenz sehr hinter der
Stereo-Vision Kamera und der Time-of-Flight Kamera zurück. Leider ist aber auch immer ein Fehler
durch Rauschen zu erkennen. Dieser Fehler kann durch einfaches Filtern behoben werden. Diese
Filterung, um eben mögliche Messfehler, die durch Rauschen verursacht worden sind, auszuzuschließen, ist aber nur bei Stereo-Vision und Time-of-Flight Kameras möglich, da diese die nötige
Updatefrequenz zur Verfügung stellen. Beim Laserscanner ist dieses schwierig zu realisieren, da
hier der Scanvorgang schon 100mal so lange dauert wie bei den anderen Sensoren. Diese bringen
aber leider andere grundlegende Nachteile mit sich, die nicht durch einfaches Filtern gelöst werden
können.
14
5 Vergleich der vorgestellten 3D-Sensoren
Der Kalibrierungsaufwand nimmt von Laserscanner über Stereo-Vision-Kamera bis hin zur Timeof-Flight Kamera stets zu, ebenso steigt die Fehleranfälligkeit, vorallem in weiter entfernten Bereichen, an.
Einen weiteren Unterschied gibt es bei der Reichweite. Die Time-of-Flight-Kamera hat mit einer guten Kalibrierung eine Reichweite von bis zu 8m. Die Stereo-Vision-Kamera liefert nur bis zu einer
Entfernung von 3m gute Werte, da bei größeren Entfernungen die Berechnung nicht mehr möglich
ist, da die beiden Kameras zu nah beieinander liegen. Der Laserscanner liefert zuverlässige Werte
in einem Bereich bis zu 4m. Für eine größere Reichweite ist der Laser des Sensors zu schwach.
Da die Qualität der Daten generell von den jeweiligen Umgebungen abhängig ist, lässt es sich nicht
verallgemeinert sagen, welcher der drei Kamera-Sensoren nun der Beste ist. Es muss letzendlich
immer situationsabhängig entschieden werden, welche Technik eingesetzt wird.
3D URG40-LX
STOC
SR-3000
Anzahl Messpunkte Abtastfrequenz effektives Messfeld
683 × 90
0.3 Hz
240∘ × 90∘
640 × 480
30 Hz
70∘ × 52∘
176 × 144
≤ 50 Hz
47∘ × 39∘
Tabelle 5.2: Datenerfassung
Reichweite
0.2m - 4m
0.75m - 3m
0.6m - 8m
15
6 Ausblick und Fazit
Die Bildung und Verarbeitung von 3D-Daten wird immer wichtiger für die mobile Robotik. Hierbei
sind insbesondere Systeme in unstrukturierten Bereichen, wie die Safety, Security und Rescue
Robotik (SSRR) auf solche Daten angewiesen. In dieser Arbeit wurde die Funktionsweise und die
Nutzbarkeit drei verschiedener 3D-Sensoren erläutert und anhand von Prototypen Beispiele aufgezeigt, die auch auf mobilen Robotern einsetzbar sind.
Generell sind 3D-Laser-Entfernungsmesser die verlässlichste und dementsprechend auch die am
meisten eingesetzte Technologie. Normalerweise sind diese Sensoren aber aufgrund ihrer hohen
Rechenanforderungen nicht für mobile Roboter geeignet, so dass herkömmliche 2D-Sensoren mit
einer zusätzlichen Roboterbewegung zu 3D-Sensoren umfunktioniert werden. Solche Systeme garantieren eine gewisse Qualität der Daten, besitzen aber nur eine geringe Update-Frequenz.
Um diesen Nachteil zu umgehen werden Stereo-Vision-Kameras eingesetzt. Diese haben eine
sehr hohe Update-Freuquenz, insbesondere wenn eine stereo-on-chip-Kamera eingesetzt wird.
Ein Beispiel hierfür ist der hier betrachtete Prototyp STOC der Firma VidereDesign. Nachteil dieser
Technologie sind die größere Fehleranfälligkeit bei geringeren Distanzen und die Abhängigkeit von
der Umgebung. Insbesondere werden merkmalslose Objekte nicht erkannt.
Als letztes werden Time-of-Flight Kameras untersucht, die theoretisch die Vorteile von 3D-LaserEntfernungsmessern und Stereo-Vision Kameras vereinen. Die praktische Entwicklung dieser Kameras ist noch nicht sehr ausgereift. Die Update-Frequenz ist schon sehr groß, aber die Qualität
der Daten ist noch gering. Ebenso müssen vor dem Einsatz einer solchen Kamera viele Parameter
genauestens eingestellt werden.
Letzendlich sind alle drei vorgestellten Technologien für die Erstellung von 3D-Daten einsetzbar.
Idealerweise benutzt man alle drei Technologien zusammen, wenn es die Gegebenheiten zulassen.
Oder nutzt wenigstens zwei dieser Technologien um die Fehlerrate zu verringern.
In der Zukunft wird die Entwicklung der Time-of-Flight Kameras sicherlich einen großen Einfluss auf
die weitere Entwicklung von 3D-Daten Erfassung in der mobilen Robotik nehmen. Letzendlich wird
es aber nie nur eine Technologie geben, da die Anwendungsbereiche, auch in der mobilen Robotik,
sehr unterschiedlich sind und somit auch unterschiedliche Anforderungen mit sich bringen.
16
Literatur
[FH08]
F RANK H OFMANN, Dr. rer. n.:
uni-dortmund.de
Stereovision.
(2008).
http://www.rst.e-technik.
[Lan00] L ANGE, Robert: 3D Time-of-flight distance measurement with custom solid-state image
sensors in CMOS/CCD-technology. 2000 http://dokumentix.ub.uni-siegen.de/
opus/volltexte/2006/178/pdf/lange.pdf
[PBP08] P OPPINGA, Jann ; B IRK, Andreas ; PATHAK, Kaustubh: A Characterization of 3D Sensors
for Response Robots. (2008). http://www.robocup2009.org
[RLS99] R. L ANGE, A. B. P. Seitz S. P. Seitz ; S CHWARTE, R.: Time-of-flight range imaging with a
custom solid-state image sensor. In: Laser Metrology and Inspection (1999)
[SNH03] S URMANN, Hartmut ; N ÜCHTER, Andreas ; H ERTZBERG, Joachim: An autonomous mobile
robot with a 3D laser range finder for 3D exploration and digitalization of indoor environments. (2003)
[Vid09]
V IDERE -D ESIGN (Hrsg.): Videre-Design Homepage. Videre-Design, 2009. http://www.
videredesign.com