3D Kameras – basierend auf Lichtlaufzeitmessung
Transcription
3D Kameras – basierend auf Lichtlaufzeitmessung
Seminar "Autonome Fahrzeuge" / SS05 Nikolai Kutscher, Beate Mielke 3D Kameras – basierend auf Lichtlaufzeitmessung Einleitung Wir leben in einer dreidimensionalen Welt, in der auch Sensoren in der Lage sein müssen, die Welt in drei Dimensionen zu erfassen. Die gängigen Sensoren bieten nur ein unzureichendes Abbild der Welt, da sie nur eine zweidimensionale Projektion der Realität liefern, in der jegliche Information über die Entfernung einzelner Bildpunke verloren geht. Klassische Stereoskopie (siehe Abb. 1) hilft in diesem Fall nicht wirklich, da für die computergesteuerte Bildverarbeitung digitale Tiefeninformation benötigt wird. Der neueste technologische Fortschritt macht es möglich, Sensoren zu bauen, die Abstände innerhalb einer Szene "sehen" können. Sie nutzen die Ausbreitungseigenschaften des Lichtes. Das Grundprinzip "Lichtlaufzeit" (TOF) wird im Folgenden vorgestellt. Abb. 1 Prinzip der Lichtlaufzeitmessung mittels einer Tiefenkamera - Lichtgeschwindigkeit Licht bewegt sich im Medium Luft mit der Geschwindigkeit c = 2,99792458 * 108 m/s ≈ 300.000.000 m/s - Lichtlaufzeitmessung – Time of Flight – TOF Also legt es einen bestimmten Weg in einer bestimmten Zeit zurück. Man spricht von der Lichtlaufzeit (engl. Time of Flight [TOF]). Sie berechnet sich mit der Formel: Beispiel: Um den Weg von 1cm zurückzulegen braucht Licht 33,36 ps. - Wie geht nun eine Messung vonstatten? Ein Laserlichtimpuls im Infrarotbereich wird von einer Lichtquelle ausgesandt. Sobald er auf ein Objekt trifft, wird er reflektiert und von einem Lichtsensor verarbeitet. Abb. 2 Die Zeit T0, die das Licht für diesen Weg braucht, muss unter Berücksichtigung von Hinund Rückweg halbiert werden. Daraus ergibt sich die Formel: - Lichtlaufzeitmessung mittels Pulsverfahren Möchte man nun ein ganzes Bild aufnehmen, braucht man für jeden Bildpunkt eine Zeitmesseinheit. Um dies zu realisieren wurde 1998 von zwei Erfindern der Fa. Siemens ein Verfahren patentiert, das im Folgenden vorgestellt werden soll: Die Flugzeit des Lichts wird nicht direkt über eine Uhr, sondern über eine zeitliche Integration der Lichtintensität innerhalb eines genau bestimmten Zeitfensters bestimmt. Abb. 3 Abb. 4 Abb. 3: Integrationsspannungen für zwei gleiche Objekte in unterschiedlichen Entfernungen. Vereinfachte Darstellung ohne Hintergrundlicht. Abb. 4: Patentiertes verfahren zur Distanzmessung Das Licht wird wird ausgesandt und was an Reflektion bis zu einem bestimmten Zeitpunkt zurückgekommen ist, wird ausgelesen. Schaltungstechnisch wird dies über die Integration von einem lichtempfindlichen Bauteil, z.B. durch den von einer Fotodiode erzeugten Fotostrom auf einen Kondensator realisiert. Die Verbindung zwischen Fotodiode und Kondensator wird zu einem festen Zeitpunkt für alle Pixel gleichzeitig getrennt und die Spannung dann ausgelesen. Q=C*U Q: Ladung C: Kapazität U: Spannung Aufgrund der verschiedenen Reflektionseigenschaften unterschiedlicher Materialien, reicht eine Messung nicht aus, sondern man macht zwei Messungen mit unterschiedliche langen Zeitfenstern (siehe Abb. 3). Eine wichtige Rolle spielt noch das Hintergrundlicht. Deshalb macht man noch zwei weitere Messungen über die gleichen Integrationsfenster, ohne Licht auszusenden und misst somit nur das Hintergrundlicht alleine. Die ermittelten Werte werden von den Objektmessungen subtrahiert. Die Tiefenwerte können dann mathematisch folgerndermaßen rekonstruiert werden: Hilfsgrößen U‘1 und U‘2 (s. ABB. 4) Steigung Punktsteigungsgleichung mit Punkt. (T2, U‘2) Abb. 5 Durch die Verknüpfung zwischen Weg und benötigter Zeit und über die Lichtgeschwindigkeit läßt sich die einfache Entfernung zum Objekt, an dem das Licht reflektiert wurde, ermitteln. Lichtlaufzeitmessung mit moduliertem Licht Licht wird wird so moduliert, dass sich die Intensität sinusoidal ändert. Es gibt kein limitiertes Zeitfenster, sondern das Licht wird kontinuierlich ausgesandt. Abb. 6: Zwei Objekte reflektieren moduliertes Licht. Objekt A reflektiert mehr Intensität als Objekt B, weil die Sinuskurve genau in diesem Moment ihr Maximum bzw. ihr Minimum erreicht hat. Abb. 7: Demonstration der Phasenverschiebung Abb. 8: Sampling und diskrete Fouriertransformation Das sinusoidale Modulationssignal enthält drei Unbekannte: Offset, Amplitude und Phase Deshalb sind mindestens drei Abtastpunkte per Modulationsperiode nötig, um die Unbekannten mit Hilfe der diskreten Fourietransformation zu berechnen. Hier ist es günstig vier um 90° verschobene Werte zu nehmen. Die Grauwerte der Pixel ergeben sich aus den gleichen Daten über das quadratische Mittel. Vom ausgesandten Lichtsignal zur Berechnung der Entfernung: Maximale Distanz Der von der Kamera maximal messbare Distanzbereich D ist auf weniger als eine Periode abhängig von der Modulationsfrequenz fm und ergibt sich durch Einsetzen der vollen Periode 2∏ zu: Beispiel: Modulationsfrequenz: maximale Distanz: Tiefenauflösung: 20 MHz 7,5 m 1 cm Unterschiede der beiden Verfahren in der Anwendung Pulsverfahren - günstig, wenn Hintergrundlicht eine Rolle spielt - preisgünstiger (man kann Standard-CMOS verwenden) - schnelleres Verfahren (kurze höhere Lichtimpulse liefern besseres Ergebnis) - technisch aber teilweise aufwendiger in der Herstellun (z.B. wegen Anforderung an Flankensteilheit) moduliertes Licht - man muss bestimmte Frequenz einhalten - moduliertes Licht kann mit LED‘s gemessen werden - CCD-CMOS nötig - teurer Aufbau der Kamera Das Komplettsystem besteht aus drei Hauptbestandteilen, dem Emitter, der das frequenzmodulierte optische Signal ausstrahlt, dem Detektor, der das reflektierende Signal registriert und der Steuerelektronik (Abb. 9). Abb. 9. Schematisches Diagramm des Sensorsboardes Emitter: Die Hauptaufgabe des Emitters ist, frequenzmoduliertes Licht auszusenden. Er muss die folgenden Anforderungen erfüllen: Hohe Modulierungslinearität bei hoher Modulierungsfreqenz, große Bandbreite von Wellenlängen, niedrige Betriebstemperatur und kleine Abmessungen. Für 3D – Kameras werden überwiegend LEDs (lichtemittierende Diode) oder Laserdioden benutzt. Detektor: Abb. 10 Der Kern des Detektors ist der Sensor. Er wird als Pixelarray aufgebaut, bei dem jedes Pixel eine separate Messung durchführt. Die Hauptaufgabe des Sensors ist, das von Objekten in der Szene reflektierte Signal zu registrieren. Ein Photon trifft die Oberfläche des Sensors und seine Energie wird in ein Fotoelektron umgewandelt. Da das ankommende Signal (z.B. 20 MHz frequenzmoduliertes Signal) demoduliert werden muss, muss eine schnelle Aufladungstrennug und Transport innerhalb jeden Pixels stattfinden. Es kann aber vorkommen, dass sogar weniger als ein Elektron pro Modulationsperiode erzeugt wird. Dementsprechend ist es sinnvoll, die wiederholte Hinzufügung der Elektronen zu realisieren. Steuerelektronik: Sie hat mehrere Aufgaben: Sie steuert das gesamte Board. Anhand der analogen Daten, die der Sensor liefert, führt sie alle Berechnungen für die Abstandsdiagramme durch und steuert die Kommunikation mit dem angeschlossenen Rechner. Abb. 11 Ein wichtiger Parameter, der die Qualität des 3D–Sensors bestimmt, ist die minimale ankommende optische Energie auf einem Pixel, die ermittelt werden kann. Diese Energie ist direkt proportional zur Anzahl der Fotoelektronen, die während einer Belichtungsperiode angesammelt werden. Die gemessene Standardabweichung als Funktion der optischen Energie, die auf ein Pixel fällt, ist in Abb. 12 dargestellt. Wie man sieht, ist die Streckengenauigkeit im Wesentlichen nur durch das Lichtrauschen begrenzt. Es wird gemessen und dadurch ist es möglich, die Streckenauflösung zuverlässig vorauszusagen. Hier werden zwei 3D–Kameras vorgestellt, die als Prototypen für Forschungszwecke gebaut werden. Die SwissRangerTM der Firma CSEM und die PMD[vision]19K der Firma PMD Technologies. Beide Kameras benutzen LEDs als Belichtungseinheit mit 20 MHz Modulation und einer maximalen Abstandsmessung von 7,5 m. Die technischen Daten werden in der Tabelle zusammengefasst. Abb. 13, 14 Kameramodell SwissRangerTM PMD[vision]19k 124 × 160 120 × 160 20MHz 20MHz bis 5 mm bis 6 mm Wellenlänge 870 nm 850 nm Emitterleistung 800 mW 4W bis 30 fps bis 10 fps USB – 2 IEEE 1394a, Ethernet (IEEE 802.3u), RS 232 135 × 45 × 32 208 × 53 × 209 Auflösung Modulationsfrequenz Abstandsauflösung Bildrate Interface Abmessungen Das Hauptproblem bei den Kameras sind die geringe Auflösung und das hohe Grundrauschen. Für manche Anwendungen wäre eine größere Auflösung des Sensors auf Kosten der Aufnahmegeschwindigkeit vorteilhaft. Das Grundrauschen wird durch Einsetzen des Bandpassfilters minimiert. Keine homogene Beleuchtung der Emitter (wegen Anordnung und ungleichmäßiger Kühlung) beeinträchtigt die Qualität. Durch eine ringförmige Anordnung der Dioden oder einzelnen leistungsstärkeren Dioden könnte man das Sichtfeld des Sensors homogener beleuchten. Da das aufzunehmende Objekt währen der Messungen bewegungsfrei sein muss, ist es auch problematisch, bewegliche Objekte aufzunehmen. Durch die Einzigartigkeit der 3D–Kamera ist es vorstellbar, sie überall dort einzusetzen, wo man bis jetzt 2D–Sensoren benutzt hat. Abb. 15 REFERENZEN 1. Gerhard P. Herbig, “Stereofotografie heute” 2. C. Niclass, A. Rochas, P. Besse, E. Charbon “A CMOS 3D Camera with Millimetric Depth Resolution”, Swiss Federal Institute of Technology, Switzerland 3. G. Friedland, K. Jantz, R. Rojas “Videobilder mit Tiefgang”, FU Berlin 4. www.csem.ch 5. T. Oggier, M. Lehmann, R. Kaufmann, M. Schweizer, M. Richter, P. Metzler, G. Lang, F. Lustenberger and N. Blanc „An all – solid – state optical range camera for 3D real – time imaging with sub – centimeter depth resolution (SwissRanger)“, CSEM SA, Badenerstrasse 569, CH – 8048 Zürich 6. „Vision sensors & systems“, Xavier arreguit CSEM SA CH – 2007 Neuchatel 7. R. Lange, P. Seitz, A. Biber und R. Schwarte, "Time-of-Flight range imagung with a custom solid-state image sensor", Centre Suisse d'Electronique et de Microtechnique SA (CSEM), Uni Giessen, Institut für Nachrichtenverarbeitung 8. André Henkies, "Entwurf und Optimierung fremdlichttoleranter Tiefenkamerasysteme auf der Basis indirekter Lichtlaufzeitmessung", Dissertation, Uni Duisburg, Fakutät der Ingenieurwissenschaften 9. w4.siemens.de/FuI/de/archiv/newworld/heft2_01/artikel03