photogrammetrie - grundzüge
Transcription
photogrammetrie - grundzüge
Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ _________________________________________________________________________________________ Eidgenössische Technische Hochschule Zürich Institut für Geodäsie und Photogrammetrie Vorlesung PHOTOGRAMMETRIE - GRUNDZÜGE von Prof. Dr. A. Grün Ausgabe 2003 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ _________________________________________________________________________________________ I Inhaltsverzeichnis 1. Einleitung 1.1. Photogrammetrie und Fernerkundung. Definitionen 1.2. Sensorsysteme 1.3. Geschichte der Photogrammetrie und Fernerkundung 1.4. Anwendungen 2. Das photographische Bild 2.1. Latentes Bild und photographisches Entwickeln 2.2. Charakteristische Kurve und spektrale Empfindlichkeit 2.3. Geometrische Auflösung der Emulsion Auflösungsvermögen und Modulationsübertragungsfunktion 3. Nichtphotographische Sensoren 3.1. Aufzeichnung und Wiedergabe von Fernsehbildern 3.2. CCD-Sensoren und CCD-Kameras 3.2.1. CCD-Sensoren 3.2.2. CCD-Kameras und Bildübertragung 4. Die metrische Kamera 4.1. Definitionen 4.2. Optische Elemente 4.2.1. Linsengleichung 4.2.2. Aberrationen 4.2.3. Tiefenschärfe 4.2.4. Projektionszentrum 4.2.5. Bildfunktion 4.2.6. Kammerkonstante und geometrische Verzeichnung 4.3. Innere Orientierung und Kammerkalibrierung Definition des Bildkoordinatensystems; Hauptpunkt; Kammerkonstante; Bildfunktion; radiale Verzeichnung 4.4. Deformation des Bildstrahls Filmdeformation; atmosphärische Refraktion; „Erdkrümmung“ 4.5. Äussere Orientierung 4.6. Kameratypen 4.6.1. Luftbildkameras 4.6.2. Terrestrische Kameras 4.7. Die halbmetrische Kamera Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ _________________________________________________________________________________________ II 5. Das Einzelbild 5.1. Koordinatensysteme 5.2. Grundlagen der Einbildphotogrammetrie 5.2.1. Bildmassstab 5.2.2. Bildversetzung durch Geländehöhenunterschiede 5.2.3. Grundzüge der Zentralprojektion 5.3. Ausmessung von Einzelbildern; Monokomparator 5.4. Entzerrung 5.4.1. Analytische Entzerrung 5.4.2. Digitale Entzerrung 6. Grundlagen der analytischen Photogrammetrie 6.1. Orthogonale und schiefsymmetrische Matrizen 6.2. 6.3. 6.4. 6.5. 6.6. 6.7. 6.8. 7. Räumliche Drehungen. Drehmatrizen Differentielle Drehungen Ableitungen der Drehmatrix Perspektive Projektion Differentialformeln für Bildkoordinaten von Normalaufnahmen Koplanaritätsbedingung Literatur Grundlagen der digitalen Photogrammetrie (I) 7.1. Bilddigitalisierung durch Scannen 7.2. Direkter (digitaler) Bildeinzug 7.3. Ausmessung digitaler Bilder (manuell, halb- und vollautomatisch) 7.4. Grauwertinterpolation 7.5. Geometrische Bildtransformationen 8. Stereoskopie und Parallaxe 8.1. Konzept der Kernebene 8.2. Räumliches Sehen 8.2.1. Das menschliche Auge 8.2.2. Natürliches räumliches Sehen 8.2.3. Künstliches räumliches Sehen 8.2.4. Instrumentelle Hilfsmittel zum stereoskopischen Betrachten von Bildpaaren Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ _________________________________________________________________________________________ III 8.3 Stereoskopisches Messen Stereokomparator 8.4. Der "Normalfall" der Stereophotogrammetrie 8.5. Einfache Hilfsmittel zur Stereokartierung 9. Der Bildflug 9.1. Elemente der Flugplanung 9.2. Ausführung des Bildfluges 9.3. Geräte zur Navigation und Hilfsdatenbeschaffung 9.3.1. Bestimmung von Winkeln 9.3.2. Bestimmung von Strecken und Punktkoordinaten 10. Grundlagen der Stereomodellorientierung 10.1. Allgemeines 10.2. Relative Orientierung 10.2.1. Folgebildanschluss 10.2.2. Methode der Bilddrehung 10.3. Räumlicher Vorwärtsschnitt 10.4. Absolute Orientierung 10.4.1. Räumliche Ähnlichkeitstransformation 11. Stereoauswertegeräte 11.1. Klassifizierung; Einteilung und Prinzip der Analoggeräte 11.2. Analoggeräte mit Computerstützung 11.3. Computergesteuerte Stereogeräte. Der Analytische Plotter 11.3.1. Historische Entwicklung 11.3.2. Konstruktionsprinzip des Analytischen Plotters nach Helava 11.3.3. Hardwarekomponenten 11.3.4. Geräte 11.3.5. Softwarekomponenten 11.4. Digitale Stationen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ _________________________________________________________________________________________ IV Lehrbücher Finsterwalder, Hofmann: Photogrammetrie. De Gruyter Lehrbuch, Berlin, 1968. Konecny, Lehmann: Photogrammetrie. De Gruyter Lehrbuch, Berlin, New York, 1984. Kraus: Photogrammetrie. Band 1 und 2, Dümmler Verlag, Bonn, Dritte Auflage, 1996. Schwidefsky, Ackermann: Photogrammetrie. B.G. Teubner Verlag, Stuttgart, 1976. Weitere Schriften: Albertz, Kreiling: Photogrammetrisches Taschenbuch. 3.Aufl., Herbert Wichmann Verlag, Karlsruhe, 1980. Atkinson, K.B. (Herausgeber): Close-range photogrammetry and machine vision. Whittles Publishing, 1996 Schweizerische Gesellschaft für Photogrammetrie, Bildanalyse und Fernerkundung (Herausgeber): Photogrammetrie in der Schweiz. Dümmler, Bonn, 1996. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.1 ________________________________________________________________________________ 1. Einleitung 1.1. Photogrammetrie und Fernerkundung. Definitionen Das Wort "Photogrammetrie" kommt aus dem Griechischen. Hierin bedeutet "Photo..." Licht oder Lichtbild, "...gramme" Linie und "…metrie" messen. Photogrammetrie bedeutet also im engeren Sinne "Linienmessung mit Licht". In traditioneller Definition ist die Photogrammetrie ein Messverfahren zur Bestimmung der Lage und Form eines Objektes anhand photographischer Bilder. Die Messungen werden dabei nicht direkt am Objekt, sondern indirekt auf den Bildern des Objektes vorgenommen. Die Photogrammetrie wird unterteilt je nach Aufnahmesituation der benutzten Photos und der Art der Auswertemethode. Wurden die Aufnahmen von der Erdoberfläche aus gemacht, spricht man von "Terrestrischer Photogrammetrie", stammen die Aufnahmen aus einem Luftfahrzeug, spricht man von "Luftbildphotogrammetrie". Die Auswertung eines einzelnen Photos wird "Einzelbildauswertung " genannt. Nutzt man spezifische Beziehungen aus, die bei zwei verschiedenen Aufnahmen desselben Objektes auftreten, so bezeichnet man dies als "Stereophotogrammetrie ". BILDER SICHTBARE BILDER MATHEMATISCHE FUNKTIONEN BILDER KONTINUIERLICH OBJEKTE DISKRET (DIGITALE BILDER) PHOTOGRAPHIEN ZEICHNUNGEN MALEREIEN UNSICHTBARE PHYSIKALISCHE BILDER OPTISCHE BILDER Abb. 1.1: Castelman, K. R.: Digital Image Processing; Prentice-Hall, Inc., 1979 Die Photogrammetrie ist ein Verfahren der Fernerkundung ("feeling without touching"). Als Fernerkundung bezeichnet man im allgemeinen die Ermittlung von Informationen über entfernte Objekte, ohne mit ihnen direkt in Kontakt zu kommen. Als Informationsträger dienen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.2 ________________________________________________________________________________ Kräftefelder, insbesondere die elektromagnetische Strahlung. Als natürliche Strahlungsquelle dient die Sonne. Die von einem Objekt reflektierte Strahlung wird von einem auf einer Plattform (Flugzeug) getragenen Sensor erfasst und in ein Bild umgesetzt. Ein messbares Bild kommt nur dadurch zustande, daß verschiedene Objekte oder verschiedene Teile eines Objekts unterschiedliche Reflexionseigenschaften haben. Definition von "Fernerkundung", "Remote Sensing" ( --> eine mögliche Variante): "Erfassung und Interpretation von Daten ausgewählter Bereiche des elektromagnetischen Spektrums unter Einsatz von berührungslosen Sensoren und unter Verwendung von Analyseund Manipulationsalgorithmen zur Erleichterung der Interpretation." Gerade in der Fernerkundung gilt die Definition "feeling without touching" der Photogrammetrie in sehr ausgeprägtem Sinn. Abb. 1.2: Komponenten des Fernerkundungsverfahrens Der Gebrauch moderner Rechner und anderer elektronischer Medien zur digitalen Bildverarbeitung setzt sich immer mehr durch. Inzwischen haben sich neue Disziplinen wie Computer Vision, Machine Vision, Robot Vision und Videogrammetrie entwickelt. Sie alle Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.3 ________________________________________________________________________________ greifen auf Methoden der Photogrammetrie zurück. In gewisser Weise ist damit die Photogrammetrie eine der Grundlagen dieser Disziplinen. Videogrammetrie ist Photogrammetrie mit Benutzung von Videokomponenten (CCD-Kameras, Videosignalübertragung, Videorekorder, Videomonitor). Machine Vision ist eine berührungslose, bilderzeugende, weitgehend automatisierte Mess- und Inspektionstechnik, vorwiegend für Messobjekte im Nahbereich. Der Begriff "Nahbereich" ist dabei nicht klar definiert, kann sich vom Submikrometerbereich (Elektronenmikroskop) bis zu einigen Hundertmetern erstrecken. Viele Anwendungen der Machine Vision finden sich in Industrieller Messtechnik, Navigation, Medizin, Biomechanik, etc. Während Computer Vision ("Computersehen") sich mehr mit theoretischen Fragen und grundlegenden Verarbeitungsalgorithmen der Bildanalyse beschäftigt, liefert die Machine Vision die sogenannten Sensormodelle (d.h. die mathematische Beschreibung der Sensorgeometrie und die stochastische Modellierung der Beobachtungen) und widmet sich den Systemaspekten (vgl. Abb. 1.4). Robot Vision kann als Subkategorie der Machine Vision aufgefasst werden in dem Sinne, dass es dort um Lösungen mit hohen Geschwindigkeitsanforderungen geht. Abbildung 1.3 zeigt die Relation dieser Disziplinen zueinander. Machine Vision Theory and basic algorithms for image and scene analysis Computer Vision Videogrammetry Robot Vision Sensor models, System aspects Abbildung 1.3: Machine Vision (und Videogrammetrie) in Relation zu Robot Vision und Computer Vision Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.4 ________________________________________________________________________________ Abb. 1.4: Funktion und Hardwarekomponenten eines digitalphotogrammetrischen Systems (hier speziell für den Nahbereich) Machine Vision, Robot Vision bzw. Videogrammetrie wurden am Institut für Geodäsie und Photogrammetrie der ETH Zürich bereits in so unterschiedlichen Applikationen wie folgt eingesetzt: • Autovermessung (Industrielles Design, Qualitätskontrolle, Crashversuche) • Messung von Flugzeugoberflächen- und Flugzeugmotorenteilen (Industrielle Inspektion und Materialuntersuchung) • Architekturobjekte (Architektur, Denkmalschutz) • Oberflächenrekonstruktion menschlicher Gesichter (Medizin, Puppenherstellung) • Zahnvermessung (Zahnmedizin, "Videodentographie") • Menschliche Bewegungsstudien (Biomechanik) • Bestimmung der Trajektorien fliegender Insekten (Biologie, Pharmazie) • Tischtennisroboter (Robotik) • Überwachung von Kristallwachstum (Materialwissenschaft) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.5 ________________________________________________________________________________ • Hochauflösende 3-D Teilchenverfolgung in turbulenten Strömungen (Hydromechanik, Weltraumwissenschaften) • Verfolgung chemischer Reaktionen in turbulenten Strömungen (Chemie, Hydromechanik) Verglichen mit anderen Messverfahren können diese Methoden immer dann vorteilhaft eingesetzt werden, wenn möglichst viele der folgenden Voraussetzungen gegeben sind: • 3-D Objekt • Bewegtes Objekt • Grosse Anzahl von Messungen • Berührungsloses Messverfahren • Gute zeitliche Messauflösung • Genaue und zuverlässige Messungen • Schnelle Aufnahme und Auswertung (On -line und Echtzeitverfahren) Die zwei wesentlichen Abläufe der Fernerkundung sind die Datenerfassung über die Sensoren und die Datenverarbeitung. Gemessen werden in der Fernerkundung meistens Änderungen von Feldstärken. Diese Felder können elektromagnetischer (wichtigste Art) und elektrostatischer Natur sein, oder es handelt sich gelegentlich um Schwerefelder. Interessant sind für die Fernerkundung aber vor allem die vielfältigen Änderungen dieser Felder. Solche Variationen machen eine Analyse überhaupt erst sinnvoll. Es handelt sich im allgemeinen um spektrale, räumliche oder zeitliche Änderungen eines Feldes. Dazu einige Beispiele: • Spektrale Veränderungen: Die Reflexion eines Objektes ist nicht immer gleich. Die Intensität und Frequenz der Reflexion variieren mit der Intensität und der Frequenz der Strahlung. Die zugehörigen Parameter sind u.a. Beleuchtungsquelle und Sensorcharakteristik. • Räumliche Veränderungen: Die spektrale Charakteristik eines Objektes ist nicht über die ganze Fläche homogen. Die Art der Oberfläche bestimmt also das Reflexionsverhalten erheblich. Daraus folgt, dass die Reflexion eine Funktion des Ortes auf der Oberfläche ist. • Zeitliche Veränderungen: Die Belaubung der Bäume zum Beispiel beeinflusst das Reflexionsverhalten stark. Es entstehen dadurch kurz- und langfristige Änderungen im Reflexionsspektrum. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.6 ________________________________________________________________________________ Klassifizierung der Sensoren: 1) Nach der Art der Feldmessung Das entsprechende Feld kann auf verschiedene Arten gemessen werden: • Optisch, optisch-elektronisch, elektronisch (z. B. Mikrowellen) • Magnetometer, Gravimeter (Geophysik, Geodäsie) • Akustisch (Sonar) 2) Nach der Art der Strahlungserzeugung Es gibt unterschiedliche Strahlungsquellen. Der wichtigste Unterschied besteht darin, ob der Sensor aktiv oder passiv arbeitet. • Aktive Sensoren (also Sensoren, die selbst Signale ausschicken) sind zum Beispiel Blitzlichter und modulierte Träger (Laser, Mikrowellen, Schall) • Passive Sensoren - Ausnützung der Selbstemission eines Objektes, so zum Beispiel radioaktiver Zerfall, thermische Strahlung oder chemische und biologische Lumineszenz - Ausnützung natürlicher Strahlung außerhalb des Objektes selbst, wie zum Beispiel Sonnenlicht oder atmosphärische Strahlung 3) Nach der Art der Datenerhebung Der essentielle Unterschied verschiedener Systeme besteht darin, ob sie ein Objekt als Ganzes zu einem diskreten Zeitpunkt erfassen oder ob sie es sequentiell "abtasten". • Framing System --> Simultane Aufnahme aller Objektpunkte • Scanning System --> Sequentielle Aufnahme Die Speicherung des "Bildes" geschieht bei Verwendung "digitaler" Sensoren bei beiden Methoden durch Auflösung des Bildes in Pixel (Picture Element) im zweidimensionalen Fall oder in Voxel (Volume Element) im dreidimensionalen Fall. Jedem dieser Pixel wird ein entsprechender Grauwert zugeordnet. Die Verarbeitung solcher "Bilder" wird Digitale Bildverarbeitung genannt. Meist wird in der Fernerkundung pro S/W-Bild mit 256 (28) Graustufen gearbeitet. Dies entspricht einer "Grauwerttiefe" von 8 Bit. In der Medizin hingegen wird z.B. oft mit 212 Grauwerten gearbeitet. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.7 ________________________________________________________________________________ Pixel 5µm bis 100µm mit je einem zugewiesenen Grauwert Abb. 1.5: Digitales (oder digitalisiertes) Bild Bilddaten (analog) Konvertierung Numerische Daten (digital) Analyse Bildhaftes Endprodukt (analog) Numerisches Endprodukt (digital) Abb. 1.6: Verfahren und Produkte der Datenverarbeitung 1.2. Sensorsysteme Die wichtigsten Fernerkundungssensoren sind: - Einzelkameras photographisch: • Satellitenplattform • Luftbildkamera (Reihenmesskammer) • terrestrische Kamera CCD-Kameras (Satelliten, Aero, terrestrisch) - Streifenkamera - Panoramakamera - RBV (Return Beam Vidicon); TV Kamera für Fernerkundung (Landsat, alt) - Optisch - mechanischer Scanner; passiv multispektraler S (z.B. MSS, TM auf Landsat) - CCD Linear Array Sensor (SPOT, MOM5, Ikonos) - SAR (Side-Looking-Airborne Radar); aktiver Mikrowellenscanner, Vorteil: kann Wolken durchdringen (Zeitdifferenz ----> Entfernung ----> Bild) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.8 ________________________________________________________________________________ Abbildung 1.7 zeigt die Abbildungsgeometrie einiger dieser Sensoren. Abb. 1.7: Abbildungsgeometrie verschiedener analoger und "digitaler" bilderzeugender Sensoren Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.9 ________________________________________________________________________________ Sensoren werden von Plattformen aus betrieben. Die wichtigsten Sensorplattformen zeigt Abbildung 1.8. Abb. 1.8: Sensorplattformen der Fernerkundung/Photogrammetrie Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.10 ________________________________________________________________________________ Berücksichtigt man die jüngsten Entwicklungen, so muß die Definition der Photogrammetrie auf die Wiedergabe des gesamten elektromagnetischen und akustischen Spektrums ausgedehnt werden. Diese Vorlesung behandelt jedoch nur die Grundprinzien der herkömmlichen Photogrammetrie, die visuellen, optischen und geometrischen Beziehungen photographischer und digitaler Bilder zum abgebildeten Objekt und deren Anwendungen. Das Hauptproblem der Satellitenfernerkundung bestand ursprünglich darin, die Aufzeichnungen vom Satelliten zur Erde zu übermitteln. Die Daten müssen dazu in einer Form vorliegen, welche einfache und schnelle Übermittlung ermöglicht. Eine Variante, um dies zu erreichen, besteht darin, daß man ein analoges Produkt (zum Beispiel eine Photographie) zuerst digitalisiert und dann übermittelt. Eine Alternative ist die direkte digitale Aufnahme. Diese digitalen Informationen, durch Radioübertragung (Telemetrische Übertragungssysteme) auf die Erde übermittelt, können schließlich analysiert werden. Auch auf der Erde stellt sich aber wieder die Frage, wie gearbeitet werden soll. Es können die digitalen Produkte direkt weiterverarbeitet werden, oder aber man erstellt aus den digitalen Informationen zuerst wieder analoges „photographisches“ Material (Umweg !). Als Ausnahme in diesen Möglichkeiten sollen die Space Shuttle, MIR, Flugzeugsensoren, aber auch Satelliten erwähnt werden, welche ihre Daten direkt auf photographisches Material oder Magnetband schreiben und diese schließlich auf unterschiedliche Weise zur Erde bringen. Die Radioübertragung entfällt hier also. 1.3. Geschichte der Photogrammetrie und Fernerkundung Der Grundgedanke der Photogrammetrie ist älter als die Photographie selbst. Schon im 15.Jahrhundert entdeckte Leonardo da Vinci die perspektiven Beziehungen und wandte diese Erkenntnisse bei seinen Zeichnungen an. Für topographische Zwecke nutzte der Naturwissenschaftler M. A. Cappeler (1726) diese Möglichkeiten erstmals: Auf der Grundlage von handgezeichneten Perspektivansichten zeichnete er eine Karte des Pilatusmassivs. Die wichtigsten Daten der anschließenden Entwicklung in Stichworten : 1759 1839 J.H. Lambert; Veröffentlichung des ersten Lehrbuchs der Photogrammetrie (8. Kapitel : "Freye Perspective"), das die geometrischen Grundlagen der Zentralprojektion enthielt J.N. Niépce und L.J.M. Daguerre; Entdeckung der Photographie (Bericht von F.Arago; erster Hinweis auf den möglichen Einsatz bei der topographischen Kartierung) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.11 ________________________________________________________________________________ 1846 1851 1851 1858 1858 1886 1888 1889 1891 1892 1897 Gründung der ZEISS - Werke A. Laussedat ("Vater der Photogrammetrie"); Konstruktion der ersten metrischen Kammer und Einsatz in der topographischen Kartierung ("Métrographie") D'Almeida; Stereobetrachtung nach Anaglyphenverfahren A. Meydenbauer; Einsatz bei der Erfassung von Fassaden historischer Bauwerke ("Architekturphotogrammetrie") G.F. Tournachon ("Nadar"); Erste Luftbilder (Ballonphotographie) E. Deville; Einsatz in Kanada zur Kartierung im Gebirge S. Finsterwalder; Gletschervermessung; Fortentwicklung der Theorie C. Koppe; erstes deutsches Fachbuch über Photogrammetrie Stereobetrachtung nach Polarisationsverfahren F. Stolze; Prinzip der beweglichen Messmarke Th. Scheimpflug; Theorie der Doppelprojektion als mögliche Konstruktions– grundlage für ein Projektionsgerät (Scheimpflugbedingung) 1901 C.Pulfrich ("Vater der Stereophotogrammetrie"); Konstruktion des ersten Stereokomparators (ZEISS); Einführung der Stereophotogrammetrie; neue Einsatzgebiete: Beobachtung von Wolken, Wellen, fliegenden Objekten 1903 S. Finsterwalder; Kartenherstellung aus Luftbildern (Ballonphotogrammetrie); Entwicklung der Theorie der Orientierung von Bildpaaren 1909 E.v. Orel; Konstruktion des "Stereoautograph"; erstes Gerät, das die Zeichnung von Linien gestattete 1910 Gründung der ISP ("International Society of Photogrammetry"); Heute: ISPRS ("International Society of Photogrammetry and Remote Sensing"). 1.Weltkrieg: Einsatz von Luftbildern in der Luftaufklärung 1915 O. Messter; Konstruktion der ersten metrischen Luftbildkammer ("Malteser Kreuz") 1921 R. Huggershoff; erstes Analoggerät "Autocartograph" 1923 W. Bauersfeld; ZEISS Stereoplanigraph mit optischer Projektion Zwischen den Weltkriegen: Massenproduktion von Karten aus Luftbildern; Private Firmen; Öffentliche Einrichtungen. 2.Weltkrieg: Luftbildinterpretation zur Luftaufklärung und Spionage 1957 U.V. Helava; Grundlagen für Entwicklung des ersten Analytischen Plotters Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.12 ________________________________________________________________________________ Die Entwicklung der (Satelliten-) Fernerkundung : 1959: LUNA 3 Betrachtet die Rückseite des Mondes. Als Produkt entstehen analoge Photographien, die "on-board" entwickelt, abgetastet und radioübertragen werden. 1964: RANGER 7 Betrachtet den Mond. Arbeitet mit 6 Vidikon-Kameras (2WW, 4NW) und produziert 4'316 Bilder. Am JPL (Jet Propulsion Laboratory, Pasadena, Kalifornien) werden die Bilder digital verarbeitet (Kontrastverbesserung, photometrische und geometrische Korrekturen, Rauschunterdrückung, Fouriertransformation, etc.) 1965: MARINER MARS 4 Arbeitet mit Video-Kameras und digitaler Übertragung. Echtzeitdisplay an einer PDP-7. 1967: SURVEYOR 4 1968: APOLLO 1971: MARINER MARS 9 1972: LANDSAT 1 1976: VIKING 1978: SKYLAB Arbeitet mit analogem Video. Auswertung am JPL. "Spin-off": Bildverarbeitungsmethoden (Filter) für Verbesserung medizinischer Röntgenaufnahmen (--> "Spin-back") Bemannt, mit analogen Kameras (Hasselblad 500 EL) Die Erhebung der Daten erfolgte schneller als deren Auswertung. Produkt: 7´300 Bilder. Mehr Details später. Eigentlicher Beginn einer umfangreichen "Erdbeobachtung". Betrachtet den Mars (2 Orbiter-, 2 Landemissionen). Hat 2 TV Kameras an Bord und macht Stereoaufnahmen --> Stereoauswertung am Bildschirm. Erzeugt 25'407 Bilder mit konventionellen Photokameras und multispektralen Scannern; 435 km Flughöhe • • • etc. Die Übertragungsgeschwindigkeit hat im Laufe der Zeit enorm zugenommen. Während MARINER 4 (1965) noch 200 x 200 Pixel in 8 Stunden übertrug, schaffte MARINER 10 (1973) bereits 16 Millionen x 832 Pixel in 42 Sekunden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.13 ________________________________________________________________________________ 1.4. Anwendungen Die wichtigste Anwendung der Photogrammetrie liegt heute in der Vermessung der Erdoberfläche und ihrer Darstellung in Plänen und in topographischen Karten. Photogrammetrische Messverfahren haben gegenüber den herkömmlichen direkten Messverfahren entscheidende Vorteile, welche sie auch in andern Bereichen der Wissenschaft, Technik und in der Kunst unentbehrlich machen: Das Aufnahmeobjekt braucht nicht berührt zu werden, da unmittelbare Messungen nicht notwendig sind. Das Objekt kann sogar unzugänglich sein. Heute gewinnt vor allem die industrielle Anwendung immer mehr an Bedeutung. Durch entsprechend häufige Wiederholung photographischer und anderer Aufnahmen ist es möglich, schnell oder langsam ablaufende Bewegungsvorgänge meßtechnisch zu verfolgen. Die wichtigsten Anwendungsbereiche: etc. Kartographie Geographische Informationssysteme Katastervermessung, Meliorationen Bauingenieurwesen (Projektierung, Bau, Planung von Städten und Strassen) Umweltüberwachung Maschinenbau Physikalisches Versuchswesen Geologie, Geophysik, Meteorologie Architektur, Denkmalpflege, Archäologie Medizin, Sport, Biomechanik, Animation Boden-, Unterwasserforschung Weltraumtechnologie Kriminalistik, Verkehrsunfallrekonstruktion Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.14 ________________________________________________________________________________ In folgenden Bereichen wird die Satellitenfernerkundung heute vorwiegend angewandt: - Vermessungswesen - Landesplanung - Geologie und Geographie - Geophysik, Exploration - Archäologie - Land- und Forstwirtschaft - Umweltüberwachung und Umweltschutz - Hydrologie und Glaziologie - Ozeanographie (Wellenstruktur, Oberflächenwind, Strömungen, Oberflächentemperatur, Oberflächentopographie (Geoid), Wolkentemperatur, Wasserdampfverteilung, etc.) - Meteorologie etc. Photogrammetrie und Fernerkundung werden heute vielfach in Kontext Geographischer Informationssysteme (GIS) betrieben. Abbildung 1.9 zeigt die Komponenten eines GIS. Dabei spielen Photogrammetrie/Fernerkundung als Methoden der Datenerhebung, aber auch für die Verarbeitung und Analyse der Daten eine grosse Rolle. Eingabe Photogrammetrie Fernerkundung Verwaltung Verarbeitung Analyse Vektordaten Ausgabe (numerisch/ graphisch) Vektorgraphik Geodäsie Vermessung Karten Pläne Sachdaten Hybride Graphik Statistiken Tabellen etc. Rasterdaten Rastergraphik Statistik, Sachdaten Abb. 1.9: Komponenten eines Geoinformationssystems (GIS) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 1.15 ____________________________________________________________________________ Nach dem Schweizer Lexikon 91 werden "Photogrammetrie" und "Fernerkundung folgendermassen umschrieben: Techniques, Karlsruhe 1989, A. Grün. n Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.1 2. Das photographische Bild Photometrische Grundlagen I.....Intensität (Lichtstärke [Candela] = [cd]). I = Lichtstrom Φ / Raumwinkel ω des Lichtstroms Φ....Lichtstrom [lumen] = [lm] Φ = Lichtleistung, die von einer Normallampe in den Raumwinkel ω = 1 abgestrahlt wird. Normallampe: Hohlraumstrahler (schwarzer Körper) von der Temperatur des erstarrenden Platin (2047 K) und einer Fläche F=1/60 cm2. Optischer Empfänger Undurchlässigkeit (Opazität) O= T= Transparenz IO Beleuchtungsstärke Belichtung (t…Zeit) 1 IT = O IO E= lm Lichtstrom Φ Fläche F 2 m Bel = Et lx sec Kontrast C Photo Kontrastverhältnis Differentieller Kontrast Logarithmischer Kontrast IT D = logO = log Dichte (Schwärzung) (D = 1, d.h. nur 1/10 des Lichtes wird durchgelassen) IT IO CR = CD = Emax Emin (Emax-Emin) Emin Emax CL = log E min IO IT = lx Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.2 Profil E Emax Modulation M= M= Emin Emax - Emin Emax + Emin CR - 1 CR + 1 x (Ort) CR und M werden meistens in der Luftbildphotographie verwendet. Kontrastreduktion bedingt durch die Atmosphäre: Faktor 2 -3 bei 9 km hg (Flughöhe über Grund). 2. 1. Latentes Bild und photographisches Entwickeln Schwarzweiss - Photographie Schicht, Emulsion (5 - 25 µ m ) Schichtträger, Basis (Glas, Azetatzellulose, Polyesterfilm, Papier) Die Emulsion besteht aus Gelatinemasse mit eingebetteten Silberhalogenid-Kristallen (Bromsilber). Diese "Körner" sind photosensitiv. Treffen Photonen (Lichtstrahlen) auf eine Anzahl Körner, dann wird dort das Silberhalogenid zerlegt in Silber und Halogen (Brom). Die Schicht ist "belichtet". Silber (schwarz) Lichtquanten Silberhalogenid Halogen (Brom) "Belichtung" latentes Bild Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.3 Licht Emulsion Basis nach der Belichtung --------> "Latentes Bild” nach der Entwicklung nach Fixieren, Wässern --------> "Negativ" Fog (Schleier) Der Entwickler verstärkt den Reduktionsprozess. Das Fixierbad löst die unreduzierten Silberhalogenidkörner aus der Schicht und härtet die Emulsion, stoppt somit den Entwicklungsprozess. Restbestände werden durch Wasser herausgewaschen. Das Ergebnis ist ein "Negativ", welches die Helligkeitsunterschiede des Objekts als Dichteunterschiede der photographischen Schicht zeigt. Das schwarze Silber repräsentiert die hellen Objektstellen. Bereiche, welche kein Licht erhalten haben, werden hell nach der Auswaschung der unreduzierten Körner (weiss im Falle von Papier als Basis, durchsichtig bei Film oder Glas). Farbphotographie Weisses Licht Blau Grün Cyan Rot Primärfarben Gelb Sekundärfarben Magenta Die Emulsion der Farbphotographie besteht aus drei Schichten, wobei jeder Schicht ein Farbstoff zugemischt ist. Dieser wirkt jeweils als Filter. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.4 Filtereigenschaften von Farben Weiss Weiss Weiss Cyan Gelb Magenta Grün Blau Rot subtrahiert rot Grün Blau subtrahiert blau Rot subtrahiert grün Aufbau eines Farbnegativ-Filmes Drei Schichten; die Farbstoffe sind in Schichten eingelagert Blau Grün Rot Weiss Cyan Magenta Gelb Objektfarben Zurückgehalten Eingelagert Blauempfindlich Gelb Gelbfilter Grünempfindlich Magenta Rotempfindlich Cyan Nach Belichtung und Entwicklung gelber Farbstoff magenta Farbstoff cyan Farbstoff Nach Fixierung Gelb Magenta Cyan Schwarz Rot Grün Blau Farben im Negativ Die Farbschichten für Diafilme sind anders aufgebaut. Daneben gibt es noch Filme mit speziellem Aufbau, so zum Beispiel Infrarotfilme. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.5 2. 2. Charakteristische Kurve und spektrale Empfindlichkeit Dichte : Ausmaß der Schwärzung eines entwickelten Photos. I D = log O IT Charakteristische Kurve : D = f (Belichtung Et) Die charakteristische Kurve definiert somit die Beziehung zwischen Dichte D einer Emulsion und der Belichtung (Et). Der Logarithmus von (Et) wird benutzt, da das menschliche Auge Lichtunterschiede ebenfalls über eine logarithmische Funktion registriert. Diese Kurve beschreibt ein Charakteristikum der photographischen Emulsion. Abb. 2. 1: Charakteristische Kurve einer photographischen Emulsion Der geradlinige Teil dieser Kurve ist von besonderer Bedeutung für die Erzielung "guter" Photos. Bei einer "richtig" belichteten Aufnahme fallen alle Dichtewerte auf den geradlinigen Teil. Die Steigung dieser Geraden nennt man "Gradation γ " . γ = tan α = ∆D ∆ log(Et ) γ …Gradation Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.6 Abb. 2. 2: Kurven unterschiedlicher Gradation "Hart" bedeutet: Scharfe Unterschiede zwischen hell und dunkel (starker Kontrast). Der Verlauf der Kurve ist auch von der Entwicklung und nicht nur von der Art der Emulsion abhängig (Entwicklungsdauer; Zusammensetzung,Temperatur und Typ des Entwicklers). Abb. 2. 3: Schwärzungskurven bei verschiedener Entwicklung Die Schwärzungskurve gibt auch Hinweise bezüglich der Empfindlichkeit einer Emulsion. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.7 Die DIN- und ASA-Normen sind so festgelegt, daß sie eine reziproke Funktion der Belichtung (Et) darstellen, welche bei einer festgelegten Entwicklung einen bestimmten Dichtewert erzeugt, und zwar um ∆D = 0.1 über dem Schleier. D A DA ² D = 0.10 Schleier log (E t) A log E t Normen: DIN - Zahl = 10 log 1 Et A 1 ASA - Zahl = 0,8 E t A Spektrale Empfindlichkeit Die spektrale Empfindlichkeit einer Emulsion zeigt an, in welchem Ausmass sie gegenüber Licht verschiedener Wellenlängen des Spektrums empfindlich ist. Photographische S/W-Emulsionen sind grundsätzlich blauempfindlich. Die Beimischung von Farben macht sie auch gegenüber anderen Wellenlängen empfindlich. Als "orthochromatisch" bezeichnet man Emulsionen, die blau-, grün- und gelbempfindlich sind. Sind sie zusätzlich noch rotempfindlich, so bezeichnet man diese als "panchromatisch ". Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.8 Diese Darstellung zeigt die durchschnittliche Empfindlichkeitskurve von menschlichem Auge, unsensibilisiertem, orthochromatischem und panchromatischem Schwarzweiss-Film. Deutlich wird die erhöhte Blau- und die verringerte Gelbempfindlichkeit des üblichen panchromatischen Films, die im Gegensatz zur Augenkurve steht. Das erklärt auch, weshalb Blau auf dem Film (zu) hell, Gelb dagegen (zu) dunkel wiedergegeben wird. Solche widersprüchlichen und oft unerwünschten Grautonwerte lassen sich mit Hilfe von Farbfiltern ganz oder teilweise korrigieren. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.9 Aus: Albertz/Kreiling, Photogrammetrisches Taschenbuch 3. Auflage, Herbert Wichmann Verlag Karlsruhe, 1980 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.10 Aus: Philip Swain und Shirley Davis, Remote Sensing: The Quantitative Approach; MacGraw-Hill, 1978 Geschwindigkeit Geschwindigkeit einer Emulsion: Schnell heißt hochempfindlich; erfordert wenig Licht, um eine bestimmte Dichte zu erreichen. Wenig Licht bedeutet aber kurze Belichtungszeit. Anwendung bei schnell bewegten Objekten oder schlechten Lichtverhältnissen. Empfindlichkeit Die Empfindlichkeit hängt ab von Grösse und Anzahl der Bromsilberkristalle. Grosse Bromsilberkristalle erhöhen die Empfindlichkeit, aber reduzieren die Auflösung und umgekehrt. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.11 Geometrische Auflösung Ein weiterer wichtiger Parameter der Emulsion ist die geometrische Auflösung. Zwischen der Empfindlichkeit einer Emulsion und ihrer geometrischen Auflösung besteht eine Wechselwirkung: Empfindlichkeit Grosses Korn Hoch Kleines Korn Gering Geometrische Auflösung Gering Hoch Heute sind Emulsionen sehr hoher Auflösung verfügbar (Kodak: 700 lp/mm). Die Gesamtauflösung eines photographischen Systems wird durch Objektiv und Emulsion bestimmt. Dabei ist das Objektiv der eigentlich einschränkende Faktor (Auflösungsvermögen moderner Luftbildobjektive: ca. 100 lp/mm, bildortabhängig). Praktische Bedeutung a) In der terrestrischen Photogrammetrie bestehen große Lichtunterschiede. Es können bei nichtbewegten Objekten (lange Belichtung ist möglich) gewöhnlich feinere Emulsionen benutzt werden (Kontrast CR = 30 : 1). b) In der Luftbildphotographie benutzt man wegen der Flugzeugbewegung kurze Belichtungszeiten, d.h. man braucht dann zur Erzielung guter Bilder eine relativ "schnelle" Emulsion. Somit steht dort die Forderung nach hoher Auflösung mit derjenigen nach grosser Empfindlichkeit in Konkurrenz. Es ist ein Kompromiss nötig (FMC -> Forward Motion Compensation). Die Lichtunterschiede (abhängig von hg und Zustand der Atmosphäre), die durch diffuse Reflexion und Streuung des Sonnenlichts an Staub- und Wasserteilchen verursacht werden, sind kleiner. Es werden Filme hoher Gradation (γ = 1-2), also harte Emulsionen, benutzt. Zudem ist ein sorgfältiges Aufeinanderabstimmen von Emulsion, Entwickler und Entwicklungszeit nötig. Der hohe Blaulichtanteil muss mit einem Gelb- oder Orangefilter abgeschwächt werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.12 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.13 2.3. Geometrische Auflösung der Emulsion Interessant ist das Auflösungsvermögen und im Zusammenhang damit die Modulationsübertragungsfunktion.. - Ziel des Auflösungsvermögens: Erhalten eines quantitativen Masses zur Beschreibung der Fähigkeit eines optischen Systems, benachbarte Punkte oder Linien noch erkennbar übertragen/wiedergeben zu können. - Testfiguren: Testfiguren bestehen aus Strichrastergruppen mit wechselnden Abständen (z. B. Siemensstern). - Definition des AV: Das Auflösungsvermögen definiert sich nach der Anzahl noch erkennbarer Hell/DunkelPerioden pro Längeneinheit, z.B. 50 lp/mm für ein Objektiv. (Linienpaare pro Millimeter -> lp/mm) lp { Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.14 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2.15 - Problem: Eine einzelne Zahl für das AV ist nicht aussagekräftig genug. So beeinflusst zum Beispiel auch der Kontrast das Auflösungs- vermögen. - Lösung: Modulationsübertragungsfunktion (MTF) (allgemein: Optische Übertragungsfunktion (OTF). Man erhält sie aus einer Ableitung aus der Nachrichtentechnik. f(x) = a + b cos (2 π ω x + ε) "Input" opt. System: "Output" opt. System: Objekt f(x) Abbildung g(x) Bild Der "Output" ist ebenfalls sinusförmig und hat die gleiche Frequenz, aber eine andere Amplitude als der "Input". (--> Amplitudenmodulation) g(x) = a + M(ω) b cos (2 π ω x + ε + φ(ω)) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Definition Input Modulation Min = fmax - fmin fmax + fmin = b a Definition Output Modulation Mout = Das Verhältnis MTF = gmax - gmin gmax + gmin = M(ω) b a Output Modulation = M(ω) Input Modulation hängt ab von der Frequenz ω (= Wechsel zwischen schwarz und weiß). (MTF -> Modulus der Fourier Transformation der Verwaschungsfunktion) Normalisierung von M(ω): M(0) = 1 Modulus M(ω) = 2 2 C (ω) + S (ω) -S(ω) Phase φ(ω) = arctan Damit C(ω) = Μ(ω) cos φ(ω) C(ω) S(ω) = -M(ω) sin φ(ω) Seite: 2.16 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2. 17 ____________________________________________________________________________ Testfigur Helsinki University of Technology Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 2. 18 _________________________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.1 ______________________________________________________________________________ 3. Nichtphotographische Sensorsysteme 3.1. Aufzeichnung und Wiedergabe von Fernsehbildern Beim Fernsehen werden Bilder direkt in elektrische Signale umgewandelt. Diese können schnell über größere Distanzen übertragen und vor Ort wieder in Bilder zurückverwandelt werden, welche dann am Bildschirm zu betrachten sind. Bei Einsatz dieser Technologie für Vermessungsaufgaben ist zu beachten, daß sie rein für Betrachtungszwecke entwickelt wurde. Sie weist daher auf der metrischen Seite einige erhebliche Nachteile auf, die genau studiert und kompensiert werden müssen. Im Gegensatz zur photographischen Kamera wird bei einer TV-Kamera an die Stelle der photographischen Schicht ein optoelektronischer Sensor gebracht. Dabei unterscheidet man folgende Kategorien: - Bildaufnahmeröhren + äußerer photoelektrischer Effekt (Bildwandler, Sekundärelektronenvervielfacher, Ikonoskop, Resistron etc.) + innerer photoelektrischer Effekt ("Photoconductors"; Vidicon, Return-Beam-Vidicon (RBV) etc.) - Festkörperbildsensoren Funktionsprinzip des Vidicons: Die Oberfläche eines Photoleiters wird durch einen feinen abtastenden Elektronenstrahl auf Kathodenpotential (= OV) geladen. An belichteten Stellen wird die Oberfläche des Photoleiters positiv geladen, wobei die Ladungsänderung proportional zur Lichtintensität (Anzahl Photonen) ist. Es entsteht sozusagen ein "latentes elektronisches Bild". Beim nächsten Durchgang des Elektronenstrahles ("Bildübernahme") wird diese positive Ladung wieder kompensiert, und es entsteht an der Elektrode ein Stromimpuls. Die Folge dieser Stromstöße bei der Abtastung generieren das amplitudenmodulierte Bildsignal. Die Fokussierung und Abtastung des Elektronenstrahls wird durch externe Magnetfelder gesteuert. Als Photoleiter dienen Halbleitermaterialien wie PbO (Bleioxid), CdSe (Cadmiumselenid), Sb2S3 (Antimontrisulfid). Allerdings ist diese Röhrentechnologie zur Bildaufnahme heute nicht mehr gebräuchlich. Man benutzt heute ausschliesslich Halbleitersensoren (Photodioden, CCDs, CIDs, etc.), vgl. Kapitel 3.2. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.2 ______________________________________________________________________________ Abb. 3.1: Funktionsprinzip der Vidicon-Bildröhre Die Umwandlung des Bildes in ein zeitlich variierendes Signal erfolgt durch zeilenweises Abtasten. Um eine flimmerfreie Bildwiedergabe zu erhalten, wird das Gesamtbild durch zwei separate Abtastvorgänge aufgebaut, wobei die geraden und ungeraden Zeilen jeweils ein Halbbild definieren. Diese Halbbildfrequenz sollte mindestens 50 Hz betragen. Abb. 3.2: Videogesamtbild durch Abtastung zweier Halbbilder Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.3 ______________________________________________________________________________ Das Bild wird zeilenweise aufgebaut und kann übertragen werden. Um aus der Signalfolge nach erfolgter Übertragung wieder ein Bild zusammensetzen zu können, müssen noch Steuersignale beigemischt werden. So werden zum Beispiel die einzelnen Zeilen durch einen Zeilensynchronpuls voneinander getrennt. Abb. 3.3: Typischer Aufbau eines Fernseh - (Video -) Signals Es existieren mehrere Videostandards. Zwei wichtige Farbstandards beinhalten folgende Parameter: PAL (Europa) NTSC (USA) Anzahl Halbbilder/sec: Anzahl Zeilen/Bild: -> davon für das Bild gebraucht: 50 625 575 60 525 480 Zeilenfrequenz (kHz): Videobandbreite (MHz): 15.625 5.0 15.75 4.5 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.4 ______________________________________________________________________________ Zwischen die zwei Halbbilder wird zusätzlich noch eine Sequenz von "vertikalen" Synchronisationsimpulsen eingebracht (über ein Intervall von 25 Zeilen verteilt). Das Bildsignal wird mit γ = 0.5 − 0.6 übertragen. Bei der Wiedergabe wird dies kompensiert, indem Kathodenstrahlröhren als Display mit γ = 2.5 − 2.8 verwendet werden. Insgesamt wirkt also das resultierende γ = 1.25 − 1.7 als kontraststeigernd. Abb. 3.4: Videodisplay mit Kathodenstrahlröhre Die Übertragung des Videosignals (Luft oder Kabel) erfolgt durch Frequenzmodulation. Dabei liegen die Trägerfrequenzen in 3 Bändern: I III 48.25 175.25 55.25 ... 62.25 182.25 ... 224.25 MHz MHz λ λ = = 5 m 1 m IV/V 471.25 479.25 ... 783.25 MHz λ = 0.5 m Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.5 ______________________________________________________________________________ 3.2 CCD - Sensoren und CCD Kameras 3.2.1 CCD - Sensoren Die Sensoren sind das erste Element in der Kette der Bildaufnahme. Eine geometrisch und radiometrisch genaue Erfassung des Objektes ist Grundlage jeder präzisen Auswertung. Heute verdrängen CCD-Sensoren fast vollständig Bildröhren. Sie sind wesentlich kleiner, leichter, robuster, haben einen grösseren dynamischen Bereich und sind geometrisch stabiler. Der CCDSensor liefert die optisch generierte Information nicht als komplettes Bild weiter, sondern Punkt für Punkt und zeilenweise in serieller elektrischer Form. Dieses elektrische Signal wird in der Signalaufbereitungsstufe in ein genormtes Format umgesetzt und anschliessend zum Ausgang weitergeleitet. Ein grosser Vorteil ist die sofortige Verfügbarkeit der Information nach dem Belichten, denn bei der Filmkamera muss der belichtete Film erst entwickelt werden, was Zeit und Geld kostet. Damit nicht jeder Hersteller seine eigenen Vorschriften zum Auslesen der elektrischen Information definiert, gibt es eine Video-Norm, durch die eine einheitliche Grundlage und damit eine Kompatibilität zu anderen Videogeräten geschaffen wurde. Die meisten heutigen Sensoren sind auf MOS (Metal Oxide Semiconductor) Technologie aufgebaut. Solche Sensoren können als Zeilen und Flächensensoren gebaut werden. Klassifizieren kann man sie nach der Auslesemethode, welche starken Einfluss auf die Belichtungszeit (ohne Verschluss), sensitive Fläche und weitere Effekte hat. Zu unterscheiden sind: CCD (Charge Coupled Device), CID (Charge Injection Device) und Photodioden. Die beiden letzteren haben den Vorteil, dass man jedes Bildelement einzeln adressieren und auslesen kann. Bei CCDs müssen die Ladungen gesamthaft verschoben werden. Hierfür gibt es die Methode des "Interline Transfer" und des "Frame Transfer". Beim Interline Transfer Sensor sind Kolonnen von lichtempfindlichen Sensoren neben Transportbahnen angelegt. Die Ladungen werden in letztere transferiert und während der Belichtung der lichtempfindlichen Sensorelemente zunächst in den Kolonnen verschoben und anschliessend über eine oder mehrere Registerzeilen ausgelesen. Der Transfer geschieht sehr schnell, da die Ladungspakete nur um ein Sensorelement verschoben werden müssen. Beim Frame Transfer Sensor ist die Sensorfläche in eine Bildzone und eine Speicherzone aufgeteilt. Die durch das Licht entstandenen und in Potentialtöpfen gesammelten Ladungen werden schnell in die Speicherzone transportiert und von dort Zeile um Zeile ebenfalls in Auslesezeile(n) verschoben und anschliessend ausgelesen. Das Verhältnis Belichtungszeit zu Verschiebezeit des Bildes in die Bildzone ist etwa 19:1. Frame Transfer Sensoren sind lichtempfindlicher, da die Pixelfläche wesentlich grösser ist. Das Auslesen eines CCD-Sensors Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.6 ______________________________________________________________________________ wird meistens durch die Video-Norm festgelegt, die das Timing und die Pegel zur Übertragung vorschreibt (vgl. Kapitel 3.1). Typische Flächensensoren liefern in der Grössenordnung 512 x 512 Elemente, wobei die horizontale Auflösung meist besser ist als die vertikale, da letztere durch die Anzahl Zeilen des Videosignals beschränkt ist. Die grössten Flächensensoren auf einem Chip enthalten 2K x 2K Sensorelemente. Durch Zusammensetzen mehrerer Chips lassen sich grosse Flächensensoren zusammenbauen. CCD-Chip Formate Die Formatangabe des Bildsensors in Zoll kommt aus der Zeit, in der es nur Fernsehröhren gab. Eine runde Aufnahmeröhre mit 1“ Durchmesser (25mm) hatte ein rechteckiges, aktives Fenster mit einer Diagonale von 16mm. Dieses Format hat man bisher beibehalten. 1“-Chips werden heutzutage nur noch selten eingesetzt, 1/2“ und 1/3“-Chips dagegen finden immer mehr Anwendung, u.a. im Bereich der Überwachung, bei Miniaturkameras und bei Home-Videokameras. Neben Flächensensoren werden gelegentlich auch Linienarrays (Liniensensoren) eingesetzt. Abb. 3.5: Formate für CCD-Flächenchips Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.7 ______________________________________________________________________________ Abb. 3.6: Prinzip CCD Frametransfer Abb. 3.7: Prinzip CCD-Frametransfer Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.8 ______________________________________________________________________________ Abb. 3.8: Prinzip CCD Interline Transfer 3.2.2. CCD Kameras und Bildübertragung Abb. 3.9 zeigt das Prinzip der Bilddatenakquisition und -übertragung mit CCD - Kameras Im Folgenden werden einige der dortigen Komponenten kurz erläutert. Abb. 3.9: Bilddatenakquisition und -übertragung mit CCD - Kameras Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.9 ______________________________________________________________________________ CCD-Kamera Abb. 3.10 zeigt die wichtigsten Elemente einer Halbleiter-Kamera. Abb. 3.10: Bauelemente einer Halbleiter-Kamera Das Objektiv ist gewöhnlich ein CCTV-Objektiv (Close Circuit Television) mit einem Coder CS-Adapter. Der Infrarotfilter dient dazu, die IR-Strahlung (>700nm), welche tief in den Halbleiterchip eindringt, und zu unerwünschten Verwaschungseffekten führt, zurückzuhalten. Der Diffusor reduziert den Einfluss von Moiré-Effekten und wird oft in Verbindung mit Interlinetransfer Chips benutzt. Die Glasplatte dient dem Schutz des Chips. Die Kameraelektronik kann sehr unterschiedlichen Zwecken dienen. Im einfachsten Fall sorgt sie dafür, dass ein Bild guter Qualität erzeugt wird (so z.B. durch das Unterdrücken von Rauschen). CCD-Kameras gibt es in einer grossen Anzahl von Ausführungen und Typen. Tabelle 3.1 zeigt eine Zusammenstellung unterschiedlicher Produkte. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.10 ______________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.11 ______________________________________________________________________________ Die Abbildungen 3.11 zeigen verschiedene CCD-Kameras unterschiedlichen Aufbaus und Leistungsfähigkeit. (a) S-VHS JVC GR-S77E (b) Sony Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.12 ______________________________________________________________________________ (c) Videk Megaplus (d) Kodak DCS 200 Abb. 3.11: Verschiedene CCD-Kameras Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.13 ______________________________________________________________________________ Bildübertragung und Framegrabber Die Konvertierung der Ladungspakete in Grauwerte, welche als Zahlen im Bildspeicher dargestellt sind, ist insofern ein wichtiger Prozess, da hier signifikante geometrische und radiometrische Deformationen auftreten können. Grundsätzlich ist zwischen analoger und digitaler Bildübertragung zu unterscheiden. Digitale Daten werden von Kameras generiert, welche einen A/D Konverter integriert haben (z.B. KODAK Megaplus), von Computer Tomographie Scannern, Satellitensensoren und Elektronenmikroskopen. Die Verwendung eines digitalen Datentransfers garantiert eine optimale Bildaufnahme. Analoge Uebertragung geschieht mit einer Vielzahl von Signalen und Standards. Hier kann man zwischen "Slow Scan", Video und HDTV (High Definition Television) unterscheiden (vgl. Tabelle 3.2). Slow Scan Standard Video HDTV pixel frequency < 5 MHz 7.5-15 Mhz > 15 Mhz frame size 1K x 1K to 4K x 4K 256 x 256 512 x 512 780 x 540 1280 x 1024 gray value resolution 6-16 Bit 6-10 Bit 6-8 Bit Tabelle 3.2: Datenraten der analogen Bildübertragung Slow Scan wird vor allem bei Kameras mit Zeilensensoren und einer Datenrate von weniger als 5 MHz verwendet. Video Signale sind am verbreitetsten mit verschiedenen Standards für monochrome und farbige Bilder. Die zwei wichtigsten Standards für schwarzweisse Bilddaten sind CCIR (Consultative Committee International Radio) und RS-170, welcher ein Subset des Farbstandards NTSC (National Television System Committee) ist. Die typische Datenrate von mit Video übertragenen Bildern liegt bei 7 bis 15 MHz. HDTV ist in Japan in der Einführung, es gibt aber auch in den USA und Europa mehrere Normenvorschläge, welche zu verschiedenen Standards führen dürften. Die zwei monochromen Videostandards CCIR und RS-170 unterscheiden sich primär in der Bildfrequenz und der Anzahl Zeilen. CCIR hat eine Bildfrequenz von 50 Bildern/sec und 625 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 3.14 ______________________________________________________________________________ Zeilen, wogegen in RS-170 60 Bilder/sec mit 525 Zeilen definiert sind. Das komposite Videosignal enthält neben der Bildinformation auch Synchronisationsimpulse, welche zur Steuerung der Kathodenstrahlen von Monitoren ausgelegt werden. Dadurch ergeben sich für die Messtechnik einige Probleme, welche später noch beschrieben werden. Framegrabber empfangen die analogen oder digitalen Bilddaten, führen die notwendige Synchronisation und im Falle von analogen Daten die A/D Wandlung durch und übergeben die Bilder in spezielle Bildspeicher. Die meisten Framegrabber können den Normen entsprechende Videosignale empfangen und digitalisieren. Die A/D Wandlung geschieht typischerweise mit etwa 10 bis 12 MHz. Die Bildgrösse ist meistens 512 x 512 Pixel. Viele Framegrabber beinhalten auch Bildspeicher, ALUs (Algorithmic Logical Unit), LUTs (LookUp Table), Cursor-, Graphik- und Textgeneratoren, sowie D/A Wandler zur Darstellung der Bilder und Graphik. Einige Framegrabber haben Möglichkeiten zur Synchronisation mit anderen Signalen und können eine eigens übertragene Pixelclock für die Zeitgebung des A/D Wandlers verwenden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.1 ____________________________________________________________________________ 4. Die Metrische Kamera 4.1 Definitionen Die ursprüngliche Version einer modernen Kamera ist die "Lochkammer" (Alte Araber, Daguerre). Abb. 4.1: Invertiertes Bild einer Lochkammer Anhand der Lochkammer läßt sich das Grundprinzip einer modernen metrischen Kamera erläutern: H´...... Hauptpunkt F1-4..... Rahmenmarken c........ O....... Kammerkonstante Projektionszentrum r´......... x´, y´.... Bildradius Bildkoordinatensystem M´...... Ursprung des Bildkoordinatensystems OH´...... Aufnahmeachse, Kammerachse Abb. 4.2: Geometrische Beziehungen und Bildkoordinatensystem Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.2 ____________________________________________________________________________ Die vier Rahmenmarken F1, F2, F3 und F4 definieren ein Bildkoordinatensystem x´,y´ mit Ursprung M´. Der Hauptpunkt H´ ist definiert als die senkrechte Projektion des Projektionszentrums auf die Bildebene. Die Distanz Projektionszentrum zur Bildebene (c) wird Kammerkonstante genannt. H´ sollte mit M´ zusammenfallen. Innere Orientierung > Kammerkonstante c > xH´, yH´ ; Lage von H´ im System x´, y´ Die innere Orientierung ist bei einer metrischen Kamera genau bekannt und stabil. Diese Eigenschaft unterscheidet im wesentlichen die metrische Kamera von der Amateurkamera. Ist die innere Orientierung eines Photos bekannt, so spricht man von einer "metrischen Aufnahme". Mit c und r´ kann der Bildwinkel τ eines Bildpunktes P´ berechnet werden: r´ tan τ = c Winkel zwischen ausgezeichneten Punkten können demnach auch aus den entsprechenden Bildkoordinaten einer metrischen Photographie errechnet werden, wenn c bekannt ist (Genauigkeit: 10cc, Theodolit: 3cc). Abb. 4.3: Theodolit, metrische Kamera, Winkelrekonstruktion Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.3 ____________________________________________________________________________ 4.2 Optische Elemente Die Lochkammer kommt hinsichtlich der geometrischen Verhältnisse dem Modell der Zentralprojektion am nächsten, die Nachteile sind jedoch sofort ersichtlich: Wegen der kleinen Eintrittsöffnung sind lange Belichtungszeiten notwendig. Dies hätte zur Folge, daß bewegte Objekte unscharf wiedergegeben würden. Um den technischen Anforderungen gerecht zu werden, vergrößert man die Eintrittsöffnung mit einer Linse oder meistens mit Linsenkombinationen. Die geometrischen Beziehungen der Abbildung werden dadurch komplizierter. 4.2.1 Linsengleichung Mit der Einführung einer Linse gewinnen wir mehr Licht, aber der Bildpunkt P´ von P fokussiert nur in einem spezifischen Punkt (spezifische Ebene). a.......Dingweite a´.......Bildweite f..........Brennweite Abb. 4.4: Kammer mit Objektiv Die von einem Objektiv entworfenen Bilder des Dingraumes liegen aber keineswegs in einer Ebene. Jeder Dingweite a ist eine Bildweite a´ zugeordnet; a und a´ sind über die Linsengleichung 1 1 1 = + f a a´ mit der Brennweite f verknüpft. Aus der Gleichung wird ersichtlich: Wenn a → ∞, dann ist a´= f. Soll eine Kamera konstruiert werden, die Scharfabbildung unendlich ferner Objekte liefert, muß ihre Kammerkonstante c gleich der Brennweite f sein. Die Situation in der obigen Figur ist eine Idealisierung, infolge Linsenfehler (Aberrationen) bilden die in den Bildraum austretenden Strahlen kein eindeutiges Strahlenbündel mehr (Fabrikationsfehler). Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.4 ____________________________________________________________________________ 4.2.2 Die Aberrationen Die haupstächlichen Aberrationen sind: - chromatische Aberration (Farbabweichung), welche für Strahlen unterschiedlicher Wellenlänge unterschiedliche Bildweiten erfordert; - sphärische Aberration (Kugelabweichung), welche für zentrale Strahlen und Randstrahlen bei der Linse unterschiedliche Bildweiten verlangt; - Astigmatismus, welcher für durch die Linse hindurchgehende vertikale und horizontale Randstrahlen unterschiedliche Bildweiten benötigt; - Bildfeldwölbung, welche unterschiedliche Bildweiten in Abhängigkeit vom Bildwinkel erfordert; - Koma, welches durch eine sphärische Aberration für schräg einfallende Strahlen verursacht wird. Durch Kombination mehrerer konvexer und konkaver Linsenelemente aus Glas mit unterschiedlichen Brechungsindizes entsteht ein Objektiv, welches die Scharfabbildung in der Bildebene genähert gewährleistet. Beispiele: Abb. 4.5: Sphärische Aberration Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.5 ____________________________________________________________________________ Abb. 4.6: Koma Analog zur sphärischen Aberration, aber das Strahlenbündel fällt nicht koaxial, sondern schräg ein. Abb. 4.7: Astigmatismus Der Astigmatismus wird verursacht durch Ungenauigkeiten beim Schleifen der Linsen. Strahlenpaare, die in zuenander senkrechten Ebenen liegen, schneiden sich nicht in einem Punkt. Abb. 4.8: Chromatische Aberration Die chromatische Aberration wird verursacht durch die unterschiedliche Brechung von verschiedenen Wellenlängen in der Linse. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.6 ____________________________________________________________________________ Die Aberrationen stören nicht zwingend die Geometrie des Bildes, sondern das Auflösungsvermögen (Schärfe). a) b) a) Abbildung der Testfigur durch ein gut korrigiertes Objektiv 1 b) Objektiv 2: Einstellung auf beste Mittenschärfe. Die Bildschärfe von a) wird nicht erreicht. Ursache: Öffnungsfehler des Objektives. Der Rand der Figur ist unscharf wiedergegeben. Ursache: Bildfeldwölbung. Die Quadratseiten sind nach aussen durchgebogen. Ursache: tonnenförmige Verzeichnung c) d) c) Objektiv 2: Einstellung auf den grössten Kreis. Bildmitte und äusserste Bildecken sind gleichmässig unscharf. Die beiden Bildschalen (siehe d) fallen recht gut zusammen. Tonnenförmige Verzeichnung (wie bei b) d) Objektiv 3: Einstellung auf den zweitgrössten Kreis, Mitte und Rand weisen sehr grosse Unschärfen auf. Ausser dem eingestellten Kreis sind noch Stücke der radialen Geraden scharf abgebildet. Ursache: starker Astigmatismus, d.h., Differenzen zwischen den beiden Bildschalen, in denen die sagittalen bzw. die tangentialen Bildelemente (Radien bzw. Kreise der Testfigur) abgebildet werden. Ausserdem kissenförmige Verzeichnung. Abb. 4.9: Beispiele für sphärische Aberration Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.7 ____________________________________________________________________________ 4.2.3 Die Tiefenschärfe In Realität sind die photographischen Strahlen, die von einem Objekt ausgehen, nicht einzelne Strahlen, sondern komplette Bündel, die durch die Blendenöffnung begrenzt werden. Abb. 4.10: Blende, Zerstreuungskreis Objektpunkte in unterschiedlicher Entfernung vom Projektionszentrum werden nicht in derselben Bildebene abgebildet. Da jedoch der Film zwangsweise in einer Ebene liegt, bildet sich ein sogenannter Zerstreuungskreis. Das Ausmass der Zerstreuung ist eine Funktion der Tiefenschärfe und der Blendenöffnung. Abb. 4.11: Kleine Blende => kleiner Zerstreuungskreis Um die Zerstreuung in einem tolerierbaren Rahmen zu halten, kann durch Verkleinern der Blendenöffnung die Tiefenschärfe vergrößert werden (Konsequenzen: Kleinere Lichtintensität, längere Belichtungszeiten). Bei Luftbildaufnahmen kann mit geöffneter Blende gearbeitet werden, da die relativen Höhenunterschiede im Verhältnis zur Flughöhe klein sind. In der terrestrischen Photographie bietet jedoch die Tiefenschärfe oft Probleme (Nahaufnahmen). Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.8 ____________________________________________________________________________ Berechnung der Tiefenschärfe: Abb. 4.12: Elemente zur Berechnung der Tiefenschärfe u ... a ... av, ah ... Zerstreuungskreis Abstand zur Objektebene vordere, hintere Objektpunkte 2 av = af 2 f + K u (a - f) 2 ah = af 2 f - K u (a - f) K ... f ... Blendenzahl Brennweite Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.9 ____________________________________________________________________________ 4.2.4 Das Projektionszentrum Bei der Lochkammer bildet das Zentrum der Eintrittsöffnung das Projektionszentrum. Mit der Einführung eines Linsensystems muß jedoch das Projektionszentrum neu definiert werden. Abb. 4.13: Projektionszentrum bei einem Linsensystem Im Gegensatz zur Lochkammer hat die Messkammer je ein besonderes Projektionszentrum, den Mittelpunkt der Eintrittspupille EnP (Projektionszentrum des Objektraumes, objektseitiges Bild der Blende) und den Mittelpunkt der Austrittspupille ExP (Projektionszentrum des Bildraumes, bildseitiges Bild der Blende). Beachte: Sich entsprechende Hauptstrahlen im Objekt- und im Bildraum sind nicht parallel zueinander. 4.2.5 Die Bildfunktion Die Strahlenkegel des Objektraumes und des Bildraumes sind nicht kongruent. Mit den in der Photogrammetrie gebräuchlichen hochpräzisen Objektiven sind jedoch die Deformationen des Kegels beinahe rotationssymmetrisch und können durch den Eintrittswinkel τ und den Austrittswinkel τ´ beschrieben werden: Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.10 ____________________________________________________________________________ Abb. 4.14: Bildfunktion Die Bildfunktion r´ = F (τ) wird durch die optischen Eigenschaften des Linsensystems bestimmt. Verwenden wir die für die Zentralprojektion geltende Abbildungsvorschrift r = c tan τ, gilt für den Bildabstand r´ : r´ = c • tan (τ) . 4.2.6 Kammerkonstante und geometrische Verzeichnung Die Kammerkonstante c wird durch das Objektiv und die Lage der Bildebene bestimmt, sie ist charakteristisch für ein bestimmtes Kamerasystem. Um die Abbildungsfehler zu verkleinern und um eine optimale Fokussierung über das ganze Bild zu erreichen, bestehen die Objektive moderner Messkammern aus mehreren speziell angeordneten Linsen. Die Herstellung solcher Objektive setzen eine große Erfahrung voraus. Es ist jedoch in der Praxis (und in der Theorie) nicht möglich, absolut verzeichnungsfreie Objektive herzustellen. Somit muß die Bildfunktion immer um eine radiale Verzeichnung ∆r korrigiert werden: r´ = c tan τ + ∆r Diese geometrischen Verzeichnungen haben große Bedeutung in der Photogrammetrie und beeinflussen, im Gegensatz zu den optischen Aberrationen, den Bildort, jedoch nicht die Bildqualität. Aus der Bildfunktion r´ = c tan(τ ) + ∆r erkennt man die Abhängigkeit von c und ∆r. Wird c um ∂c geändert, erhält man: ∆r + ∂r = r´ - (c + ∂c) tan τ ∂r = - ∂c tan τ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.11 ____________________________________________________________________________ Das heißt, auch bei einem absolut verzeichnungsfreien Objektiv führt eine mit einem Fehler behaftete Kammerkonstante cf zu einer linearen Verzeichnung (Änderung des Bildmassstabes!): r´ = cf tanτ δr = -δc tanτ = -dc r´ cf Die radiale Verzeichnung ∆r, für gegebenes c und τ, ist nur eine Funktion des Bildradius r´: Abb. 4.15: Radiale Verzeichnung ∆r Abb. 4.16: Einfluß der radialen Verzeichnung Moderne Luftbildkamera: Amateurkamera: max. radiale Verzeichnung ∆r ≤ 5 µm ∆r ≤ 500µm Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.12 ____________________________________________________________________________ 4.3 Innere Orientierung und Kammerkalibrierung Die feste innere Orientierung einer Messkammer erlaubt die Rekonstruktion des Aufnahmestrahlenbündels. Parameter der inneren Orientierung: - xH´, yH´...Koordinaten des Hauptpunktes -c (- ∆r ...Kammerkonstante ...radiale Verzeichnung) Abb. 4.17: Parameter der inneren Orientierung Den Vorgang zur Bestimmung der inneren Orientierung einer Kamera nennt man Kammerkalibrierung. a) Definition des Bildkoordinatensystems Durch Bestimmen der Rahmenmarkenkoordinaten oder deren Abstände erhält man das Bildkoordinatensystem. In der Praxis werden folgende Rahmenmarkenanordnungen verwendet : Meistens sind es 4 - 8 Rahmenmarken, ein Réseau (regelmäßiger Raster über das ganze Bild) oder Rahmenmarkenleisten werden eher selten gebraucht. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.13 ____________________________________________________________________________ Abb. 4.18: Rahmenmarkenanordnungen: Zeiss, Wild (aero), Jenoptik, Réseau, Wild (terrestrisch) b) Hauptpunktbestimmung Abb. 4.19: Goniometer zur Bestimmung des Bildhauptpunktes Der Bildhauptpunkt ist definiert als Durchstoßpunkt der Bildebene mit dem Hauptstrahl, dessen bildseitige (fiktive) Verlängerung senkrecht auf der Bildebene steht. Beachte: Die optische Achse entspricht nicht der Kameraachse. Der Bildhauptpunkt kann mit einem Kollimator bestimmt werden, der senkrecht zur Bildebene steht. Instrument: Goniometer Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.14 ____________________________________________________________________________ c) Kammerkonstante, Bildfunktion, radiale Verzeichnung Wenn H´ bestimmt ist, können mit der Bildfunktion r´ = F(τ) Bildradien und Objektwinkel τ gemessen und verglichen werden. Die Bestimmung der Bildfunktion kann auf zwei Arten geschehen: 1. Photographische Bestimmung der Bildfunktion: Abb. 4.20: Goniometerarray zur photographischen Bestimmung der Bildfunktion 2. Visuelle Bestimmung der Bildfunktion: Abb. 4.21: Kollimator auf Teilkreis zur visuellen Bestimmung der Bildfunktion Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.15 ____________________________________________________________________________ Wie in Kapitel 4.2.6. gezeigt, stehen die Kammerkonstante und die radiale Verzeichnung in enger Beziehung zueinander: ∆r = r´ - c tan τ. Verschiedene Berechnungsmöglichkeiten: 1. ∆r = 0 für (r0´, τ0 ) => c0 = r0´/tan τ0 2. Σ ∆r = 0 Σ ∆r = Σ r´ - c Σ tan τ => c = Σ r´/ Σ tan τ 3. Σ ∆r2 -> min Σ ∆r2 = Σ (r´- c tan τ)2 = Σ r´2 − 2cΣ (r´ tan τ) + c2 Σ tan2 τ δ Σ ∆r2 / δc = -2 Σ (r´ tan τ) + 2 c Σ tan2 τ = 0 => c = Σ (r´ tan τ) / Σ tan2 τ Die Kammerkonstante c ist somit eine rein rechnerische Größe und ist nicht physikalisch definiert. Für die Berechnung der Verzeichnung kann sie als fehlerfrei angenommen werden. Die radiale Verzeichnung wird für jede Kamera in einer Verzeichnungskurve erfaßt, die im Kalibrierungszertifikat angegeben ist. Radiale Verzeichnung (symmetrischer Teil): ∆r r´ Abb. 4.22: Typische Verzeichnungskurve Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.16 ____________________________________________________________________________ ∆r = a1r1 + a2 r3 + a3 r5 + ... (ungerade Potenzen von r) Ursachen für die Entstehung von Verzeichnung: - ungenügendes Schleifen der Linsenoberfläche ( Idealform: Paraboloid ) - Dezentrierung der Linsen (keine gemeinsame optische Achse). ∆r ... radiale Verzeichnung ∆t ... tangentiale Verzeichnung r α ∆r Abb. 4.23: Zerlegung des Verzeichnungsvektors Totale Verzeichnung: ∆rT = ∆rs+ ∆ras ∆rs ... symmetrisch radial ∆ras ... asymmetrisch radial ∆t ... tangentiale Verzeichnung ∆t und ∆ras zusammen definieren die "Dezentrierverzeichnung" Korrektur der radialen Verzeichnung: analytisch: ri = ri´ - ∆ri = ctan τi x ′korri = x ′gem i − ∆x i y ′korri = y′gem i − ∆y i ∆x i = cos α i ∆ri ∆y i = sin α i ∆ri y′ α i = arctan i x ′i Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.17 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.18 ____________________________________________________________________________ 4.4 Deformationen des Bildstrahls Die mathematischen Beziehungen der perspektiven Abbildung müssen infolge systematischer Fehler korrigiert werden. Diese werden verursacht durch: - GeometrischeVerzeichnung (symm. radial, asymm. radial, tangential) - Deformation der Basis und der Emulsion - Atmosphärische Refraktion - Unebenheit der Bildebene (- Erdkrümmung) Filmdeformation Die Filmdeformation (Emulsion, Basis) hängt von Temperatur, Feuchtigkeit und von der Beanspruchung ab. Sie verursacht hauptsächlich einen unterschiedlichen Maßstab in x,y Richtung (anisotrope Deformation, affiner Filmverzug). Glasplatten haben einen sehr geringen Deformationskoeffizienten, sie werden jedoch wegen des hohen Gewichts nur in der terrestrischen Photographie verwendet. Für die Bestimmung der Filmdeformation müssen die Rahmenmarkenkoordinaten gemessen und mit den entsprechenden Daten der Kammerkalibrierung verglichen werden. Der Filmverzug eines Luftbildes (23 x 23cm2) ist in der Regel ≤ 50µm. xi = xi´ (∆xc/ ∆x´) yi = yi´ (∆yc/ ∆y´) c ... aus Kalibrierung ∆x´, ∆y´ ... gemessen Abb. 4.24: Bestimmung der Filmdeformation Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.19 ____________________________________________________________________________ Helmert - Transformation (überbestimmte zweidimensionale Ähnlichkeitstransformation): xik´ = a1xi´ - a2yi´ + a3; yik´ = a1yi´ + a2xi´ + a4; a1... a2... Maßstab Drehung 4 Unbekannte a1 ... a4 4 Rahmenmarken (8 Koordinaten) a3, a4... Verschiebungen Redundanz: 8 - 4 = 4 Affin - Transformation: xik´ = b1xi´ + b2yi´ + b3; yik´ = b4xi´ + b5yi´ + b6; b1, b5... b2, b4... Maßstäbe Scherungen b3, b6... Verschiebungen 6 Unbekannte b1.....b6 4 Rahmenmarken (8 Koordinaten) Redundanz: 8 - 6 = 2 Atmosphärische Refraktion Die Aufnahmestrahlen werden durch die Atmosphäre gekrümmt und bilden keine Geraden mehr: 2 ∆r = -kr´ (1 + r´ 2 ) c k...Refraktionskoeffizient = f(hg, Zp) Beispiel: c = 153mm; hg = 3,5 km; r = 80mm; ∆r = - 4 µm Abb. 4.25: Refraktionsfehler Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.20 ____________________________________________________________________________ Erdkrümmung Problem: Das Bildkoordinatensystem ist orthogonal, die Objektkoordinaten sind jedoch Kugeloder Ellipsoidkoordinaten oder Koordinaten eines Projektionssystems. Abb. 4.26: Einfluss der Erdkrümmung Lösung: Transformation der geodätischen Koordinaten in ein orthogonales System gentialfläche). Konventionelle Methode (Näherungslösung): 3 ∆r = hg r 2 2Rc Beispiel: c = 150 mm; r = 150 mm; hg = 1000 m; ∆r = + 12 µm (Tan- Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.21 ____________________________________________________________________________ 4.5. Die äussere Orientierung Die Elemente der inneren Orientierung (c, H1) erlauben die Rekonstruktion der Form des Aufnahmestrahlenbündels. Zur Auswertung des Messbildes müssen wir jedoch auch seine Lage und Orientierung im Raum, die "äussere Orientierung", kennen. Diese wird bestimmt durch die drei Raumkoordinaten (X0, Y0, Z0) des Projektionszentrums und durch die drei Winkel κ, υ, α, welche die Lage der Aufnahmerichtung und der Bildebene in Bezug auf das Raumkoordinatensystem festlegen (insgesamt 6 Freiheitsgrade). α... υ... κ... Abb. 4.27: Parameter der äusseren Orientierung Azimut Nadirdistanz Verkantung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.22 ____________________________________________________________________________ Falls X ungefähr der Flugrichtung entspricht, ist: υX... υY... Längsneigung ϕ Querneigung ω κ... Verkantung In der Photogrammetrie werden vor allem die drei Drehelemente κ , ϕ, ω gebraucht, und zwar als "Rechtssystem". Abb. 4.28: Definition der Drehwerte ω, ϕ, κ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.23 ____________________________________________________________________________ 4.6. Kameratypen 4.6.1. Luftbildkameras a) Einzelkammer, Reihenmesskammer: s´ . s ´ = 23 c α F = 23 x23 (Bildformat) α ... Öffnungswinkel O Abb. 4.30: Definition einiger Kameragrössen Normalwinkel NW: Weitwinkel WW: Überweitwinkel ÜWW: c ≈ 30cm c ≈ 15cm c ≈ 8.5cm α ≈ 47g α ≈ 83g α ≈ 119g Das Bildformat (heute standardmäßig 23 x 23 cm) und die Brennweite legen den maximalen Bildwinkel α fest. Die Belichtung erfolgt in der Regel durch einen Zentralverschluß (Drehscheibenverschluß) im Objektiv, welcher alle Bildteile gleichzeitig mit hohem Wirkungsgrad belichtet. Das Objektiv ist über den Kammerstutzen starr mit dem Bildrahmen, der die Rahmenmarken und somit den Bildhauptpunkt festlegt, verbunden. In den Bildrahmen werden auch Uhrzeit, Bildnummer, Libelle und Höhenmesser eingeblendet. Damit der Film während der Belichtung flach in der Bildebene liegt, wird er durch ein Vakuum an die Andruckplatte gepreßt. Abb. 4.31: Querschnitt durch Reihenmesskammer Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.24 ____________________________________________________________________________ Früher wurden vorwiegend Photoplatten verwendet, heute benutzt man ausschließlich Filmmaterial. Einige Reihenmesskammern Wild Wild Wild Wild Leica Wild RC RC RC RC RC 8 9 10 20 30 (WW) (ÜWW) (WW, ÜWW) (NW, ZW, WW, ÜWW) (NW, WW, ÜWW) ca. 60 m Film ≈ 200 Photos ca. 60 m Film ≈ 200 Photos ca. 120 m Film ≈ 400 Photos 120-150 m Film, FMC 120 (dick)-219 (dünn) m Film Abb. 32: Randdaten-Abbildung EDI FMC („Forward Motion Compensation“ - Bildwanderungsausgleich) Automatische Belichtungssteuerung PEM Integrale Messung, α = 80o Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.25 ____________________________________________________________________________ Abb. 4.33: Luftbildkamera mit Navigations- und Sucherfernrohr Zeiss Zeiss Zeiss Zeiss RMK A 30/23 RMK A 15/23 RMK A 8.5/23 RMK TOP 15, 30 Zeiss-Jena MRB (NW) (WW) (ÜWW) (WW, NW) FMC, Kreiselstabilisierung T-AS ϕ, ω ± 5o κ ± 30o Carl Zeiss Jena LMK 2000 (NW, ZW, WW, ÜWW) Kreiselstabilisierung SM 2000, FMC Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.26 ____________________________________________________________________________ Abb. 4.34: Bewegungskompensation bei der LMK 2000 Abb. 4.35: Objektive für Luftbildkameras Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.27 ____________________________________________________________________________ b) Mehrfachobjektive: Werden vor allem in der Fernerkundung eingesetzt für die gleichzeitige Belichtung mehrerer Spektralbereiche (Filter). c) Streifenkamera, Panoramakamera 4.6 Terrestrische Kameras a) Einzelkammer: Hier gibt es seit Mitte des 19. Jahrhunderts eine lange Entwicklung mit vielen verschiedenen Kameratypen. Unterschiede bestehen vorwiegend in Bildformat, Kammerkonstante, Tiefenschärfe und damit auch Objekttiefe und -entfernung, Orientierungsmöglichkeiten, Bildbasis (Film, Glas) und Zusatzeinrichtungen. Diese photographischen Kameras verlieren durch zunehmenden Einsatz von „digitalen“ Kameras auf CCD-Basis immer mehr an Bedeutung. Eine der letzten erfolgreichen Entwicklungen stellt die Wild P 32 dar. Sie kann autark, auf einen Theodolit montiert oder auch als Stereokamera eingesetzt werden (vgl. Abb. 4.36 und 4.37). Abb. 4.36: Wild P 32 auf Theodolit montiert Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.28 ____________________________________________________________________________ b) Stereokammern (z.B.SMK 40, 120; Zeiss): Die Stereokammer besteht aus zwei identischen Messkammern, welche auf einer festen Basis angebracht sowie parallel zueinander und senkrecht zur Basis starr orientiert sind. Sie kann auf einem Stativ horizontiert, ausgerichtet, um eine vertikale Achse sowie meistens auch um eine horizontale Achse gekippt werden. Stereokammern werden für verschiedene Aufnahmeentfernungen mit fester Basis von b = 40 oder 120 cm gebaut. Für Spezialanwendungen in der Industrie gibt es auch Sonderkonstruktionen, bei welchen die Basis schrittweise oder kontinuierlich verstellbar ist. Abb. 4.37: Wild P 32 als Stereokammersystem Rahmenmarken Emulsion Basis Lichtöffnung Glas Abb. 4.38: Rahmenmarken in terrestrischen Kameras Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.29 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.30 ____________________________________________________________________________ 4.7 Die halbmetrische Kamera Eine Kamera wird als "halbmetrisch bezeichnet, wenn nur ein Teil der Elemente der inneren Orientierung bekannt und über einen längeren Zeitraum konstant ist. Abb. 4.39: Abbildungseigenschaften verschiedener Kameratypen (a) Metrische Kamera (b) Amateurkamera (c) Halbmetrische Kamera Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.31 ____________________________________________________________________________ Typischerweise hat eine halbmetrische Kamera zwar Rahmenmarken, meist ein Réseau, und damit ein definiertes Bildkoordinatensystem, ist jedoch sonst fokussierbar. Damit ändern sich Kamerakonstante, Bildhauptpunkt und Verzeichnung je nach Fokussierzustand. Gelegentlich werden einzelne feste Rasterstellungen für die Fokussierung geboten, für die man dann auch die Kalibrierungswerte erhalten kann. Eine halbmetrische Kamera ist mit grosser Sorgfalt einzusetzen. Die Kontrolle der veränderlichen Elemente der inneren Orientierung ist wesentlich für die Erzielung ordentlicher Ergebnisse. Im Bedarfsfall ist eine Rekalibrierung notwendig. Es gibt eine ganze Reihe halbmetrischer Kameras. Sehr populär geworden sind in letzter Zeit neben verschiedenen Hasselblad und Linhof Kameras die Rolleiflex 6006 metric und 3003 sowie die Leica R5. Abb. 4.40: Rolleiflex 6006 metric Abb. 4.41: Rolleiflex 3003 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.32 ____________________________________________________________________________ Abb 4.42: RolleiMetric MR2. Der komplette Arbeitsplatz für Messung mit dem System Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.33 ____________________________________________________________________________ Abb. 4.43: Ergebnis einer analytisch photogrammetrischen Architekturauswertung Abb. 4.44: Mit Anwendungen in der Industrievermessung gewinnt die Nahbereichsphotogrammetrie an Bedeutung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 4.34 ____________________________________________________________________________ Abb. 4.45: RolleiMetric MR2. Die Einsatzbereiche Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 1 _____________________________________________________________________________ 5. Das Einzelbild Aufnahmekonstellationen bei Luftbildern: Nadiraufnahme Leichte Schrägaufnahme 5g ≤|ν| ≤ 50g Senkrechtaufnahme (Praxis) |ν| ≤ 5g Starke Schrägaufnahme (Bildhorizont sichtbar) N..............Nadirpunkt N´.............Bildnadir Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 2 _____________________________________________________________________________ 5.1. Koordinatensysteme Normalfall: Bildkoordinatensysterm: Objektkoordinatensystem: x, y, z X, Y, Z Pi´ (xi´, yi´,0) Pi (Xi, Yi, Zi) O (0, 0, c) O (X0, Y0, Z0) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 3 _____________________________________________________________________________ 5.2. Grundlagen der Einbildphotogrammetrie 5.2.1. Bildmaßstab a´ c = a hg hg 1 Bildmassstabszahl ... mB = = MB c Bildmassstab ... MB = a = a´ mB = a´ hg c 5.2.2. Bildversetzung durch Geländehöhenunterschiede Nadiraufnahme: ∆r´= radiale Bildversetzung verursacht durch den Geländehöhenunterschied ∆Z ∆X ∆Z ∆X ∆r´ = = r´ c (Ähnliche Dreiecke) hg c ∆r′ = ∆Z = r′∆Z hg ∆r′h g r′ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 4 _____________________________________________________________________________ Anwendung: Berechnung von Höhendifferenzen aus Vertikalaufnahmen Gegeben: hg Gemessen: Berechnet: ∆r´, r´ ∆Z = ∆r´ hg/ r´ 5.2.3. Grundzüge der Zentralprojektion Vgl. hierzu auch Kapitel 6 ! a) Abbildung einer Geraden: Allgemein erhalten wir für jeden Objektpunkt P einen Bildpunkt P´ und für jede Objektgerade l eine Bildgerade l´. Ausnahmen: Alle Punkte (Pv) der Verschwindungsebene (Parallelebene durch O zu IP), Pv′ → ∞ Fluchtpunkte: Fl´... Verschwindungspunkt (Bilder der unendlich fernen Punkte der Geraden l). Spurpunkt: Parallele Objektgeradenscharen erzeugen jeweils einen Fluchtpunkt. Sl´ liegt in IP und ist identisch mit seinem Bild. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 5 _____________________________________________________________________________ Beispiel: Nadiraufnahme b) Abbildung einer Ebene: O... OH´... ss... h´h´... Projektionszentrum Kameraachse Spurgerade bildseitige Verschwindungsgerade (Bildhorizont ) IP... VP... OP... vv... p´p´... Bildebene Verschwindungsebene Objektebene objektseitige Verschwindungsgerade Bildhauptlinie Liegt OP horizontal, nennt man die bildseitige Verschwindungsgerade h´h "Bildhorizont". Er ist der geometrische Ort der Verschwindungspunkte aller horizontalen Objektgeraden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 6 _____________________________________________________________________________ 5.3. Ausmessung von Einzelbildern; Monokomparator Das gebräuchlichste Instrument zur Bildkoordinatenmessung ist der Monokomparator. Die Koordinaten werden mit einem in zwei zueinander senkrechten Richtungen (x,y) verschiebbaren Kreuzschlitten über ein Betrachtungssystem (Ablesemikroskop) am Messsystem (xc,yc) abgelesen. Bei manchen Geräten muss vor Beginn der Messung der Bildträger mit Hilfe der Rahmenmarken ausgekantet werden. Die gemessenen Komparatorkoordinaten xc, yc müssen in die Bildkoordinaten x, y transformiert werden. Da nicht alle Komparatoren den Verkantungswinkel kennen, die Komparatorachsen x und y nicht zwingend senkrecht aufeinander stehen und ferner mit Filmverzug zu rechnen ist, setzt man zweckmäßig eine Affintransformation ( 6 Parameter) an. Für die Bestimmung der Koeffizienten verlangt die Transformation identische Punkte. Dafür dienen die Rahmenmarken. Ablesegenauigkeit am Präzisionskomparator: (Auflösung) 0.5-1µm Messgenauigkeit: 1-3µm Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 7 _____________________________________________________________________________ Komparatorkoordinaten Transformation (Ähnlich, Affin) Bildkoordinaten Drehmatrix (3 Drehungen) Zwischensystem Maßstab, (3 Verschiebungen) Objektkoordinatensystem 5.4. Auswertung von Einzelbildern (Entzerrung) Eine Luftaufnahme ist eine Zentralprojektion des aufgenommenen Gebietes, die Karte dagegen eine Orthogonalprojektion. Die Aufgabe der Entzerrung besteht nun in der Transformation der Zentralprojektion (Bild) in eine Orthogonalprojektion (Karte). Da Höhenunterschiede bei der Entzerrung Lagefehler verursachen, kann sie streng nur in ebenem Gelände durchgeführt werden. Beispiel: r´ = 100 mm c = 150 mm ∆Z = 15 m ∆X = 10 m MK = 1 : 50`000 ∆XK = 0.2 mm ∆X ≈ ∆Z r ′ (keine Nadiraufnahme) c Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 8 _____________________________________________________________________________ 5.4.1. Analytische Entzerrung Projektive Transformation: X,Y... x,y... Objektkoordinaten (Objekt ist eben) Bildkoordinaten (Lagerung und Orientierung Koordinatensystem beliebig) X= a11x + a12y + a13 a31x + a 32y + 1 Y= a 21x + a 22 y + a 23 a 31x + a 32 y + 1 x= aˆ11X + ˆa12Y + ˆa13 aˆ 31X + aˆ 32Y + 1 y= aˆ 21X + aˆ 22 Y + aˆ 23 ˆa 31X + aˆ 32Y + 1 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 5. 9 _____________________________________________________________________________ Wir erhalten je 8 unbekannte Transformationsparameter ( aij, âij ), die durch mindestens 4 Paßpunkte ( 8 Koordinaten ) bestimmt werden. Paßpunkte: Koordinatenmäßig bekannte und gut sichtbar abgebildete identische Punkte. Bei der Paßpunktwahl ist auf eine gute Verteilung zu achten. Nie 3 Paßpunkte auf einer Geraden anordnen ! Bei bekannter innerer Orientierung genügen 3 Paßpunkte. 5.4.2 Digitale Entzerrung Grundlagen dafür siehe Kapitel 5.4.1. und Kapitel 7. Eine detaillierte Anleitung findet sich in der zugehörigen Übungsbeschreibung. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.1 ______________________________________________________________________________ 6. Grundlagen der analytischen Photogrammetrie Entwicklung der analytischen Photogrammetrie seit etwa 1950. Kennzeichen: Messung von Bildkoordinaten einzelner Bildpunkte ⇒ numerische Weiterverarbeitung im Computer ⇒ Ergebnis: Objektkoordinaten: Gründe für die Einführung der analytischen Photogrammetrie: Höhere Genauigkeit, Wirtschaftlichkeit ; Verfügbarkeit von Computern Wesentliche Operationen: Analytischen Transformationen zwischen Maschinen-, Bild- und Objektkoordinatensystem. Manche Verfahren sind noch mit den Methoden und der Denkweise der Analogen Photogrammetrie verknüpft ! Anwendungen: Heute praktisch überall (Analytischer Plotter !) - Aero- und terrestrische Triangulation - Netzverdichtung - Kataster, Meliorationen - Digitales Geländemodell - Orthophotoherstellung - Sonderanwendungen (z.B. Ingenieurphotogrammetrie) Hilfsmittel: - Messgeräte - Computer, Datenverarbeitung - Ausgleichungsrechnung, Statistik - Matrizen - und Vektorrechnung - Numerische Mathematik Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.2 ______________________________________________________________________________ 6.1. Orthogonale und schiefsymmetrische Matrizen D−1 = DT Eine orthogonale Matrix ist immer quadratisch: n D: n n,n Matrix-Vektor Produkt: y = Dx x = D −1 y = D T y d 11 D = d 21 3, 3 d 31 d 12 d 22 d 32 d 13 d 11 T d 23 ; D = d 12 3, 3 d 13 d 33 d 11 Det (D) = 1 ; d 21 d 31 d 12 d 22 d 32 d 13 d 23 d 33 d 21 d 22 d 23 d 31 d 32 d 33 =1 Wegen D −1 = D T ergibt sich : D −1 D = I = D T D d 11 D D = I = d 12 d 13 T d 21 d 22 d 23 d 31 d 11 d 32 ⋅ d 21 d 33 d 31 2 2 d 11 + d 221 + d 31 0 = 0 d 12 d 22 d 32 d 13 d 23 = d 33 0 2 d + d 222 + d 32 0 2 12 0 0 2 2 d 13 + d 223 + d 33 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.3 ______________________________________________________________________________ Orthogonalitätsbedingungen: d11d12 + d21d 22 + d 31d32 = 0 2 2 d11 + d 221 + d 31 =1 d11d13 + d 21d23 + d31d 33 = 0 d12 d13 + d 22d 23 + d 32d 33 = 0 2 2 d12 + d 222 + d 32 =1 2 2 d13 + d 223 + d 33 =1 Spalten (Zeilen) von D sind gengenseitig orthogonale Vektoren mit der Länge 1. Die 9 Elemente von D sind nicht unabhängig voneinander ! Wegen dieser 6 Bedingungen existieren nur 3 unäbhängige Parameter, welche D voll beschreiben. Das Produkt zweier orthogonaler Matrizen ist wieder eine orthogonale Matrix: D, E orthogonal F = D E → F ebenfalls orthogonal Beweis: F −1 = (DE ) −1 = E −1 D −1 = E T D T = (DE ) = FT T Schiefsymmetrische Matrizen: Eine Matrix wird als schiefsymmetrisch bezeichnet, wenn sie folgende Form aufweist: 0 −c b S = c 0 − a − b a 0 ST = −S ; Cayley's Formel: Falls S schiefsymmetrisch und R orthogonal, dann gilt: R = (I + S)(I − S)−1 ; R T R = R −1R = I R = (I + S)−1 (I − S) . R … „Rodriguez Matrix“ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.4 ______________________________________________________________________________ 6.2. Räumliche Drehungen. Drehmatrizen Abb. 6.1: Ebene Drehung u i = x i cos ε − y i sin ε v i = x i sin ε + y i cos ε u cos ε = v i sin ε u =D ε v i −sin ε cos ε x y i x y i Dε … Rotationsmatrix (transformiert Koordinaten vom System x,y in das System u, v) Dε ist orthogonal ! Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.5 ______________________________________________________________________________ Abb. 6.2: Räumliche Drehung altes System neues System x,y,z u,v,w 3D-Drehung: x u v = D y z i w i D … Rotationsmatrix D ist eine 3 x3 orthogonale Matrix. Sie sorgt für die Transformation der Koordinaten von Pi 3,3 vom System x,y,z in das System u,v,w. Die 9 Elemente von D enthalten 3 unabhängige Parameter. Diese können auf verschiedene Weise definiert werden. Ein Ansatz führt zur Rodriguez-Matrix. Eine weitere Möglichkeit besteht in der Einführung von Drehwinkeln um die Raumachsen u,v,w. Die Drehwinkel κ,φ,ω werden in der Photogrammetrie viel benutzt. u,v,w definiert ein rechtsdrehendes Koordinatensystem. Die Vorzeichen von κ,φ,ω sind so definiert, dass eine Drehung im Uhrzeigersinn einen positiven Winkel beschreibt. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.6 ______________________________________________________________________________ Abb.6.3: Aufspaltung einer räumlichen Drehung Die räumliche Drehung D kann in eine Folge von 3 Teildrehungen (ebene Rotationen) Dκ, Dϕ, Dω aufgespalten werden. κ - Drehung (x, y / u, v - Ebene): ui = xi cos κ - yi sin κ + 0 vi = xi sin κ + yi cos κ + 0 0 + 0 + zi wi = Abb.6.4: κ- Drehung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.7 ______________________________________________________________________________ Drehmatrix Dκ : cos κ − sin κ 0 D κ = sin κ cos κ 0 0 0 1 Transformierte Koordinaten von Pi : u v = D κ w i x y z i φ-Drehung (x,z / u,w-Ebene): u i = x i cos φ + 0 + z i sin φ vi = 0 + yi + 0 w i = − x i sin φ Abb. 6.5: φ −Drehung Drehmatrix Dφ : cos φ 0 sin φ D φ = 0 1 0 − sin φ 0 cos φ Transformierte Koordinaten von Pi : u v = D φ w i x y z i 0 + z i cos φ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.8 ______________________________________________________________________________ ω-Drehung (y,z / v,w-Ebene): ui = xi + vi = 0 + yi cos ω − z i sin ω wi = 0 + yi sin ω + z i cos ω 0 0 Abb. 6.6: ω-Drehung Drehmatrix Dω : 0 0 1 D ω = 0 cos ω − sin ω 0 sin ω cos ω Transformierte Koordinaten von Pi : u v = D ω w i x y z i Dκ, Dφ, Dω sind orthogonale Matrizen ! Eine Folge von 3 einzelnen Drehungen kann als Matrixprodukt formuliert werden: D = Dω Dφ Dκ Demzufolge wäre die vollständige 3D-Transformation: x x u v = D y = D D D y ω φ κ z i z i w i Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.9 ______________________________________________________________________________ Fallunterscheidung: (a) Drehung um „feste Achsen“ (vgl. vorstehendes Verfahren) (b) Drehung um „mitgedrehte Achsen“ Erläuterung des Konzepts der „mitgedrehten Achsen“: (Instrumentell bedingt in Analoggeräten !) Yneu Festes System: ωf, φf, ; Raumwinkel ε konstant ! Mitgedrehte Systeme: (1) φ Primärachse: ωr , φr (2) ω Primärachse: ωr , φr ωr = ωf , da ω primär φ r = φ f , da φ primär Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.10 ______________________________________________________________________________ Beachte: in der terrestrischen Photogrammetrie sollte φ als Primärwinkel dienen. (a) Drehungen um feste Achsen Reihenfolge der Rotationen: φ, ω, κ D = Dκ Dω Dφ (b) Drehungen um mitgedrehte Achsen ZEISS Stereoanaloggeräte: φ primär ω sekundär D = Dφ Dω Dκ κ tertiär WILD Stereoanaloggeräte: ω primär φ sekundär D =D ω D φ D κ κ tertiär Die vollständige Drehung D ist für alle drei Fälle identisch ( D = D = D ). Es unterscheiden sich aber die entsprechenden Drehwinkel ( κ ≠ κ ≠ κ , φ ≠ φ ≠ φ , ω ≠ ω ≠ ω ). Beziehungen zwischen Drehwinkeln verschiedener Systeme können aufgrund von D = D = D durch Koeffizientenvergleich hergestellt werden: d11 = d11 = d11 d12 = d12 = d12 M M M d 33 = d 33 = d33 Dies ist z.B. dann ein wichtiger Gesichtspunkt, wenn Drehwerte von Systemen eines Herstellers auf die anderer Hersteller übertragen werden müssen. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.11 ______________________________________________________________________________ Berechnung einzelner Elemente von D: Für D = Dω d 11 D φ D κ = d 21 d 31 d 12 d 22 d 32 d 13 d 23 d 33 Resultat nach Matrizenmultiplikation: d 11 = cos φ cos κ d 21 = cos ω sin κ + sin ω sin φ cos κ d 31 = sin ω sin κ − cos ω sin φ cos κ d 12 = − cos φ sin κ d 13 = sin φ d 22 = cos ω cos κ − sin ω sin φ sin κ d 23 = − sin ω cos φ d 32 = sin ω cos κ + cos ω sin φ sin κ d 33 = cos ω cos φ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.12 ______________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.13 ______________________________________________________________________________ Abb. 6.8: Verschiedene Neigungsfälle für Luftbilder Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.14 ______________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.15 ______________________________________________________________________________ Abb.6.9: Verschiedene Neigungsfälle für terrestrische Bilder Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.16 ______________________________________________________________________________ 6.3. Differentielle Drehungen (Kleine Drehungen dω, dφ, dκ) sin dω = dω sin dφ = dφ cos dω = 1 cos dφ = 1 sin dκ = dκ cos dκ = 1 0 1 0 dD ω = 0 1 − dω 0 dω 1 0 dφ 1 dD φ = 0 1 0 − dφ 0 1 1 − dκ 0 dD κ = dκ 1 0 0 0 1 Gesamte Transformation 1 dD = dDω ⋅ dDφ ⋅ dD κ = dDω ⋅ dκ − dφ − dκ 1 d{ φdκ 0 dφ 0 1 Term zweiter Ordnung − dκ dφ 1 dD ≈ dκ 1 − dω − dφ dω 1 Multiplikationsgesetz für Drehmatrizen Wenn D ( 0 ) eine Näherung von D ist, dann kann man D mit D = dD D ( 0 ) berechnen, falls dD die Korrektur von D ( 0 ) ist. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.17 ______________________________________________________________________________ 6.4. Ableitungen der Drehmatrix a) Ableitungen von D κ , D φ , D ω − sin κ − cos κ 0 ∂Dκ = cos κ − sin κ 0 = Tκ D κ = D κ Tκ D′κ = ∂κ 0 0 0 0 − 1 0 Tκ = 1 0 0 0 0 0 ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– − sin φ 0 cos φ ∂Dφ = 0 D′φ = 0 0 = Tφ D φ = D φ Tφ ∂φ − cos φ 0 sin φ 0 0 1 Tφ = 0 0 0 − 1 0 0 ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––– 0 0 0 ∂Dω = 0 − sin ω − cos ω = Tω D ω = D ω Tω D′ω = ∂ω 0 cos ω − sin ω 0 0 0 Tω = 0 0 − 1 0 1 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.18 ______________________________________________________________________________ b) Ableitungen von D D = F (ω, φ, κ ) dD = ∂D ∂D ∂D dω + dφ + dκ ∂ω ∂φ ∂κ Für D = D ω D φ D κ : ________________________ ∂D ∂Dω ∂D ω ∂D = ⋅ = D φ Dκ = Tω Dω Dφ Dκ = Tω D ∂ω ∂D ω ∂ω ∂ω ∂Dφ ∂Dφ ∂D ∂D = ⋅ = Dω Dκ = D ω Tφ D φ D κ ∂φ ∂Dφ ∂φ ∂φ ∂Dκ ∂D κ ∂D ∂D = ⋅ = D ω Dφ ∂κ ∂Dκ ∂κ ∂κ = Dω Dφ Dκ Tκ = D Tκ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.19 ______________________________________________________________________________ 6.5. Perspektive Projektion 6.5.1 Spezialfall : „Normalaufnahme“ x, y, z … Bildkoordinaten X,Y, Z … Objektkoordinaten Abb. 6.10: "Normalaufnahme" Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.20 ______________________________________________________________________________ Strahlensatz: (X i − X 0 ) : x i = (Yi − Y0 ) : y i = (Z 0 − Z i ) : c Andere Formulierung (Massstabsfaktor λ i ): (I ) Vektorgleichung: Xi − X 0 = λi ⋅ x i (II) Yi − Y0 = λi ⋅ yi (III) Zi − Z0 = − λi ⋅ c r r r Xi − X0 = λi xi xi r x i = yi − c λ i bestimmt den Massstab der Projektion Zi − Z 0 c X − X0 x i = −c i Zi − Z0 Aus (III) : λ i = − In (I ) : In (II) : y i = −c Yi − Y0 Zi − Z 0 Wenn die Innere (c) und Äussere ( X 0 , Y0 , Z0 , Normalaufnahme) Orientierung gegeben ist, können wir aus Objektkoordinaten (X i , Yi , Z i ) immer Bildkoordinaten (x i , yi ) berechnen. Der umgekehrte Fall: Xi − X 0 x =− i Zi − Z0 c Yi − Y0 y =− i Zi − Z0 c Transformationsgleichungen der perspektiven Projektion Es können nur Verhältnisse bestimmt werden ! Daraus ergibt sich: Die Bestimmung von Objektkoordinaten Aufnahme ist nicht möglich ! (X i ,Yi , Z i ) aus einer einzigen metrischen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.21 ______________________________________________________________________________ 6.5.2 Der allgemeine Fall: (Allgemeine Orientierung der Aufnahme) Abbildung eines dreidimensionalen Objektes Abb. 6.11: Abbildung eines Punktes Pi. Allgemeinfall ( r (X 0 Y0 , Z 0 ) Objektkoordinatensystem Vektor X 0 0 r Bildkoordinatensystem (Vektor x 0 ) (x 0 , y 0 , c ) (x , y , 0 ) Pi′ i i (u i , v i , w i ) Pi { (X i , Yi , Z i ) ) r Bildkoordinatensystem (Vektor x i ) r Zwischensystem (Vektor u i ) ( r Objektkoordinatensystem Vektor X i ) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.22 ______________________________________________________________________________ Kollinearitätsbedingung: „Die Punkte Pi , Pi′ und 0 liegen auf einer Geraden“ r r r r X 0i = X i − X 0 = λ i ⋅ u i r r (Vergleiche mit der Vektorgleichung der Vertikalaufnahme : u i → x i ): r r r u i ist der Vektor x i − x 0 , im System (u, v, w) dargestellt. r r r u i = D (x i − x 0 ) 1 D … Drehmatrix 1 1 3 −3 3 =3 3 D= d 11 d 21 d 31 d 12 d 22 d 32 d 13 d 23 d 33 = ui x i − x 0 v = D y − y 0 i i w i 0 − c d 1T T d 2 = d1 d 3T [ d2 d3 ] Somit ergibt sich die Kollinearitätsbedingung in Vektorform zu r r r r X i − X0 = λ i D (x i − x 0 ) Komponentenform der Kollinearitätsbedingung: X i − X 0 x i − x 0 Y − Y = λ ⋅ D y − y 0 i 0 i i Z i − Z 0 0 − c Vereinfachung: Annahme x 0 = y 0 = 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.23 ______________________________________________________________________________ 3 Gleichungen: Nach Eliminierung des Massstabsfaktors λi: 2 Gleichungen xi (I) X i − X 0 = λ i d 1T y i , − c xi (II) Yi − Y0 = λ i d T2 y i , − c X i − X 0 d 11 x i +d 12 y i − d 13 c = Z i − Z 0 d 31 x i +d 32 y i − d 33 c Yi − Y0 d 21 x i +d 22 y i − d 23 c = Z i − Z 0 d 31 x i +d 32 y i − d 33 c xi (III) Z i − Z 0 = λ i d y i , − c T 3 Inverse Darstellung der Kollinearitätsbedingung r r r r X i − X 0 = λ i D (x i − x 0 ) (xr i − xr 0 ) = Mit ( r 1 T r D Xi − X 0 λi x0 = y0 = 0 ) D −1 = D T ergeben sich die Komponenten: X i − X 0 xi 1 T y i = λ D Yi − Y0 i Z i − Z 0 − c oder ( I) da Xi − X 0 1 x i = d1T Yi − Y0 λi Zi − Z0 Xi − X 0 1 (II) yi = d 2T Yi − Y0 λi Zi − Z0 Xi − X 0 1 (III) − c = d3T Yi − Y0 λi Zi − Z0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.24 ______________________________________________________________________________ Fall 1: Gegeben: Objektkoordinaten Xi , Yi , Zi von Punkt Pi Innere Orientierung Äussere Orientierung D, X0 , Y0 , Z0 → 3 Gleichungen für λi , xi , yi Eindeutige Lösung Fall 2: Gegeben: Bildkoordinaten xi , yi , von Bildpunkt Pi′ Innere Orientierung Äussere Orientierung D, X0 , Y0 , Z0 → 3 Gleichungen für λi , Xi , Yi , Zi Lösung nicht eindeutig Es gilt allgemein: Ein Objektpunkt P kann nicht aus einem einzigen Photo rekonstruiert werden ! Abb. 6.13. Rekonstruktion eines Objektpunktes aus nur einer Aufnahme Elimination des Massstabfaktors λi: Einsetzen von Gl. (III) in (I) und (II) ergibt: d (X – X 0) + d21 (Yi – Y0 ) +d31 (Z i – Z 0 ) x i = – c 11 i d13 (Xi – X 0) + d23 (Yi – Y0 ) +d33 (Z i – Z 0 ) d (X – X ) + d (Y – Y ) +d (Z – Z ) y i = – c d 12 (X i – X 0) + d 22 (Y i – Y 0) +d 32 (Z i – Z 0) 13 i 0 23 i 0 33 i 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.25 ______________________________________________________________________________ 6.5.3 Abbildung einer Ebene Abb. 6.14: Abbildung einer Ebene Das Objektkoordinatensystem wird hier so gewählt, dass die X, Y - Achsen in die Ebene ε zu liegen kommen (Zi = 0). Kollinearitätsbedingung mit Zi = 0: Xi = − Z 0 (d11 x i + d12 y i − d13 c ) + X0 , d 31 x i + d 32 y i − d 33 c Yi = − Z 0 (d 21 x i + d 22 y i − d 23 c ) + Y0 . d 31 x i + d 32 y i − d 33 c Substitutionen: a1 = X0 d 31 − Z 0 d11 b1 = Y0 d31 − Z 0 d21 a 2 = X0 d32 − Z 0 d12 b2 = Y0 d 32 − Z 0 d22 a 3 = c (Z 0 d13 − X0 d 33 ) c1 = d31 , c 2 = d 32 , b3 = c (Z 0 d 23 − Y0 d33 ) c3 = −d 33c Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.26 ______________________________________________________________________________ Neues System: oder: a x + a 2 yi + a 3 Xi = 1 i c1 x i + c 2 yi + c3 ; b x + b 2 yi + b3 Yi = 1 i c1 x i + c 2 yi + c3 . a x + a 2 yi + a 3 Xi = 1 i c1 x i + c2 yi + 1 b x + b2 yi + b3 Yi = 1 i c1 x i + c2 yi + 1 ; . Es sind hier 8 unbekannte Parameter (a1 , a 2 , a 3 , b1, b 2 , b3 , c1 c2 ,) zu berechnen → „Entzerrung“ Beachte: Innere Orientierung muss nicht bekannt sein ! Inverses System: xi = A1 Xi + A 2 Yi + A3 C1 Xi + C2 Yi + C3 B X + B2 Yi + B3 yi = 1 i C1 Xi + C2 Yi + C3 xi = ; A1 Xi + A 2 Yi + A3 C1 Xi + C2 Yi + 1 B X + B2 Yi + B3 yi = 1 i C1 Xi + C2 Yi + 1 . , . Identität der projektiven Transformation mit der allgemeinen Form der Kollinearitätsbedingung (perspektive Projektion): Projektiv A 1Xi + A 2Yi + A3 C 1X i + C 2Yi + C 3 B X + B2 Yi + B3 yi = 1 i C1 Xi + C2Yi + C3 xi = Perspektiv xi = – c d11 (Xi – X 0) + d21 (Yi – Y0 ) + d31 (Z i – Z 0) + xH d13 (Xi – X 0) + d23 (Yi – Y0 ) + d33 (Z i – Z 0) yi = – c d 12 (Xi – X0 ) + d 22 (Yi – Y0 ) + d 32 (Z i – Z0 ) + yH d13 (Xi – X 0) + d23 (Yi – Y0 ) + d33 (Z i – Z 0) Für xH = yH = 0 und c bekannt: xi = –cd 11X i – cd21Yi + cd 11X0 + cd 21Y0 + cd 31 (Zi – Z 0) d13Xi + d 23Y i – d13X0 – d 23Y0 + d33 (Z i – Z 0 ) yi = –cd 12X i – cd22Yi + cd 12X0 + cd 22Y0 + cd 32 (Zi – Z 0) d 13Xi+ d23Yi – d 13X0 – d23Y0 + d 33 (Z i – Z 0) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.27 ______________________________________________________________________________ Koeffizientenvergleich: A 1 = −cd 11 A 2 = −cd 21 A 3 = −cd 11 X 0 + cd 21 Y0 + cd 31 (Z i − Z 0 ) ⋅ ⋅ ⋅ C 3 = −d 13 X 0 − d 23 Y0 + d 33 (Z i − Z 0 ) 9 Gleichungen für 6 Unbekannte X 0 ,Y0 , Z 0 , ϕ, ω, κ Damit lassen sich die Daten der äusseren Orientierung aus den Koeffizienten der projektiven Projektion berechnen ! 6.5.4. Abbildung einer Geraden Die entsprechenden Gleichungen werden erhalten, indem man einen Satz Koordinaten (x, X oder y, Y) in den Gleichungen zur Abbildung einer Ebene zu Null setzt. Beispiel: y = Y = 0 Abb.6.15: Abbildung einer Geraden Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.28 ______________________________________________________________________________ Resultat: Xi = ax i + b ; cx i + d xi = AX i + B . CX i + D Nur 3 Parameter sind hier unabhängig, da gilt: ax + b X i = c xi + 1 i ; xi = AXi + B CX i + 1 . Drei Punktepaare genügen somit, um die mathematische Beziehung zwischen 2 Geraden, welche durch perspektive Projektion aufeinander bezogen sind, eindeutig herzustellen (z. B. 1,1' ; 2,2' , 4,4'). Beachte: Innere Orientierung muss nicht bekannt sein ! 6.6. Differentialformeln für Bildkoordinaten von Normalaufnahmen Frage: Wie werden die Bildkoordinaten von Normalaufnahmen durch kleine Änderungen der Elemente der äusseren Orientierung beeinflusst ? Kollinearitätsbedingung: r r r X i − X 0 = λ i Dx i xi r r r (x i − x 0 ) ist hier ersetzt durch x i = y i − c Inverse Formulierung: r 1 T r r xi = D (Xi − X0 ) , λi X i − X 0 xi y = 1 DT Y − Y 0 i i λ i Z i − Z 0 − c Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.29 ______________________________________________________________________________ Annahme: Normalaufnahme (ω = ∆ω, φ = ∆φ, κ = ∆κ): ∆κ − ∆φ 1 D T = ∆D T = − ∆κ 1 ∆ω ∆φ − ∆ω 1 Elimination des Massstabfaktors λ i : x i = −c (Xi − X0 ) + ∆κ(Yi − Y0 ) − ∆φ(Z i − Z 0 ) ∆φ (Xi − X0 ) − ∆ω (Yi − Y0 ) + (Z i − Z 0 ) (I) y i = −c −∆κ (Xi − X0 ) + (Yi − Y0 ) − ∆ω (Z i − Z 0 ) ∆φ (Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z 0 ) Allgemeine Funktion: x i = f x i (X 0 , Y0 , Z0 , ∆ω, ∆φ, ∆κ ) yi = f yi (X 0 , Y0 , Z0 , ∆ω, ∆φ, ∆κ ) Differentiation von (I): dx i = ∂fxi ∂fxi ∂fxi dX0 + dY0 + … + d∆κ ∂X 0 ∂Y0 ∂∆κ dy i = ∂fyi ∂fyi ∂fyi dX 0 + dY0 + … + d∆κ ∂X 0 ∂Y0 ∂∆κ Da die Gleichungen (I) unbequem für die praktische Differentiation sind, werden sie folgendermassen umgeordnet: Fx i = x i [∆φ(Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z0 )] + c[(Xi − X 0 ) + ∆κ(Yi − Y0 ) − ∆φ(Zi − Z0 )] = 0 (II) Fyi = yi [∆φ(Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z0 )] + c[− ∆κ(Xi − X 0 ) + (Yi − Y0 ) + ∆ω(Zi − Z0 )] = 0 14444444244444443 Ni Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.30 ______________________________________________________________________________ Differentiation von (II) dFxi = ∂Fxi ∂Fxi ∂Fxi dxi + dX0 + … d∆κ = 0 ∂x i ∂X0 ∂∆κ dFyi = ∂Fyi ∂Fyi ∂Fyi dyi + dX0 + … d∆κ = 0 ∂y i ∂X0 ∂∆κ ∂Fx i = Ni ≈ (Zi − Z0 ) ∂x i ∂Fx i = − x i ∆φ − c ∂x 0 ∂Fx i = − x i + c∆φ ∂Z0 ∂Fx i = − x i (Yi − Y0 ) ; ∂∆ω ∂Fx i = x i ∆ω − c∆κ ∂Y0 ∂Fx i = c (Yi − Y0 ) ∂∆κ ∂Fx i = x i (Xi − X 0 ) − c (Zi − Z0 ) ∂∆φ ∂Fyi = Ni ≈ (Zi − Z0 ) ∂yi ∂Fyi = − yi (Yi − Y0 ) + c (Zi − Z0 ) ∂∆ω ∂Fyi = − yi ∆φ − c∆κ ∂X 0 ∂Fyi = yi (Xi − X 0 ) ∂∆φ ∂Fyi = yi ∆ω − c ∂Y0 ∂Fyi = −c(Xi − X 0 ) ∂∆κ ∂Fyi = − yi − c∆ω ∂Z0 Übergang d∆ω → dω, d∆φ → dφ, d∆κ → dκ, ( ∆ω , ∆φ , ∆κ ) ≤ ε : dFx i = (Zi − Z0 )dx i − cdX 0 − x idZ0 − x i (Yi − Y0 )dω+ [x i (Xi − X 0 ) − c(Zi − Z0 )]dφ + c(Yi − Y0 )d κ = 0 dFyi = (Zi − Z0 )dyi − cdY0 − yidZ0 − [yi (Yi − Y0 )+ c(Zi − Z0 )]dω+ yi (Xi − X 0 )dφ − c(Xi − X 0 )d κ = 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.31 ______________________________________________________________________________ Umordnen: Für flaches Gelände: Z i − Z 0 = − hg x i (Xi − X 0 ) x i X − X 0 yi Y − Y0 , , ≈ ≈ i ≈ i yi (Yi − Y0 ) − c − hg − hg −c dx i = − x i yi c x dX 0 − i dZ0 − dω + c 1 + hg hg c c y dyi = − dY0 − i dZ0 − c 1 + hg hg x i2 dφ + y i dκ c 2 x i yi yi2 dω + dφ − x i dκ c c 2 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.32 ______________________________________________________________________________ 6.7. Koplanaritätsbedingung Analytisches Modell für relative (gegenseitige) Orientierung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.33 ______________________________________________________________________________ Vor Vollendung der relativen Orientierung sind die Strahlen P´, P´´ windschief. Aufgabe der relativen Orientierung: Herbeiführung des Strahlenschnitts, d. h. der r r r Basisvektor B und die Strahlenvektoren X 0i ′ , X0i ′′ müssen in einer Ebene zu liegen kommen ("Koplanarität“). Ableitung unter Benutzung der Kollineariätsgleichung: r r r r X 0i = Xi − X0 = λ i ui r r r u i = D (x i − x 0 ) , D … Drehmatrix a) Lösung durch räumlichen Geradenschnitt r r r r X′0i = X i − X′0 = λ ′i u′i ; r r r r (II ) X′0i′ = Xi − X′0′ = λ ′i′u′i′ ; (I ) r r u ′i = D′ x′i r r u ′i′ = D′′ x ′i′ linker Strahl rechter Strahl __________________________ (I) - (II) r r r r r B = X′0′ − X′0 = λ ′i u′i − λ ′i′ u ′i′ r r r B = λ ′ u ′ − λ ′′ u′′ r B … Basisvektor Merkformel für Koplanaritätsbedingung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.34 ______________________________________________________________________________ Komponentendarstellung: (I) b x u ′i − u ′i′ (II) b y = v′i − v′i′ (III) b z w ′i − w ′i′ λ′i λ′′ i Elimination von λ ′i , λ ′i ′ : λ ′i , λ ′i ′ , aus (I), (II) in (III) Resultat: b x (w′i v ′i′ − v′i w′i′) + b y (u′i w′i′ − w′i u ′i′) + b z (v′i u′i ′ − u′i v′i′) = 0 Koplanaritätsbedingung (Komponentendarstellung) b) Pyramidenlösung: Dreiseitige Pyramide 0 ′ 0′′ Pi′′ Pi′ Bedingung: Volumen V = 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.35 ______________________________________________________________________________ Volumen einer dreiseitigen Pyramide: ( ) r r r 1 1 V = Det B, u ′i , u ′i′ = 6 6 bx by bz u ′i v′i w ′i u ′i′ v′i′ = 0 w ′i′ Auflösung der Determinante: b x (v′i w ′i′− v′i′w ′i ) + b y (u ′i′w ′i − u ′i w ′i′) + b z (u ′i v′i′ −u ′i′v′i ) = 0 Koplanaritätsbedingung Alternativformulierung: 0 [u ′i v′i w ′i ] b z − b y 0 rT u′ b z − b y − bz 0 bx − bz 0 bx by − bx 0 by r − b x u ′′ = 0 0 u ′i′ v ′′ = 0 i w ′i′ „Schutbedingung“ Merkformel Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 6.36 ______________________________________________________________________________ 6.8. Literatur Finsterwalder/Hofmann: Photogrammetrie. Walter de Gruyter & Co., Berlin, 1968, S. 23 - 44, S. 229 - 233. Konecny/Lehmann: Photogrammetrie. Walter de Gruyter, Berlin, New York, 1984, S. 140 - 146. Schwidefsky/Ackermann: Photogrammetrie. B.G. Teubner, Stuttgart, 1976, S. 34 - 38, S. 175 - 183. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.1 ____________________________________________________________________________ 7. Grundlagen der digitalen Photogrammetrie (I) Die digitale Photogrammetrie befasst sich mit der Auswertung digitaler Bilder. Diese können durch direkten Bildeinzug (z.B. mit CCD-Kameras) oder durch Scannen analoger Bildvorlagen gewonnen werden. Zur mathematischen Sensormodellierung, für Orientierungs-, Kalibrierungsund Auswerteverfahren gelten nach wie vor die Grundlagen der analytischen Photogrammetrie. Dazu kommen Verfahren aus der digitalen Bildverarbeitung, Bildanalyse, Computervision und Computergraphik. 7.1. Bilddigitalisierung durch Scannen Bild: 2D-Lichtintensitätsfunktion f (x,y) x, y … Koordinaten f (x,y) ist proportional zur Helligkeit (oder "Grauwert") des Bildes im Punkt (x,y). Abb. 7.1: Bildfunktion eines digitalen Bildes Ein "digitales Bild" ist ein Bild g(x,y), welches diskretisiert wurde in Bezug auf die Koordinatenwerte (x,y) (sampling) und auf die Helligkeit (Quantisierung). Vergleich: Matrix mit x,y als Reihe, Spalte und g als Matrixelement Matrixelement =ˆ "picture element" (Pixel) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.2 ____________________________________________________________________________ Meist werden quadratische Formate benutzt, z.B. 512 x 512 mit 28 = 256 Grauwerten. Ein derartiges Bild beansprucht 262 Kbyte Speicher. "Binärbild": "Halbtonbild": "Quantisierung": 1 bit - -> 0 oder 1 (weiss oder schwarz) Bis 8 bit = 256 Grauwerte Sonderfälle (Medizin) bis 12 bit Grauwertzuordnung Entweder die Dichte (D) oder die Intensität (I) werden quantisiert, wobei die Beziehung gilt: D= log (1/I) Farbvorlagen: (a) 3 Digitalisierdurchgänge, Farbfilter oder Farblichtquellen (Blau-, Grün-, Rotauszug) => Problem: geometrische Übereinstimmung der drei Auszüge. (b) 1 Digitalisierdurchgang, z.B. spektrale Zerlegung des Lichtes durch Prismen. Der Digitizer konvertiert ein Bild in eine numerische ("digitale") Form, welche kompatibel mit einem digitalen Computer ist. Abbildung 7.2 zeigt die diskrete digitale Repräsentation einiger einfacher elementarer Bildmerkmale. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.3 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.4 ____________________________________________________________________________ Abb. 7.2: Digitale Bilder elementarer Bildmerkmale Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.5 ____________________________________________________________________________ Digitalisiert werden: (a) Bilder (b) Texte (c) Karten, Pläne Scannerprinzipien • Trommelscanner (Punktabtastung "Flying spot" mit Laserlicht) • Flachbettscanner (Punkt-, Zeilen-, Flächenabtastung) Linear Array CCD Flächenarray CCD Beleuchtung • Auflicht (Papiervorlagen) • Durchlicht (Transparente Träger) Auflösung: "dpi", z.B. 600 dpi = 24 dpmm = 42 µm Pixelgrösse = 57 600 Pixel/cm2 Beispiel Luftbild: 23 x 23 cm2 S/W Auflösung 50 lp/mm = 10 µm Pixel → 23 0002 Pixel → 529 MB Farbe: Faktor 3 mehr Korrekt: Umrechnungsfaktor „Kell-Faktor“ 2.7 Anzahl Pixel = 2.7 Anzahl lp, d.h. bei 50 lp/mm erhalten wir richtigerweise 135 Pixel/mm oder aber eine Pixelgrösse von 7.4 µm Moderner Trommelscanner: 100 000 Pixel Sek-1 Magnetband Scanning Spot: ≥ 6 µm (quadratisch) Dichtebereich: 0-4.0 Quantisierung: 8-12 bit Format: Bis 100 x 100 cm Beispiel: Optronics ColorGetter Plus, Optronics 5040 Scanner/Laser Plotter, Hell, Joyce Loebl Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.6 ____________________________________________________________________________ Abb. 7.3: Digitales Lese- und Schreibgerät Optronics P 1700 + Optronics P 1700 ist Photoscanner (Formate ≤ 23 x 23 cm2 ) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.7 ____________________________________________________________________________ Abb. 7.4: Prinzip Flachbett Scanner Beispiele für Flachbettbildscanner: • Agfa Horizon ("Desktop") Format: DIN A4 (auch 23 x 23 cm2) Messsystem: Kabelantrieb, 10 µm genau Sensor: 3 CCD Linear Arrays (3 x 5000 Pixel) Scanauflösung: 21, 42 µm Pixel (1200, 600 dpi) 10 Bit Radiometrie S/W; Farbbilder RGB sequentiell Scandauer: 5-100 mm/Sek. Computer: MAC, PC, Sun Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.8 ____________________________________________________________________________ • RM-1 Rastermaster, Wehrli & Associates Inc. Format: 26 x 26 cm2 Messsystem: Linearencoder, 1 µm Auflösung, 3 µm Genauigkeit Sensor: CCD Linear Array TDI mit 2048 x 96 Pixel à 13 µm Aktiv nur 1024 Pixel Scanauflösung: 12.5, 25, 50, 75, 100 µm Pixel S/W 8 Bit Scandauer: Luftbild mit 12.5 µm Pixel ~ 25 Min. Computer: PC/AT 486 MS-DOS 5.0 Besonderes: Filmspule mit bis zu 80 m Film • PS1 PhotoScan, Zeiss Oberkochen (vgl. Abb. 7.5) Format: 26 x 26 cm2 Messsystem: Linearencoder, 1 µm Auflösung, 2 µm Genauigkeit Sensor: CCD Linear Array mit 2048 Pixel, 15.36 mm Streifenbreite Scanauflösung: 7.5, 15, 30, 60, 120 µm Pixel 8 Bit Radiometrie S/W oder Farbfilter R, G, B Scandauer: 7.5 µm: < 20 Min 15 µm: < 10 Min 120 µm: < 3 Min Computer: Intergraph 6000 Serie, Modell IS 6105 Clipper RISC Prozessor UNIX • Leica/Helava DSW 200 Format: 26,5 x 26,5 cm2 Messsystem: Linearencoder, 1 µm Auflösung, < 3 µm Genauigkeit Sensor: CCD Matrix Array Kodak Megaplus 20292 Pixel à 9 µm Scanauflösung: 5-15 µm (in Firma eingestellt), dann ein Vielfaches von 2 8 Bit Radiometrie S/W oder Farbe (simultan) Scandauer: 7.5 µm: 5-10 Min. VITEC Format 30-60 Min. TIFF Format Computer: Sun Sparc 20 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.9 ____________________________________________________________________________ Abb. 7.5: PS1 PhotoScan Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.10 ____________________________________________________________________________ Eine besondere Form des Flachbettscannens ist das "Réseauscanning". Dabei wird eine Bildvorlage zusammen mit einem darüberliegenden Réseaunetz durch eine CCD-Kamera mit Flächensensor (Matrixarray) sequentiell abgetastet. Das Réseaunetz dient als Referenzrahmen zur Transformation der Pixelkoordinaten der einzelnen Aufnahmen in ein einheitliches übergeordnetes Koordinatensystem Abb. 7.6. Prinzip der Réseauscannens (a) Scanprinzip (b) Bildaufzeichnung (c) Réseauaufzeichnung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.11 ____________________________________________________________________________ Ein Gerät dieser Kategorie ist der VX 3000 von Vexcel Imaging Co.: Format: 25 x 51 cm2 Messsystem: Réseau, Genauigkeit < 5 µm für 23x23 cm2 Sensor: CCD Flächenarray Kamera Scanauflösung: 8.5 µm (3000 dpi) bis 160 µm (160 dpi) 8 Bit Radiometrie S/W; Farbfilter RGB Filter Computer: UNIX / C X Windows Tabelle 7.1: Flachbettbildscanner (Übersicht, Auswahl) Nach vollendetem Scanprozess liegen die Daten zunächst im Rasterformat vor. Diese Rasterdaten stehen zu den entsprechenden Vektordaten folgenderweise in Beziehung. Daten: Struktur: Information: Klassifizierung: Analysen: Speicheraufwand: Vektordaten <---> Hochgradig Selektiv, reduziert Ja Einfach Gering Rasterdaten Keine Umfassend Nein Schwierig Hoch Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.12 ____________________________________________________________________________ 7.2. Direkter Bildeinzug Vgl. Kapitel 3.2 Eine besondere Form der direkten Bildakquisition ist das "In-der-Kamera-Scannen". Dabei unterscheidet man die Prinzipien "Mikroscanning" und "Makroscanning". Beim Makroscanning benutzt man eine metrische oder halbmetrische Kamera zur Abbildung, d.h. zur Erzeugung eines virtuellen Bildes. Dieses virtuelle Bild wird in der Bildebene der Kamera entweder durch einen Halbleiterchip direkt erfasst oder über eine zusätzliche Optik auf diesen Chip abgebildet. Abbildung 7.7 zeigt letzteres Prinzip. Das Réseaunetz dient als Referenzrahmen zur Transformation der Pixelkoordinaten in das Bildkoordinatensystem der Kamera. Abb. 7.7: Prinzip des direkten Bildeinzugs durch Makroscanning (a) Grundprinzip (b) Bildaufzeichnung (c) Réseauaufzeichnung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.13 ____________________________________________________________________________ 7.3 Ausmessung digitaler Bilder • Manuell • Halbautomatisch • Vollautomatisch (a) Manuell Messen mit Cursor am Monitor: Mono, Stereo Stereo: 2 Messmarken, Stereobetrachtung (Anaglyphen, Splitscreen, Polarisation) Messauflösung: Bildschirmpixel (0.1-0.2 mm) Erhöhung der Messauflösung durch Zoomen. Vorsicht: Bildkontext kann zerfallen --> Limit für Messgenauigkeit Messauflösung [Inkremente/Pixel] Messgenauigkeit [1/σ] Limit 1 2 4 8 16 Limit: σ ≈1/4 - 1/8 Pixel Abb. 7.8: Zoomfaktor versus Messgenauigkeit und Messauflösung Zoomfaktor Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.14 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.15 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.16 ____________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.17 ____________________________________________________________________________ Abb.7.9: Bildzerfall durch starkes Zoomen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.18 ____________________________________________________________________________ (b) Halbautomatisch Konzept: Mensch interpretiert Bildinhalt und macht Grobeinstellung, Computer macht Feinmessung. Bild Fenster "Messmarke" Messobjekt Abb. 7.10: Verfahren der Grobmessung (c) Vollautomatisch Problem: Bildinterpretation durch Computer ("Computer Vision") Mensch: Erkennung --> Messung, (qualitativ stark, besser im Erkennen) Computer: Erkennung <--> Messung, (quantitativ stark, besser im Messen) Verfahren der Feinmessung: (a) Zentroidbestimmung (b) Template Matching durch Kreuzkorrelation (Musterzuordnung) (c) Template Matching durch Kleinste Quadrate Korrelation (--> spätere Vorlesungen) (d) Andere + Lokale Oberflächenanpassung: Ausgleichendes Polynom (Wendepunkte --> Kantenverlauf = g'(x,y)) -->Max = g''(x,y) = 0) + Einpassung geometrischer Elemente (Gerade, Kreis, Ellipse, etc.) auf Kantenelemente Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.19 ____________________________________________________________________________ Zentroidbestimmung (Massenschwerpunkt): Jedes Pixel wird als Masseteilchen mit Masse = Grauwert angesehen. •M M(x M , y M ) y ∑ (xg(x,y)) ∑ g(x, y) ∑ (yg(x,y)) = ∑ g(x, y) xM = yM x Abb. 7.11: Zentroidbestimmung durch gewichtete Mittelbildung "Allgemeines arithmetisches Mittel" mit Grauwerten g(x,y) als Gewichtsfunktion. Vorteil: Schnell, einfach Nachteile: + Setzt Objekte voraus, bei denen der Messpunkt als Massenschwerpunkt definiert werden kann. Schwerpunkt . Messpunkt + Probleme (Verzerrungen) bei syst. Fehlern in der Grauwerten (vgl. Abbildung 7.12) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.20 ____________________________________________________________________________ Abb.7.12: Versetzung des Messpunktes durch Signaldeformation Template Matching durch Kreuzkorrelation Exkurs: Filterung Definition: Ergebnis: Anwendungen: Transformation der Grauwerte, um bestimmte Bildmerkmale hervorzuheben und /oder zu unterdrücken --> neues digitales Bild Bildrestauration, Bildverbesserung, Kantendetektion, Objekterkennung und Detektion, Rauschunterdrückung, Datenreduktion. Filterung entweder im Ortsbereich (originale Bilddaten) oder Frequenzbereich (Transformierte Bildfrequenzdaten mit einer Frequenztransformation, z.B. Fourier, Hadamard). Meistens Filterung im Ortsbereich (nur das wird hier behandelt). Praktische Anwendung: + An jedem Pixel wird eine Maske (Fenster, Kernel) zentriert. Die Grösse der Maske definiert die Nachbarschaft des Pixels, die für die Filterung benutzt wird. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.21 ____________________________________________________________________________ (Filterung = Nachbarschaftsoperation (NO)). Die Koeffizienten der Maske bestimmen den Beitrag jedes Pixels innerhalb der Maske zu dem neuen modifizierten Grauwert des zentralen Pixels. + Je grösser die Maske und/oder je kleiner die zentralen Koeffizienten, desto stärker die Effekte der Filterung. Iterative Filterung führt ebenfalls zu stärkeren Effekten. + Die NO kann linear oder nicht linear sein. Nicht-lineare NO: - mathematisch schwierig zu analysieren - algorithmisch aufwendig - können sehr leistungsfähig sein - anwendbar für spezielle Probleme (Bildverbesserung, Restauration) - Beispiele: Median, Wallis. + Die lineare Filterung kann als eine Konvolution (Faltung) des Bildes mit der Maske betrachtet werden. Dies entspricht im diskreten Fall einer gleitenden Mittelwertbildung. Mit * g(x,y) f(x,y) h(x,y) M, N = Konvolutionsoperator = Bildfunktion = Filterfunktion (Maske) = gefiltertes Bild = y, x Dimensionen der Maske Kontinuierliche Bilder: ∞ h(x,y) = f ∗ g = ∞ ∫ ∫ f(i, j) g(x − i, y − j) di, dj −∞ −∞ Digitale (diskrete) Bilder: M h (x,y) = f ∗g = ∑ N ∑ f (i, j) g(x − i,y − j ) j=0 i=0 Beispiel: Maske für gleitende Mittelwertbildung: 1 1 1 1 1 1 1 1 1 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.22 ____________________________________________________________________________ Das Ergebnis einer solchen gleitenden Mittelwertbildung ist in Abbildung 7.13 dargestellt. Abb. 7.13: Tiefpassfilterung einer Kante durch 3 x 3 Mittelwertbildung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.23 ____________________________________________________________________________ Filterklassifizierung - Tiefpassfilter Die tiefen (kleinen) Frequenzen, d.h. lange Wellenlängen (Merkmale grösser als die Maske) werden hervorgehoben, die hohen Frequenzen unterdrückt. Ergebnis ---> Weicheres, weniger scharfes Bild Rauschen, Kanten, kleine Merkmale geglättet. - Hochpassfilter Das Gegenteil vom Tiefpassfilter. Ergebnis ---> Schärferes, kontrastreicheres Bild Kanten und Rauschen hervorgehoben Gefahr: Rauschhervorhebung; deshalb Anwendung, wenn Rauschanteil gering, d. h. Rauschwerte wesentlich kleiner als die Bildwerte. - Bandpassfilter Vorgewählte Frequenzbereiche (Bänder) werden hervorgehoben, die übrigen unterdrückt. - Matched Filter (Template Matching) Detektion eines vorgegebenen Bildes (Template) in einem anderen Bild. Das Objekt wird dort detektiert, wo eine Ähnlichkeitsfunktion zwischen Template und Bild maximiert wird. Beispiel Kreuzkorrelation: M R gf (x, y) = ∑ N ∑ f (i, j) g(x − i,y − j) . j=0 i=0 f(i,j) … Template Normalisierte Kreuzkorrelation: Σ Σ g – g f–f 2 Σ Σ g – g Σ Σ f–f g, f… Mittelwerte von g, f R g f (x,y) = 2 1/2 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.24 ____________________________________________________________________________ N Fenster Template Maximum für Rgf(≤ 1) M y Target x Abb. 7.14: Verfahren der Kreuzkorrelation Probleme mit Kreuzkorrelation: Methode verlangt Kongruenz zwischen Template und Bild. Drehungen, massstäbliche Änderungen und Deformationen höherer Ordnung sind nicht berücksichtigt. 7.4. Grauwertinterpolation Viele Operationen, z. B. die Drehung eines Bildes, verlangen eine Grauwertinterpolation: Rotation g(x,y) g(x,y) Grauwerte im g x,y stehen nicht mehr auf Integer-Positionen > Grauwerte des Bildes g x,y müssen auf Integer-Positionen interpoliert werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.25 ____________________________________________________________________________ Verfahren: Artifakte: Aufreissen von schrägen Linien (b) Bilinear Lokales Koordinatensystem: 1,1 0,1 g (x , y ) = d + ax + by + cxy g y 0,0 x 1,0 g (xy ) = [g (1,0 ) − g (0,0)]x + [g(0,1) − g(0,0 )]y + + [g(1,1) + g(0,0) − g(0,1) − g(1,0)]xy + g(0,0) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 7.26 ____________________________________________________________________________ (c) Interpolation höherer Ordnung Kubische Splines, sin (x)/x (sinc-Function), etc. Anwendungen: • Korrektur geometrischer Verzeichnungen • Entzerrung für Display; Transformation in andere Projektionen • Überlagerung (Image Registration) Bild/Bild, Karte/Bild • Änderung Bildformat • Kartenprojektion 7.5. Geometrische Bildtransformationen Änderung der Bildgeometrie. 2 Stufen: (a) Metrische Transformation (b) Grauwertinterpolation Metrische Transformation: g x,y = g a x′,y′ , b x′, y′ Die Funktionen a,b definieren eindeutig die Art der Transformation. Funktionen a, b kontinuierlich --> "Connectivity" (Topologie) von Pixeln bleibt erhalten. Wichtige Transformationen: x = x ′ + ∆x y = y ′ + ∆y } Verschiebung x = cos ϕ x′ − sinϕ y′ y = sinϕ x′ + cosϕ y ′ } Drehung } Massstäbliche Änderung Affine Transformation } x = mx ′ y = m y′ x = a 1 x ′ + a 2 y′ + a 3 y = b1 x ′ + b 2 y ′ + b 3 x= a 1x′ + a2 y′ + a 3 c 1x′ + c2 y′ +1 y= b 1 x′ + b 2 y′ + b 3 c 1x′ + c2 y′ +1 } Projektive Transformation Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.1 ________________________________________________________________________________ 8. Stereoskopie und Parallaxe Problem: Bei einer projektiven Abbildung entspricht jedem Objektpunkt P (XP, YP, ZP) genau ein Bildpunkt P´. Umgekehrt werden jedoch jedem Bildpunkt die unendlich vielen Punkte des projizierenden Strahles zugeordnet. Folge: Der Objektpunkt P ist nicht definiert. Selbst bei bekannter innerer Orientierung ist die Rekonstruktion eines Einzelbildes nur möglich, wenn zusätzliche Angaben über das Objekt vorliegen, zum Beispiel, wenn das Objekt in einer Ebene liegt oder die Höhen der Objektpunkte bekannt sind. Ansonsten können nur Koordinatenverhältnisse Xp / Zp, Yp / Zp abgeleitet werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.2 ________________________________________________________________________________ Allgemeine Lösung: Für die Bestimmung der Koordinaten ist ein zweites Bild erforderlich, welches den Punkt P von einem unterschiedlichen Standort aus abbildet. Durch diese zusätzliche Aufnahme ist P eindeutig bestimmt (Schnitt der beiden Aufnahmestrahlen). Zusätzlich hat man die Möglichkeit zur stereoskopen Bildbetrachtung. 8.1. Konzept der Kernebene Beim natürlichen stereoskopischen Sehen bilden die Augenbasis und der betrachtete Punkt eine Ebene. In dieser Ebene werden die den Raumeindruck verursachenden Horizontalparallaxen vom Auge erfasst und im Gehirn ausgewertet. Deshalb muß auch das künstliche stereoskope Sehen nach diesem Prinzip erfolgen. Die Aufnahmebasis O´O´´ und der zu erfassende Punkt P bilden die sogenannte Kernebene. Die Spuren der Kernebene mit den beiden Bildern ergeben in jedem von ihnen eine Kerngerade, auf welcher die Bildpunkte abgebildet sind. Alle Kerngeraden zusammengehöriger Bildpunkte Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.3 ________________________________________________________________________________ schneiden sich auf der Spurgeraden s. Alle Kerngeraden eines Bildes formen ein Strahlenbüschel mit Zentrum im Kernpunkt K´ (K´´). Eine Ausnahme bildet der "Normalfall". Spezialfall: Normalfall Bei der Aufnahme stereoskopischer Bilder wird oft der Normalfall angestrebt, d.h. zusammengehörige Aufnahmen werden so angeordnet, dass die Aufnahmerichtungen parallel zueinander und senkrecht zur Basis sind. Dann sind auch die Bildebenen zur Basis parallel. Die Kernpunkte K´, K´´ liegen im Unendlichen. Früher wurden die Kernpunkte K´,K´´ für graphische Konstruktionszwecke benötigt. Heute erleichtert die Theorie der Kernebenen das Verständnis der Bedingungen für das stereoskopische Sehen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.4 ________________________________________________________________________________ 8.2. Räumliches Sehen 8.2.1. Das menschliche Auge Aufbau Das menschliche Auge ist ein kugelförmiger Körper von etwa 25 mm Durchmesser. Es ist von der harten weissen Lederhaut umschlossen, die es vor Verletzungen schützt. Sie ist in ihrem vorderen Teil durchsichtig und wird hier als Hornhaut bezeichnet. Unter der Lederhaut liegt die Aderhaut, welche die das Auge ernährenden Blutgefässe enthält und infolge ihrer dunklen Färbung das Augeninnere vor zerstreutem Licht schützt. Die Netzhaut setzt sich aus sehr vielen feinen, lichtempfindlichen Zellen (Stäbchen u. Zäpfchen) zusammen, welche die Enden der Nervenfasern des Sehnervs sind. Die etwa 7 Millionen Zäpfchen sind vor allem im Zentrum des Gesichtsfeldes, im sog. „gelben Fleck“ gehäuft. Sie sind licht- und farbempfindlich (Ø 2-8 µm). Die etwa l20 Millionen nur lichtempfindlichen Stäbchen (Ø 2 µm) fehlen dort, sind aber sonst über das ganze Gesichtsfeld verteilt. An der Eintrittsstelle des Sehnervs, dem blinden Fleck, fehlen beide. Querschnitt durch das menschliche Auge N = Netzhaut C = Cornea (Hornhaut) n = 1,38 A = Vorderkammer (Kristallwasser) n = 1,34 L = Augenlinse n = 1,41 Q = Gallertkörper n = 1,34 J = Iris Z = Ziliarmuskel Nf = gelber Fleck mit Fovea, Macula T = Sehnerven (blinder Fleck) D = Aderhaut S = Sehnen; Lederhaut Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.5 ________________________________________________________________________________ Funktionsweise Das Auge stellt ein optisches System dar, bei dem durch die aus einem hornähnlichen, durchsichtigen Stoff mit der Brechungszahl n ≈1,41 bestehende Kristalllinse zusammen mit der Hornhaut und dem Kristallwasser von den betrachteten Gengenständen reelle, verkleinerte umgekehrte Bilder entworfen werden, die das Bewusstsein aufrecht wahrnimmt. Dabei werden beim Auftreffen von Lichtstrahlen auf die Sehnervenzellen elektrische Impulse ausgelöst, die über die Sehnerven zum Gehirn gelangen und dann dort als Lichtstrahlen wahrgenommen werden. Da diese Impulse durch chemische Veränderungen in den Stäbchen und Zäpfchen hervorgerufen werden, verschwindet die Lichtempfindung nach Beendigung des Lichteinfalles nicht sofort. Der Eindruck wirkt etwa noch 1/20 Sekunden nach. Deshalb werden Eindrücke, welche etwa in 1/20 Sekunde aufeinanderfolgen, auch nicht mehr scharf voneinander unterschieden, sondern kontinuierlich aneinandergereiht, was seine besondere Bedeutung bespielsweise beim Kino und Fernsehen hat. Analog zur Blendeneinstellung bei einer Kamera wird das einfallende Licht durch Verändern der Pupillenöffnung zwischen 2 und 8 mm durch die Iris (farbiger Teil des Auges) gesteuert. Ebenfalls muß das Auge für Scharfabbildung die Bedingungen der Linsengleichung einhalten. Da seine Bildweite für Einstellung auf Unendlich konstant ist f ∞ = 23mm , muß die Brennweite variiert werden können. Dies ist gewährleistet durch die Fähigkeit des Auges, mit dem Ziliarmuskel die Krümmung der Augenlinse in Abhängigkeit von der Objektentfernung zu verändern (Akkommodation). Die Augen lassen somit das Bild trotz wechselnder Objektentfernungen immer automatisch scharf auf der Netzhaut entstehen. Es wird jedoch nur in der Umgebung der optischen Achse im Bereich des gelben Flecks deutlich wahrgenommen. Der gelbe Fleck ist eine kleine Vertiefung in der Mitte der Netzhaut mit einem Durchmesser von 2 mm und einem Öffnungswinkel von 7g, d.h. bei einer Sehweite von 25 cm (Leseentfernung) beträgt der Durchmesser des scharf abgebildeten Objektbereichs ca. 30 mm. Um das ganze Objekt scharf zu erfassen, besitzen die Augen die Fähigkeit, die Richtung der optischen Achse sehr rasch zu verändern und zu akkommodieren. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.6 ________________________________________________________________________________ Scharfsehen Das eigentliche Scharfsehen vermitteln die Zäpfchen, da die Stäbchen (nicht farbempfindlich) viel lichtempfindlicher sind und bei hellem Licht wegen Übermüdung völlig ausfallen. Wird beim Sehen nur 1 Zäpfchen erregt, so empfindet das Auge den Gegenstand als Punkt. Zwei Gegenstände erscheinen dem unbewaffneten Auge nur dann getrennt, wenn der Abstand ihrer Bildpunkte auf der Netzhaut grösser als der Durchmesser eines Zäpfchens ist. Damit ergibt sich der Genzwinkel für das Trennungs- oder Auflösungsvermögen des Auges nach vorstehender Skizze zu 4 µ ⋅ ρcc ω= ≈ 160cc ; 15 mm Da dieser Wert jedoch von der Güte des Auges abhängt (Schwankung zwischen 30cc und 300cc), nimmt man im allgemeinen ω = 2c, was bei einer Entfernung von 25 cm ca. 0.07 mm entspricht. Die Verschiebung zweier gerader Linien (für den Geodäten etwa bei der Noniusstrichablesung von Interesse) wird hingegen noch bei etwa 30cc (von manchen Personen gar bei 10cc ) wahrgenommen. Dies lässt sich daraus erklären, dass das Bild der Linien mehrere Zäpfchen erregt und somit vom Auge leicht bemerkt wird. Die photographische Auflösung eines Bildes beträgt 0.02 - 0.03 mm, d.h. das Bild muss bei der Interpretation zur vollen Ausnutzung seiner Auflösung etwa drei- bis viermal vergrössert werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.7 ________________________________________________________________________________ Das zweite Auge erlaubt die binokulare Betrachtung eines Objekts. Dabei beträgt der mittlere Augenabstand (Basis) ~ 65mm. Die beiden Bilder des Objekts werden im Gehirn zur Deckung gebracht. Die Auflösung wird durch diese Überlagerung etwa auf das Dreifache verbessert. Vergleich Auge - Kamera: Analogien: Auge: - Hornhaut - Linse - Netzhaut - Iris - Pupille Kamera: - Filter - Objektiv - photographische Schicht - Blende - Eintrittsöffnung Unterschiede: - Bildseitiges Medium Wasser - Fokussierung durch Brennweitenänderung (Ziliarmuskel), Akkommodation - Scharfabbildung nur im Bereich des gelben Flecks 8.2.2. Natürliches stereoskopes Sehen Räumliches Sehen ist nur mit zwei gesunden Augen möglich. Der subjektive räumliche Eindruck, der durch Sehen mit einem Auge entsteht, beruht nur auf Erfahrungswerten, auf den scheinbaren Größenunterschieden der betrachteten Gegenstände, Verdeckungen, etc. Betrachtet man ein Objekt P1 in endlicher Entfernung, so bilden die beiden optischen Achsen einen Konvergenzwinkel γ , und unterschiedlich entfernte Objekte P1, P2 ergeben Bilder mit Parallaxen entlang der Richtung der Augenbasis bA. Das Gehirn verarbeitet die durch den Differenzwinkel δ erzeugte Parallaxen P1´´P2´´, so daß der Mensch einen räumlichen Eindruck empfindet, welcher als stereoskopisches Sehen bezeichnet wird. Die Auflösung beim stereoskopischen Sehen ist deutlich grösser als beim monoskopischen Sehen (Faktor 3). Auflösung der Augen: Ein Auge Beide Augen δmin = 2c δmin = 30cc - 80cc -> monoskopisch -> stereoskopisch Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.8 ________________________________________________________________________________ Es stellt sich nun die Frage, wie klein ein Tiefenunterschied sein darf, um vom Auge noch als solcher erkannt zu werden. Mit b A << y ergibt sich γ≈ bA y dγ ≈ − bA y2 dy Fehler in der Tiefenwahrnehmung: dy ≈ − y2 bA dγ Für dγ = δmin ≈ 50cc: y2 50 cc y2 dy = − ⋅ ≈− [m] 0,065 ρ cc 825 Für y = 0,25m: dy = 0,07mm Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.9 ________________________________________________________________________________ Dies entspricht dem minimalen erkennbaren Tiefenunterschied auf die Distanz von 25cm. Für dy = y verschwindet das Tiefenwahrnehmungsvermögen der Augen vollständig. Dies gilt für die Entfernung y = 825m. Tatsächlich liegt die praktische Grenze für viele Personen bei y ≈ 500m. Das darüber hinaus dennoch auftretende Gefühl für Tiefenunterschiede beruht nur auf der Erfahrung. 8.2.3. Künstliches stereoskopes Sehen Das Objekt, das betrachtet werden soll, wird nun durch Bilder (Photographien) ersetzt. Es müssen, um einen stereoskopen Eindruck zu erlangen, drei Bedingungen erfüllt werden: 1) Jedem Auge muß separat ein Bild des Objektes zugeführt werden. Die zwei Bilder müssen von verschiedenen Standpunkten aus aufgenommen worden sein. 2) Das Betrachten dieser Bilder muß in Kernebenen erfolgen. Das heisst, die Richtungen zu homologen Bildpunkten müssen sich näherungsweise im 3-D Raum schneiden. Kleine "Restparallaxen" py kann das Gehirn kompensieren. 3) Freies stereoskopes Sehen (ohne optische Hilfsmittel) ist nur möglich, wenn homologe Bildpunkte (P´/ P´´) den Abstand der Augenbasis nicht überschreiten (bA ≈ 65mm). Eine Divergenz der Augenachsen muß vermieden werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.10 ________________________________________________________________________________ Künstliche Verbesserung des Tiefeneindrucks: 2 y dy = dγ bA a) Basis bA vergrössern auf n bA (n > 1) b) Reduktion von dγ durch Vergrösserung der Bilder um den Faktor v dy = - 1 nv 2 y dγ bA {n v} -> "Totale Plastik" In der Luftbildphotogrammetrie ist b = n bA >> bA Betrachtungsmöglichkeiten eines Stereopaares 8.2.4. Instrumentelle Hilfsmittel zur Stereobetrachtung a) Stereoskope Zweck: + Jedem Auge wird genau ein Bild zugeordnet. + Die natürliche Kopplung der Akkommodation (Fokussierung) und Konvergenz (Anzielen) des Auges wird aufgehoben. + Das betrachtete Bild wird vergrössert. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.11 ________________________________________________________________________________ Typen: + Linsen- oder Taschenstereoskop Vorteil: Klein, billig, handlich Nachteil: Beschränktes Bildformat + Spiegelstereoskop Vorteil: grössere Bildformate, variable Vergrösserung Figur: Spiegelstereoskop Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.12 ________________________________________________________________________________ Beim Spiegelstereoskop ist ein Prisma eingezeichnet. Tatsächlich existieren auf beiden Seiten solche Prismen. Um das ganze Bild zu betrachten, müssen nun nicht die Bilder unter den Linsen herumgeschoben werden, sondern durch Drehen der Prismen kann das ganze Bild abgetastet, also alle Teilbereiche überblickt werden. (b) Bildtrennung durch Anaglyphen (Rot-Grün Farbbilder) Das Anaglyphenverfahren wurde 1853 von Rollmann eingeführt. Es beruht auf der Subtraktionseigenschaft von Komplementärfarben. Farbenkreis (Rollmann): rot gelb purpur WEISS blau grün blaugrün Druckverfahren blau-grün rot Druck rot blau-grün Brille schwarz schwarz Bild (visuell) Es werden zwei komplementär gedruckte Bilder mit einer Farbbrille gleicher Farbwahl betrachtet. Gesehen wird ein stereoskopes schwarzes Bild. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.13 ________________________________________________________________________________ Projektionsverfahren Licht Projizierte Bilder Funktionsweise: Die schwarzen Linien im grün projizierten Bild werden vom rechten Projektor mit rotem Licht belichtet, daher sieht man sie mit dem grünen Brillenglas schwarz Gleiches gilt für das rot projizierte Bild und dessen Betrachtung mit dem roten Brillenglas. Brille Vorteil: s/w - Bilder können betrachtet werden. Filter Bild (schwarz-weiss) Projektionsfläche blaugrün rot blaugrün rot Ergebnis schwarz (c) Polarisation Vorteil: - Es kann mit Farbbildern gearbeitet werden - Der Lichtverlust im Filter ist gering Polarisatoren Analysatoren Polarisationsfilter Nachteil: - Empfindlichkeit gegen Kopfbewegungen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.14 ________________________________________________________________________________ (d) Schwingblenden, SIA (Stereo Image Alternator) Betrachter Blende (30Hz) Vor beiden Augen befinden sich Verschlüsse, die sich mit einer Phasenverschiebung von 180 grad Licht öffnen und schliessen. Ist der eine Verschluss offen, so ist der andere geschlossen. Dasselbe System von Verschlüssen ist vor den Lichtquellen angebracht. So wird jedem Verschluss (30Hz) Auge "sein" Bild zugeführt. Vorteil: Volle Lichtausnützung (e) „Elektronische“ Stereodisplays Die Stereobetrachtung digitaler Bilder kann nach folgenden Prinzipien erfolgen: (1) Stereoskopverfahren (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Minimonitore) (2) Anaglyphen (3) Elektromechanisches Zeitmultiplexen (vgl. SIA, Verschlussprinzip) (4) Polarisierung (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Einmonitorsystem aktiv, passiv (PLZT, LCS)) (5) Autostereoskopie (wechselndes Bildpaar mit Vertikalparallaxen) (6) Monitor mit Zylinderlinsen (7) Holography (8) Andere (Zykloramischer Display, LC Sandwichmonitor, Vari-fokaler Spiegel, etc.) Von praktischer Bedeutung sind lediglich die Methoden (1), (2) und (4). Diese werden im folgenden detailliert dargestellt. Dabei unterscheiden wir die Varianten (α) Stereoskopverfahren (Splitscreen) (β) Polarisierung im Zweimonitorsystem (γ) Polarisierung aktiv mit PLZT oder LCS (δ) Polarisierung passiv mit LCS (ε) Anaglyphen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.15 ________________________________________________________________________________ (ε) Anaglyphen grün/rot Vorteil: preiswert Nachteile: Kein Display von Farbbildern möglich Halbierung der Displaytiefe für jedes Bild ( Einzelbild: 8 bit , Doppelbild: 4 bit Ghosting/Crosstalk 4 bit ) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.16 ________________________________________________________________________________ 8.3. Stereoskopes Messen In der Photogrammetrie werden Bild- und Modellkoordinaten gemessen. Das Messen von Bildkoordinaten erlaubt der Stereokomparator (z. B. STK I von Wild / PSK I, II von Zeiss). Mit ihm werden Einzelpunkte ausgewertet. Vergleiche dazu auch Kapitel 7.3. Ausmessung von Einzelbildern; Monokomperator. Beim Messen von Modellkoordinaten wird punktweise und linienweise ausgewertet. (a) Messen von Bildkoordinaten mit einem Stereokomparator: Der Stereokomparator wurde 1901 durch Pulfrich für die Firma Zeiss entwickelt. Zum Prinzip : Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.17 ________________________________________________________________________________ Besonderheiten: Neben x', y' werden die Parallaxen px = x' - x'', py = y'-y'' direkt gemessen. Bei dem alten Pulfrich'schen Gerät werden zur x', px, py - Messung die Bildbühnen bewegt, zur y'-Messung dagegen das Betrachtungssystem mit M', M''. Bei neueren Geräten ist das Betrachtungssystem fest. Gemessen werden x', y', x'', y'' oder x', y', px, py. Zur Stereomessung am Bildschirm bedarf es zweier Messmarken, die über je zwei Freiheitsgrade (x,y) im Pixelraum verfügen. Zur Kontrolle dieser Messmarken können die üblichen Elemente benutzt werden (Maus, Rollkugel, Drehzylinder, Joystick, Tastaturknöpfe, etc.). Auch die Messung im Stereomodus kann manuell oder/und halbautomatisch durchgeführt werden. Vollautomatische Ansätze sind wegen der Schwierigkeiten bei der automatischen Bildinterpretation („Image Understanding“) i.a. nicht brauchbar. Eine gewisse Ausnahme macht hier das Verfahren des Imge Matching zur Generierung eines Digitalen Oberflächenmodells. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.18 ________________________________________________________________________________ Stereodisplay nach dem Splitscreen-Verfahren am Leica DVP Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.19 ________________________________________________________________________________ Arbeitsschritte im Stereokomparatormodus: Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.20 ________________________________________________________________________________ (b) Messen von Modellkoordinaten Der "Doppelprojektor" wurde 1915 von Gasser eingeführt. Die Stereobetrachtung wird nach der Anaglyphenmethode oder durch Schwingblenden realisiert. Als Ergebnis der Projektion erhält man ein "objektiv optisches Modell", ein 3-D Stereomodell. Rückprojektion: Umgekehrter Vorgang zur Aufnahme -> Messen von Modellkoordinaten Der Vorteil in der Ausnutzung des Stereoeffekts liegt in der Möglichkeit, auch schlecht definierte homologe Bildpunkte einander zuordnen zu können (Probleme: Wiese, Sand, Schnee, Wiederholungsmuster, etc.). Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.21 ________________________________________________________________________________ 8.4. Normalfall der Stereophotogrammetrie Formeln zur Berechnung der Koordinaten: bc px (I) YP = (II) XP = YP x´ b x´ = c px (III) ZP = YP b z´ z´ = c px Gegeben: Innere Orientierung Gemessen: b, x´, z´, px Berechnet: X, Y, Z Für die Luftphotogrammetrie gilt: (I) ZP = bc px b x´ (II) XP = px (III) YP = Basisverhältnis: b y´ px b / hg (Luft) ; b / YP (Terrestrisch) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.22 ________________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.23 ________________________________________________________________________________ Das Basisverhältnis ist verantwortlich für die Höhengenauigkeit. In der Figur oben ist die Flughöhe für Normalwinkel (hgNW) doppelt so groß wie für Weitwinkel (hgWW). Aus untenstehenden Gleichungen sieht man, daß daraus derselbe Maßstab und dieselbe Bodenbedeckung resultieren. cNW γNW,WW cWW = = = Kammerkonstante der Normalwinkelaufnahme Parallaktischer Winkel Kammerkonstante der Weitwinkelaufnahme γWW > γNW -> daraus resultiert die bessere Höhengenauigkeit von WW gegenüber NW: σ Z ( WW) ≈ (1 / 2) σ Z ( NW ) NW mB 1 = NW = MB WW mB = 1 WW MB mB = Massstabszahl NW hg cNW WW = hg NW MB = WW MB MB = Massstab cWW Kamera c [cm] s´ Bildformat Überdeckung in [%] hg [m] NW 30 23 60 0,3m ~1/3 WW 15 23 60 0,15m B ~2/3 SWW 8,8 23 60 0,088m ~3/3 b / hg B B Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite: 8.24 ________________________________________________________________________________ Genauigkeit der Punktbestimmung Terrestrischer Fall : YP = bc px 2 bc dYp = - dpx = - 2 px YP bc dpx 2 σY = P σX = P σ YP bc YP c Y σPx σx' p = c σz' Ζ P Der Fehler in der Tiefenkoordinate (σYP) verhält sich quadratisch zu Yp. Er wirkt sich also viel ungünstiger aus als diejenigen in X- und Z-Richtung. Luftbilder, flaches Gelände: σZp = σX p = σY p = Beispiel: WW, b hg = h g2 bc hg c hg c σP ≈ x hg b m Bσ P x σ X′ ≈ m B σ X′ σ Y′ ≈ m B σ Y′ c = 150 mm, hg = 1500 m, 1 1,5 σ P x = σ X′ = σ Y′ = 5 µm MB = 1 : 10'000 σ Z p = 7,5 cm σ X p = 5cm σ Y p = 5cm Verhältnis der Fehler: σZp σX / Y = 3 , 1,5 , NW WW 1 ÜWW Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.1 __________________________________________________________________________ 9. Der Bildflug 9.1. Elemente der Bildflugplanung Heute werden in zivilen Anwendungen fast ausschließlich Senkrechtaufnahmen verwendet. Im allgemeinen werden Blöcke geflogen, die eine stereoskopische Auswertung gewährleisten. Zum Begriff des Blockes Photogrammetrisches Modell: 2 Photographien Überlappung Bild 1 Bild 2 Photogrammetrischer Streifen: 3 und mehr Photographien zweifache Überlappung dreifache Überlappung Photogrammetrischer Block: 2 und mehr Streifen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.2 __________________________________________________________________________ Die Längs- und Querüberlappung wird in Prozent angegeben. Der Betrag p = q = 20% entspricht einer minimalen Überlappung, welche aber noch keine geschlossene Stereoauswertung ermöglicht. Die Überlappung soll nie weniger betragen, da sonst Lücken entstehen können. Nur die Bereiche mit Überlappung können im Prinzip stereoskopisch ausgewertet werden. Der gesamte restliche Bereich dient ausschließlich der Auswertung durch Entzerrung (falls das Gelände flach ist) und der Luftbildinterpretation. Für volle stereoskopische Auswertung braucht es mindestens 60% Überlappung in Längsrichtung. Oft wird sogar eine Überlappung von 80% angestrebt. Damit wird auch gleich die Gefahr von Verdeckungen minimiert, da die Basis O´-O´´ bei größerer Überlappung kleiner wird. H´ + H´´ + Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.3 __________________________________________________________________________ Ein weiterer großer Vorteil einer Überdeckung liegt im Einsparen von Paßpunkten. Ein Paßpunkt kann auf mehreren Bildern abgebildet sein, was bewirkt, daß die benötigte Anzahl der Paßpunkte gesenkt werden kann. Elemente der Flugplanung Fläche F einer Aufnahme: 2 2 2 F = s = s´ 2 mB = s´ 2 hg 2 c Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.4 __________________________________________________________________________ Basis: p 100 hg p b = s′ 1− 100 c b = s−s Basisverhältnis: p… Überdeckung in % b s′ p = 1 − hg c 100 Bildfolgezeit: b v g … Geschwindigkeit des Flugzeugs über Grund vg s′ p ∆t = m B 1 − vg 100 ∆t = Bildwanderung: Während der Belichtungszeit bewegt sich das Flugzeug fort, woraus Unschärfen entstehen können, welche Bildwanderung genannt werden. vg dt ds´ = dt ... Belichtungszeit mB ds´ m ds B = v = g dt dt Beispiel: v g = 150 km / h ds ′ = 150 ⋅10 3600 3 dt = 1 sec 500 1 1 500 8000 m B = 8 000 → ds′ = 0, 01mm Auswirkung der Bildwanderung: (Flugrichtung wird sichtbar!) Signal Deformiert Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.5 __________________________________________________________________________ Abtrift: Verdrehen der Kamera um den Abtriftwinkel α. vA ... Eigengeschwindigkeit des Flugzeuges vW ... Windgeschwindigkeit vg ... Fluggeschwindigkeit über Grund vg = vA + vW Stereoskope Auswertung (Topographische Kartierung) p ... q ... Längsüberdeckung = 60 - 90% Querüberdeckung = 20 - 60% Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.6 __________________________________________________________________________ q F = s′ 2 m 2B ; a = s′m B 1 − 100 FN : Fläche, die durch ein zusätzliches Bild (stereoskopisch) addiert wird. q p FN = a b = s′ 2 m 2B 1 − 1 − 100 100 p q FN = F1 − 1 − 100 100 Abschätzung der Anzahl Photographien für den ganzen Block: Bekannt ist die Gebietsfläche FT, die Maßstabszahl mB, die Längsüberdeckung p und die Querüberdeckung q. Anzahl Photographien = FT FN Beispiel: p = 60% ; q = 25% => FN = 0,3 • F Entscheidungsabfolge bei der Flugplanung (z. B. Kartierprojekt für topographische Karte) • Gegeben: Kartenmassstab M K = 1/ m K • Gesucht: Beispiel: mK = 10'000 mK = 1'000 mK = 100'000 Bildmassstab => Faustregel: m B ≈ 200 mK => mB = 20'000 => mB = 6'000 => mB = 65'000 -> mB ist abhängig von: - Kartenmaßstab mK - Steighöhe des Flugzeuges hg = 5'000 - 14'000 m - Detailerkennbarkeit (das heißt, daß zum Beispiel bei kleinen Kartenmaßstäben trotzdem relativ tief geflogen wird, um Details noch erfassen zu können) - Wirtschaftliche Aspekte (u.a. Minimierung der Anzahl der Aufnahmen) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.7 __________________________________________________________________________ -> Kammerkonstante c Sie ist abhängig von: - Höhengenauigkeit Instrumenten (insbesondere Auswertegeräte !) Höhenunterschiede im Gelände Erwünschtes Produkt oder Ziel der Aufnahmen (z. B. Orthophotos: NW ; Linienkarte: WW) -> Flughöhe hg Sie ist abhängig von: - Maximale / Minimale Flughöhe - hg = c mB mit Randbedingungen p p -> Basis b: b = s1 − = s ′m B 1 − 100 100 q q ->Abstand der Streifen: a = s 1 − = s ′m B 1 − 100 100 -> Bildfolgezeit : ∆t = b Mit verschiedenen Bedingungen für v g vg -> Belichtungszeit dt ist abhängig von: - Blende, Lichtverhältnisse - Filmempfindlichkeit <--> Auflösung - Bildwanderung (ds´≤ 30 µm) - Flugzeugvibrationen -> Grundlagen zur Vorbereitung der Flugkarte - Bestehende Karten mit Eintrag von: + Projektionszentren + Flughöhe (h) + Flugrichtung (O-W, N-S) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.8 __________________________________________________________________________ Der Blattausschnitt der herzustellenden Karte soll durch die Wahl der Projektionszentren optimal im Modell zu liegen kommen. -> Flugdatum; Berücksichtigung der Jahreszeiten, Tageszeit - Schnee: + Reflexion + Verdeckung + Gletschereffekt (kein Stereoeffekt) - Bewuchs: + Verdeckung (aber: Waldschadenerhebung!) - Luftverschmutzung Bevorzugte Jahreszeit für Bildflüge ist der Frühling und der Herbst . Zudem muß auch die Tageszeit berücksichtigt werden. Der Sonnenstand soll ≥ 30o und ≤ 60o sein. Ein ungünstiger Sonnenstand kann lange Schatten oder Reflexionen verursachen. Weiterhin ist bei einem Bildflug auf allfälligen Nebel und Staub zu achten. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.9 __________________________________________________________________________ 9.2. Ausführung des Bildfluges Flugteam Das Flugteam besteht eigentlich aus einem Piloten, einem Navigator und einem Operateur. In heute gebräuchlichen modernen Flugzeugen reichen aber schon Pilot und Operateur aus, um sämtliche Funktionen erfüllen zu können. Ausrüstung Luftbildkammern sind Reihenmesskammern (im Flugzeug eingebaut) mit folgenden Eigenschaften: - Hochleistungsobjektive, Filter - Stabiler Kammerstutzen - Anlegerahmen mit Rahmenmarken - Andruckplatte für Film (Vakuum) - Filmmagazin - Kameraaufhängung mit Dämpfung - Drehvorrichtung um vertikale Achse (Abtrift !) - Steuereinrichtungen 1 1 bis Belichtungszeiten: 250 1000 Maximale Blende: d ≈ 1:4 c Format: 23 x 23cm2 Zentralverschluss: Sonderkonstruktion im Gegensatz zum Schlitzverschluss der Normalkamera. Diese Konstruktion ist nötig, da sich das Flugzeug während der Belichtung bewegt. Für diese Tatsache wäre ein Schlitzverschluss zu langsam. Optionen für den Bildflug: 1) Ausgleich der Bildwanderung mit einer Genauigkeit von 0,3% dadurch, dass der Film während der Belichtung mitbewegt wird (FMC). 2) Réseau, ein Gitter von Rahmenmarken. Wird benutzt zur Kompensation des Filmverzuges und der Filmunebenheit. • Frontréseau • Rückprojektion Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.10 __________________________________________________________________________ Zusatzeinrichtungen zu den Kammern a) Mattscheibenkammer IRU, NS1 (Zeiss): Automatisches Auslösen des Verschlusses nach vorgegebenem Zeitintervall. Problem: Variationen von Geländehöhe, Flughöhe, Abtrift, vg Mattscheibenkammer 14 x 14cm2 Bildwinkel 56grad (NW) mit Sprossenkette. Mit diesem Instrument wird der Wert vg /hg bestimmt = vB/c vB … Geschwindigkeit im Bild vg hg 0 1 2 3 4 vg vB Falls die Sprossenkette synchron mit dem Objekt läuft, ist das Zeitintervall korrekt ermittelt. 0 1 2 3 4 0 1 2 synchron asynchron Mit dieser Anordnung kann auch die Abtrift korrigiert werden. Die Fortbewegung des Bildes muß parallel zur Sprossenachse sein ! Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.11 __________________________________________________________________________ b) Flug- und Datenmanagement (am Beispiel der Wild RC30) PEM-F, der automatische Belichtungsmesser der RC30 misst integral mit maximaler Empfindlichkeit im nahen Infrarot. Bei extremen Aufnahmebedingungen kann der Operateur die automatische Regelung ausser Kraft setzten, entweder durch Speicherung der momentanen Einstellungen oder durch Eingabe bewusster Korrekturen. EDI, das Externe Daten-Interface, ist eine Datenverbindung zwischen Kamera und Navigationsanlage oder dem weiter unten beschriebenen ASCOT. Die Daten werden in zwei Zeilen von je 100 alphanumerischen Zeichen am unteren respektive oberen Rand abgebildet. Ein LED-Datenfeld erzeugt eine kontrastreiche, auf jedem Filmtyp gut lesbare Abbildung. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.12 __________________________________________________________________________ ASCOT steht für „Aerial Survey Control Tool“ (Bildflug-Kontroll-Instrument) und ist eine intelligente, universelle Schnittstelle samt Bedienertastatur und Bildschirm. ASCOT kommuniziert mit einer oder mehreren Kameras, Flugzeugnavigationssystemen und Sensoren wie GPS- Empfängern. ASCOT macht die automatische Randdatenabbildung frei programmierbar. Mit verschiedenen Softwaremodulen übernimmt ASCOT die folgenden Aufgaben: • Bildflugmanagement In Verbindung mit einem GPS-Empfänger kann dem Piloten während des Fluges laufend die aktuelle und die Sollposition angezeigt werden. • Programmierbare Randdatenabbildung • Datenspeicherung ASCOT erlaubt die Registrierung der Kameraparameter sowie der Navigations- und Positionsdaten. Diese Informationen stehen somit zur Auswertung nach dem Flug zur Verfügung. • Koordinatentransformation WGS84-Kordinaten von einem GPS-Empfänger können bereits vor deren Abbildung und Registrierung in ein übliches lokales Koordinatensystem transformiert werden. • Automatische Abtriftkorrektur Aufgrund von Daten aus einem Richtungskreisel oder Navigationssystem kann ASCOT Steuerbefehle an die Kameraaufhängung senden. c) FMC - Forward Motion Compensation Durch die Vorwärtsbewegung des Flugzeugs während der Belichtung können die Aufnahmen verwischt werden. Die Bildwanderungkompensation (FMC) wirkt diesem Effekt entgegen und ermöglicht so schärfere Bilder. P' P' Filmbewegung ds' ds ′ = c O ds O Flugrichtung hg P cds ds vgdt = = hg m B m B Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.13 __________________________________________________________________________ d) Photoflugkonfiguration RMK TOP: Luftbildkamera (Zeiss) T-CU: Kontrolleinheit für das ganze System T-TL: Terminal für die Systemüberwachung mit integriertem Computer T-NT: Navigationsteleskop; erlaubt manuelle Kontrolle der Überlappung durch v g / h g - Messungen und Abtriftkorrektur NA: Navigationsautomat; steuert die Überdeckung automatisch (über v g / h g ) Wir unterscheiden Einmann-, Zweimann- und Dreimannbildflüge. Im folgenden ist eine übliche Konfiguration des Zweimannbildfluges abgebildet. Gleichzeitig mit den Photoaufnahmen kann GPS (Global Positioning System) im kinematischen Modus benutzt werden. Dabei werden die X,Y,Z-Koordinaten der Empfängerantenne laufend gemessen. Diese Daten können folgendermassen genutzt werden: (a) Zur Navigation des Bildflugs (Echtzeitmodus) (b) Zur Bestimmung der 3-D Position der Projektionszentren (Postprocessingmodus) Die folgende Abbildung zeigt die Konfiguration eines Zweimannbildflugs mit GPS 9.3. Geräte zur Navigation und Hilfsdatenerfassung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.14 __________________________________________________________________________ Hilfsdaten <--> Daten der äußeren Orientierung (X0, Y0, Z0, ω, ϕ, κ) Im Gegensatz zur terrestrischen Photogrammetrie, bei welcher die Größen der äußeren Orientierung genau messbar sind, ist dies in der Aerophotogrammetrie nicht möglich. Die Daten müssen hier bestimmt werden aus: a) Paßpunkten b) direkten Messungen (sehr ungenau !) 9.3.1. Bestimmung der Drehwinkel • Gyrokompass (Kreiselkompass) (Nistri; OMI/Italien): Registrierung des Nadirpunktes. Daraus erhält man ω und ϕ. • INS (Inertial Navigation System; Trägheitsnavigation) • Dosenlibelle: Genauigkeit ±1 Grad 9.3.2. Bestimmung der Projektionszentren Bestimmung von Z0 • Statoskop: Messung der Höhenunterschiede zwischen zwei benachbarten Projektionszentren innerhalb eines Flugstreifens. Manometer: Genauigkeit 1 -2 m ; Ablesegenauigkeit 0,5 m Druckunterschiede -> Höhenunterschiede Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.15 __________________________________________________________________________ Das Statoskop ist gut geeignet für Messungen, die nicht eine allzu große Genauigkeit verlangen. Dies sind zum Beispiel Kartierprojekte mittlerer und kleinerer Maßstäbe. • Airborne Profile Recorder (APR): Messung von hg. Die Messung beruht auf Radar oder Laser. Flug α ∆t Laufzeitdifferenz ∆t => hg Größe des Streuwinkels α: Radar: α = 1g Laser: stärker gebündelt => Lasermessungen sind genauer ! Genauigkeit Radar: 300 km Streifen ± 3 m Genauigkeit Laser: ± 1.2 m für hg = 2000 m Problem: Bodenbedeckung mit Häusern, Bäumen und anderem ergibt eine Verfälschung. Bestimmung der Koordinaten X0 und Y0: • Decca, Shoran, Hiran, Aerodist (Hyperbelverfahren) Genauigkeit: ca. ±20m ; mit Aerodist ca. ± 1m Alle Systeme benötigen aktive Bodenstationen. Wegen ihrer eingeschränkten Genauigkeit werden diese Systeme in erster Linie für Navigationszwecke benutzt! • Dopplernavigation: Dabei sind keine aktiven Bodenstationen nötig. v g und Abtrift werden direkt gemessen. Das System beruht auf der Frequenzverschiebung von am Boden reflektierten Radarstrahlen. Genauigkeit: Weg über Grund ± 1‰ Kurs (Richtung) ± 0,1 Grad Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 9.16 __________________________________________________________________________ Bestimmung von X0, Y0, Z0, κ, ϕ, ω: • INS (Inertial Navigation System) Beruht auf dem Prinzip der Trägheitsnavigation (Messung: Beschleunigungen). Nachteile: Hohe Kosten, hohe Dynamik Bestimmung von X0, Y0, Z0: • NAVSTAR Global Positioning System (GPS): Anwendungsbereich vor allem in der Passpunktbestimmung (Anstelle von Theodoliten und EDM). Es kann jedoch im kinematischen Modus auch an Bord benützt werden zur Bestimmung der Koordinaten der Projektionszentren. σ X 0 / Y0 / Z 0 ≈ 10cm im Postprocessing Modus (Phasenmessung im Relativmodus) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.1 __________________________________________________________________________ 10. Grundlagen der Stereomodellorientierung 10.1. Allgemeines Die Orientierung von Stereomodellen erfordert die Kenntnis der Orientierungsdaten. Wenn wir voraussetzen können, dass die Daten der inneren Orientierung bekannt sind, geht es hier nur noch um die Bestimmung der Daten der äusseren Orientierung. Dazu stehen grundsätzlich zwei Möglichkeiten zur Verfügung: (A) Direkte Bestimmung bei der Aufnahme selbst durch Einsatz von Sensoren (Teilkreise, GPS, INS, etc.) (B) Bestimmung aus Passpunktkoordinaten und/oder anderen Objektinformationen (Distanzen, Parallelität von Linien/Geraden, rechte Winkel, Punkte an einer Ebene, etc.) Wir werden uns in diesem Abschnitt nur mit dem Verfahren (B) und hier wiederum nur mit der Verwendung von Passpunktkoordinaten beschäftigen. „Hauptaufgabe“ der Photogrammetrie In klassischer Formulierung besteht die „Hauptaufgabe“ der Photogrammetrie in der Bestimmung der äusseren Orientierung aus Passpunkten. Diese Bestimmung kann an manchen Stereoanaloggeräten durchgeführt werden (analoges Verfahren) oder nach den analytischen Verfahren an Analytischen Plottern oder Digitalen Stationen. Wir werden im folgenden nur die Grundlagen der analytischen Verfahren behandeln. Bestimmung der Orientierungsdaten mit analytischen Verfahren Hierzu existieren zwei Möglichkeiten: a) Rechnen von zwei räumlichen Rückwärtseinschnitten b) Gemeinsame Orientierung beider Photographien Zu a): 0 (X 0 , Y0 , Z0 ) c Bestimmung von: X , Y , Z , ω, ϕ , κ 0 0 0 für jedes der beiden Bilder separat. Diese Methode erfordert mindestens 3 Vollpasspunkte pro Bild. PP3 PP1 PP2 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.2 __________________________________________________________________________ Diese Methode ist zwar einfach im Prinzip, aber in Bezug auf Genauigkeit und notwendiger Passpunktanzahl dem Verfahren (b) unterlegen. Sie findet daher in der Praxis keine Anwendung. Zu b): O1 O2 Bestimmung von: X 0 , Y0 , Z0 , ϕ1 , ω1 , κ 1 1 1 1 X 0 , Y0 , Z0 , ϕ2 , ω2 , κ 2 2 2 2 für beide Bilder zusammen 12 Parameter Hier werden nicht nur Passpunkte benötigt (ein Minimum von 7 Passpunktkoordinaten), sondern es sind zusätzliche Orientierungspunkte in beiden Bildern einzumessen. Die Orientierung nach diesem Zweibildverfahren kann nach zwei Methoden durchgeführt werden: (1) Zweistufenlösung mit Aufspaltung in relative Orientierung und absolute Orientierung (2) Simultane Orientierung (Einstufenlösung) Dieses Verfahren wird in Photogrammetrie II behandelt. Das Zweibildverfahren erfordert die Bestimmung von 12 Orientierungsparametern. Diese verteilen sich folgendermassen auf die beiden Orientierungsschritte: Relative Orientierung: Absolute Orientierung: Total 5 Parameter 7 Parameter ____________ 12 Parameter Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.3 __________________________________________________________________________ 10.2. Relative Orientierung Aufnahme Auswertung (nicht orientiert) Die relative Orientierung beruht auf der Herbeiführung der Strahlenschnitte entsprechender (homologer) Strahlen, d.h. die Kernebenen müssen rekonstruiert werden. Dafür benötigt man ein Maß für die "Windschiefe" der Strahlen. Korrekturverfahren ∆yII / ∆xII (Parallaxen) 1. Beliebige Projektion: 2. Höhenverschiebung von RP: ∆xI = 0 => ∆yI Durchführung der relativen Orientierung: Berechnung der Elemente der äußeren Orientierung dergestalt, daß alle y - Parallaxen verschwinden (pyi = 0 , i = 1, 2, ..., m ; m = Anzahl Modellpunkte). Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.4 __________________________________________________________________________ y y′ y' y'' x' x'' b Die gegenseitige Orientierung erfordert, daß von den zwölf möglichen Orientierungselementen der beiden Bilder fünf so bestimmt werden, daß sich je zwei zugehörige Bildstrahlen in fünf Modellpunkten schneiden. Die Begründung liegt in einem Satz der projektiven Geometrie: Zwei Räume sind projektiv zueinander, wenn sich fünf homologe Strahlen schneiden. Die beiden homologen Sehstrahlen müssen in einer Kernebene liegen. Also müssen die Vertikalparallaxen in diesen fünf Punkten verschwinden. In diesem Fall ist die Vertikalparallaxenfreiheit für alle anderen Punkte des Modells auch gewährleistet, falls keine Bildfehler vorliegen. Die Grundgleichung der relativen Orientierung ist die Koplanaritätsbedingung. In der Darstellung nach Schut ergibt sich mit r r r r ui′T M ui′′ = xi′T D′T M D′′ xi′′= 0 Schutbedingung 0 M = bz − by − bz 0 bx by − bx 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.5 __________________________________________________________________________ i = 1, ... , m m = Anzahl Modellpunkte In dieser Gleichung treten noch 9 Orientierungsbekannte auf. Durch Einführung von Basiskomponenten b x = X ′0′ − X ′0 , b y = Y0′′ − Y0′ , b z = Z′0′ − Z′0 wurden die ursprünglichen 6 Koordinaten der beiden Projektionszentren auf 3 Basiskomponenten reduziert. Bemerke: Die gegenseitige Orientierung stellt ein im Prinzip beliebig im Raum gelagertes und orientiertes Modell des Objekts her, ohne notwendigen Bezug zum Objektkoordinatensystem (daher auch der Begriff „Modellkoordinatensystem“). Da die relative Orientierung durch 5 Parameter bestimmt ist, können wir in der Koplanaritätsbedingung über 9-5 = 4 Orientierungselemente frei verfügen. Hier unterscheidet man zwei Varianten in der Parameterwahl: (a) Folgebildanschluss. In der analogen Photogrammetrie auch als Einprojektormethode bezeichnet. Hier werden die Elemente eines Bildes festgehalten, z. B. ϕ′, ω′, κ′, dazu b x . Es verbleiben als Unbekannte ϕ′′, ω′′, κ ′′, b y , b z . (b) Methode der unabhängigen Modelle (Zweiprojektormethode, Methode der Bilddrehungen). Hier werden die Elemente b x , b y , b z , ω′ (oder ω′′) festgehalten. Man benutzt als freie Parameter nur die Bilddrehungen κ′, κ′′, ϕ′, ϕ′′, und ω′′ (oder ω′) . 10.2.1. Folgebildanschluss Wird in der Gleichung r r x ′i T D′ T M D′′ x ′i′ = 0 das linke Bild festgehalten, so ergibt sich mit der Wahl κ ′ = ϕ′ = ω′ = 0 D′ = D′ T = I und somit r r x ′i T M D′′ x ′i′ = 0 Weiterhin wird b x festgehalten, da dieser Parameter nicht zur y-Parallaxe ( p y ) beiträgt, z. B. b x = 1 . Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.6 __________________________________________________________________________ Jeder Modellpunkt (i) trägt nun eine Koplanaritätsgleichung zur relativen Orientierung bei. Allgemeine Funktion: F i (b y , b z , κ ′′, ϕ′′, ω′′) = 0 Annahme (Regelfall): c′ = c′′ = c (gleiche Kamera für beide Aufnahmen) Komponentenform der Koplanaritätsbedingung: [x ′i Beobachtungen: − c] y′i 0 bz − b y − bz 0 1 x ′i , y ′i , x ′i′, y ′i′ by x ′i′ − 1 D′ϕ′ D′ω′ D′κ′ y′i′ = 0 − c 0 i = 1, K , m , m≥5 Ausgleichungsproblem: Fi (l a , x a ) = 0 f Bedingte Ausgleichung mit Unbekannten 5 Unbekannte k Beobachtungen m Bedingungsgleichungen Vereinfachung für Senkrechtaufnahmen: κ, ϕ, ω, b y , b z kleine Grössen : − κ′′ ϕ′′ 1 D′′ = κ′′ 1 − ω′′ − ϕ′′ ω′′ 1 x ′i , x ′i′ tragen fast nichts zur y- Parallaxe bei, werden also nicht als Beobachtungen im Sinne der Ausgleichungsrechnung betrachtet. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.7 __________________________________________________________________________ Die Koplanaritätsbedingung vereinfacht sich somit zu: Fi ≡ [x ′i y ′i − c] 0 bz − b y − bz 0 1 by − 1 0 − κ ′′ ϕ′′ 1 κ ′′ 1 − ω′′ − ϕ′′ ω′′ 1 x ′i′ y′i′ = 0 − c Linearisierung durch Taylor-Reihenentwicklung: ( ) ∂F ∂Fi dx + i v + Fi l b , x (0) = 0 14243 ∂ la ∂ xa { { w B A Sammlung der Koeffizienten in den Designmatrizen A, B, Widerspruchsvektor w. Koeffizienten der Matrix A: 0 0 ∂Fi y′i 0 = [x ′i − c] 0 ∂b y − 1 0 1 0 0 1 κ ′′ − ϕ′′ − κ ′′ 1 ω′′ ϕ′′ − ω′′ 1 = − x ′i x ′i′ ϕ′′ + cx ′i′ + x ′i ω′′ ϕ′′ − cκ ′′ y ′i′ − cx ′i − c 2 ϕ′′ ≈ ≈ c (x ′i′ − x ′i ) = − cp x i ; ∂Fi ∂b z 0 − 1 0 x ′i′ = [x ′i y ′i − c] 1 0 0 D′′ y ′i′ ≈ y ′i x ′i′ − x ′i y ′i′ = 0 0 0 − c = x ′i′ p y i − y ′i′ p x i ≈ − y ′i′ p x i 0 ∂Fi = [x ′i y′i − c] b z ∂φ′′ − b y bz 0 1 ( by − 1 0 0 0 1 x ′i′ 0 0 0 y ′i′ = − 1 0 0 − c ) = − x ′i x ′i′ b y + y′i x ′i′ − c b z y′i + cb y ≈ ≈ y ′i x ′i′ ; x ′i′ y ′i′ = − c Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.8 __________________________________________________________________________ 0 0 0 x ′i′ ∂Fi = [x ′i y′i − c] M 0 0 − 1 y ′i′ = x ′i y ′i′ b y − y′i y′i′ − ′ x ′i′ cb z − c 2 ≈ ∂ω′′ 0 1 0 − c ( ) ≈ − y ′i y ′i′ + c 2 ; 0 − 1 0 ∂Fi = [x ′i y ′i − c] M 1 0 0 ∂κ′′ 0 0 0 x ′i′ y ′i′ = − c = − b z (x ′i x ′i′ + y ′i y ′i′ ) − cx ′i′ − cb y y′i′ ≈ ≈ − cx ′i′ ; Widerspruchsvektor wi : x ′i′ w i = [x ′i y′i − c] M (0) D′′(0) y′i′ ≈ −c(y′i′ − y′i ) = cp y i − c Koeffizienten der Matrix B: ∂Fi ∂y ′i ∂Fi ∂y ′i′ ∂Fi ∂y′i r = [0 1 0] MD′′ x ′i′ ≈ b z x ′i′ + c ≈c 0 r = x ′i T MD′′ 1 ≈ − b z x ′i − c ≈ −c 0 ∂F = − i > Spaltenrang von B wird um m reduziert; ∂y′i′ v ′y = − v ′y′ , cv ′y − cv ′y′ ⇒ cv py ; v py = v ′y − v ′y′ ( ) Es bleibt als neu eine Verbesserung pro Gleichung übrig. Dies entspricht einer vermittelnden Ausgleichung der Form Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.9 __________________________________________________________________________ p y i + v p y = p x i db y + i y′i p x i c y ′i x ′i′ db z − c y ′i y′i′ dϕ′′ + + c d ω′′ + x ′i′ dκ ′′ c Dasselbe Ergebnis lässt sich über die Differentialformeln für Bildkoordinaten von Normalaufnahmen (Kap. 6.6.) gewinnen: p y i (=ˆ dy′i − dy′i′ ) + v p y = i y y c −c dYo′ + dY0′′ − i dZ′0 + i dZ′0′ hg hg hg hg − c + Mit hg ≈ y i2 x y dω′′ + i i dϕ′′ + x i dκ′′ c c b⋅c , b y = dY0′′ − dY0′ , b z = dZ′0′ − dZ′0 , y ′i ≈ y ′i′ = y i und b ≈ b x = 1 px erhält man: p yi + vp y = p x i b y + i yi p x i c bz − x ′i′y i c y2 dϕ′′ + i + c d ω′′ + x ′i′ dκ′′ c 10.2.2 Methode der Bilddrehungen ”Zweiprojektormethode“ Grundgleichung: Schutbedingung rT r rT r u ′i M u ′i′ = x ′i D′ T MD′′ x ′i′ = 0 Insgesamt: 9 Orientierungselemente Festlegung: b x = 1 , b y = b z = ω′ (oder ω′′) = 0 Das heisst, nur die 5 Drehwerte ϕ′ , κ′ , ω′′ , ϕ′′ , κ ′′ werden zur gegenseitigen Orientierung herangezogen. Mit D′ω = I , erhält man 0 M = 0 0 0 0 1 0 − 1 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.10 __________________________________________________________________________ ( D′ = D′ϕ D ′κ ( ) mit 2 Unbekannten ϕ′ , κ ′ D′′ = D′ω′ D′ϕ′ D′κ′ ) mit 3 Unbekannten ϕ′′ , ω′′ , κ ′′ Damit ergibt sich für jeden Modellpunkt (i) mit i = 1, …, m ; m ≥ 5 ; m = Anzahl Modellpunkte : 0 Fi ≡ [x ′i y ′i − c] D′κT D′ϕT 0 0 0 0 1 0 − 1 D′ϕ′ D′ω′ D′κ′ 0 x ′i′ y ′i′ = 0 − c Taylor Linearisierung: ( ) Fi l b + v, x (0 ) + dx = 0 Ausgleichungsmechanismus siehe Folgebildanschluss ! Allgemeiner Algorithmus zur Ausgleichung der gegenseitigen Orientierung 1. Wahl von Näherungswerten x (0) für die 5 unbekannten Orientierungsparameter, z.B. x (0) = 0 2. Berechnung der Koeffizientenmatrizen A, B und des Widerspruchvektors w unter Verwendung aller beobachteten Modellpunkte 3. Berechnung der Normalgleichungen 4. Auflösung der Normalgleichungen (ergibt dx) 5. Wegen Nichtlinearität des Problems: Iteration Prüfung des Iterationskriteriums dx T dx < ε > ( z.B. ε = 10-8 ) Falls Iterationskriterium überschritten wird (>): Verbesserung der Näherungswerte der Parameter, Einführung neuer Näherungswerte Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.11 __________________________________________________________________________ x (1) = x (0) + dx x (0) =ˆ x (1) Wiederholung ab 2. 6. Berechnung der Verbesserungen v für alle Beobachtungen 7. Berechnung des Varianzfaktors σ o2 und der Kovarianzmatrix der geschätzten Parameter 8. Berechnung der Modellkoordinaten durch räumlichen Vorwärtsschnitt 10.3 Räumlicher Vorwärtsschnitt z.B. benützt zur Berechnung von Modellkoordinaten Gegeben: Drehmatrizen D′, D′′ r r Projektionszentren X ′o, X′o′ r r Innere Orientierung x ′o , x′o′ Gemessen: Komparatorkoordinaten von Pi′, Pi′′ r Gesucht: Objektkoordinaten von Pi X ′i ( ) Lösung: Annahme: Komparatorkoordinaten mit innerer Orientierung, reduziert auf Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.12 __________________________________________________________________________ r r Bildkoordinaten x ′i , x ′i′ x′ r i x ′i y′i − c , x ′′ r i x ′i′ y′i′ − c Mathematisches Modell (Kollinearitätsgleichung): r r r X i = X ′o + λ ′i D ' x ′i r r r X i = X ′o′ + λ ′i′ D ' ' x ′i′ Inverse Repräsentation: ( r r r 1 x ′i = D ′ T X i − X ′o λ ′i ( r r r 1 x ′i′ = D ′′ T X i − X ′o′ λ ′i′ ) ) ; ′ d 11 ′ D ′ T = d 12 d 13 ′ d ′21 d ′22 d ′23 d ′31 d ′32 d ′33 Elimination von λ ′i, λ ′i′ (Komponenten) : d ′ (X − X ′o ) + d ′21 (Yi − Yo′ ) + d ′31 (Z i − Z′o ) k′ x ′i = − c 11 i = −c x , ′ (X i − X ′o ) + d ′23 (Yi − Yo′ ) + d ′33 (Z i − Z′o ) d13 k ′z y ′i = − c x ′i′ = − c y ′i′ = − c k ′y k ′z k ′x′ k ′z′ k ′y′ k ′z′ , , ; Diese 4 Gleichungen bilden das nichtlineare Funktionalmodell für die Beobachtungsgleichungen. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.13 __________________________________________________________________________ Beobachtungen: x ′i , y′i , x ′i′, y′i′ Unbekannte: X i , Yi , Z i Annahme: X o , Yo , Z o , ϕ, ω, κ fehlerfrei Allgemeine Funktionsdarstellung: Fx′ (x ′i , X i , Yi , Z i ) = 0 Fy′ (y ′i , X i , Yi , Z i ) = 0 Fx′′ (x ′i′, X i , Yi , Z i ) = 0 Fy′′ (y ′i′, X i , Yi , Z i ) = 0 Linearisierung über Taylor-Reihe: x ′i + v′x i = y ′i + v ′yi = x ′i′ + v ′x′ i = y ′i′ + v′y′ i = ∂Fx′ ∂F′ ∂F′ dX i + x dYi + x dZ i + Fx′ (0) ∂Yi ∂X i ∂Z i ∂Fy′ ∂X i dX i + ∂Fy′ ∂Yi dYi + ∂Fy′ dZ i + Fy′ (0) ∂Z i ∂F′′ ∂F′′ ∂Fx′′ dX i + x dYi + x dZ i + Fx′′ (0) ∂Z i ∂Yi ∂X i ∂Fy′′ ∂X i dX i + ∂Fy′′ ∂Yi dYi + ∂Fy′′ dZ i + Fy′′ (0) ∂Z i System der Verbesserungsgleichungen: l + v = Ax ; P ( l T = x ′i − Fx′ (0) , y′i − Fy′ (0) , x ′i′ − Fx′′ (0) , y ′i′ − Fy′′ (0) ) x T = (dX i , dYi , dZ i ) 1 4 1 + 4 3 = 4 4 Beobachtungen, 3 Unbekannte 1 3 f Redundanz r = 1 (schwach!) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.14 __________________________________________________________________________ ( Beachten: Näherungswerte für X i , Yi , Zi nötig X i( 0) , Yi( 0 ) , Z i( 0 ) ) Iteration, da Problem nichtlinear ! Erweiterung des Ausgleichungsmodells: Elemente der äusseren Orientierung als stochastische Grössen einführen. Gewichte aus Genauigkeitsangaben der relativen Orientierung Korr . → ω′′ ). (Folgebildanschluss: σ b y , σ b z , σ ϕ′′ , σ ω′′ , σ κ ′′ und eventuelle Korrelationen ! b y ← f Verbesserung der Ausgleichungsergebnisse ! 10.4 Absolute Orientierung Nach der relativen Orientierung erhalten wir ein photogrammetrisches Modell in "wildem" Maßstab und mit unbekannter absoluter Orientierung und Lagerung. Aufgabe der absoluten Orientierung ist es nun, Lage, Maßstab und Orientierung des Modells im Raum zu finden. Es sind also folgende Parameter zu bestimmen : Maßstab Lagerung Orientierung 1 Maßstabsunbekannte 3 Verschiebungen 3 Drehungen ∆λ ∆X , ∆Y , ∆Z ∆ κ , ∆Φ , ∆Ω Zur Bestimmung dieser Parameter dienen die Paßpunkte. Erforderlich sind sieben Informationen für die sieben Parameter. Zur Verfügung stehen Vollpaßpunkte (Lage und Höhe; X, Y, Z), Lagepaßpunkte (X, Y) und Höhenpaßpunkte (Z). Es sind also zum Beispiel folgende Kombinationen möglich: - 2 VPP und 1HPP - 2 LPP und 3 HPP Zu beachten ist, daß immer mindestens drei Höheninformationen gebraucht werden ! Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.15 __________________________________________________________________________ Restriktionen bezüglich der gegenseitigen Lage der Passpunkte: mässige Verteilung sing. Verteilung Aufgabe : ordentliche Verteilung Auffelderung der Modellpunkte an bestehendes Passpunktnetz. Lösungen : - Räumliche Ähnlichkeitstransformation (7-Parameter Lösung) - Getrennte Lage - Höhe Einpassung (4/3-Lösung) Gegeben: Modellkoordinaten der Punkte Pi : Xi , i = 1,K, m Objektkoordinaten der Passpunkte Pj : Xj j = 1,..., np ; np = Anzahl der Passpunkte Gesucht: Koordinaten aller Modellpunkte Pi im Passpunktsystem 10.4.1 Räumliche Ähnlichkeitstransformation Xi = λ R Xi + T Translationsvektor orth. Drehmatrix Massstabsfaktor 1 3 3 =1 1 1 3 3 1 + 3 2 Schritte : 1. Bestimmung der 7 Transformationsparameter durch kleinste Quadrate Ausgleichung, da normalerweise mehr als 7 PP-Informationen verfügbar sind. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.16 __________________________________________________________________________ 2. Unter Verwendung dieser 7 Parameter werden alle Modellkoordinaten in das PP-System transformiert. Einfaches Modell: Verbesserungen werden den PP-Koordinaten zugeschlagen Xj + vj = λR Xj + T Vor- und Nachteile: Dieses Modell ist einfach zu handhaben (vermittelnde Ausgleichung); verschiedene PP-Typen können leicht eingebracht werden: Für jede PP-Beobachtung eine separate Beobachtungsgleichung Lage-PP: X Y + vX =λ vY r11 r12 r13 r21 r22 r23 X′ Y′ Z′ + TX TY Höhen-PP : = λ r31 r32 r33 vX r11 r12 r13 Y + vY Z vZ = λ r21 r22 r23 r31 r32 r33 Z + vZ X′ Y ′ + TZ Z′ Voll-PP : X X′ TX Y ′ + TY Z′ TZ Derartige Gleichungen werden für alle Passpunkte aufgestellt; sie formen das System der Verbesserungsgleichungen. Linearisierung ! Näherungsmodell, da die Modellbeobachtungen X nicht als stochastische Grössen betrachtet werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.17 __________________________________________________________________________ Detaillierte Behandlung Xj + v j = λ R Xj + T ; j = 1, . . . , np np = Anzahl der Passpunkte Ω um X - Achse φ um Y - Achse κ um Z - Achse R beinhaltet Allg. Funktion: Fj (X j , θ ) θ . . . 7 Parameter der räumlichen = 0 ; Aehnlichkeitstransformation Fj ≡ X j − λ R X j − T = 0 θ T = (λ, Ω, φ, κ, T X , T Y , T Z ) Taylor Entwicklung: ∂Fj ∂Fj vj = 0 Fj X j , θ ( 0 ) + dθ + ∂X j ∂θ ( ) X j − λ(0 ) R (0 ) X j − T (0 ) + X ′j X j Y j′ Z′j Komponenten: ( ∂Fj ∂λ , dλ + K + ∂Fj ∂Tz dTz + X j X j Yj Z j ) FjX ≡ X j − λ r11X ′j + r12 Y ′j + r13 Z′j − TX = 0 1444 424444 3 T rl X j ( ) ( ) FjY ≡ Y j − λ r21X ′j + r22 Y ′j + r23 Z′j − TY = 0 1444424444 3 T r2 X j FjZ ≡ Z j − λ r31X ′j + r32 Y ′j + r33 Z′j − TZ = 0 1444 424444 3 T r3 X j ∂Fj ∂X j vX j + ∂Fj ∂Y j vY j + ∂Fj ∂Z j vZ j = 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.18 __________________________________________________________________________ Taylor Entwicklung für FjX : Beachte: Tx ist a priori linear ! ( ) ( ) T T T ( 0) (0) ∂ rl X j (0) ∂ rl X j ( 0) T ( 0) X j − λ rl X j − r1 X jdλ − λ dΩ − λ dφ − ∂Ω ∂φ ( T (0) ∂ rl X j −λ ∂κ ) dκ − T X + 0 + 0 + v Xj + 0 + 0 = 0 f Ähnliches für FjY , FjZ Näherungswerte 1. Stufe: rii = 1 , gebräuchlich für Senkrechtaufnahmen λ(0) = 1 ; R (0) = I r = 0, falls i ≠ k ik Annahme: λ = 1 + dλ , d.h. Modellmassstab wurde schon grob dem PP-Massstab angepasst Rotationsmatrix für kleine Drehungen: rlT 1 −κ φ R= κ 1 − Ω =ˆ r2T r3T − φ Ω 1 ; rlT X j = X ′j − κY ′j + φZ′j r2T X j = κX ′j + Y ′j − ΩZ′j r3T X j = − φX ′j + ΩY ′j + Z′j ( ∂ rlT X j ∂φ ) = Z′ j ; ( ∂ rlT X j ∂Ω )=0 ; ( ∂ rlT X j ∂κ ) = −Y ′ j X j + v xj = X ′j + X ′jdλ + 0 + Z′jdφ − Y j′dκ + TX + 0 + 0 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.19 __________________________________________________________________________ Verbesserungsgleichungen für Vollpasspunkt in Matrix/Vektor-Form: v Xj X ′j v Yj = Y ′j v Z′ Zj j 0 Z′j - Y ′j 1 0 - Z′j 0 X ′j 0 1 Y ′j - X ′j 0 0 0 3,1 3,7 vj Aj dλ dΩ X ′j − X j 0 dφ 0 dκ + Y ′j − Y j 1 TX Z′j − Z j T 3,1 Y T −l j Z 7,1 dθ v j = A j dθ − l j ; Pj Für alle np PPs: n ... Anzahl der PP-Informationen v1 A1 l1 v2 A2 l2 = dθ − M M M v np A np l np n,1 n,7 n ,1 v = A dθ − l ; P (wird normalerweise als diagonal angenommen !) Normalgleichungen: (A T PA ) dθ = A T Pl 7 7 ; 1 7 N dθ = A T Pl 1 = 7 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.20 __________________________________________________________________________ Lösung: ( dθ = A T PA ) −1 A T Pl Kovarianzmatrix, Varianzfaktor: ( Κ θ = σˆ o2 A T PA σˆ o2 = ) −1 v T Pv ; r = n−7 r Vorsicht: Problem nichtlinear → Iteration ! Nach jedem Iterationsschritt: Verbesserung der Modellkoordinaten durch Transformation X (j k ) = λ( k ) R ( k ) X (j k −1) ; k − ter Iterationsschritt Translation T muss hier nicht berücksichtigt werden, da linear ! Benutzung der ”neuen“ Modellkoordinaten für nächsten Iterationsschritt. Neuberechnung von A, l. Iterationskriterien: a) 1 cm ∆X Max = X (jk ) − X (jk −1) ≤ ε1 ; z.B. ε1 = 1 cm 1 cm b) dΩ 2 + dφ 2 + dκ 2 ≤ ε 2 ; z.B. ε 2 = 10 -8 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.21 __________________________________________________________________________ Spezialfall: Absolute Orientierung, wenn ein Bild bereits absolut orientiert ist. Dies kann bei Streifenmessung im Folgebildanschluß auftreten ("Streifenbildung"). Das heißt, sechs von sieben Orientierungselementen sind bereits bestimmt. Es kann somit nur noch über den Maßstab des Modells frei verfügt werden. 1,2...absolut orientiert (3)...Ergebnis rel. Orientierung 3... Ergebnis Maßstabsanpassung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 10.22 __________________________________________________________________________ Übersicht zur Orientierung: Orientierung Innere Orientierung Äussere Orientierung Simultane Lösung 2-Stufenlösung Relative Orientierung Simultane Lösung 7 Parameter Absolute Orientierung Lage/Höhe Iteration 4/3 Parameter Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.1 ___________________________________________________________________________ 11. Stereoauswertegeräte 11.1. Klassifizierung ... nach Art und Ausmaß der Computerbenutzung: • analog (Modellkoordinaten → Objektkoordinaten) • analytisch (Bildkoordinaten → Objektkoordinaten) • digital Die digitalen Geräte stecken zum Teil noch in der Entwicklung. ... nach Art der Daten, Auswertegeräte und -methoden: - Registrierung und off-line Auswertung: Gerät Registrierung Gesammelte Daten. Speicherung Operateur - Computergestützte Auswertung: Gerät Computer Operateur - Computergesteuerte Auswertung: Gerät Computer Operateur Computer Off-line Software Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.2 ___________________________________________________________________________ - Zweibildauswertung (Stereo): • Stereokomparator (misst nur diskrete Punkte, es können keine Linien ausgewertet werden) - analytisch • Stereokartiergeräte (messen diskrete Punkte und Linien) - analytisch (Projektion über mathematische Berechnungen, "Digitaler Projektor") - digital ("Digitale Station") - analog (Projektion mechanisch oder optisch) Einteilung der Analoggeräte (a) Einteilung nach der Konstruktion des Projektionssystems - optisch - mechanisch - optisch - mechanisch Optische Projektion: Lichtquelle P´ P´´ c c Projektoren Optische Strahlen P Registrierung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.3 ___________________________________________________________________________ Geräte mit optischer Projektion: • Multiplex • Balplex • Kelsh Plotter • Doppelprojektor DP1, DP2 • Photocartograph • PG I • Stereoplanigraph C1 - C8 (ZEISS) (Bausch & Lomb, USA) (Kelsh, USA) (ZEISS) (Nistri / OMI) (KERN) (ZEISS) Mechanische Projektion: P' P'' c c Kardangelenke Mechanische Lenker P Geräte mit mechanischer Projektion: • Autograph A7 - A10; B8, B9; AG1 (Alle WILD) • PG2 (KERN) • Stereometrograph (Jenoptik) • Topocart (Jenoptik) • Planimat (ZEISS) • Planicart, Planitop (ZEISS) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.4 ___________________________________________________________________________ Optisch-mechanische Projektion: P´ P´´ c c Optisch Linse Gelenk Mechanisch P Geräte mit optisch-mechanischer Projektion: • Photostereograph (Nistri, OMI) • Stereotopograph (Poivilliers, SOM, Paris) • Thompson - Watts Plotter (Hilger + Watts, London) (b) Einteilung nach der Genauigkeit und Universalität (Flexibilität) des Gerätes - Geräte 1. Ordnung - Geräte 2. Ordnung - Geräte 3. Ordnung Geräte 1. und 2. Ordnung arbeiten mit strengen Lösungen, d.h. das mathematische Modell der Zentralprojektion wird streng optisch/mechanisch realisiert. Geräte 3. Ordnung dagegen verwenden meist Näherungslösungen, womit ein erheblicher Genauigkeitsverlust verbunden ist (Beispiele: Stereopantometer, Stereotop, Stereocord, etc.). Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.5 ___________________________________________________________________________ Zur 1. Ordnung: Geräte der ersten Ordnung sind Hochpräzisionsgeräte, die universell einsetzbar sind. Mit ihnen können Luftbilder und terrestrische Bilder ausgewertet werden. Die Geräte besitzen die Möglichkeit, verschiedene Kammerkonstanten und große Ω / Φ - Werte einzustellen. Die Genauigkeit dieser Geräte: σx, y ≈ 10 µm (im Bildmassstab) σz ≈ 0.1 - 0.2 %o hg Dies bedeutet aber, daß die mögliche Messgenauigkeit in der Lage höher ist als die Zeichengenauigkeit ( ≈ 0.2 mm). Beispiel: hg = 2000 m; Vergrösserungsfaktor Photo-Plot: 5 σx, y(Plot) ≈ 0,01 • 5 mm = 0,05 mm (< 0,2 mm) σz ≈ 0,2 • hg / 1000 = 0,4 m Zur 2. Ordnung: Bei der Genauigkeit kann oft keine klare Trennung zwischen den Geräten der ersten und der zweiten Ordnung gemacht werden. Die Geräte zweiter Ordnung haben manchmal eine etwas reduzierte Genauigkeit. Bezüglich Universalität (d.h. Anwendungsbreite) unterscheiden sie sich aber deutlich von Geräten 1. Ordnung. Prinzip der Analoggeräte Prinzip: - Rekonstruktion der Aufnahmeanordnung in verkleinertem Maßstab - Stereoskopische Betrachtung der orientierten Bilder oder ihrer optischen Projektionen. Daraus ergibt sich das optische Modell, inklusive räumliche Messmarke - Abtastung dieses Modelles punkt- oder linienweise - Registriereinrichtungen, wie zum Beispiel Zeichenstift Komponenten: - Projektionssystem ("Analogrechner") - Betrachtungssystem - Registriersystem (Mess- und Kartiersysteme) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.6 ___________________________________________________________________________ Auswerteprinzip (-> Umkehrung des Strahlenganges) 1. Orientierung des Modelles • Innere Orientierung • Relative Orientierung • Absolute Orientierung 2. Abtastung des Modelles ("Auswertung") Linien, Punkte 11.2. Analoggeräte mit Computerstützung "Computerstützung": Auswertung eines Stereomodells oder Triangulation an einem Analoggerät mit Unterstützung eines on-line geschalteten Computers. Hauptkomponenten computergestützter Systeme zur Stereoauswertung: Analoggerät, Operateur, Interface,Computer Graphisches Kartiersystem: Analoggerät Interface "Intelligenter" Zeichentisch Mikroprozessor Digitaler Zeichentisch Operateur schwache Verbindung System zur Punktbestimmung: Analoggerät Interface Operateur Computer Datenspeicher Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.7 ___________________________________________________________________________ für off-line Verarbeitung Interaktives System zur digitalen Kartierung Datenauswertung Datenerhebung Datenspeicher Analoggerät Analogger ät Interface Computer Zeichentisch Operateur Bildschirm Datenoutput Daten der Feldvermessung Karten, Pläne Digitalisiertisch Graphische Arbeitsstation Vorteile computergestützter Systeme: + Flexibilität, allgemeine Lösungen + Real-time Qualitätskontrolle durch on-line Berechnungen in Bezug auf - Geometrie (Stabilität des Ausgleichungssystems) - Messungen (frühe Erkennung grober Fehler, schnelle und billige Nachmessungen) + Interaktives Auswerten; Unterstützung und Objektivierung, somit Verbesserung der manuellen Arbeiten wie Orientierung, usw. + Off-line Zeichnen mit vorgeschalteten Korrekturmöglichkeiten ("digitales" Kartieren); Datenbank, Digital Mapping + Beschleunigung praktisch aller wesentlichen Operationen. Von der Computerstützung zu unterscheiden ist die Computersteuerung. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.8 ___________________________________________________________________________ + Beispiel Rechnergestützte Stereokartierung: Dem Tastensystem der Funktionstastatur werden unterschiedliche Funktionen wie Symbole, Linienarten, Beschriftung, Kurven (Splines), parallele Linien, Schattierung, etc. zugeordnet. Leistungsmerkmale: + Generieren von Symbolen und Linien: Anpassung an unterschiedliche Zeichenvorschriften. + Auswerten von Häusern: Kartierung rechtwinkeliger Objekte - automatisches Schliessen auf den Ausgangspunkt - automatisches Ergänzen paralleler Seiten - automatisches Schraffieren - Korrektur der Rechtwinkeligkeit + Zeichnen gekrümmter Linien; Polynome und Splines: Einzelpunkte können automatisch durch glatte Linien verbunden werden. + Höhenkoten und Beschriftung: beliebige Positionierung, die Höhenkoten werden automatisch geschrieben. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.9 ___________________________________________________________________________ Leistungsmerkmale Generieren von Symbolen und Linien Auswerten von Häusern Zeichnen gekrümmten Linien Beschriftung Anwendungen computergestützter Auswertesysteme Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.10 ___________________________________________________________________________ + + + + + + + + + + + Datenerfassung (Punkte, Linien) Datentransformation in Echtzeit (Wahl spezieller Referenzflächen) relative Orientierung absolute Orientierung räumlicher Rückwärtsschnitt --> Bestimmung des Kamerastandpunktes Streifen - Folgebildanschluß Streifenausgleich Kamerakalibrierung Berechnung abgeleiteter Größen: Strecken, Winkel, Fläche, Volumen Darstellung der Punkte - graphisches Editieren Kompensation von systematischen Fehlern und Aufdecken zufälliger Fehler in jeder Skizze. Vergleich konventioneller und computergestützter Auswertung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.11 ___________________________________________________________________________ 11.3. Computergesteuerte Stereogeräte. Der Analytische Plotter 11.3.1. Historische Entwicklung der Analytischen Plotter "How the Analytical Plotter works and differs from an Analog Plotter." Dr. Gottfried Konecny, Technical University of Hannover, Hannover AP-Symposium, Reston/Vi, 1980 Erste Anwendungen: Ziviler Durchbruch: Hauptsächlich Militär 1976, ISP Kongress Helsinki 8 APs vorgestellt (einer aus Holz) unterschiedliche Entwicklungsstadien Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.12 ___________________________________________________________________________ Aus "Manual of Photogrammetry", 4. Ausgabe: Probleme mit frühen Modellen: - Computerprogrammierung (Assembler ) - Abgelehnt durch zivile Praxis (aus z.T. unlogischen Gründen; z.T. wegen fehlender Vertrautheit mit analytischen Methoden) - Zu teuer ( 2 x Analoggerät 1. Ordnung ) - Wegen Mangel an oder mangelhafter Software: Produktivität nicht viel höher als mit Analoggeräten Gründe, die zur Annahme führten: - Schnell anwachsende Leistungsfähigkeit der Computertechnologie bei stark abnehmenden Kosten - Zunehmende Vertrautheit mit analytischen Methoden - Verfügbarkeit von Software - "Normative Kraft der Fakten": Verfügbar -> Angewendet - Engagement vertrauter Hersteller Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.13 ___________________________________________________________________________ 11.3.2. Konstruktionsprinzip des Analytischen Plotters nach Helava Auswertegerät, in welchem die perspektiven Beziehungen zwischen Bild- und Objektraum digital (im Computer) realisiert werden. (Gegensatz: Optische, mechanische Projektion) Nach erfolgter Modellorientierung: Messungen: X, Y, Z Objektkoordinaten (Modellsystem, Passpunktsystem) Computer Input: X, Y, Z Berechnet: x´, y´, x", y" Bildkoordinaten xT, yT Tischkoordinaten 6 Servos Real-time Rechnungen ( "innere Schleife" ) X, Y, Z --> x´, y´, x", y" Gewöhnlich mit ca. 50 Hz, damit die Messmarke stetig durch das Modell gleitet (kein Springen, Oszillieren!) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.14 ___________________________________________________________________________ d (X − X 0 ) + d12 (Y − Y0 ) + d13 (Z − Z0 ) x′ = − c 11 d31(X − X 0 ) + d32 (Y − Y0 ) + d33 (Z − Z0 ) d (X − X 0 ) + d 22 (Y − Y0 ) + d 23 (Z − Z0 ) y′ = − c 21 d 31(X − X 0 ) + d 32 (Y − Y0 ) + d33 (Z − Z0 ) Steuerprinzip: ∆xT ∆yT Prozessor, Computer ∆x' ∆x'' ∆y' ∆y'' Pufferspeicher Σ∆X, Σ∆Y, Σ∆Z Zeichentisch Stereogerät (Viewer) Y X Z Handräder (X, Y) und Fusscheibe Z generieren über Rotationsgeber digitale Impulse. Diese werden unter Berücksichtigung der Vorzeichen in einem Pufferspeicher aufsummiert und zu bestimmten Taktzeiten dem Rechner übergeben. Dieser bildet X i = X i −1 + ∑ ∆X ; i − 1K letzter Takt Yi = Yi −1 + ∑ ∆Y ; i K neuer Takt Z i = Z i −1 + ∑ ∆Z ; und berechnet x ′i , y ′i , x ′i′, y ′i′ nach den Kollinearitätsgleichungen (Orientierung bekannt ! ), sowie x T , y T nach X Ti = λ (X i cos α + Yi sin α ) + x T0 YTi = λ (− X i sin α + Yi cos α ) + y T0 Die neu berechneten Werte werden mit den vorher gespeicherten verglichen: ∆x ′i = x ′i − x ′i −1 , ∆x ′i′ = x ′i′ − x ′i′−1 , ∆x Ti = x Ti − x Ti −1 ∆y′i = y ′i − y ′i −1 , ∆y ′i′ = y ′i′ − y′i′−1 , ∆y Ti = y Ti − y Ti −1 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.15 ___________________________________________________________________________ Diese Differenzen werden nach Taktvorgabe an den Pufferspeicher weitergegeben und anschliessend - als Impulsfolgen Schrittschaltmotoren zugeführt, welche die Bildbühnen (oder die Optik) und den Zeichentisch über Spindeln positionieren, > "Offenes Schleifensystem" - oder (Alternativprinzip) als Impulsfolgen Servomotoren zugeleitet, welche die Positionierung über Spindeln durchführen. Die ausgeführten Positionierungsbeträge werden hier durch Rotationsgeber (oder Lineargeber ; genauer !) kontrolliert. > "Geschlossenes Schleifensystem" Die Geber senden die empfangenen Impulse dx ′, dy ′, dx ′′ , dy ′′, dx T , dy T an den Pufferspeicher zurück. Man erhält die neuen Korrekturwerte für die Servos, indem man diese Impulse von den gespeicherten Werten subtrahiert d∆x ′i = ∆x ′i − ∑ dx ′ , d∆x ′i′ = ∆x ′i′ − ∑ dx ′′ , d∆x Ti = ∆x Ti − ∑ dx T d∆y′i = ∆y′i − ∑ dy′ , d∆y′i′ = ∆y ′i′ − ∑ dy′′ , d∆y Ti = ∆y Ti − ∑ dx T Diese d∆ -Differenzen werden in einem Iterationsverfahren Servo <-> Geber verkleinert, bis sie praktisch zu null werden, womit die präzise Positionierung abgeschlossen ist. Die schnelle Berechnung der Positionierung (in "Echtzeit") bewirkt, dass der Operateur das eigentlich stufenweise Arbeiten der Servoeinstellung nicht bemerkt. 11.3.3. Hardware – Komponenten a) Computer Liest die Impulse, welche an den Handrädern und an der Fusscheibe gezählt wurden --> verarbeitet diese --> überträgt sie in Form von Translationsgrössen zum Bildwagen und/oder zum Zeichentisch. Berechnungen sollten frei von "Trägheit" sein, d.h. wenigstens 40 Berechnungszyklen pro Sekunde; Translationswerte werden durch Servosysteme in lineare Bewegungen der Bildwagen umgesetzt, bevor der nächste Outputzyklus folgt. Zusätzliche Anforderungen (neben hoher Rechengeschwindigkeit): Hohe Rechengenauigkeit; Messgenauigkeit ≈ 10-6 (0.2 µm über Bildformat 23 x 23 cm2), entspricht 20 bits. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.16 ___________________________________________________________________________ Real-time Anforderungen verlangen vom Computer eine realtiv starke Leistung, so dass er immer dann beschäftigt ist, wenn die Messmarke bewegt wird. Somit wird der Computer faktisch zum Prozessrechner. Um den Computer aber gleichzeitig und auf effiziente Weise auch als "stand-alone" Computer benutzen zu können, verwenden manche Hersteller separate Mikros zur Abarbeitung der inneren Schleife. Der Hostcomputer ist dann frei für das Betriebssystem und für die Anwenderprogramme. Zusätzlich kann er sogar noch separate Programme bearbeiten oder an weitere Analytische Plotter angeschlossen werden. b) Steuereinrichtungen zum Bewegen der Bildbühnen und/oder der Optik Positionierungs-Transportelemente: Transport ausgelöst durch: Bestimmung der Position: Spindeln Zugbänder Rollen Servomotoren, welche ihre Kommandos vom Computerinterface erhalten Rotations-, Lineargeber (Auflösung 1-2 µm) c) Mechanische Einstellelemente Handräder, Fussscheibe, Joystick, Drehzylinder, Rollkugel; Rotationsgeber Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.17 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.18 ___________________________________________________________________________ Analytische Stereoplotter (Stand 1992): - ADAM Technology: MPS -2 (1985) ASP2000 (1989) - Agusta - O.M.I.S.r.L.: AP/C-4 AP5-MKIII (1988) AP6 ´Digit´(1990) ASII/A1 TA3/PI, TA3/PII - Autometric: APPS-IV - Galileo Siscam S.p.A.: DS Digital Stereocartograph Digicart 40 (1987) Stereocart (1991) - International Imaging System (I2S): Alpha 2000 (1991) - Kern: DSR1, DSR 11 DSR14, DSR15 (1988) - Leica: SD2000, SD3000 (1991) - MATRA: Traster - Prime Computervision: S9-AP - Wild: Aviolyt AC1, BC2, BC2S Aviolyt AC3, BC3 (1988) - Zeiss: P-Serie Planicomp P1, P2, P3, PHOCUS (1987) - Sonderkonstruktion: YZERMAN APY AVIOLYT AC1, Wild (1984): Bildschirm; Lineargeber Zoom: Messmarke: Bildbühne: Auflösung: Genauigkeit: Steuerelemente: 6x - 20x Beleuchtet; punktförmig ø 25, 40 µm kreisförmig ø 70/90, 110/130 µm 24 x 24 cm2 1 µm 1 - 2 µm - 2 Handräder (verstellbar), 1 Fusscheibe, py - Drehkopf - Option: Freihandführung auf internem Tisch - 2 Hebel (weiss) zur X, Y-und Z-Geschwindigkeitseinstellung (grob, mittel, fein) - 3 Hebel (rot) für X, Y, Z-Schnellbewegung (Max. Geschwindigkeit: 40 mm/Sek.) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.19 ___________________________________________________________________________ - Positionsanzeiger: Beleuchteter Punkt wird synchron mit der rechten Messmarke über einen Papierabzug des rechten Photos geführt; zeigt Grobposition - Steuerhebel zur Profiliergeschwindigkeit - TV Monitor zur Zeichenkontrolle Hostcomputer: Zeichentisch: Nova 4/X 16 bit, 128 - 256 K bytes floating point hardware kombinierte Disk/Diskette mit 12.5/1.2 M bytes Aviotab TA2, TA10 AVIOLYT BC1, Wild (1982): Bildschirm; Lineargeber 6 - 20 x Zoom Bildfeld 30 mm bei 6 x Messmarken: Beleuchtet, Punkt ø 60 µm Kreise ø 100, 130 µm Bildrotation, Stereo-Ortho, Stereo-Pseudo, kein gemeinsames Mono Bildbühne: 24 x 24 cm2, Option 24 x 48 cm2 Auflösung: 1 µm Genauigkeit: 3 µm Steuerelemente: siehe AC1 Hostcomputer, Zeichentisch: siehe AC1 ADAM MPS-2: • "low-cost-AP" • kompakte Bauweise, kleine Ausmasse, leicht • Bildträger: beschränkt auf Format 6 cm x 6 cm • Zoom 8-35fach • Bildfeld: 26.3 mm x 6 mm • Messmarke: beleuchtet, Punkt, Durchmesser 25µm • Hostcomputer: PC ( 386 oder 486; MS-DOS) • Interface zu AutoCad (optional) • Genauigkeit: ca. 4 µm Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.20 ___________________________________________________________________________ MPS - 2 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.21 ___________________________________________________________________________ ADAM TECHNOLOGY MPS-2 APPLICATION Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.22 ___________________________________________________________________________ 11.3.4. Software - Komponenten Die Software bestimmt letztlich Qualität und Leistungsvermögen eines Analytischen Plotters. Flexibilität, Bedienungskomfort und Effizienz sind abhängig von der Software. Potential Analytischer Plotter: + Hohe Genauigkeit durch Selbstkalibrierung (analytische Kompensation systematischer Fehler) + Hochwertige Verfahren zur Aufdeckung grober Fehler + On-line Kontrolle der Systemqualität (Genauigkeit und Zuverlässigkeit) + Verwendung beliebiger Kammern (metrisch, nicht metrisch) keine Einschränkungen durch "exotische" innere Orientierung + Beliebige äussere Orientierung (Sonderanwendungen) + Hochpräzise Spezialanwendungen möglich, z. B. Unterwasseraufnahmen, Röntgen, Elektronenmikroskopie oder andere ungewöhnliche Sensorgeometrien + Schnelles Messen und Nachmessen durch automatische Grob- und Feinpositionierung + Beschleunigung der Orientierungsvorgänge + Computerunterstütztes off-line und on-line Zeichnen; beliebige Masstäbe, schnelle Zeichenblattvorbereitung und -orientierung + Halbautomatisches Messen, z. B. von Digitalen Höhenmodellen; Interpolation, Repräsentation, Ableitung von Informationen im DHM in "real-time"; progressive sampling" + Schnelle Ableitung von Profilen und Parametern zur Orthophoto- und Stereoorthophotoherstellung; Anschluss eines Orthoprojektors + Anschluss eines Korrelators; automatisches Auswerten . . . etc. Softwareniveaus: a) "Computer Software" b) "Betriebsprogramme c) "Anwenderprogramme" zu a) : Betriebssystem, Programmbibliothek, Editor, Interpreter Assembler, Loader, Debugger zu b) : Früher in Assembler, Beispiele: LOOP - Innere Schleife, startet alle 20 mSek., liest Impulse von Handrädern und Fussscheibe, berechnet neue Position der Bildwagen, gibt Translationswerte zum Positionieren durch Servomotoren ab; ersetzt mechanische/optische Lenker bei Analoggeräten. PANEL - liest und analysiert die Position von Steuerknöpfen (Tastatur) und Hebeln und startet die gewählten "Anwenderprogramme" Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.23 ___________________________________________________________________________ zu c): In Hochsprache (Fortran, Pascal, C), um Erweiterungen, Modifikationen zu erleichtern; verschiedene Prioritätsstufen + Kalibrierung des Messsystems + Orientierung (innere, relative, absolute, simultane, Tisch) + Punktoperationen (move to, record, store, delete, display, clear point memory) + Datenerfassung zum DTM (Höhenlinien, Profile, Gitter, Querprofile; Registrierparameter: Zeit, Entfernung, Höhenunterschiede, Kombinationen) + Streifenbildung + Zeichensoftware (off-line, on-line) + Datenbereitstellung zur Orthophoto-, Stereoorthophotoproduktion + Off-line Programme, wie Modell- oder Bündelblockausgleichung, DHM Interpolationsprogramm 11.4. Digitale Photogrammetrische Stationen 11.4.1. Konzept und Merkmale Entwicklung der grundlegenden photogrammetrischen Methoden/Geräte: Analog → Analytisch → Digital Unterschiede in + Art der Aufgabe und des Produkts + Auswertetechnik Traditionelles photogrammetrisches Verfahren (analog/analytisch): Datenakquisition → Verarbeitung → Editierung → Repräsentation Wenig Rückkoppelung, viele unterschiedliche Geräte Digitale Photogrammetrie: Ein Gerätetyp, aber viele unterschiedliche Daten, Auswerteverfahren und Produkte. Gerät der Digitalen Photogrammetrie: Digitale Station (vgl. Abb.1) Die Digitale Station eröffnet die Möglichkeit, von der Datenakquisition bis zur Verwaltung in Räumlichen Informationssystemen alle relevanten Funktionen wahrzunehmen. Als Produkte ergeben sich somit • 3-D, 2-D Vektordaten, mit Attributen • Rasterdaten, Bildkarten • Punktwolken aus Punktbestimmung • Massenpunktprodukte, wie DTM, DSM • Synthetische Bildprodukte Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.24 ___________________________________________________________________________ Es kann in den Modi • manuell • halbautomatisch • vollautomatische ausgewertet werden. Abb. 1: Die Digitale Station (funktionale Komponenten) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.25 ___________________________________________________________________________ Charakteristika einer Digitalen Station: • Keine optisch-mechanischen Präzisionsteile • • • • • • • Robustes Messsystem, keine Abnutzung Keine Gerätekalibrierung Stabile Bildgeometrie, keine zeitabhängigen Deformationen Kombination von manueller und automatischer Auswertung Hoher Grad an Interaktivität On-line und Echtzeitauswertung Datenakquisition, Auswertung, Editierung, Analyse, Speicherung, Verwaltung und Repräsentation in einem einzigen System Man kann folgende Daten behandeln : • Mono-, Stereo- und Mehrfachbildanordnung • Terrestrische-, Luft- und Satellitenbilder • Unterschiedliche Bildsensoren, Sensorkombinationen, Daten von nichtbilderzeugenden Sensoren • Digitale, digitalisierte Bilder/Karten Weitere Möglichkeiten bestehen bezüglich • Photogrammetrischem und kartograpischem Editieren • Integration von Bildanalyse- und Bildsynthesefunktionen, z.B. Überlagerung von Vektorund Rasterdaten (Karte und Bild), Generierung und Überlagerung von synthetischen Bildern • Interface zu konventionellen und modernen Geräten und Systemen für Ein- und Ausgabe (Analytische Plotter, Scanner, Printer, CAD, GIS) • Produkte in analoger und digitaler Form • Integration von Datenbankfunktionen; Management grosser Datenmengen Entwicklungslinien Digitaler Stationen Im Laufe der vergangenen 25 Jahre haben sich drei unterschiedliche Konzepte von Digitalen Systemen entwickelt. Diese sind, jedes für sich, stark mit den benutzten Sensorplattformen (und somit deren Bildern) korreliert. Wir unterscheiden RS-Systeme (für Satellitenaufnahmen), DPS (für Luftbildauswertung) und MV-Systeme (für den Nahbereich). Die folgende Tabelle zeigt einige spezielle Charakteristika diese Systeme. Noch gibt es heute kein einzelnes System, welches die Bedürfnisse aller drei Bereiche abdecken würde. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.26 ___________________________________________________________________________ Development of Systems Systems ↔ Sensor platforms RS systems DPS MV systems images satellite aerial close-range number 1 2 n sensor models No single frame (lin.array) single frame input satellite images multispectral scanned aerials BW/C CCD images BW max. solution space 2-D 2.5-D, (3-D) 3-D, 2.5-D results images (2-D) attributes > > point fields (0-D line features (1-D) images (2-D) surfaces (2.5-D) attributes point fields (0-D) surfaces (2.5-D) (3-D) Slow integration / merger of concepts Different communities (manufacturers, vendors, users) Abb. 2: Hardwarekomponenten einer Digitalen Station Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.27 ___________________________________________________________________________ 11.4.2. Hardware Komponenten Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.28 ___________________________________________________________________________ Die Stereobetrachtung digitaler Bilder erfolgt nach folgenden Prinzipien (vgl. Kap.8.2): (1) Stereoskopverfahren (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Minimonitore) (2) Anaglyphen (3) Polarisierung (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Einmonitorsystem aktiv, passiv (PLZT, LCS)) Monitor Display Auflösung des menschlichen Auges: 70µm Auflösung von Standardmonitoren: 100-300 µm > Reduktionsfaktor 1.5-4 Besondere Probleme: Binärbilder Monitor Messung Auflösung eines Analytischen Plotters: 1 µm Pixelgrösse am Monitor: 10-100 µm Abhilfe: Zoom-in (wegen Bildzerfall aber nur beschränkt möglich) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.29 ___________________________________________________________________________ Bildspeicherung und -handling RAM: 256 MB und mehr Luftbild: Mit 12.5 µm Pixelgrösse und S/W ergibt sich ein Speicherbedarf von 0.4 GB Dies erfordert zum effizienten Bildhandling (z.B. Verschieben) eine ausgefeilte virtuelle Memorytechnik (Disk <—> RAM). Vielfach wird auch Bildkompression und -dekompression benutzt. Vorsicht: Bei zu grossen Kompressionsfaktoren (>5) kann die Bildgeometrie gestört werden. Transfer Times Ethernet/fast Ethernet: 10-100 Mbit/sec Ultra SCSI: 20 MB/sec - 40 MB/sec Ultra 2 SCSI LUD - 80 MB/sec Serielles SCSI (Fibre channel) 12.5 - 100MB/sec PCI-bus 64bit - 267 MB/sec UPA-bus - 1,6 GB/sec Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.30 ___________________________________________________________________________ 11.4.3. Kommerzielle Systeme (2000) • ZI-Imaging + Image Station 2000 - WinNT - STEREO + Image Station SSK - WinNT- STEREO + Phodis - SGI, IRIX - STEREO • LH-Systems + Socet-Set 4.2 - UNIX, Win NT- STEREO • ERDAS + Imagine (OrthoBASE, VirtualGIS, OrthoMAX, VectorModule) - WinNT- STEREO • INPHO + Cobra - WinNT and Linux STEREO • TOPOL+ATLAS + PhoTopoL Atlas - WinNT - STEREO • Supresoft Inc. + VirtuoZo - (SGI), WinNT - STEREO • Geomatics System Inc. + DVP - WIN NT- STEREO • ISM Corp. + DiAP (Digital Analytical Plotter) - WIN NT- STEREO • Siscam + A.D.A (Automatic DEM Acquisition) - Win 95-NT + Stereometric PRO - WIN 98 -NT- STEREO • PCI + OrthoEngine 7.0 - UNIX STEREO??? • DAT/EM + Summit PC - WIN NT- STEREO • R-WEL + DMS (Desktop Mapping System) - PC WIN 95-98 -STEREO • GeoSystem + Delta - WIN 98/NT -STEREO • KLT + Atlas - WIN 95/NT, UNIX • RACURS, Moscow + PHOTOMOD – PC – STEREO • Beijing, China + JX – 4A DPW – PC – STEREO • 3D Mapper, Australia + DDPS – PC – STEREO • State Siberian Academy of Geodesy, Novosibirsk + SDS (Siberian Digitial Steoreoplotter) – PC – STEREO • menci software scientifico + StereoView – PC – STEREO • Autometric + KDSP (Kork Digital Stereo Plotter) – PC – STEREO • Topcon Corp. + PI - 1000 – PC – STEREO • Verschiedene Systeme, die speziell für Nahbereichsapplikationen konzipiert sind 11.4.4. Funktionen und Produkte Digitaler Stationen Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite 11.31 ___________________________________________________________________________ + (am Beispiel von LHS SOCET SET) • CORE: Basisfunktionen + Verwaltung, Transfer, Sicherung Auswahl Koordinatensysteme, Kartenabbildung + Bildimport, -export + Bildmanipulation (Verschieben, Zoom, Kontrast, Helligkeit, Bildverbesserung, etc.) + Cursor-Editor + Math. Sensormodelle: Luftbilder, Panoramakameras (DLT, Polynome) + Entzerrung + Bildpyramide + Innere Orientierung + Äussere Orientierung + Bildpunktmessung + Messfunktionen: Position, Distanz, Winkel + Textbearbeitung • STEREO Betrachtung • SPOT Bildimport, Sensormodell • LANDSAT Bildimport, Sensormodell • JERS-1 Bildimport, Sensormodell • Terrain DTM Import/Export, Matching, Editierung, Sichtbarkeitsberechnungen, Schattierung • HATS Autom. Triangulation, GPS-Daten, Blockausgleichung • O-Image Orthobilder, Mosaik einfach, True Orthophotos, Stereopartner • MOSAIC Geometrische/radiometrische Anpassung, benutzerdefinierte Schnittlinien • F-GIS Vektor-Datenerfassung, Linien-, Polygon-, Volumen-, Punkt- und Textobjekte, Import/Export in Standardformaten, 3-D Gebäudemodellierung, • IMAGE-MAP Kombination von Bild- und Vektordaten, Beschriftung • P-SCENE Photorealistische Szenen, Path Editor, Schrägansichten/stereoskopische Ansichten, Bildsequenzen • CLOSE-R Orientierung von Bildern aus Nahbereich, Bündelausgleichung • TOOL-KIT Werkzeuge und Bibliotheken zum Programmieren/Einbindung externer Programme Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.1 ___________________________________________________________________________ Annex: Messung und Verfeinerung von Bildkoordinaten (Erweiterung von Kap. 4.3., 4.4.) Das typische Messgerät zur Gewinnung von Bildkoordinaten ist der Komparator. Dieser Komparator existiert als Mono- und Stereokomparator, aber auch ein System mit drei Bildbühnen wurde schon verwirklicht (Nistri TA3/P). Die im Messsystem des Komparators unmittelbar gemessenen Werte bezeichnet man als ”Komparatorkoordinaten”. Diese Komparatorkoordinaten sind zur weiteren Auswertung zunächst unter Verwendung von Rahmenmarken (oder auch Réseaumarken) als identische Punkte in das ”Bildkoordinatensystem” zu transformieren. Im Zuge dieser Transformation werden bereits mögliche systematische Fehler (Filmdeformation und Hauptpunktlage) korrigiert. Die resultierenden, auf den Hauptpunkt bezogenen Bildkoordinaten werden anschliessend weiteren Korrekturschritten wegen systematischer Fehler (Unebenheit Andruckplatte, Objektivverzeichnung, Refraktion, ”Erdkrümmung”) unterzogen. Die schliesslich voll bereinigten (”verfeinerten”) Bildkoordinaten dienen der nachfolgenden photogrammetrischen Verarbeitung. Sie gehen in der Regel in analytische Systeme auf der Basis der Zentralprojektion ein. 1. Messung von Komparatorkoordinaten Zum prinzipiellen Aufbau von Mono- und Stereokomparatoren siehe Kap. 5.3. und 8.3. 1.1 Monokomparator Schwebel, R.: Die Genauigkeit des Präzisionskomparators PK 1. ZfV 104, 1979, S. 157-165. Der neue Präzisionskomparator PK 1. BuL 4, 1976, S. 147-151. ZEISS PK 1 KERN MK2, CPM 1 (Comparator Point Marker) JENOPTIK Ascorecord 3 DP O.M.I. TA 1/P Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.2 ___________________________________________________________________________ Messprinzip ZEISS PK - 1 : Abbe’sches Komparatorprinzip; die zu messende Strecke (Koordinate) muss in geradliniger Fortsetzung der Massstabseinteilung liegen (a) Abbe’sches Komparatorprinzip eingehalten (b) Längenmessfehler ∆1, ausgelöst zum Beispiel durch mangelhafte Parallelführung des Bildträgers Glasmassstäbe sind fest angeordnet, Abtastraster ist auf verschiebbarer Bildträgerplatte aufgebracht. Photoelektrisches Linearmesssystem. Abtastraster erzeugt zusammen mit dem Massstabsraster einen Moiré-Effekt. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.3 ___________________________________________________________________________ Gitterkonstante der Linearimpulsmessung: 40 µm (Periode der Signale) Auflösung: 0.5 µm , 1 µm (Interpolation) Genauigkeit aus Gittermessungen: 1.5 µm Broschüren: ZEISS PK 1 KERN MK2 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.4 ___________________________________________________________________________ 1.2 Stereokomparator ZEISS PSK 1 , PSK 2 WILD STK 1 , seit 1956 JENOPTIK Stecometer C2 Messprinzip WILD STK 1: Messgrössen x ′ , y ′ , p x , p y (im Komparatorsystem) Genauigkeit: ± 1-2 µm Optische Ausgleichsplatten (Verzeichnung) Bildkantung 400 g Vergrösserung 6, 11, 20, 40 variabler Messmarkendurchmesser Optische Bildvertauschung (Ortho-Pseudo) Dove Prismen Registriergerät EK 6 , Leuchtskalen Gewicht ca. 1300 kg Messspindeln, Rotationsencoder → Broschüren: WILD STK 1 Heute sind diese Komparatortypen veraltet und man benutzt den Analytischen Plotter im Stereokomparatormodus. 1.4 Digitale Komparatoren (Mono, Stereo) Im einfachsten Fall stellt ein Computer (PC oder Workstation) mit einem graphischen Monitor bereits einen Monokomparator dar. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.5 ___________________________________________________________________________ Der digitale Monokomparator Ein digitales Bild wird auf den Monitor gebracht und dort manuell oder halbautomatisch punktweise ausgemessen. Das Pixelraster definiert ein stabiles, unveränderliches "Komparatorkoordinatensystem". Die Messung erfolgt direkt in diesem System. Zur manuellen Messung wird der Curser als Messmarke benutzt. Das Messinkrement ist somit ein (Monitor-)Pixel. Um in diesem Modus Subpixelauflösung zu erhalten muss das Bild lokal (ausschnittweise) gezoomt werden. "Halbautomatisches" Messen bedeutet, dass der Operateur die Bildinterpretation und die Grobeinstellung vornimmt, während der Algorithmus (die Software) die Feinmessung erledigt. Techniken der automatischen Feinmessung (z.B. Templatematching nach der Methode der Kleinsten Quadrate) ergeben implizit Subpixelauflösung. Ein Papierabzug des Bildes kann zusammen mit einem Digitalisiertablett zur Übersichtsdarstellung und Grobmessung dienen. Digitale Komparatoren lassen sich aber auch im allgemeineren Kontext einer "Digitalen Station" beschreiben. Insbesondere lässt sich eine derartige digitale Station als Stereokomparator einsetzen. Hierbei spielen Stereodisplay und -messung eine wichtige Rolle. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.6 ___________________________________________________________________________ 2. Rahmenmarkentransformation, Filmdeformation, Achsschiefe des Komparators 169 Projektoren (13 x 13) auf 23 x 23 cm2 Fläche Belichtungszeit: 0.5 sek. für ASA 100 Film Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.7 ___________________________________________________________________________ Vorteile: + Durch aktive Beleuchtung einheitliche Bildqualität. Gute Unterscheidung vom ”Objekthintergrund” + Wegen orthogonaler Projektion der Réseaumarken werden deren Positionen nicht durch Filmunebenheiten gestört. Der Einfluss der Filmdeformation kann klar isoliert werden + Filmunebenheiten werden durch wechselnde Grösse (φ) des projizierten Réseaukreises angezeigt ∆d = 1 µm Änderung Film/Platte entspricht ∆φ = 1 µm Änderung Kreisdurchmesser Verwendung: KC - 6A LFC (Militär) (NASA) (a) Rahmenmarkentransformation Beobachtungen (x k , y k )i Transformation Kalibrierte Werte (x, y)i Ähnlichkeitstransformation: x = ax k − by k + c (Lineare Drehstreckung) y = ay k + bx k + d Affine Transformation: x = a 1x k + a 2 y k + a 3 y = b1x k + b 2 y k + b 3 Projektive Transformation : a x + a 2yk + a3 x= 1 k c1x k + c 2 y k + 1 b x + b 2 y k + b3 y= 1 k c1x k + c 2 y k + 1 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.8 ___________________________________________________________________________ Affine Transformation kompensiert: + Schiefe der Komparatorachsen + Massstabsdifferenzen + Linearer Anteil Filmdeformation (Schrumpf, Ausdehnung) + Ablage Zentrum Bildsystem (b) Filmdeformation Film- und Schichtdeformationen entstehen durch mechanische, thermische und physikalisch/chemische Beanspruchungen des Schichtträgers und der Photoschicht während des Zeitraums zwischen Belichtung und Ausmessung (Hauptstörquellen: Filmtransport, Entwicklung, Trocknung, Kopierverfahren, Lagerung). Die affine Komponente wird als Hauptanteil dieser Deformationen angesehen. Man hofft, sie durch Transformation auf die Rahmenmarken ausschalten zu können. Moderner Film auf Polyesterbasis führt zu Längenausdehnungen in Laufrichtung des Films von bis zu 0,02 %, was auf das Gesamtformat s = 23 cm übertragen einen Betrag von 0,05 mm ausmacht. Nach affiner Transformation verbliebene Restdeformationen produzieren einen mittleren Koordinaten-fehler von etwa 5 µm. Liegen mehr als 4 Rahmenmarken vor, z.B. Rahmenmarkenleisten, so sind höhere Polynomansätze üblich, im Fall von Réseauaufnahmen greift man auch zu lokalen Interpolationsansätzen oder zur Interpolation nach kleinsten Quadraten. Aufnahme x ′, y′ Auswertung Transformation x, y Grad der Transformation wird von der Anzahl der Bildmarken bestimmt. Kompensation des globalen Anteils der Filmdeformation: Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.9 ___________________________________________________________________________ Modellierung durch Polynome 3. Grades; Reséaumessungen ∆x = a o + a 1x + a 2 y + a 3 x 2 + a 4 xy + a 5 y 2 + a 6 x 3 + a 7 xy 2 + a 8 xy 2 + a 9 y 3 ∆y = b o + b1x + b 2 y + b 3 x 2 + b 4 xy + b 5 y 2 + b 6 x 3 + b 7 xy 2 + b 8 xy 2 + b 9 y 3 Lokale Korrekturen durch Réseaumessungen: (a) Zur Korrektur von Pi wird lediglich der nächstgelegene Réseaupunkt (2) eingemessen (Korrekturwert von 2 wird auf Pi übertragen) (b) Messung von 4 benachbarten Réseaupunkten (1,2,3,4); Affintransformation 3. Radiale und tangentiale Objektivverzeichnung Hakkarainen, J.: On the relationship between the radial and tangential component of decentering distortion. Publication of the Finnish Geodetic Institute, No. 89, Helsinki 1979 Die geometrische Objektivverzeichnung wird verursacht durch fertigungsbedingte Abweichungen des Objektivs vom idealen Zustand, so zum Beispiel durch Störungen der korrekten (sphärischen) Form der Linsenoberflächen und mangelhafte Zentrierung der Einzellinsen. Man unterscheidet radiale und tangentiale Verzeichnung. ∆ r = ∆r ′ + ∆r ′′ symm. Anteil ∆t asymm. Anteil tangentialer Anteil Dezentrierverzeichnung Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.10 ___________________________________________________________________________ Die symmetrischen Anteile der radialen Verzeichnung sollten bei modernen Hochleistungsobjekten unter 5 µm liegen. Zur Modellierung des symmetrischen Anteils werden Polynome angesetzt von der Art ∆r ′ = f ′(r ) = a 1r + a 2 r 3 + a 3 yr 5 + − − − , mit den Komponenten ∆x = a 1x + a 2 xr 2 + a 3 xr 4 + − − − , ∆y = a1 y + a 2 yr 2 + a 3 yr 4 + − − − , Die Dezentrierverzeichnung wird mit ihrem radialen und tangentialen Anteil nach Conrady formuliert zu ∆r ′′ = 3 f ′′(r ) sin (φ−φ o ) , ∆t = f ′′(r ) cos(φ− φo ) , mit f ′′(r) = b1r 2 + b2 r 4 + b3 r6 + . . . φ ... Richtungswinkel des Bildpunkts φ o . . . Richtungswinkel für den Maximalbetrag der Tangentialverzeichnung f′′(r) ist somit das Profil der Tangentialverzeichnung in der Achse des Maximums. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.11 ___________________________________________________________________________ Dezentrierverzeichnung: Vorsicht: Die radiale Verzeichnung wird immer zusammen mit der Kammerkonstanten bestimmt, d.h. zu einer bestimmten Kammerkonstanten gehört eine wohldefinierte Verzeichnung. Es wird versucht, die radiale Verzeichnungskurve zu ”balancieren“, d.h. die Nulldurchgänge der Kurve so zu wählen, dass z.B. ∑ ∆r′ = 0, oder ′ ′ ∑ ∆r ∆r = Min. Für ∆rk′ = 0 ergibt sich ( a1 = − a 2rk2 + a 3rk4 + ..... ) Die kalibrierte Kammerkonstante c k wird nun so bestimmt, dass der lineare Anteil von ∆r ′ zu Null wird (a 1 = 0 ) . c k = c + ∆c = c ( 1 − a 1 ). ∆c c = − ∆r ′ r ∆c = −c c ∆r ′ = − (a 1r + a 2 r 3 + a 3 r 5 +...) r r ∆c = − ca1 − ca 2 r2 − ca3r 4 + ... vernachlässigt Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.12 ___________________________________________________________________________ D.C. Brown verwendet stattdessen den Ansatz ∆r ′′= f ′′(r )sin(φ − φ o ) , ∆t = f ′′(r ) cos(φ − φo ) , und ersetzt diesen durch den einfacheren Ausdruck ∆x = P1 ( y 2 +3x 2 ) + 2P2 xy , ∆y = 2P1 xy + P2 ( x 2 +3y 2 ) . Hakkarainen 1979 berichtet von der Überlegenheit des Conrady-Ansatzes gegenüber dem Brown- Ansatz. Die radiale Verzeichnung wird im Labor des Kammerherstellers bestimmt und ist mit ihrem symmetrischen und nichtsymmetrischen Anteil Bestandteil des Kalibrierungsprotokolls. Vermisst werden nach wie vor Angaben zur tangentialen Verzeichnung. Die Verzeichnung ist verschiedenen Einflüssen während des Bildflugs, wie Druck- und Temperaturunterschieden zwischen Innen- und Aussenraum der Kammer unterworfen, die zu signifikanten Änderungen der Laborwerte führen können. Weiterhin ist die Art des Einbaus der Messkammer in das Bildflugzeug (in einer Druckkammer mit Abschlussglas oder in freier Atmosphäre ohne Abschlussglas) ein wichtiger Faktor. Diese Änderungen der Verzeichnungswerte sind empirisch noch wenig erforscht, können aber durchaus Werte von 2 - 8 µm annehmen, was etwa der Grösse der Laborwerte selbst entspricht. 2.4. Unebenheiten der Abbildungsfläche - Durchbiegung der Andruckplatte - Variationen der Filmdicke - Mangelhafte Anlage des Films an der Andruckplatte Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.13 ___________________________________________________________________________ P′ ... Korrekte Abbildung P ′P ... Ablage wegen Unebenheit Brown, D.C.: The bundle adjustment - progress and prospects. Int. Arch. Phot., Vol. XXI, Part 3, Helsinki 1976 Hakkarainen, J., Ruotsalainen, R.: Checking the planeness of the magazin platens and camera frames of aerial cameras. Phot. J. Finland, Vol. 7, No. 2, 1978 Meier, H.K.: Zur Filmplanlage in Luftbildkammern. BuL, 1972, Nr. 1, S. 56 - 63 Schilcher, M.: Empirisch-statistische Untersuchungen zur Genauigkeitsstruktur des photogrammetrischen Luftbilds. DGK, Reihe C, Heft 262, München 1980 Die ermittelten Werte für die Fehlereinflüsse zu Lasten der Unebenheit der Abbildungsfläche schwanken von Autor zu Autor zum Teil erheblich. Im Labor festgestellte Deformationen neu gefertigter Andruckplatten bleiben weit unter jenen, die bereits im praktischen Einsatz waren. Hakkarainen, Ruotsalainen, 1978 weisen in einer Prüfstudie von 16 Platten mittlere quadratische Abweichungen von ca. 1 - 11 µm nach. Additive Unebenheiten von Andruckplatte und Film sind (auch nach Brown, 1976) in der Grösse von 10 µm zu erwarten. Brown, 1976 formuliert diese Deformationen mit 7 Koeffizienten zunächst als x (c1x 2 + c 2 xy+ c 3 y 2 + c 4 x 3 + c 5 x 2 y + c 6 xy 2 + c 7 y 3 ) , c y ∆y = (c1x 2 + c 2 xy + c 3 y 2 + c 4 x 3 + c 5 x 2 y + c 6 xy 2 + c 7 y 3 ) . c ∆x = Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.14 ___________________________________________________________________________ Nach praktischen Erfahrungen modifiziert er diesen Ansatz zu x c y ∆y = c ∆x = [a [a ] − y ) ] + y (a 13 ( x 2 − y 2 ) + a14 x 2 y 2 + a 15 ( x 4 − y 4 ) + x (a 16 r 4 + a 17 r 8 + a 18 r12 ) , 13 ( x 2 − y 2 ) + a 14 x 2 y 2 + a 15 ( x 4 4 16 r 4 + a 17 r 8 + a 18 r12 ) . Dabei sollen a13 , a14 , a15 den Anteil kompensieren, der nicht streng radial abhängig ist; a16 , a17 , a18 repräsentieren radialsymmetrische Komponenten der Plattendurchbiegung. Für die mangelhafte Anlage des Films an der Andruckplatte sind nach Meier, 1972 kurzperiodische Störungen von bis zu ca. 7 µm zu erwarten. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.15 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.16 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.17 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.18 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.19 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.20 ___________________________________________________________________________ 5. Atmosphärische Refraktion Schut, G.H.: Photogrammetric refraction. Phot. Eng. 35, 1969, S. 79 - 86 Albertz/Kreiling: Photogrammetrisches Taschenbuch. Herbert Wichmann Verlag, Karlsruhe, 1980, S. 72-73 Die atmosphärische Refraktion wird ausgelöst durch Brechung der Strahlen des Strahlenbündels an Luftschichten unterschiedlicher optischer Brechkraft. Unter Annahme einer Normatmosphäre lautet das entsprechende Korrekturmodell ∆r = − kr (1 + r2 c2 ) , k . . . Refraktionskoeffizient mit den Komponenten ∆x = − kx (1 + ∆y = − ky(1 + r2 c2 r2 c2 ), ). k = f(hg,Z p ,A ) ; hg ... Flughöhe über Grund Z p ... Geländehöhe A ... Parameter für atmosphärische Bedingungen der Normatmosphäre Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.21 ___________________________________________________________________________ Für die Normatmosphäre kann k abgeschätzt werden zu Z 2p Zo . k = 0.00241 − Z o2 −6Z o +250 Z o ( Z 2p −6 Z p +250) Z o , Z p in km Z o . . . Höhe Projektionszentrum über N.N. Die Korrektur wegen Refraktion ∆r kann auch aus Tabellen entnommen werden (z.B. Albertz/Kreiling 1975, Schut 1969). Beispiel: Z p = 500 MB 1 : 10´000 1 : 30´000 ∆r [µm] c Zo [mm] [km] r = 100 r = 150 305 3.5 3 6 153 2.0 2 5 85 1.3 2 7 305 9.5 8 13 153 5.0 7 14 85 3.0 7 18 Die tatsächliche Refraktion kann von dieser Modellrefraktion wegen atmosphärischer Störungen abweichen. Ausserdem sind zusätzlich noch Störungen aufgrund der sich am Flugzeugrumpf bildenden Luftgrenzschicht und durch vornliegende Motoren ausgelöste Turbulenzen zu erwarten. Es muss am Bildrand mit Bildkoordinatenfehlern, ausgelöst durch Abweichungen von der Normalfraktion, von ca. 2 - 3 µm bei Bildmassstäben < 1 : 10'000 gerechnet werden. Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.22 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.23 ___________________________________________________________________________ 6. Berücksichtigung der „Erdkrümmung“ Finsterwalder, Rü.: Die Berücksichtigung der Erdkrümmung bei der photogrammetrischen Auswertung, ZfV 1963, S. 190 - 196 Konventionelle Methode: ∆rE . . . Radiale Versetzung wegen ”Erdkrümmung“ (a) P ′ benutzen und korrektes Objektkoordinatensystem einführen (kartesisches Tangentialsystem) (b) P ′ benutzen (Korrektur ∆rE ) und mit nichtkompatiblem Objektkoordinatensystem arbeiten Statt Korrektur ∆rE besser: Transformation der Objektkoordinaten in ein mit der Photogrammetrie kompatibles Koordinatensystem (kartesisch). ∆ rE ist kein Fehler in den Beobachtungsgrössen! ∆rE ≈ r 3 hg 2c 2 R , R... Erdradius (6380 km) Diese Formel berücksichtigt weder die Bildneigungen noch die Geländehöhenunterschiede. Mit hg = 1000 m, r = 100 mm, c = 150 mm: ∆rE ≈ 3.5 µm Beachte: Refraktionskorrektur und Korrektur wegen Erdkrümmung haben unterschiedliche Vorzeichen! Formeln für Koordinatentransformation G.K. → Tangentialsystem: Kraus, K.: Photogrammetrie. Band 2, Dümmler/Bonn, 1984, S. 92 – 95 Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.24 ___________________________________________________________________________ Korrektur der Landeskoordinaten Eine strenge Lösung des gestellten Problemes besteht aus folgenden Schritten : a) Man nimmt einen Punkt B des Erdellipsoides, der etwa in die Mitte des photogrammetrisch zu bearbeitenden Gebietes fällt, und legt in diesem Punkt B die Tangentialebene an das Erdellipsoid. Anschliessend projiziert man die bezüglich des Erdellipsoides mit ihren geographischen Koordinaten φ und λ sowie der ellipsoidischen Höhe Z L festgelegten geodätischen Passpunkte orthogonal auf diese Tangentialebene. Dadurch erhält man von den geodätischen Passpunkten Koordinaten, die - wie in der Photogrammetrie üblich - durch orthogonale Projektion auf Koordinatenebenen entstehen. Die Tangentialebene ist die XY-Ebene des Koordinatensystems, wobei die Y-Achse die Tangente an den Meridian im Berührungspunkt B ist und die X-Achse dazu senkrecht verläuft; die Z-Achse steht orthogonal auf der Tangentialebene (Bild 8-1). Bild 8-1: Cartesische XYZ-Koordinaten bezogen auf eine Tangentialebene der Erdellipsoides Aus den Gauss-Krüger-Landeskoordinaten YL X L sowie den ellipsoidischen Höhen Z L kann man mittels folgender Formeln die XYZ-Koordinaten bezogen auf die Tangentialebene berechnen, die einer orthogonalen Projektion der Punkte auf die Koordinatenebenen entsprechen: 1) 1) Ableitung siehe Rinner, K.: DGK Reihe A, Heft 34, Teil II, 1959 1 X = (1 + Z L / R) Y L − (1 + Z L /R) Y 3L ... 2 3R 1 1 Y = (1 + Z L / R ) X L − (1 + Z L / R ) X 3L − (1 + Z L / R ) X L Y 2L ... 2 6R 2R 2 1 Z=ZL − (1 + Z L / R ) ( X 2L + Y 2L ) ⋅ ⋅ ⋅ 2R Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.25 ___________________________________________________________________________ Dabei bedeuten: X,Y,Z: Cartesische Koordinaten bezogen auf die Tangentialebene mit dem Ursprung im Berührungspunkt B. YL , X L : Gauss - Krüger - Koordinate reduziert um die Gauss - Krüger - Koordinaten ZL : des Berührungpunktes B. Ellipsoidische Höhe. R: Erdradius. Diese Formeln liefern dm-Genauigkeit für Interessengebiete mit einem Ausmass von etwa 80 x 80 km2. Strengere Formeln, die in einem Gebiet von 200 x 200 km2 erst Vernachlässigungen im Bereich einiger Milimeter haben, hat K. Hubeny1) angegeben. b) Mit Hilfe der geodätischen Passpunkte, die jetzt im XYZ-System vorliegen, erfolgt die eigentliche photogrammetrische Punktbestimmung, in der Regel eine Blocktriangulation. Das Ergebnis, d.h. die Koordinaten der Neupunkte, fallen im XYZ-System an. c) Man ist im allgemeinen an dem photogrammetrischen Ergebnis nicht im XYZ-System, sondern im YL XL Z L -System der Landesvermessung interessiert. Man erhält die Formeln für diese Transformation durch die Umkehrung der Beziehungen (8-1) und Beschränkung auf die relevanten Terme. Dabei errechnet man zuerst Z L , das dann zur Berechnung der YL X L Koordinaten verwendet werden kann: ( ) 1 (1 + Z / R ) X 2 + Y 2 K 2R 3 YL = (1 − Z L / R )X + XZ 2 / R 2 + X / 3R 2 K X L = (1 − Z L / R )Y + YZ 2 / R 2 + Y 3 / 6R 2 + YX 2 / 2R 2 K Die Bedeutung der einzelnen Grössen wurde im Anschluss an das Formelsystem (8-1) angegeben. ZL = Z + 1) BuL 46, 35-38, 1978 ( ) ( ) ( ) Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.26 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.27 ___________________________________________________________________________ Institut für Geodäsie und Photogrammetrie ETHZ Photogrammetrie GZ Seite A.28 ___________________________________________________________________________ 7. Literatur Albertz/Kreiling: Photogrammetrisches Taschenbuch. Herbert Wichmann Verlag, Karlsruhe, 1980 Brown, D.C.: The bundle adjustment - progress and prospects. Int. Arch. Phot., Vol. XXI, Part 3, Helsinki 1976 Finsterwalder, R.: Die Berücksichtigung der Erdkrümmung bei der photogrammetrischen Auswertung. ZfV 1963 Finsterwalder/Hofmann: Photogrammetrie. Walter de Gruyter & Co., Berlin, 1968 Hakkarainen, J.: On the relationship between the radial and tangential component of decentering distortion. Publ. of the Finnish Geodetic Institute, No. 89, Helsinki 1979 Hakkarainen, J.: Radial and Tangential Distortion of Aerial Cameras. Reports of the Finnish Geodetic Institute, 83:3, 1983 Hakkarainen, J., Ruotsalainen, R.: Checking the planeless of the magazin platens and camera frames of aerial cameras. Phot. J. Finland, Vol. 7, No. 2, 1978 Konecny/Lehmann: Photogrammetrie. Walter de Gruyter, Berlin, New York, 1984 Kraus, K.: Band 1: Grundlagen und Standardverfahren. Dümmler/Bonn, 1982 Kraus, K.: Band 2: Theorie und Praxis der Auswertesysteme. Dümmler/Bonn, 1984 Meier, H.K.: Zur Filmplanlage in Luftbildkammern. BuL, 1972, Nr. 1 Schilcher, M.: Empirisch-statistische Untersuchungen zur Genauigkeitsstruktur des photogrammetrischen Luftbilds. DGK, Reihe C, Heft 262, München 1980 Schwebel, R.: Die Genauigkeit des Präzisionskomparators PK1. ZfV 104, 1979 Schwebel, R.: Der neue Präzisionskomparator PK1. Bildmessung und Luftbildwesen 4 Schwidefsky/Ackermann: Photogrammetrie. B.G. Teubner, Stuttgart, 1976 Schut, G.H.: Photogrammetric Refraction. Phot. Eng. 35, 1969