photogrammetrie - grundzüge

Transcription

photogrammetrie - grundzüge
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
_________________________________________________________________________________________
Eidgenössische Technische Hochschule Zürich
Institut für Geodäsie und Photogrammetrie
Vorlesung
PHOTOGRAMMETRIE
- GRUNDZÜGE von
Prof. Dr. A. Grün
Ausgabe 2003
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
_________________________________________________________________________________________
I
Inhaltsverzeichnis
1.
Einleitung
1.1.
Photogrammetrie und Fernerkundung. Definitionen
1.2. Sensorsysteme
1.3. Geschichte der Photogrammetrie und Fernerkundung
1.4.
Anwendungen
2.
Das photographische Bild
2.1.
Latentes Bild und photographisches Entwickeln
2.2.
Charakteristische Kurve und spektrale Empfindlichkeit
2.3.
Geometrische Auflösung der Emulsion
Auflösungsvermögen und Modulationsübertragungsfunktion
3. Nichtphotographische Sensoren
3.1.
Aufzeichnung und Wiedergabe von Fernsehbildern
3.2.
CCD-Sensoren und CCD-Kameras
3.2.1. CCD-Sensoren
3.2.2. CCD-Kameras und Bildübertragung
4.
Die metrische Kamera
4.1. Definitionen
4.2. Optische Elemente
4.2.1. Linsengleichung
4.2.2. Aberrationen
4.2.3. Tiefenschärfe
4.2.4. Projektionszentrum
4.2.5. Bildfunktion
4.2.6. Kammerkonstante und geometrische Verzeichnung
4.3. Innere Orientierung und Kammerkalibrierung
Definition des Bildkoordinatensystems; Hauptpunkt; Kammerkonstante;
Bildfunktion; radiale Verzeichnung
4.4. Deformation des Bildstrahls
Filmdeformation; atmosphärische Refraktion; „Erdkrümmung“
4.5. Äussere Orientierung
4.6. Kameratypen
4.6.1. Luftbildkameras
4.6.2. Terrestrische Kameras
4.7. Die halbmetrische Kamera
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
_________________________________________________________________________________________
II
5.
Das Einzelbild
5.1. Koordinatensysteme
5.2. Grundlagen der Einbildphotogrammetrie
5.2.1. Bildmassstab
5.2.2. Bildversetzung durch Geländehöhenunterschiede
5.2.3. Grundzüge der Zentralprojektion
5.3. Ausmessung von Einzelbildern; Monokomparator
5.4. Entzerrung
5.4.1. Analytische Entzerrung
5.4.2. Digitale Entzerrung
6.
Grundlagen der analytischen Photogrammetrie
6.1. Orthogonale und schiefsymmetrische Matrizen
6.2.
6.3.
6.4.
6.5.
6.6.
6.7.
6.8.
7.
Räumliche Drehungen. Drehmatrizen
Differentielle Drehungen
Ableitungen der Drehmatrix
Perspektive Projektion
Differentialformeln für Bildkoordinaten von Normalaufnahmen
Koplanaritätsbedingung
Literatur
Grundlagen der digitalen Photogrammetrie (I)
7.1. Bilddigitalisierung durch Scannen
7.2. Direkter (digitaler) Bildeinzug
7.3. Ausmessung digitaler Bilder (manuell, halb- und vollautomatisch)
7.4. Grauwertinterpolation
7.5. Geometrische Bildtransformationen
8. Stereoskopie und Parallaxe
8.1. Konzept der Kernebene
8.2. Räumliches Sehen
8.2.1. Das menschliche Auge
8.2.2. Natürliches räumliches Sehen
8.2.3. Künstliches räumliches Sehen
8.2.4. Instrumentelle Hilfsmittel zum stereoskopischen Betrachten von
Bildpaaren
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
_________________________________________________________________________________________
III
8.3 Stereoskopisches Messen
Stereokomparator
8.4. Der "Normalfall" der Stereophotogrammetrie
8.5. Einfache Hilfsmittel zur Stereokartierung
9.
Der Bildflug
9.1. Elemente der Flugplanung
9.2. Ausführung des Bildfluges
9.3. Geräte zur Navigation und Hilfsdatenbeschaffung
9.3.1. Bestimmung von Winkeln
9.3.2. Bestimmung von Strecken und Punktkoordinaten
10. Grundlagen der Stereomodellorientierung
10.1. Allgemeines
10.2. Relative Orientierung
10.2.1. Folgebildanschluss
10.2.2. Methode der Bilddrehung
10.3. Räumlicher Vorwärtsschnitt
10.4. Absolute Orientierung
10.4.1. Räumliche Ähnlichkeitstransformation
11. Stereoauswertegeräte
11.1. Klassifizierung; Einteilung und Prinzip der Analoggeräte
11.2. Analoggeräte mit Computerstützung
11.3. Computergesteuerte Stereogeräte. Der Analytische Plotter
11.3.1. Historische Entwicklung
11.3.2. Konstruktionsprinzip des Analytischen Plotters nach Helava
11.3.3. Hardwarekomponenten
11.3.4. Geräte
11.3.5. Softwarekomponenten
11.4. Digitale Stationen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
_________________________________________________________________________________________
IV
Lehrbücher
Finsterwalder, Hofmann: Photogrammetrie. De Gruyter Lehrbuch, Berlin, 1968.
Konecny, Lehmann: Photogrammetrie. De Gruyter Lehrbuch, Berlin, New York, 1984.
Kraus: Photogrammetrie. Band 1 und 2, Dümmler Verlag, Bonn, Dritte Auflage, 1996.
Schwidefsky, Ackermann: Photogrammetrie. B.G. Teubner Verlag, Stuttgart, 1976.
Weitere Schriften:
Albertz, Kreiling: Photogrammetrisches Taschenbuch. 3.Aufl., Herbert Wichmann Verlag,
Karlsruhe, 1980.
Atkinson, K.B. (Herausgeber): Close-range photogrammetry and machine vision. Whittles
Publishing, 1996
Schweizerische Gesellschaft für Photogrammetrie, Bildanalyse und Fernerkundung
(Herausgeber): Photogrammetrie in der Schweiz. Dümmler, Bonn, 1996.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.1
________________________________________________________________________________
1. Einleitung
1.1. Photogrammetrie und Fernerkundung. Definitionen
Das Wort "Photogrammetrie" kommt aus dem Griechischen. Hierin bedeutet "Photo..." Licht
oder Lichtbild, "...gramme" Linie und "…metrie" messen.
Photogrammetrie bedeutet also im engeren Sinne "Linienmessung mit Licht". In traditioneller
Definition ist die Photogrammetrie ein Messverfahren zur Bestimmung der Lage und Form
eines Objektes anhand photographischer Bilder. Die Messungen werden dabei nicht direkt am
Objekt, sondern indirekt auf den Bildern des Objektes vorgenommen. Die Photogrammetrie
wird unterteilt je nach Aufnahmesituation der benutzten Photos und der Art der
Auswertemethode. Wurden die Aufnahmen von der Erdoberfläche aus gemacht, spricht man
von "Terrestrischer Photogrammetrie", stammen die Aufnahmen aus einem Luftfahrzeug,
spricht man von "Luftbildphotogrammetrie". Die Auswertung eines einzelnen Photos wird
"Einzelbildauswertung " genannt. Nutzt man spezifische Beziehungen aus, die bei zwei
verschiedenen Aufnahmen desselben Objektes auftreten, so bezeichnet man dies als
"Stereophotogrammetrie ".
BILDER
SICHTBARE
BILDER
MATHEMATISCHE
FUNKTIONEN
BILDER
KONTINUIERLICH
OBJEKTE
DISKRET
(DIGITALE BILDER)
PHOTOGRAPHIEN
ZEICHNUNGEN
MALEREIEN
UNSICHTBARE
PHYSIKALISCHE BILDER
OPTISCHE
BILDER
Abb. 1.1: Castelman, K. R.: Digital Image Processing; Prentice-Hall, Inc., 1979
Die Photogrammetrie ist ein Verfahren der Fernerkundung ("feeling without touching"). Als
Fernerkundung bezeichnet man im allgemeinen die Ermittlung von Informationen über
entfernte Objekte, ohne mit ihnen direkt in Kontakt zu kommen. Als Informationsträger dienen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.2
________________________________________________________________________________
Kräftefelder, insbesondere die elektromagnetische Strahlung. Als natürliche Strahlungsquelle
dient die Sonne. Die von einem Objekt reflektierte Strahlung wird von einem auf einer
Plattform (Flugzeug) getragenen Sensor erfasst und in ein Bild umgesetzt. Ein messbares Bild
kommt nur dadurch zustande, daß verschiedene Objekte oder verschiedene Teile eines Objekts
unterschiedliche Reflexionseigenschaften haben.
Definition von "Fernerkundung", "Remote Sensing" ( --> eine mögliche Variante):
"Erfassung und Interpretation von Daten ausgewählter Bereiche des elektromagnetischen
Spektrums unter Einsatz von berührungslosen Sensoren und unter Verwendung von Analyseund Manipulationsalgorithmen zur Erleichterung der Interpretation."
Gerade in der Fernerkundung gilt die Definition "feeling without touching" der
Photogrammetrie in sehr ausgeprägtem Sinn.
Abb. 1.2: Komponenten des Fernerkundungsverfahrens
Der Gebrauch moderner Rechner und anderer elektronischer Medien zur digitalen
Bildverarbeitung setzt sich immer mehr durch. Inzwischen haben sich neue Disziplinen wie
Computer Vision, Machine Vision, Robot Vision und Videogrammetrie entwickelt. Sie alle
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.3
________________________________________________________________________________
greifen auf Methoden der Photogrammetrie zurück. In gewisser Weise ist damit die
Photogrammetrie eine der Grundlagen dieser Disziplinen.
Videogrammetrie ist Photogrammetrie mit Benutzung von Videokomponenten (CCD-Kameras,
Videosignalübertragung, Videorekorder, Videomonitor).
Machine Vision ist eine berührungslose, bilderzeugende, weitgehend automatisierte Mess- und
Inspektionstechnik, vorwiegend für Messobjekte im Nahbereich. Der Begriff "Nahbereich" ist
dabei nicht klar definiert, kann sich vom Submikrometerbereich (Elektronenmikroskop) bis zu
einigen Hundertmetern erstrecken. Viele Anwendungen der Machine Vision finden sich in
Industrieller Messtechnik, Navigation, Medizin, Biomechanik, etc.
Während Computer Vision ("Computersehen") sich mehr mit theoretischen Fragen und
grundlegenden Verarbeitungsalgorithmen der Bildanalyse beschäftigt, liefert die Machine
Vision die sogenannten Sensormodelle (d.h. die mathematische Beschreibung der
Sensorgeometrie und die stochastische Modellierung der Beobachtungen) und widmet sich den
Systemaspekten (vgl. Abb. 1.4).
Robot Vision kann als Subkategorie der Machine Vision aufgefasst werden in dem Sinne, dass
es dort um Lösungen mit hohen Geschwindigkeitsanforderungen geht.
Abbildung 1.3 zeigt die Relation dieser Disziplinen zueinander.
Machine Vision
Theory and basic algorithms
for image and scene analysis
Computer
Vision
Videogrammetry
Robot Vision
Sensor models,
System aspects
Abbildung 1.3: Machine Vision (und Videogrammetrie) in Relation zu Robot Vision und
Computer Vision
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.4
________________________________________________________________________________
Abb. 1.4: Funktion und Hardwarekomponenten eines digitalphotogrammetrischen Systems
(hier speziell für den Nahbereich)
Machine Vision, Robot Vision bzw. Videogrammetrie wurden am Institut für Geodäsie und
Photogrammetrie der ETH Zürich bereits in so unterschiedlichen Applikationen wie folgt
eingesetzt:
• Autovermessung
(Industrielles Design, Qualitätskontrolle, Crashversuche)
• Messung von Flugzeugoberflächen- und Flugzeugmotorenteilen
(Industrielle Inspektion und Materialuntersuchung)
• Architekturobjekte
(Architektur, Denkmalschutz)
• Oberflächenrekonstruktion menschlicher Gesichter (Medizin, Puppenherstellung)
• Zahnvermessung
(Zahnmedizin, "Videodentographie")
• Menschliche Bewegungsstudien
(Biomechanik)
• Bestimmung der Trajektorien fliegender Insekten
(Biologie, Pharmazie)
• Tischtennisroboter
(Robotik)
• Überwachung von Kristallwachstum
(Materialwissenschaft)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.5
________________________________________________________________________________
• Hochauflösende 3-D Teilchenverfolgung in turbulenten Strömungen
(Hydromechanik, Weltraumwissenschaften)
• Verfolgung chemischer Reaktionen in turbulenten Strömungen
(Chemie, Hydromechanik)
Verglichen mit anderen Messverfahren können diese Methoden immer dann vorteilhaft
eingesetzt werden, wenn möglichst viele der folgenden Voraussetzungen gegeben sind:
• 3-D Objekt
• Bewegtes Objekt
• Grosse Anzahl von Messungen
• Berührungsloses Messverfahren
• Gute zeitliche Messauflösung
• Genaue und zuverlässige Messungen
•
Schnelle Aufnahme und Auswertung
(On -line und Echtzeitverfahren)
Die zwei wesentlichen Abläufe der Fernerkundung sind die Datenerfassung über die Sensoren
und die Datenverarbeitung. Gemessen werden in der Fernerkundung meistens Änderungen
von Feldstärken. Diese Felder können elektromagnetischer (wichtigste Art) und elektrostatischer Natur sein, oder es handelt sich gelegentlich um Schwerefelder. Interessant sind für die
Fernerkundung aber vor allem die vielfältigen Änderungen dieser Felder. Solche Variationen
machen eine Analyse überhaupt erst sinnvoll. Es handelt sich im allgemeinen um spektrale,
räumliche oder zeitliche Änderungen eines Feldes. Dazu einige Beispiele:
• Spektrale Veränderungen: Die Reflexion eines Objektes ist nicht immer gleich. Die
Intensität und Frequenz der Reflexion variieren mit der Intensität und der Frequenz der
Strahlung. Die zugehörigen Parameter sind u.a. Beleuchtungsquelle und Sensorcharakteristik.
• Räumliche Veränderungen: Die spektrale Charakteristik eines Objektes ist nicht über
die ganze Fläche homogen. Die Art der Oberfläche bestimmt also das
Reflexionsverhalten erheblich. Daraus folgt, dass die Reflexion eine Funktion des Ortes
auf der Oberfläche ist.
• Zeitliche Veränderungen: Die Belaubung der Bäume zum Beispiel beeinflusst das
Reflexionsverhalten stark. Es entstehen dadurch kurz- und langfristige Änderungen im
Reflexionsspektrum.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.6
________________________________________________________________________________
Klassifizierung der Sensoren:
1) Nach der Art der Feldmessung
Das entsprechende Feld kann auf verschiedene Arten gemessen werden:
• Optisch, optisch-elektronisch, elektronisch (z. B. Mikrowellen)
• Magnetometer, Gravimeter (Geophysik, Geodäsie)
• Akustisch (Sonar)
2) Nach der Art der Strahlungserzeugung
Es gibt unterschiedliche Strahlungsquellen. Der wichtigste Unterschied besteht darin, ob
der Sensor aktiv oder passiv arbeitet.
• Aktive Sensoren (also Sensoren, die selbst Signale ausschicken) sind zum Beispiel
Blitzlichter und modulierte Träger (Laser, Mikrowellen, Schall)
• Passive Sensoren
- Ausnützung der Selbstemission eines Objektes, so zum Beispiel radioaktiver
Zerfall, thermische Strahlung oder chemische und biologische Lumineszenz
- Ausnützung natürlicher Strahlung außerhalb des Objektes selbst, wie zum
Beispiel Sonnenlicht oder atmosphärische Strahlung
3) Nach der Art der Datenerhebung
Der essentielle Unterschied verschiedener Systeme besteht darin, ob sie ein Objekt als
Ganzes zu einem diskreten Zeitpunkt erfassen oder ob sie es sequentiell "abtasten".
• Framing System --> Simultane Aufnahme aller Objektpunkte
• Scanning System --> Sequentielle Aufnahme
Die Speicherung des "Bildes" geschieht bei Verwendung "digitaler" Sensoren bei beiden
Methoden durch Auflösung des Bildes in Pixel (Picture Element) im zweidimensionalen
Fall oder in Voxel (Volume Element) im dreidimensionalen Fall. Jedem dieser Pixel wird
ein entsprechender Grauwert zugeordnet. Die Verarbeitung solcher "Bilder" wird Digitale
Bildverarbeitung genannt. Meist wird in der Fernerkundung pro S/W-Bild mit 256 (28)
Graustufen gearbeitet. Dies entspricht einer "Grauwerttiefe" von 8 Bit. In der Medizin
hingegen wird z.B. oft mit 212 Grauwerten gearbeitet.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.7
________________________________________________________________________________
Pixel 5µm bis 100µm
mit je einem zugewiesenen Grauwert
Abb. 1.5: Digitales (oder digitalisiertes) Bild
Bilddaten
(analog)
Konvertierung
Numerische Daten
(digital)
Analyse
Bildhaftes
Endprodukt
(analog)
Numerisches
Endprodukt
(digital)
Abb. 1.6: Verfahren und Produkte der Datenverarbeitung
1.2. Sensorsysteme
Die wichtigsten Fernerkundungssensoren sind:
- Einzelkameras
photographisch:
• Satellitenplattform
• Luftbildkamera (Reihenmesskammer)
• terrestrische Kamera
CCD-Kameras (Satelliten, Aero, terrestrisch)
- Streifenkamera
- Panoramakamera
- RBV (Return Beam Vidicon); TV Kamera für Fernerkundung (Landsat, alt)
- Optisch - mechanischer Scanner; passiv multispektraler S (z.B. MSS, TM auf Landsat)
- CCD Linear Array Sensor (SPOT, MOM5, Ikonos)
- SAR (Side-Looking-Airborne Radar); aktiver Mikrowellenscanner, Vorteil: kann
Wolken durchdringen (Zeitdifferenz ----> Entfernung ----> Bild)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.8
________________________________________________________________________________
Abbildung 1.7 zeigt die Abbildungsgeometrie einiger dieser Sensoren.
Abb. 1.7: Abbildungsgeometrie verschiedener analoger und "digitaler" bilderzeugender
Sensoren
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.9
________________________________________________________________________________
Sensoren werden von Plattformen aus betrieben. Die wichtigsten Sensorplattformen zeigt
Abbildung 1.8.
Abb. 1.8: Sensorplattformen der Fernerkundung/Photogrammetrie
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.10
________________________________________________________________________________
Berücksichtigt man die jüngsten Entwicklungen, so muß die Definition der Photogrammetrie
auf die Wiedergabe des gesamten elektromagnetischen und akustischen Spektrums ausgedehnt
werden. Diese Vorlesung behandelt jedoch nur die Grundprinzien der herkömmlichen
Photogrammetrie, die visuellen, optischen und geometrischen Beziehungen photographischer
und digitaler Bilder zum abgebildeten Objekt und deren Anwendungen.
Das Hauptproblem der Satellitenfernerkundung bestand ursprünglich darin, die
Aufzeichnungen vom Satelliten zur Erde zu übermitteln. Die Daten müssen dazu in einer Form
vorliegen, welche einfache und schnelle Übermittlung ermöglicht. Eine Variante, um dies zu
erreichen, besteht darin, daß man ein analoges Produkt (zum Beispiel eine Photographie) zuerst
digitalisiert und dann übermittelt. Eine Alternative ist die direkte digitale Aufnahme.
Diese digitalen Informationen, durch Radioübertragung (Telemetrische Übertragungssysteme)
auf die Erde übermittelt, können schließlich analysiert werden.
Auch auf der Erde stellt sich aber wieder die Frage, wie gearbeitet werden soll. Es können die
digitalen Produkte direkt weiterverarbeitet werden, oder aber man erstellt aus den digitalen
Informationen zuerst wieder analoges „photographisches“ Material (Umweg !).
Als Ausnahme in diesen Möglichkeiten sollen die Space Shuttle, MIR, Flugzeugsensoren, aber
auch Satelliten erwähnt werden, welche ihre Daten direkt auf photographisches Material oder
Magnetband schreiben und diese schließlich auf unterschiedliche Weise zur Erde bringen. Die
Radioübertragung entfällt hier also.
1.3. Geschichte der Photogrammetrie und Fernerkundung
Der Grundgedanke der Photogrammetrie ist älter als die Photographie selbst. Schon im
15.Jahrhundert entdeckte Leonardo da Vinci die perspektiven Beziehungen und wandte diese
Erkenntnisse bei seinen Zeichnungen an.
Für topographische Zwecke nutzte der
Naturwissenschaftler M. A. Cappeler (1726) diese Möglichkeiten erstmals: Auf der Grundlage
von handgezeichneten Perspektivansichten zeichnete er eine Karte des Pilatusmassivs.
Die wichtigsten Daten der anschließenden Entwicklung in Stichworten :
1759
1839
J.H. Lambert; Veröffentlichung des ersten Lehrbuchs der Photogrammetrie (8.
Kapitel : "Freye Perspective"), das die geometrischen Grundlagen der
Zentralprojektion enthielt
J.N. Niépce und L.J.M. Daguerre; Entdeckung der Photographie (Bericht von
F.Arago; erster Hinweis auf den möglichen Einsatz bei der topographischen
Kartierung)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.11
________________________________________________________________________________
1846
1851
1851
1858
1858
1886
1888
1889
1891
1892
1897
Gründung der ZEISS - Werke
A. Laussedat ("Vater der Photogrammetrie"); Konstruktion der ersten metrischen
Kammer und Einsatz in der topographischen Kartierung ("Métrographie")
D'Almeida; Stereobetrachtung nach Anaglyphenverfahren
A. Meydenbauer; Einsatz bei der Erfassung von Fassaden historischer Bauwerke
("Architekturphotogrammetrie")
G.F. Tournachon ("Nadar"); Erste Luftbilder (Ballonphotographie)
E. Deville; Einsatz in Kanada zur Kartierung im Gebirge
S. Finsterwalder; Gletschervermessung; Fortentwicklung der Theorie
C. Koppe; erstes deutsches Fachbuch über Photogrammetrie
Stereobetrachtung nach Polarisationsverfahren
F. Stolze; Prinzip der beweglichen Messmarke
Th. Scheimpflug; Theorie der Doppelprojektion als mögliche Konstruktions–
grundlage für ein Projektionsgerät (Scheimpflugbedingung)
1901
C.Pulfrich ("Vater der Stereophotogrammetrie"); Konstruktion des ersten
Stereokomparators (ZEISS); Einführung der Stereophotogrammetrie; neue
Einsatzgebiete: Beobachtung von Wolken, Wellen, fliegenden Objekten
1903
S. Finsterwalder; Kartenherstellung aus Luftbildern (Ballonphotogrammetrie);
Entwicklung der Theorie der Orientierung von Bildpaaren
1909
E.v. Orel; Konstruktion des "Stereoautograph"; erstes Gerät, das die Zeichnung von
Linien gestattete
1910
Gründung der ISP ("International Society of Photogrammetry"); Heute: ISPRS
("International Society of Photogrammetry and Remote Sensing").
1.Weltkrieg: Einsatz von Luftbildern in der Luftaufklärung
1915
O. Messter; Konstruktion der ersten metrischen Luftbildkammer ("Malteser Kreuz")
1921
R. Huggershoff; erstes Analoggerät "Autocartograph"
1923
W. Bauersfeld; ZEISS Stereoplanigraph mit optischer Projektion
Zwischen den Weltkriegen: Massenproduktion von Karten aus Luftbildern; Private Firmen;
Öffentliche Einrichtungen.
2.Weltkrieg: Luftbildinterpretation zur Luftaufklärung und Spionage
1957
U.V. Helava; Grundlagen für Entwicklung des ersten Analytischen Plotters
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.12
________________________________________________________________________________
Die Entwicklung der (Satelliten-) Fernerkundung :
1959: LUNA 3
Betrachtet die Rückseite des Mondes. Als Produkt entstehen
analoge Photographien, die "on-board" entwickelt, abgetastet
und radioübertragen werden.
1964: RANGER 7
Betrachtet den Mond. Arbeitet mit 6 Vidikon-Kameras (2WW,
4NW) und produziert 4'316 Bilder. Am JPL (Jet Propulsion
Laboratory, Pasadena, Kalifornien) werden die Bilder digital
verarbeitet (Kontrastverbesserung, photometrische und
geometrische Korrekturen, Rauschunterdrückung, Fouriertransformation, etc.)
1965: MARINER MARS 4 Arbeitet mit Video-Kameras und digitaler Übertragung.
Echtzeitdisplay an einer PDP-7.
1967: SURVEYOR 4
1968: APOLLO
1971: MARINER MARS 9
1972: LANDSAT 1
1976: VIKING
1978: SKYLAB
Arbeitet mit analogem Video. Auswertung am JPL.
"Spin-off": Bildverarbeitungsmethoden (Filter) für Verbesserung medizinischer Röntgenaufnahmen
(--> "Spin-back")
Bemannt, mit analogen Kameras (Hasselblad 500 EL)
Die Erhebung der Daten erfolgte schneller als deren Auswertung. Produkt: 7´300 Bilder.
Mehr Details später. Eigentlicher Beginn einer umfangreichen
"Erdbeobachtung".
Betrachtet den Mars (2 Orbiter-, 2 Landemissionen). Hat 2
TV Kameras an Bord und macht Stereoaufnahmen
--> Stereoauswertung am Bildschirm.
Erzeugt 25'407 Bilder mit konventionellen Photokameras und
multispektralen Scannern; 435 km Flughöhe
•
•
•
etc.
Die Übertragungsgeschwindigkeit hat im Laufe der Zeit enorm zugenommen. Während
MARINER 4 (1965) noch 200 x 200 Pixel in 8 Stunden übertrug, schaffte MARINER 10
(1973) bereits 16 Millionen x 832 Pixel in 42 Sekunden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.13
________________________________________________________________________________
1.4. Anwendungen
Die wichtigste Anwendung der Photogrammetrie liegt heute in der Vermessung der
Erdoberfläche und ihrer Darstellung in Plänen und in topographischen Karten.
Photogrammetrische Messverfahren haben
gegenüber den herkömmlichen direkten
Messverfahren entscheidende Vorteile, welche sie
auch in andern Bereichen der
Wissenschaft, Technik und in der Kunst unentbehrlich machen: Das Aufnahmeobjekt braucht
nicht berührt zu werden, da unmittelbare Messungen nicht notwendig sind. Das Objekt kann
sogar unzugänglich sein. Heute gewinnt vor allem die industrielle Anwendung immer mehr
an Bedeutung. Durch entsprechend häufige Wiederholung photographischer und anderer
Aufnahmen ist es möglich, schnell oder langsam ablaufende Bewegungsvorgänge
meßtechnisch zu verfolgen.
Die wichtigsten Anwendungsbereiche:
etc.
Kartographie
Geographische Informationssysteme
Katastervermessung, Meliorationen
Bauingenieurwesen (Projektierung, Bau, Planung von Städten und Strassen)
Umweltüberwachung
Maschinenbau
Physikalisches Versuchswesen
Geologie, Geophysik, Meteorologie
Architektur, Denkmalpflege, Archäologie
Medizin, Sport, Biomechanik, Animation
Boden-, Unterwasserforschung
Weltraumtechnologie
Kriminalistik, Verkehrsunfallrekonstruktion
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.14
________________________________________________________________________________
In folgenden Bereichen wird die Satellitenfernerkundung heute vorwiegend angewandt:
- Vermessungswesen
- Landesplanung
- Geologie und Geographie
- Geophysik, Exploration
- Archäologie
- Land- und Forstwirtschaft
- Umweltüberwachung und Umweltschutz
- Hydrologie und Glaziologie
- Ozeanographie (Wellenstruktur, Oberflächenwind, Strömungen, Oberflächentemperatur, Oberflächentopographie (Geoid), Wolkentemperatur, Wasserdampfverteilung,
etc.)
- Meteorologie
etc.
Photogrammetrie und Fernerkundung werden heute vielfach in Kontext Geographischer
Informationssysteme (GIS) betrieben. Abbildung 1.9 zeigt die Komponenten eines GIS.
Dabei spielen Photogrammetrie/Fernerkundung als Methoden der Datenerhebung, aber
auch für die Verarbeitung und Analyse der Daten eine grosse Rolle.
Eingabe
Photogrammetrie
Fernerkundung
Verwaltung
Verarbeitung
Analyse
Vektordaten
Ausgabe
(numerisch/
graphisch)
Vektorgraphik
Geodäsie
Vermessung
Karten
Pläne
Sachdaten
Hybride Graphik
Statistiken
Tabellen
etc.
Rasterdaten
Rastergraphik
Statistik, Sachdaten
Abb. 1.9: Komponenten eines Geoinformationssystems (GIS)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 1.15
____________________________________________________________________________
Nach dem Schweizer Lexikon 91 werden "Photogrammetrie" und "Fernerkundung
folgendermassen umschrieben:
Techniques, Karlsruhe 1989, A. Grün.
n
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.1
2. Das photographische Bild
Photometrische Grundlagen
I.....Intensität (Lichtstärke [Candela] = [cd]).
I = Lichtstrom Φ / Raumwinkel ω des Lichtstroms
Φ....Lichtstrom [lumen] = [lm]
Φ = Lichtleistung, die von einer Normallampe in den Raumwinkel ω = 1 abgestrahlt
wird.
Normallampe: Hohlraumstrahler (schwarzer Körper) von der Temperatur des erstarrenden
Platin (2047 K) und einer Fläche F=1/60 cm2.
Optischer Empfänger
Undurchlässigkeit (Opazität)
O=
T=
Transparenz
IO
Beleuchtungsstärke
Belichtung
(t…Zeit)
1 IT
=
O IO
E=
lm
Lichtstrom Φ
Fläche F
2
m
Bel = Et lx sec
Kontrast C
Photo
Kontrastverhältnis
Differentieller Kontrast
Logarithmischer Kontrast
IT
D = logO = log
Dichte (Schwärzung)
(D = 1, d.h. nur 1/10 des
Lichtes wird durchgelassen)
IT
IO
CR =
CD =
Emax
Emin
(Emax-Emin)
Emin
Emax
CL = log E
min
IO
IT
= lx
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.2
Profil
E
Emax
Modulation
M=
M=
Emin
Emax - Emin
Emax + Emin
CR - 1
CR + 1
x (Ort)
CR und M werden meistens in der Luftbildphotographie verwendet. Kontrastreduktion bedingt
durch die Atmosphäre: Faktor 2 -3 bei 9 km hg (Flughöhe über Grund).
2. 1. Latentes Bild und photographisches Entwickeln
Schwarzweiss - Photographie
Schicht, Emulsion (5 - 25 µ m )
Schichtträger, Basis
(Glas, Azetatzellulose, Polyesterfilm, Papier)
Die Emulsion besteht aus Gelatinemasse mit eingebetteten Silberhalogenid-Kristallen
(Bromsilber). Diese "Körner" sind photosensitiv. Treffen Photonen (Lichtstrahlen) auf eine Anzahl
Körner, dann wird dort das Silberhalogenid zerlegt in Silber und Halogen (Brom). Die Schicht ist
"belichtet".
Silber (schwarz)
Lichtquanten
Silberhalogenid
Halogen (Brom)
"Belichtung"
latentes Bild
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.3
Licht
Emulsion
Basis
nach der Belichtung --------> "Latentes Bild”
nach der Entwicklung
nach Fixieren, Wässern --------> "Negativ"
Fog (Schleier)
Der Entwickler verstärkt den Reduktionsprozess. Das Fixierbad löst die unreduzierten
Silberhalogenidkörner aus der Schicht und härtet die Emulsion, stoppt somit den
Entwicklungsprozess. Restbestände werden durch Wasser herausgewaschen. Das Ergebnis ist ein
"Negativ", welches die Helligkeitsunterschiede des Objekts als Dichteunterschiede der
photographischen Schicht zeigt. Das schwarze Silber repräsentiert die hellen Objektstellen.
Bereiche, welche kein Licht erhalten haben, werden hell nach der Auswaschung der unreduzierten
Körner (weiss im Falle von Papier als Basis, durchsichtig bei Film oder Glas).
Farbphotographie
Weisses Licht
Blau
Grün
Cyan
Rot
Primärfarben
Gelb
Sekundärfarben
Magenta
Die Emulsion der Farbphotographie besteht aus drei Schichten, wobei jeder Schicht ein
Farbstoff zugemischt ist. Dieser wirkt jeweils als Filter.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.4
Filtereigenschaften von Farben
Weiss
Weiss
Weiss
Cyan
Gelb
Magenta
Grün
Blau
Rot
subtrahiert rot
Grün
Blau
subtrahiert blau
Rot
subtrahiert grün
Aufbau eines Farbnegativ-Filmes
Drei Schichten; die Farbstoffe sind in Schichten eingelagert
Blau
Grün
Rot
Weiss
Cyan
Magenta
Gelb
Objektfarben
Zurückgehalten
Eingelagert
Blauempfindlich
Gelb
Gelbfilter
Grünempfindlich
Magenta
Rotempfindlich
Cyan
Nach Belichtung und Entwicklung
gelber Farbstoff
magenta Farbstoff
cyan Farbstoff
Nach Fixierung
Gelb
Magenta
Cyan
Schwarz
Rot
Grün
Blau
Farben im Negativ
Die Farbschichten für Diafilme sind anders aufgebaut. Daneben gibt es noch Filme mit
speziellem Aufbau, so zum Beispiel Infrarotfilme.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.5
2. 2. Charakteristische Kurve und spektrale Empfindlichkeit
Dichte : Ausmaß der Schwärzung eines entwickelten Photos.
I
D = log O
IT
Charakteristische Kurve : D = f (Belichtung Et)
Die charakteristische Kurve definiert somit die Beziehung zwischen Dichte D einer Emulsion und
der Belichtung (Et). Der Logarithmus von (Et) wird benutzt, da das menschliche Auge Lichtunterschiede ebenfalls über eine logarithmische Funktion registriert.
Diese Kurve beschreibt ein Charakteristikum der photographischen Emulsion.
Abb. 2. 1: Charakteristische Kurve einer photographischen Emulsion
Der geradlinige Teil dieser Kurve ist von besonderer Bedeutung für die Erzielung "guter" Photos.
Bei einer "richtig" belichteten Aufnahme fallen alle Dichtewerte auf den geradlinigen Teil. Die
Steigung dieser Geraden nennt man "Gradation γ " .
γ = tan α =
∆D
∆ log(Et )
γ …Gradation
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.6
Abb. 2. 2: Kurven unterschiedlicher Gradation
"Hart" bedeutet: Scharfe Unterschiede zwischen hell und dunkel (starker Kontrast). Der Verlauf
der Kurve ist auch von der Entwicklung und nicht nur von der Art der Emulsion abhängig
(Entwicklungsdauer; Zusammensetzung,Temperatur und Typ des Entwicklers).
Abb. 2. 3: Schwärzungskurven bei verschiedener Entwicklung
Die Schwärzungskurve gibt auch Hinweise bezüglich der Empfindlichkeit einer Emulsion.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.7
Die DIN- und ASA-Normen sind so festgelegt, daß sie eine reziproke Funktion der
Belichtung (Et) darstellen, welche bei einer festgelegten Entwicklung einen bestimmten
Dichtewert erzeugt, und zwar um ∆D = 0.1 über dem Schleier.
D
A
DA
² D = 0.10
Schleier
log (E t) A
log E t
Normen:
DIN - Zahl = 10 log
1
Et
A
1
ASA - Zahl = 0,8 E t
A
Spektrale Empfindlichkeit
Die spektrale Empfindlichkeit einer Emulsion zeigt an, in welchem Ausmass sie gegenüber
Licht verschiedener Wellenlängen des Spektrums empfindlich ist.
Photographische S/W-Emulsionen sind grundsätzlich blauempfindlich. Die Beimischung von
Farben macht sie auch gegenüber anderen Wellenlängen empfindlich. Als "orthochromatisch" bezeichnet man Emulsionen, die blau-, grün- und gelbempfindlich sind. Sind sie zusätzlich noch rotempfindlich, so bezeichnet man diese als "panchromatisch ".
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.8
Diese Darstellung zeigt die durchschnittliche Empfindlichkeitskurve von menschlichem Auge,
unsensibilisiertem, orthochromatischem und panchromatischem Schwarzweiss-Film. Deutlich
wird die erhöhte Blau- und die verringerte Gelbempfindlichkeit des üblichen panchromatischen
Films, die im Gegensatz zur Augenkurve steht. Das erklärt auch, weshalb Blau auf dem Film (zu)
hell, Gelb dagegen (zu) dunkel wiedergegeben wird. Solche widersprüchlichen und oft
unerwünschten Grautonwerte lassen sich mit Hilfe von Farbfiltern ganz oder teilweise korrigieren.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.9
Aus: Albertz/Kreiling, Photogrammetrisches Taschenbuch 3. Auflage, Herbert
Wichmann Verlag Karlsruhe, 1980
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.10
Aus: Philip Swain und Shirley Davis, Remote Sensing: The Quantitative Approach;
MacGraw-Hill, 1978
Geschwindigkeit
Geschwindigkeit einer Emulsion:
Schnell heißt hochempfindlich; erfordert wenig Licht, um eine bestimmte Dichte zu
erreichen. Wenig Licht bedeutet aber kurze Belichtungszeit. Anwendung bei schnell
bewegten Objekten oder schlechten Lichtverhältnissen.
Empfindlichkeit
Die Empfindlichkeit hängt ab von Grösse und Anzahl der Bromsilberkristalle. Grosse
Bromsilberkristalle erhöhen die Empfindlichkeit, aber reduzieren die Auflösung und
umgekehrt.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.11
Geometrische Auflösung
Ein weiterer wichtiger Parameter der Emulsion ist die geometrische Auflösung. Zwischen der
Empfindlichkeit einer Emulsion und ihrer geometrischen Auflösung besteht eine
Wechselwirkung:
Empfindlichkeit
Grosses Korn
Hoch
Kleines Korn
Gering
Geometrische
Auflösung
Gering
Hoch
Heute sind Emulsionen sehr hoher Auflösung verfügbar (Kodak: 700 lp/mm). Die Gesamtauflösung eines photographischen Systems wird durch Objektiv und Emulsion bestimmt.
Dabei ist das Objektiv der eigentlich einschränkende Faktor (Auflösungsvermögen moderner
Luftbildobjektive: ca. 100 lp/mm, bildortabhängig).
Praktische Bedeutung
a) In der terrestrischen Photogrammetrie bestehen große Lichtunterschiede. Es können
bei nichtbewegten Objekten (lange Belichtung ist möglich) gewöhnlich feinere
Emulsionen benutzt werden (Kontrast CR = 30 : 1).
b) In der Luftbildphotographie benutzt man wegen der Flugzeugbewegung kurze
Belichtungszeiten, d.h. man braucht dann zur Erzielung guter Bilder eine relativ
"schnelle" Emulsion. Somit steht dort die Forderung nach hoher Auflösung mit
derjenigen nach grosser Empfindlichkeit in Konkurrenz. Es ist ein Kompromiss nötig
(FMC -> Forward Motion Compensation). Die Lichtunterschiede (abhängig von hg
und Zustand der Atmosphäre), die durch diffuse Reflexion und Streuung des
Sonnenlichts an Staub- und Wasserteilchen verursacht werden, sind kleiner. Es
werden Filme hoher Gradation (γ = 1-2), also harte Emulsionen, benutzt. Zudem ist
ein sorgfältiges Aufeinanderabstimmen von Emulsion, Entwickler und
Entwicklungszeit nötig. Der hohe Blaulichtanteil muss mit einem Gelb- oder
Orangefilter abgeschwächt werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.12
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.13
2.3. Geometrische Auflösung der Emulsion
Interessant ist das Auflösungsvermögen und im Zusammenhang damit die
Modulationsübertragungsfunktion..
- Ziel des Auflösungsvermögens:
Erhalten eines quantitativen Masses zur Beschreibung der Fähigkeit eines optischen
Systems, benachbarte Punkte oder Linien noch erkennbar übertragen/wiedergeben zu
können.
- Testfiguren:
Testfiguren bestehen aus Strichrastergruppen mit wechselnden Abständen
(z. B. Siemensstern).
- Definition des AV:
Das Auflösungsvermögen definiert sich nach der Anzahl noch erkennbarer Hell/DunkelPerioden pro Längeneinheit, z.B. 50 lp/mm für ein Objektiv.
(Linienpaare pro Millimeter -> lp/mm)
lp {
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.14
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2.15
- Problem:
Eine einzelne Zahl für das AV ist nicht aussagekräftig genug. So beeinflusst zum
Beispiel auch der Kontrast das Auflösungs- vermögen.
- Lösung:
Modulationsübertragungsfunktion (MTF)
(allgemein: Optische Übertragungsfunktion (OTF).
Man erhält sie aus einer Ableitung aus der Nachrichtentechnik.
f(x) = a + b cos (2 π ω x + ε)
"Input" opt. System:
"Output" opt. System:
Objekt f(x)
Abbildung g(x)
Bild
Der "Output" ist ebenfalls sinusförmig und hat die gleiche Frequenz, aber eine andere
Amplitude als der "Input". (--> Amplitudenmodulation)
g(x) = a + M(ω) b cos (2 π ω x + ε + φ(ω))
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Definition Input Modulation
Min =
fmax - fmin
fmax + fmin
=
b
a
Definition Output Modulation
Mout =
Das Verhältnis
MTF =
gmax - gmin
gmax + gmin
= M(ω)
b
a
Output Modulation
= M(ω)
Input Modulation
hängt ab von der Frequenz ω (= Wechsel zwischen schwarz und weiß).
(MTF -> Modulus der Fourier Transformation der Verwaschungsfunktion)
Normalisierung von M(ω):
M(0) = 1
Modulus M(ω) =
2
2
C (ω) + S (ω)
-S(ω)
Phase
φ(ω) = arctan
Damit
C(ω) = Μ(ω) cos φ(ω)
C(ω)
S(ω) = -M(ω) sin φ(ω)
Seite: 2.16
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2. 17
____________________________________________________________________________
Testfigur Helsinki University of Technology
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 2. 18
_________________________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.1
______________________________________________________________________________
3. Nichtphotographische Sensorsysteme
3.1. Aufzeichnung und Wiedergabe von Fernsehbildern
Beim Fernsehen werden Bilder direkt in elektrische Signale umgewandelt. Diese können
schnell über größere Distanzen übertragen und vor Ort wieder in Bilder zurückverwandelt
werden, welche dann am Bildschirm zu betrachten sind.
Bei Einsatz dieser Technologie für Vermessungsaufgaben ist zu beachten, daß sie rein für
Betrachtungszwecke entwickelt wurde. Sie weist daher auf der metrischen Seite einige
erhebliche Nachteile auf, die genau studiert und kompensiert werden müssen.
Im Gegensatz zur photographischen Kamera wird bei einer TV-Kamera an die Stelle der
photographischen Schicht ein optoelektronischer Sensor gebracht. Dabei unterscheidet man
folgende Kategorien:
- Bildaufnahmeröhren
+ äußerer photoelektrischer Effekt
(Bildwandler, Sekundärelektronenvervielfacher, Ikonoskop, Resistron etc.)
+ innerer photoelektrischer Effekt
("Photoconductors"; Vidicon, Return-Beam-Vidicon (RBV) etc.)
- Festkörperbildsensoren
Funktionsprinzip des Vidicons:
Die Oberfläche eines Photoleiters wird durch einen feinen abtastenden Elektronenstrahl auf
Kathodenpotential (= OV) geladen. An belichteten Stellen wird die Oberfläche des
Photoleiters positiv geladen, wobei die Ladungsänderung proportional zur Lichtintensität
(Anzahl Photonen) ist. Es entsteht sozusagen ein "latentes elektronisches Bild".
Beim nächsten Durchgang des Elektronenstrahles ("Bildübernahme") wird diese positive
Ladung wieder kompensiert, und es entsteht an der Elektrode ein Stromimpuls. Die Folge
dieser Stromstöße bei der Abtastung generieren das amplitudenmodulierte Bildsignal.
Die Fokussierung und Abtastung des Elektronenstrahls wird durch externe Magnetfelder
gesteuert.
Als Photoleiter dienen Halbleitermaterialien wie PbO (Bleioxid), CdSe (Cadmiumselenid),
Sb2S3 (Antimontrisulfid).
Allerdings ist diese Röhrentechnologie zur Bildaufnahme heute nicht mehr gebräuchlich.
Man benutzt heute ausschliesslich Halbleitersensoren (Photodioden, CCDs, CIDs, etc.), vgl.
Kapitel 3.2.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.2
______________________________________________________________________________
Abb. 3.1: Funktionsprinzip der Vidicon-Bildröhre
Die Umwandlung des Bildes in ein zeitlich variierendes Signal erfolgt durch zeilenweises
Abtasten. Um eine flimmerfreie Bildwiedergabe zu erhalten, wird das Gesamtbild durch
zwei separate Abtastvorgänge aufgebaut, wobei die geraden und ungeraden Zeilen jeweils
ein Halbbild definieren. Diese Halbbildfrequenz sollte mindestens 50 Hz betragen.
Abb. 3.2: Videogesamtbild durch Abtastung zweier Halbbilder
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.3
______________________________________________________________________________
Das Bild wird zeilenweise aufgebaut und kann übertragen werden. Um aus der Signalfolge
nach erfolgter Übertragung wieder ein Bild zusammensetzen zu können, müssen noch
Steuersignale beigemischt werden. So werden zum Beispiel die einzelnen Zeilen durch
einen Zeilensynchronpuls voneinander getrennt.
Abb. 3.3: Typischer Aufbau eines Fernseh - (Video -) Signals
Es existieren mehrere Videostandards. Zwei wichtige Farbstandards beinhalten folgende
Parameter:
PAL (Europa)
NTSC (USA)
Anzahl Halbbilder/sec:
Anzahl Zeilen/Bild:
-> davon für das Bild gebraucht:
50
625
575
60
525
480
Zeilenfrequenz (kHz):
Videobandbreite (MHz):
15.625
5.0
15.75
4.5
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.4
______________________________________________________________________________
Zwischen die zwei Halbbilder wird zusätzlich noch eine Sequenz von "vertikalen"
Synchronisationsimpulsen eingebracht (über ein Intervall von 25 Zeilen verteilt).
Das Bildsignal wird mit γ = 0.5 − 0.6 übertragen. Bei der Wiedergabe wird dies
kompensiert, indem Kathodenstrahlröhren als Display mit γ = 2.5 − 2.8 verwendet werden.
Insgesamt wirkt also das resultierende γ = 1.25 − 1.7 als kontraststeigernd.
Abb. 3.4: Videodisplay mit Kathodenstrahlröhre
Die Übertragung des Videosignals (Luft oder Kabel) erfolgt durch Frequenzmodulation.
Dabei liegen die Trägerfrequenzen in 3 Bändern:
I
III
48.25
175.25
55.25 ... 62.25
182.25 ... 224.25
MHz
MHz
λ
λ
=
=
5 m
1 m
IV/V
471.25
479.25 ... 783.25
MHz
λ =
0.5 m
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.5
______________________________________________________________________________
3.2
CCD - Sensoren und CCD Kameras
3.2.1
CCD - Sensoren
Die Sensoren sind das erste Element in der Kette der Bildaufnahme. Eine geometrisch und
radiometrisch genaue Erfassung des Objektes ist Grundlage jeder präzisen Auswertung. Heute
verdrängen CCD-Sensoren fast vollständig Bildröhren. Sie sind wesentlich kleiner, leichter,
robuster, haben einen grösseren dynamischen Bereich und sind geometrisch stabiler. Der CCDSensor liefert die optisch generierte Information nicht als komplettes Bild weiter, sondern Punkt
für Punkt und zeilenweise in serieller elektrischer Form. Dieses elektrische Signal wird in der
Signalaufbereitungsstufe in ein genormtes Format umgesetzt und anschliessend zum Ausgang
weitergeleitet.
Ein grosser Vorteil ist die sofortige Verfügbarkeit der Information nach dem Belichten, denn bei
der Filmkamera muss der belichtete Film erst entwickelt werden, was Zeit und Geld kostet.
Damit nicht jeder Hersteller seine eigenen Vorschriften zum Auslesen der elektrischen
Information definiert, gibt es eine Video-Norm, durch die eine einheitliche Grundlage und damit
eine Kompatibilität zu anderen Videogeräten geschaffen wurde.
Die meisten heutigen Sensoren sind auf MOS (Metal Oxide Semiconductor) Technologie
aufgebaut. Solche Sensoren können als Zeilen und Flächensensoren gebaut werden.
Klassifizieren kann man sie nach der Auslesemethode, welche starken Einfluss auf die
Belichtungszeit (ohne Verschluss), sensitive Fläche und weitere Effekte hat. Zu unterscheiden
sind: CCD (Charge Coupled Device), CID (Charge Injection Device) und Photodioden. Die
beiden letzteren haben den Vorteil, dass man jedes Bildelement einzeln adressieren und auslesen
kann. Bei CCDs müssen die Ladungen gesamthaft verschoben werden. Hierfür gibt es die
Methode des "Interline Transfer" und des "Frame Transfer". Beim Interline Transfer Sensor sind
Kolonnen von lichtempfindlichen Sensoren neben Transportbahnen angelegt. Die Ladungen
werden in letztere transferiert und während der Belichtung der lichtempfindlichen
Sensorelemente zunächst in den Kolonnen verschoben und anschliessend über eine oder
mehrere Registerzeilen ausgelesen. Der Transfer geschieht sehr schnell, da die Ladungspakete
nur um ein Sensorelement verschoben werden müssen.
Beim Frame Transfer Sensor ist die Sensorfläche in eine Bildzone und eine Speicherzone
aufgeteilt. Die durch das Licht entstandenen und in Potentialtöpfen gesammelten Ladungen
werden schnell in die Speicherzone transportiert und von dort Zeile um Zeile ebenfalls in
Auslesezeile(n) verschoben und anschliessend ausgelesen. Das Verhältnis Belichtungszeit zu
Verschiebezeit des Bildes in die Bildzone ist etwa 19:1. Frame Transfer Sensoren sind
lichtempfindlicher, da die Pixelfläche wesentlich grösser ist. Das Auslesen eines CCD-Sensors
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.6
______________________________________________________________________________
wird meistens durch die Video-Norm festgelegt, die das Timing und die Pegel zur Übertragung
vorschreibt (vgl. Kapitel 3.1).
Typische Flächensensoren liefern in der Grössenordnung 512 x 512 Elemente, wobei die
horizontale Auflösung meist besser ist als die vertikale, da letztere durch die Anzahl Zeilen des
Videosignals beschränkt ist. Die grössten Flächensensoren auf einem Chip enthalten 2K x 2K
Sensorelemente. Durch Zusammensetzen mehrerer Chips lassen sich grosse Flächensensoren
zusammenbauen.
CCD-Chip Formate
Die Formatangabe des Bildsensors in Zoll kommt aus der Zeit, in der es nur Fernsehröhren gab.
Eine runde Aufnahmeröhre mit 1“ Durchmesser (25mm) hatte ein rechteckiges, aktives Fenster
mit einer Diagonale von 16mm. Dieses Format hat man bisher beibehalten.
1“-Chips werden heutzutage nur noch selten eingesetzt, 1/2“ und 1/3“-Chips dagegen finden
immer mehr Anwendung, u.a. im Bereich der Überwachung, bei Miniaturkameras und bei
Home-Videokameras.
Neben Flächensensoren werden gelegentlich auch Linienarrays (Liniensensoren) eingesetzt.
Abb. 3.5: Formate für CCD-Flächenchips
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.7
______________________________________________________________________________
Abb. 3.6: Prinzip CCD Frametransfer
Abb. 3.7: Prinzip CCD-Frametransfer
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.8
______________________________________________________________________________
Abb. 3.8: Prinzip CCD Interline Transfer
3.2.2. CCD Kameras und Bildübertragung
Abb. 3.9 zeigt das Prinzip der Bilddatenakquisition und -übertragung mit CCD - Kameras
Im Folgenden werden einige der dortigen Komponenten kurz erläutert.
Abb. 3.9: Bilddatenakquisition und -übertragung mit CCD - Kameras
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.9
______________________________________________________________________________
CCD-Kamera
Abb. 3.10 zeigt die wichtigsten Elemente einer Halbleiter-Kamera.
Abb. 3.10: Bauelemente einer Halbleiter-Kamera
Das Objektiv ist gewöhnlich ein CCTV-Objektiv (Close Circuit Television) mit einem Coder CS-Adapter. Der Infrarotfilter dient dazu, die IR-Strahlung (>700nm), welche tief in
den Halbleiterchip eindringt, und zu unerwünschten Verwaschungseffekten führt,
zurückzuhalten. Der Diffusor reduziert den Einfluss von Moiré-Effekten und wird oft in
Verbindung mit Interlinetransfer Chips benutzt. Die Glasplatte dient dem Schutz des Chips.
Die Kameraelektronik kann sehr unterschiedlichen Zwecken dienen. Im einfachsten Fall
sorgt sie dafür, dass ein Bild guter Qualität erzeugt wird (so z.B. durch das Unterdrücken
von Rauschen).
CCD-Kameras gibt es in einer grossen Anzahl von Ausführungen und Typen. Tabelle 3.1
zeigt eine Zusammenstellung unterschiedlicher Produkte.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.10
______________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.11
______________________________________________________________________________
Die Abbildungen 3.11 zeigen verschiedene CCD-Kameras unterschiedlichen Aufbaus und
Leistungsfähigkeit.
(a) S-VHS JVC GR-S77E
(b) Sony
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.12
______________________________________________________________________________
(c) Videk Megaplus
(d) Kodak DCS 200
Abb. 3.11: Verschiedene CCD-Kameras
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.13
______________________________________________________________________________
Bildübertragung und Framegrabber
Die Konvertierung der Ladungspakete in Grauwerte, welche als Zahlen im Bildspeicher
dargestellt sind, ist insofern ein wichtiger Prozess, da hier signifikante geometrische und
radiometrische Deformationen auftreten können.
Grundsätzlich ist zwischen analoger und digitaler Bildübertragung zu unterscheiden. Digitale
Daten werden von Kameras generiert, welche einen A/D Konverter integriert haben (z.B.
KODAK Megaplus), von Computer Tomographie Scannern, Satellitensensoren und
Elektronenmikroskopen. Die Verwendung eines digitalen Datentransfers garantiert eine
optimale Bildaufnahme.
Analoge Uebertragung geschieht mit einer Vielzahl von Signalen und Standards. Hier kann
man zwischen "Slow Scan", Video und HDTV (High Definition Television) unterscheiden (vgl.
Tabelle 3.2).
Slow Scan
Standard Video
HDTV
pixel frequency
< 5 MHz
7.5-15 Mhz
> 15 Mhz
frame size
1K x 1K to
4K x 4K
256 x 256
512 x 512
780 x 540
1280 x 1024
gray value
resolution
6-16 Bit
6-10 Bit
6-8 Bit
Tabelle 3.2: Datenraten der analogen Bildübertragung
Slow Scan wird vor allem bei Kameras mit Zeilensensoren und einer Datenrate von weniger als
5 MHz verwendet. Video Signale sind am verbreitetsten mit verschiedenen Standards für
monochrome und farbige Bilder. Die zwei wichtigsten Standards für schwarzweisse Bilddaten
sind CCIR (Consultative Committee International Radio) und RS-170, welcher ein Subset des
Farbstandards NTSC (National Television System Committee) ist. Die typische Datenrate von
mit Video übertragenen Bildern liegt bei 7 bis 15 MHz. HDTV ist in Japan in der Einführung,
es gibt aber auch in den USA und Europa mehrere Normenvorschläge, welche zu
verschiedenen Standards führen dürften.
Die zwei monochromen Videostandards CCIR und RS-170 unterscheiden sich primär in der
Bildfrequenz und der Anzahl Zeilen. CCIR hat eine Bildfrequenz von 50 Bildern/sec und 625
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 3.14
______________________________________________________________________________
Zeilen, wogegen in RS-170 60 Bilder/sec mit 525 Zeilen definiert sind. Das komposite
Videosignal enthält neben der Bildinformation auch Synchronisationsimpulse, welche zur
Steuerung der Kathodenstrahlen von Monitoren ausgelegt werden. Dadurch ergeben sich für
die Messtechnik einige Probleme, welche später noch beschrieben werden.
Framegrabber empfangen die analogen oder digitalen Bilddaten, führen die notwendige
Synchronisation und im Falle von analogen Daten die A/D Wandlung durch und übergeben
die Bilder in spezielle Bildspeicher. Die meisten Framegrabber können den Normen
entsprechende Videosignale empfangen und digitalisieren. Die A/D Wandlung geschieht
typischerweise mit etwa 10 bis 12 MHz. Die Bildgrösse ist meistens 512 x 512 Pixel. Viele
Framegrabber beinhalten auch Bildspeicher, ALUs (Algorithmic Logical Unit), LUTs (LookUp Table), Cursor-, Graphik- und Textgeneratoren, sowie D/A Wandler zur Darstellung der
Bilder und Graphik. Einige Framegrabber haben Möglichkeiten zur Synchronisation mit
anderen Signalen und können eine eigens übertragene Pixelclock für die Zeitgebung des A/D
Wandlers verwenden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.1
____________________________________________________________________________
4. Die Metrische Kamera
4.1 Definitionen
Die ursprüngliche Version einer modernen Kamera ist die "Lochkammer" (Alte Araber, Daguerre).
Abb. 4.1: Invertiertes Bild einer Lochkammer
Anhand der Lochkammer läßt sich das Grundprinzip einer modernen metrischen Kamera erläutern:
H´......
Hauptpunkt
F1-4.....
Rahmenmarken
c........
O.......
Kammerkonstante
Projektionszentrum
r´.........
x´, y´....
Bildradius
Bildkoordinatensystem
M´......
Ursprung des Bildkoordinatensystems
OH´......
Aufnahmeachse, Kammerachse
Abb. 4.2: Geometrische Beziehungen und Bildkoordinatensystem
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.2
____________________________________________________________________________
Die vier Rahmenmarken F1, F2, F3 und F4 definieren ein Bildkoordinatensystem x´,y´ mit Ursprung M´. Der Hauptpunkt H´ ist definiert als die senkrechte Projektion des Projektionszentrums auf die Bildebene. Die Distanz Projektionszentrum zur Bildebene (c) wird Kammerkonstante genannt. H´ sollte mit M´ zusammenfallen.
Innere Orientierung
> Kammerkonstante c
> xH´, yH´ ; Lage von H´ im System x´, y´
Die innere Orientierung ist bei einer metrischen Kamera genau bekannt und stabil. Diese Eigenschaft unterscheidet im wesentlichen die metrische Kamera von der Amateurkamera. Ist
die innere Orientierung eines Photos bekannt, so spricht man von einer "metrischen Aufnahme".
Mit c und r´ kann der Bildwinkel τ eines Bildpunktes P´ berechnet werden:
r´
tan τ =
c
Winkel zwischen ausgezeichneten Punkten können demnach auch aus den entsprechenden
Bildkoordinaten einer metrischen Photographie errechnet werden, wenn c bekannt ist (Genauigkeit: 10cc, Theodolit: 3cc).
Abb. 4.3: Theodolit, metrische Kamera, Winkelrekonstruktion
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.3
____________________________________________________________________________
4.2 Optische Elemente
Die Lochkammer kommt hinsichtlich der geometrischen Verhältnisse dem Modell der Zentralprojektion am nächsten, die Nachteile sind jedoch sofort ersichtlich: Wegen der kleinen Eintrittsöffnung sind lange Belichtungszeiten notwendig. Dies hätte zur Folge, daß bewegte Objekte unscharf wiedergegeben würden. Um den technischen Anforderungen gerecht zu werden,
vergrößert man die Eintrittsöffnung mit einer Linse oder meistens mit Linsenkombinationen.
Die geometrischen Beziehungen der Abbildung werden dadurch komplizierter.
4.2.1 Linsengleichung
Mit der Einführung einer Linse gewinnen wir mehr Licht, aber der Bildpunkt P´ von P fokussiert nur in einem spezifischen Punkt (spezifische Ebene).
a.......Dingweite
a´.......Bildweite
f..........Brennweite
Abb. 4.4: Kammer mit Objektiv
Die von einem Objektiv entworfenen Bilder des Dingraumes liegen aber keineswegs in einer Ebene. Jeder Dingweite a ist eine Bildweite a´ zugeordnet; a und a´ sind über die Linsengleichung
1 1 1
= +
f a a´
mit der Brennweite f verknüpft. Aus der Gleichung wird ersichtlich: Wenn a → ∞, dann ist
a´= f. Soll eine Kamera konstruiert werden, die Scharfabbildung unendlich ferner Objekte
liefert, muß ihre Kammerkonstante c gleich der Brennweite f sein. Die Situation in der obigen Figur ist eine Idealisierung, infolge Linsenfehler (Aberrationen) bilden die in den Bildraum austretenden Strahlen kein eindeutiges Strahlenbündel mehr (Fabrikationsfehler).
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.4
____________________________________________________________________________
4.2.2 Die Aberrationen
Die haupstächlichen Aberrationen sind:
- chromatische Aberration (Farbabweichung), welche für Strahlen unterschiedlicher Wellenlänge unterschiedliche Bildweiten erfordert;
- sphärische Aberration (Kugelabweichung), welche für zentrale Strahlen und Randstrahlen bei der Linse unterschiedliche Bildweiten verlangt;
- Astigmatismus, welcher für durch die Linse hindurchgehende vertikale und horizontale
Randstrahlen unterschiedliche Bildweiten benötigt;
- Bildfeldwölbung, welche unterschiedliche Bildweiten in Abhängigkeit vom Bildwinkel
erfordert;
- Koma, welches durch eine sphärische Aberration für schräg einfallende Strahlen verursacht wird.
Durch Kombination mehrerer konvexer und konkaver Linsenelemente aus Glas mit unterschiedlichen Brechungsindizes entsteht ein Objektiv, welches die Scharfabbildung in der Bildebene genähert gewährleistet.
Beispiele:
Abb. 4.5: Sphärische Aberration
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.5
____________________________________________________________________________
Abb. 4.6: Koma
Analog zur sphärischen Aberration, aber das Strahlenbündel fällt nicht koaxial, sondern
schräg ein.
Abb. 4.7: Astigmatismus
Der Astigmatismus wird verursacht durch Ungenauigkeiten beim Schleifen der Linsen. Strahlenpaare, die in zuenander senkrechten Ebenen liegen, schneiden sich nicht in einem Punkt.
Abb. 4.8: Chromatische Aberration
Die chromatische Aberration wird verursacht durch die unterschiedliche Brechung von verschiedenen Wellenlängen in der Linse.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.6
____________________________________________________________________________
Die Aberrationen stören nicht zwingend die Geometrie des Bildes, sondern das Auflösungsvermögen (Schärfe).
a)
b)
a) Abbildung der Testfigur durch ein gut korrigiertes Objektiv 1
b) Objektiv 2: Einstellung auf beste Mittenschärfe. Die Bildschärfe von a) wird nicht erreicht. Ursache: Öffnungsfehler des Objektives. Der Rand der Figur ist unscharf wiedergegeben. Ursache: Bildfeldwölbung. Die
Quadratseiten sind nach aussen durchgebogen. Ursache: tonnenförmige Verzeichnung
c)
d)
c) Objektiv 2: Einstellung auf den grössten Kreis. Bildmitte und äusserste Bildecken sind gleichmässig unscharf. Die beiden Bildschalen (siehe d) fallen recht gut zusammen. Tonnenförmige Verzeichnung (wie bei
b)
d) Objektiv 3: Einstellung auf den zweitgrössten Kreis, Mitte und Rand weisen sehr grosse Unschärfen auf.
Ausser dem eingestellten Kreis sind noch Stücke der radialen Geraden scharf abgebildet. Ursache: starker
Astigmatismus, d.h., Differenzen zwischen den beiden Bildschalen, in denen die sagittalen bzw. die tangentialen Bildelemente (Radien bzw. Kreise der Testfigur) abgebildet werden. Ausserdem kissenförmige
Verzeichnung.
Abb. 4.9: Beispiele für sphärische Aberration
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.7
____________________________________________________________________________
4.2.3 Die Tiefenschärfe
In Realität sind die photographischen Strahlen, die von einem Objekt ausgehen, nicht einzelne
Strahlen, sondern komplette Bündel, die durch die Blendenöffnung begrenzt werden.
Abb. 4.10: Blende, Zerstreuungskreis
Objektpunkte in unterschiedlicher Entfernung vom Projektionszentrum werden nicht in derselben Bildebene abgebildet. Da jedoch der Film zwangsweise in einer Ebene liegt, bildet
sich ein sogenannter Zerstreuungskreis. Das Ausmass der Zerstreuung ist eine Funktion der
Tiefenschärfe und der Blendenöffnung.
Abb. 4.11: Kleine Blende => kleiner Zerstreuungskreis
Um die Zerstreuung in einem tolerierbaren Rahmen zu halten, kann durch Verkleinern der
Blendenöffnung die Tiefenschärfe vergrößert werden (Konsequenzen: Kleinere Lichtintensität, längere Belichtungszeiten). Bei Luftbildaufnahmen kann mit geöffneter Blende gearbeitet
werden, da die relativen Höhenunterschiede im Verhältnis zur Flughöhe klein sind. In der
terrestrischen Photographie bietet jedoch die Tiefenschärfe oft Probleme (Nahaufnahmen).
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.8
____________________________________________________________________________
Berechnung der Tiefenschärfe:
Abb. 4.12: Elemente zur Berechnung der Tiefenschärfe
u ...
a ...
av, ah ...
Zerstreuungskreis
Abstand zur Objektebene
vordere, hintere Objektpunkte
2
av =
af
2
f + K u (a - f)
2
ah =
af
2
f - K u (a - f)
K ...
f ...
Blendenzahl
Brennweite
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.9
____________________________________________________________________________
4.2.4 Das Projektionszentrum
Bei der Lochkammer bildet das Zentrum der Eintrittsöffnung das Projektionszentrum.
Mit der Einführung eines Linsensystems muß jedoch das Projektionszentrum neu definiert werden.
Abb. 4.13: Projektionszentrum bei einem Linsensystem
Im Gegensatz zur Lochkammer hat die Messkammer je ein besonderes Projektionszentrum, den Mittelpunkt der Eintrittspupille EnP (Projektionszentrum des Objektraumes, objektseitiges Bild der Blende) und den Mittelpunkt der Austrittspupille ExP (Projektionszentrum des Bildraumes, bildseitiges Bild der Blende).
Beachte: Sich entsprechende Hauptstrahlen im Objekt- und im Bildraum sind nicht parallel zueinander.
4.2.5 Die Bildfunktion
Die Strahlenkegel des Objektraumes und des Bildraumes sind nicht kongruent. Mit den in
der Photogrammetrie gebräuchlichen hochpräzisen Objektiven sind jedoch die Deformationen des Kegels beinahe rotationssymmetrisch und können durch den Eintrittswinkel τ
und den Austrittswinkel τ´ beschrieben werden:
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.10
____________________________________________________________________________
Abb. 4.14: Bildfunktion
Die Bildfunktion r´ = F (τ) wird durch die optischen Eigenschaften des Linsensystems bestimmt. Verwenden wir die für die Zentralprojektion geltende Abbildungsvorschrift
r = c tan τ, gilt für den Bildabstand r´ :
r´ = c • tan (τ) .
4.2.6 Kammerkonstante und geometrische Verzeichnung
Die Kammerkonstante c wird durch das Objektiv und die Lage der Bildebene bestimmt, sie ist
charakteristisch für ein bestimmtes Kamerasystem.
Um die Abbildungsfehler zu verkleinern und um eine optimale Fokussierung über das ganze
Bild zu erreichen, bestehen die Objektive moderner Messkammern aus mehreren speziell angeordneten Linsen. Die Herstellung solcher Objektive setzen eine große Erfahrung voraus. Es
ist jedoch in der Praxis (und in der Theorie) nicht möglich, absolut verzeichnungsfreie Objektive herzustellen. Somit muß die Bildfunktion immer um eine radiale Verzeichnung ∆r korrigiert werden:
r´ = c tan τ + ∆r
Diese geometrischen Verzeichnungen haben große Bedeutung in der Photogrammetrie und beeinflussen, im Gegensatz zu den optischen Aberrationen, den Bildort, jedoch nicht die Bildqualität. Aus der Bildfunktion r´ = c tan(τ ) + ∆r erkennt man die Abhängigkeit von c und ∆r.
Wird c um ∂c geändert, erhält man:
∆r + ∂r = r´ - (c + ∂c) tan τ
∂r = - ∂c tan τ
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.11
____________________________________________________________________________
Das heißt, auch bei einem absolut verzeichnungsfreien Objektiv führt eine mit einem
Fehler behaftete Kammerkonstante cf zu einer linearen Verzeichnung (Änderung des
Bildmassstabes!):
r´ = cf tanτ
δr = -δc tanτ = -dc
r´
cf
Die radiale Verzeichnung ∆r, für gegebenes c und τ, ist nur eine Funktion des Bildradius r´:
Abb. 4.15: Radiale Verzeichnung ∆r
Abb. 4.16: Einfluß der radialen Verzeichnung
Moderne Luftbildkamera:
Amateurkamera:
max. radiale Verzeichnung ∆r ≤ 5 µm
∆r ≤ 500µm
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.12
____________________________________________________________________________
4.3 Innere Orientierung und Kammerkalibrierung
Die feste innere Orientierung einer Messkammer erlaubt die Rekonstruktion des Aufnahmestrahlenbündels.
Parameter der inneren Orientierung:
- xH´, yH´...Koordinaten des Hauptpunktes
-c
(- ∆r
...Kammerkonstante
...radiale Verzeichnung)
Abb. 4.17: Parameter der inneren Orientierung
Den Vorgang zur Bestimmung der inneren Orientierung einer Kamera nennt man
Kammerkalibrierung.
a) Definition des Bildkoordinatensystems
Durch Bestimmen der Rahmenmarkenkoordinaten oder deren Abstände erhält man das
Bildkoordinatensystem. In der Praxis werden folgende Rahmenmarkenanordnungen
verwendet : Meistens sind es 4 - 8 Rahmenmarken, ein Réseau (regelmäßiger Raster
über das ganze Bild) oder Rahmenmarkenleisten werden eher selten gebraucht.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.13
____________________________________________________________________________
Abb. 4.18: Rahmenmarkenanordnungen: Zeiss, Wild (aero), Jenoptik, Réseau,
Wild (terrestrisch)
b) Hauptpunktbestimmung
Abb. 4.19: Goniometer zur Bestimmung des Bildhauptpunktes
Der Bildhauptpunkt ist definiert als Durchstoßpunkt der Bildebene mit dem Hauptstrahl, dessen bildseitige (fiktive) Verlängerung senkrecht auf der Bildebene steht. Beachte: Die optische
Achse entspricht nicht der Kameraachse. Der Bildhauptpunkt kann mit einem Kollimator bestimmt werden, der senkrecht zur Bildebene steht. Instrument: Goniometer
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.14
____________________________________________________________________________
c) Kammerkonstante, Bildfunktion, radiale Verzeichnung
Wenn H´ bestimmt ist, können mit der Bildfunktion r´ = F(τ) Bildradien und Objektwinkel τ gemessen und verglichen werden. Die Bestimmung der Bildfunktion kann auf zwei
Arten geschehen:
1. Photographische Bestimmung der Bildfunktion:
Abb. 4.20: Goniometerarray zur photographischen Bestimmung der Bildfunktion
2. Visuelle Bestimmung der Bildfunktion:
Abb. 4.21: Kollimator auf Teilkreis zur visuellen Bestimmung der Bildfunktion
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.15
____________________________________________________________________________
Wie in Kapitel 4.2.6. gezeigt, stehen die Kammerkonstante und die radiale Verzeichnung in
enger Beziehung zueinander: ∆r = r´ - c tan τ.
Verschiedene Berechnungsmöglichkeiten:
1. ∆r = 0 für (r0´, τ0 ) => c0 = r0´/tan τ0
2. Σ ∆r = 0
Σ ∆r = Σ r´ - c Σ tan τ
=> c = Σ r´/ Σ tan τ
3. Σ ∆r2 -> min
Σ ∆r2 = Σ (r´- c tan τ)2 = Σ r´2 − 2cΣ (r´ tan τ) + c2 Σ tan2 τ
δ Σ ∆r2 / δc = -2 Σ (r´ tan τ) + 2 c Σ tan2 τ = 0
=> c = Σ (r´ tan τ) / Σ tan2 τ
Die Kammerkonstante c ist somit eine rein rechnerische Größe und ist nicht physikalisch
definiert. Für die Berechnung der Verzeichnung kann sie als fehlerfrei angenommen werden.
Die radiale Verzeichnung wird für jede Kamera in einer Verzeichnungskurve erfaßt, die im
Kalibrierungszertifikat angegeben ist.
Radiale Verzeichnung (symmetrischer Teil):
∆r
r´
Abb. 4.22: Typische Verzeichnungskurve
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.16
____________________________________________________________________________
∆r = a1r1 + a2 r3 + a3 r5 + ...
(ungerade Potenzen von r)
Ursachen für die Entstehung von Verzeichnung:
- ungenügendes Schleifen der Linsenoberfläche ( Idealform: Paraboloid )
- Dezentrierung der Linsen (keine gemeinsame optische Achse).
∆r ... radiale Verzeichnung
∆t ... tangentiale Verzeichnung
r
α
∆r
Abb. 4.23: Zerlegung des Verzeichnungsvektors
Totale Verzeichnung:
∆rT = ∆rs+ ∆ras
∆rs ...
symmetrisch radial
∆ras ...
asymmetrisch radial
∆t ...
tangentiale Verzeichnung
∆t und ∆ras zusammen definieren die "Dezentrierverzeichnung"
Korrektur der radialen Verzeichnung:
analytisch: ri = ri´ - ∆ri = ctan τi
x ′korri = x ′gem i − ∆x i
y ′korri = y′gem i − ∆y i
∆x i = cos α i ∆ri
∆y i = sin α i ∆ri
y′
α i = arctan i
x ′i
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.17
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.18
____________________________________________________________________________
4.4 Deformationen des Bildstrahls
Die mathematischen Beziehungen der perspektiven Abbildung müssen infolge
systematischer Fehler korrigiert werden. Diese werden verursacht durch:
- GeometrischeVerzeichnung (symm. radial, asymm. radial, tangential)
- Deformation der Basis und der Emulsion
- Atmosphärische Refraktion
- Unebenheit der Bildebene
(- Erdkrümmung)
Filmdeformation
Die Filmdeformation (Emulsion, Basis) hängt von Temperatur, Feuchtigkeit und von
der Beanspruchung ab. Sie verursacht hauptsächlich einen unterschiedlichen Maßstab in
x,y Richtung (anisotrope Deformation, affiner Filmverzug). Glasplatten haben einen
sehr geringen Deformationskoeffizienten, sie werden jedoch wegen des hohen Gewichts nur in der terrestrischen Photographie verwendet. Für die Bestimmung der
Filmdeformation müssen die Rahmenmarkenkoordinaten gemessen und mit den entsprechenden Daten der Kammerkalibrierung verglichen werden. Der Filmverzug eines
Luftbildes (23 x 23cm2) ist in der Regel ≤ 50µm.
xi = xi´ (∆xc/ ∆x´)
yi = yi´ (∆yc/ ∆y´)
c ... aus Kalibrierung
∆x´, ∆y´ ... gemessen
Abb. 4.24: Bestimmung der Filmdeformation
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.19
____________________________________________________________________________
Helmert - Transformation (überbestimmte zweidimensionale Ähnlichkeitstransformation):
xik´ = a1xi´ - a2yi´ + a3;
yik´ = a1yi´ + a2xi´ + a4;
a1...
a2...
Maßstab
Drehung
4 Unbekannte a1 ... a4
4 Rahmenmarken
(8 Koordinaten)
a3, a4...
Verschiebungen
Redundanz: 8 - 4 = 4
Affin - Transformation:
xik´ = b1xi´ + b2yi´ + b3;
yik´ = b4xi´ + b5yi´ + b6;
b1, b5...
b2, b4...
Maßstäbe
Scherungen
b3, b6...
Verschiebungen
6 Unbekannte b1.....b6
4 Rahmenmarken
(8 Koordinaten)
Redundanz: 8 - 6 = 2
Atmosphärische Refraktion
Die Aufnahmestrahlen werden durch
die Atmosphäre gekrümmt und bilden
keine Geraden mehr:
2
∆r = -kr´ (1 +
r´
2
)
c
k...Refraktionskoeffizient = f(hg, Zp)
Beispiel:
c = 153mm; hg = 3,5 km;
r = 80mm; ∆r = - 4 µm
Abb. 4.25: Refraktionsfehler
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.20
____________________________________________________________________________
Erdkrümmung
Problem: Das Bildkoordinatensystem ist orthogonal, die Objektkoordinaten sind jedoch Kugeloder Ellipsoidkoordinaten oder Koordinaten eines Projektionssystems.
Abb. 4.26: Einfluss der Erdkrümmung
Lösung:
Transformation der geodätischen Koordinaten in ein orthogonales System
gentialfläche).
Konventionelle Methode (Näherungslösung):
3
∆r = hg
r
2
2Rc
Beispiel: c = 150 mm; r = 150 mm; hg = 1000 m; ∆r = + 12 µm
(Tan-
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.21
____________________________________________________________________________
4.5. Die äussere Orientierung
Die Elemente der inneren Orientierung (c, H1) erlauben die Rekonstruktion der Form des
Aufnahmestrahlenbündels. Zur Auswertung des Messbildes müssen wir jedoch auch seine Lage und Orientierung im Raum, die "äussere Orientierung", kennen. Diese wird bestimmt durch die drei Raumkoordinaten (X0, Y0, Z0) des Projektionszentrums und
durch die drei Winkel κ, υ, α, welche die Lage der Aufnahmerichtung und der Bildebene
in Bezug auf das Raumkoordinatensystem festlegen (insgesamt 6 Freiheitsgrade).
α...
υ...
κ...
Abb. 4.27: Parameter der äusseren Orientierung
Azimut
Nadirdistanz
Verkantung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.22
____________________________________________________________________________
Falls X ungefähr der Flugrichtung entspricht, ist:
υX...
υY...
Längsneigung ϕ
Querneigung ω
κ...
Verkantung
In der Photogrammetrie werden vor allem die drei Drehelemente κ , ϕ, ω gebraucht, und
zwar als "Rechtssystem".
Abb. 4.28: Definition der Drehwerte ω, ϕ, κ
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.23
____________________________________________________________________________
4.6. Kameratypen
4.6.1. Luftbildkameras
a) Einzelkammer, Reihenmesskammer:
s´
.
s ´ = 23
c
α
F = 23 x23
(Bildformat)
α ... Öffnungswinkel
O
Abb. 4.30: Definition einiger Kameragrössen
Normalwinkel
NW:
Weitwinkel
WW:
Überweitwinkel ÜWW:
c ≈ 30cm
c ≈ 15cm
c ≈ 8.5cm
α ≈ 47g
α ≈ 83g
α ≈ 119g
Das Bildformat (heute standardmäßig 23 x 23
cm) und die Brennweite legen den maximalen
Bildwinkel α fest. Die Belichtung erfolgt in der
Regel durch einen Zentralverschluß (Drehscheibenverschluß) im Objektiv, welcher alle Bildteile gleichzeitig mit hohem Wirkungsgrad belichtet. Das Objektiv ist über den Kammerstutzen
starr mit dem Bildrahmen, der die Rahmenmarken und somit den Bildhauptpunkt festlegt, verbunden. In den Bildrahmen werden auch Uhrzeit, Bildnummer, Libelle und Höhenmesser
eingeblendet. Damit der Film während der Belichtung flach in der Bildebene liegt, wird er
durch ein Vakuum an die Andruckplatte gepreßt.
Abb. 4.31: Querschnitt durch Reihenmesskammer
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.24
____________________________________________________________________________
Früher wurden vorwiegend Photoplatten verwendet, heute benutzt man ausschließlich Filmmaterial.
Einige Reihenmesskammern
Wild
Wild
Wild
Wild
Leica Wild
RC
RC
RC
RC
RC
8
9
10
20
30
(WW)
(ÜWW)
(WW, ÜWW)
(NW, ZW, WW, ÜWW)
(NW, WW, ÜWW)
ca. 60 m Film ≈ 200 Photos
ca. 60 m Film ≈ 200 Photos
ca. 120 m Film ≈ 400 Photos
120-150 m Film, FMC
120 (dick)-219 (dünn) m Film
Abb. 32: Randdaten-Abbildung EDI
FMC („Forward Motion Compensation“ - Bildwanderungsausgleich)
Automatische Belichtungssteuerung PEM
Integrale Messung, α = 80o
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.25
____________________________________________________________________________
Abb. 4.33: Luftbildkamera mit Navigations- und Sucherfernrohr
Zeiss
Zeiss
Zeiss
Zeiss
RMK A 30/23
RMK A 15/23
RMK A 8.5/23
RMK TOP 15, 30
Zeiss-Jena
MRB
(NW)
(WW)
(ÜWW)
(WW, NW)
FMC, Kreiselstabilisierung T-AS
ϕ, ω ± 5o
κ ± 30o
Carl Zeiss Jena LMK 2000
(NW, ZW, WW, ÜWW)
Kreiselstabilisierung SM 2000, FMC
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.26
____________________________________________________________________________
Abb. 4.34: Bewegungskompensation bei der LMK 2000
Abb. 4.35: Objektive für Luftbildkameras
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.27
____________________________________________________________________________
b) Mehrfachobjektive:
Werden vor allem in der Fernerkundung eingesetzt für die gleichzeitige Belichtung mehrerer Spektralbereiche (Filter).
c) Streifenkamera, Panoramakamera
4.6 Terrestrische Kameras
a) Einzelkammer:
Hier gibt es seit Mitte des 19. Jahrhunderts eine lange Entwicklung mit vielen
verschiedenen Kameratypen. Unterschiede bestehen vorwiegend in Bildformat,
Kammerkonstante, Tiefenschärfe und damit auch Objekttiefe und -entfernung,
Orientierungsmöglichkeiten, Bildbasis (Film, Glas) und Zusatzeinrichtungen.
Diese photographischen Kameras verlieren durch zunehmenden Einsatz von
„digitalen“ Kameras auf CCD-Basis immer mehr an Bedeutung.
Eine der letzten erfolgreichen Entwicklungen stellt die Wild P 32 dar. Sie kann
autark, auf einen Theodolit montiert oder auch als Stereokamera eingesetzt werden (vgl. Abb. 4.36 und 4.37).
Abb. 4.36: Wild P 32 auf Theodolit montiert
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.28
____________________________________________________________________________
b) Stereokammern (z.B.SMK 40, 120; Zeiss):
Die Stereokammer besteht aus zwei identischen Messkammern, welche auf einer
festen Basis angebracht sowie parallel zueinander und senkrecht zur Basis starr
orientiert sind. Sie kann auf einem Stativ horizontiert, ausgerichtet, um eine vertikale Achse sowie meistens auch um eine horizontale Achse gekippt werden.
Stereokammern werden für verschiedene Aufnahmeentfernungen mit fester Basis von b = 40 oder 120 cm gebaut. Für Spezialanwendungen in der Industrie
gibt es auch Sonderkonstruktionen, bei welchen die Basis schrittweise oder kontinuierlich verstellbar ist.
Abb. 4.37: Wild P 32 als Stereokammersystem
Rahmenmarken
Emulsion
Basis
Lichtöffnung
Glas
Abb. 4.38: Rahmenmarken in terrestrischen Kameras
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.29
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.30
____________________________________________________________________________
4.7 Die halbmetrische Kamera
Eine Kamera wird als "halbmetrisch bezeichnet, wenn nur ein Teil der Elemente der inneren Orientierung bekannt und über einen längeren Zeitraum konstant ist.
Abb. 4.39: Abbildungseigenschaften verschiedener Kameratypen
(a) Metrische Kamera
(b) Amateurkamera
(c) Halbmetrische Kamera
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.31
____________________________________________________________________________
Typischerweise hat eine halbmetrische Kamera zwar Rahmenmarken, meist ein Réseau, und
damit ein definiertes Bildkoordinatensystem, ist jedoch sonst fokussierbar. Damit ändern sich
Kamerakonstante, Bildhauptpunkt und Verzeichnung je nach Fokussierzustand. Gelegentlich
werden einzelne feste Rasterstellungen für die Fokussierung geboten, für die man dann auch
die Kalibrierungswerte erhalten kann. Eine halbmetrische Kamera ist mit grosser Sorgfalt einzusetzen. Die Kontrolle der veränderlichen Elemente der inneren Orientierung ist wesentlich
für die Erzielung ordentlicher Ergebnisse. Im Bedarfsfall ist eine Rekalibrierung notwendig.
Es gibt eine ganze Reihe halbmetrischer Kameras. Sehr populär geworden sind in letzter Zeit
neben verschiedenen Hasselblad und Linhof Kameras die Rolleiflex 6006 metric und 3003
sowie die Leica R5.
Abb. 4.40: Rolleiflex 6006 metric
Abb. 4.41: Rolleiflex 3003
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.32
____________________________________________________________________________
Abb 4.42: RolleiMetric MR2. Der komplette Arbeitsplatz für Messung mit dem System
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.33
____________________________________________________________________________
Abb. 4.43: Ergebnis einer analytisch photogrammetrischen Architekturauswertung
Abb. 4.44: Mit Anwendungen in der Industrievermessung gewinnt die Nahbereichsphotogrammetrie an Bedeutung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 4.34
____________________________________________________________________________
Abb. 4.45: RolleiMetric MR2. Die Einsatzbereiche
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 1
_____________________________________________________________________________
5. Das Einzelbild
Aufnahmekonstellationen bei Luftbildern:
Nadiraufnahme
Leichte Schrägaufnahme
5g ≤|ν| ≤ 50g
Senkrechtaufnahme (Praxis)
|ν| ≤ 5g
Starke Schrägaufnahme
(Bildhorizont sichtbar)
N..............Nadirpunkt
N´.............Bildnadir
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 2
_____________________________________________________________________________
5.1. Koordinatensysteme
Normalfall:
Bildkoordinatensysterm:
Objektkoordinatensystem:
x, y, z
X, Y, Z
Pi´ (xi´, yi´,0)
Pi (Xi, Yi, Zi)
O (0, 0, c)
O (X0, Y0, Z0)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 3
_____________________________________________________________________________
5.2. Grundlagen der Einbildphotogrammetrie
5.2.1. Bildmaßstab
a´
c
=
a
hg
hg
1
Bildmassstabszahl ... mB =
=
MB
c
Bildmassstab ...
MB =
a = a´ mB = a´
hg
c
5.2.2. Bildversetzung durch Geländehöhenunterschiede
Nadiraufnahme:
∆r´= radiale Bildversetzung verursacht durch
den Geländehöhenunterschied ∆Z
∆X
∆Z
∆X
∆r´
=
=
r´
c
(Ähnliche Dreiecke)
hg
c
∆r′ =
∆Z =
r′∆Z
hg
∆r′h g
r′
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 4
_____________________________________________________________________________
Anwendung:
Berechnung von Höhendifferenzen aus
Vertikalaufnahmen
Gegeben:
hg
Gemessen:
Berechnet:
∆r´, r´
∆Z = ∆r´ hg/ r´
5.2.3. Grundzüge der Zentralprojektion
Vgl. hierzu auch Kapitel 6 !
a) Abbildung einer Geraden:
Allgemein erhalten wir für jeden Objektpunkt P einen Bildpunkt P´ und für jede Objektgerade
l eine Bildgerade l´.
Ausnahmen:
Alle Punkte (Pv) der Verschwindungsebene (Parallelebene durch O zu IP),
Pv′ → ∞
Fluchtpunkte: Fl´... Verschwindungspunkt (Bilder der unendlich fernen Punkte der Geraden l).
Spurpunkt:
Parallele Objektgeradenscharen erzeugen jeweils einen Fluchtpunkt.
Sl´ liegt in IP und ist identisch mit seinem Bild.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 5
_____________________________________________________________________________
Beispiel: Nadiraufnahme
b) Abbildung einer Ebene:
O...
OH´...
ss...
h´h´...
Projektionszentrum
Kameraachse
Spurgerade
bildseitige Verschwindungsgerade (Bildhorizont )
IP...
VP...
OP...
vv...
p´p´...
Bildebene
Verschwindungsebene
Objektebene
objektseitige Verschwindungsgerade
Bildhauptlinie
Liegt OP horizontal, nennt man die bildseitige Verschwindungsgerade h´h "Bildhorizont". Er ist der geometrische Ort der Verschwindungspunkte aller horizontalen
Objektgeraden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 6
_____________________________________________________________________________
5.3. Ausmessung von Einzelbildern; Monokomparator
Das gebräuchlichste Instrument zur Bildkoordinatenmessung ist der Monokomparator. Die
Koordinaten werden mit einem in zwei zueinander senkrechten Richtungen (x,y)
verschiebbaren Kreuzschlitten über ein Betrachtungssystem (Ablesemikroskop) am
Messsystem (xc,yc) abgelesen. Bei manchen Geräten muss vor Beginn der Messung der
Bildträger mit Hilfe der Rahmenmarken ausgekantet werden.
Die gemessenen Komparatorkoordinaten xc, yc müssen in die Bildkoordinaten x, y
transformiert werden. Da nicht alle Komparatoren den Verkantungswinkel kennen, die
Komparatorachsen x und y nicht zwingend senkrecht aufeinander stehen und ferner mit
Filmverzug zu rechnen ist, setzt man zweckmäßig eine Affintransformation ( 6 Parameter)
an.
Für die Bestimmung der Koeffizienten verlangt die Transformation identische Punkte. Dafür
dienen die Rahmenmarken.
Ablesegenauigkeit am Präzisionskomparator: (Auflösung) 0.5-1µm
Messgenauigkeit: 1-3µm
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 7
_____________________________________________________________________________
Komparatorkoordinaten
Transformation
(Ähnlich, Affin)
Bildkoordinaten
Drehmatrix
(3 Drehungen)
Zwischensystem
Maßstab,
(3 Verschiebungen)
Objektkoordinatensystem
5.4. Auswertung von Einzelbildern (Entzerrung)
Eine Luftaufnahme ist eine Zentralprojektion des aufgenommenen Gebietes, die Karte
dagegen eine Orthogonalprojektion. Die Aufgabe der Entzerrung besteht nun in der
Transformation der Zentralprojektion (Bild) in eine Orthogonalprojektion (Karte). Da
Höhenunterschiede bei der Entzerrung Lagefehler verursachen, kann sie streng nur in
ebenem Gelände durchgeführt werden.
Beispiel:
r´ = 100 mm
c
= 150 mm
∆Z = 15 m
∆X = 10 m
MK = 1 : 50`000
∆XK = 0.2 mm
∆X ≈
∆Z r ′
(keine Nadiraufnahme)
c
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 8
_____________________________________________________________________________
5.4.1. Analytische Entzerrung
Projektive Transformation:
X,Y...
x,y...
Objektkoordinaten (Objekt ist eben)
Bildkoordinaten (Lagerung und Orientierung Koordinatensystem beliebig)
X=
a11x + a12y + a13
a31x + a 32y + 1
Y=
a 21x + a 22 y + a 23
a 31x + a 32 y + 1
x=
aˆ11X + ˆa12Y + ˆa13
aˆ 31X + aˆ 32Y + 1
y=
aˆ 21X + aˆ 22 Y + aˆ 23
ˆa 31X + aˆ 32Y + 1
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 5. 9
_____________________________________________________________________________
Wir erhalten je 8 unbekannte Transformationsparameter ( aij, âij ), die durch mindestens 4
Paßpunkte ( 8 Koordinaten ) bestimmt werden.
Paßpunkte: Koordinatenmäßig bekannte und gut sichtbar abgebildete identische Punkte.
Bei der Paßpunktwahl ist auf eine gute Verteilung zu achten.
Nie 3 Paßpunkte auf einer Geraden anordnen !
Bei bekannter innerer Orientierung genügen 3 Paßpunkte.
5.4.2 Digitale Entzerrung
Grundlagen dafür siehe Kapitel 5.4.1. und Kapitel 7.
Eine detaillierte Anleitung findet sich in der zugehörigen Übungsbeschreibung.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.1
______________________________________________________________________________
6. Grundlagen der analytischen Photogrammetrie
Entwicklung der analytischen Photogrammetrie seit etwa 1950.
Kennzeichen:
Messung von Bildkoordinaten einzelner Bildpunkte
⇒ numerische Weiterverarbeitung im Computer
⇒ Ergebnis: Objektkoordinaten:
Gründe für die Einführung der analytischen Photogrammetrie:
Höhere Genauigkeit, Wirtschaftlichkeit ; Verfügbarkeit von Computern
Wesentliche Operationen:
Analytischen Transformationen zwischen Maschinen-, Bild- und
Objektkoordinatensystem.
Manche Verfahren sind noch mit den Methoden und der Denkweise der Analogen
Photogrammetrie verknüpft !
Anwendungen:
Heute praktisch überall (Analytischer Plotter !)
- Aero- und terrestrische Triangulation
- Netzverdichtung
- Kataster, Meliorationen
- Digitales Geländemodell
- Orthophotoherstellung
- Sonderanwendungen (z.B. Ingenieurphotogrammetrie)
Hilfsmittel:
- Messgeräte
- Computer, Datenverarbeitung
- Ausgleichungsrechnung, Statistik
- Matrizen - und Vektorrechnung
- Numerische Mathematik
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.2
______________________________________________________________________________
6.1. Orthogonale und schiefsymmetrische Matrizen
D−1 = DT
Eine orthogonale Matrix ist immer quadratisch:
n
D: n
n,n
Matrix-Vektor Produkt:
y = Dx
x = D −1 y = D T y
 d 11
D = d 21
3, 3
d 31
d 12
d 22
d 32
d 13 
d 11

T
d 23  ; D = d 12
3, 3
d 13
d 33 
d 11
Det (D) = 1 ; d 21
d 31
d 12
d 22
d 32
d 13
d 23
d 33
d 21
d 22
d 23
d 31 
d 32 
d 33 
=1
Wegen D −1 = D T ergibt sich :
D −1 D = I = D T D
d 11
D D = I = d 12
d 13
T
d 21
d 22
d 23
d 31   d 11
d 32  ⋅ d 21
d 33  d 31
2
2
d 11
+ d 221 + d 31

0
=

0

d 12
d 22
d 32
d 13 
d 23  =
d 33 
0
2
d + d 222 + d 32
0
2
12

0

0

2
2 
d 13
+ d 223 + d 33

Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.3
______________________________________________________________________________
Orthogonalitätsbedingungen:
d11d12 + d21d 22 + d 31d32 = 0
2
2
d11
+ d 221 + d 31
=1
d11d13 + d 21d23 + d31d 33 = 0
d12 d13 + d 22d 23 + d 32d 33 = 0
2
2
d12
+ d 222 + d 32
=1
2
2
d13
+ d 223 + d 33
=1
Spalten (Zeilen) von D sind gengenseitig orthogonale Vektoren mit der Länge 1.
Die 9 Elemente von D sind nicht unabhängig voneinander ! Wegen dieser 6 Bedingungen
existieren nur 3 unäbhängige Parameter, welche D voll beschreiben.
Das Produkt zweier orthogonaler Matrizen ist wieder eine orthogonale Matrix:
D, E orthogonal F = D E → F ebenfalls orthogonal
Beweis:
F −1 = (DE )
−1
= E −1 D −1 = E T D T = (DE ) = FT
T
Schiefsymmetrische Matrizen:
Eine Matrix wird als schiefsymmetrisch bezeichnet, wenn sie folgende Form aufweist:
 0 −c b 
S =  c
0 − a 
− b a
0 
ST = −S
;
Cayley's Formel:
Falls S schiefsymmetrisch und R orthogonal, dann gilt:
R = (I + S)(I − S)−1
; R T R = R −1R = I
R = (I + S)−1 (I − S)
.
R … „Rodriguez Matrix“
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.4
______________________________________________________________________________
6.2. Räumliche Drehungen. Drehmatrizen
Abb. 6.1: Ebene Drehung
u i = x i cos ε − y i sin ε
v i = x i sin ε + y i cos ε
u 
cos ε
  =
 

 v  i  sin ε
u 
  =D
ε
 
v i
−sin ε 


cos ε 
x 
 
 
 y i
x 
 
 
 y i
Dε … Rotationsmatrix (transformiert Koordinaten vom System x,y in das System u, v)
Dε
ist orthogonal !
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.5
______________________________________________________________________________
Abb. 6.2: Räumliche Drehung
altes System
neues System
x,y,z
u,v,w
3D-Drehung:
x 
u
 v  = D  y
 
 
 z  i
 w  i
D … Rotationsmatrix
D ist eine 3 x3 orthogonale Matrix. Sie sorgt für die Transformation der Koordinaten von Pi
3,3
vom System x,y,z in das System u,v,w. Die 9 Elemente von D enthalten 3 unabhängige Parameter. Diese können auf verschiedene Weise definiert werden. Ein Ansatz führt zur
Rodriguez-Matrix. Eine weitere Möglichkeit besteht in der Einführung von Drehwinkeln um
die Raumachsen u,v,w.
Die Drehwinkel κ,φ,ω werden in der Photogrammetrie viel benutzt. u,v,w definiert ein rechtsdrehendes Koordinatensystem.
Die Vorzeichen von κ,φ,ω sind so definiert, dass eine Drehung
im Uhrzeigersinn einen positiven Winkel beschreibt.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.6
______________________________________________________________________________
Abb.6.3: Aufspaltung einer räumlichen Drehung
Die räumliche Drehung D kann in eine Folge von 3 Teildrehungen (ebene Rotationen)
Dκ, Dϕ, Dω aufgespalten werden.
κ - Drehung (x, y / u, v - Ebene):
ui = xi cos κ - yi sin κ + 0
vi = xi sin κ + yi cos κ + 0
0 + 0
+ zi
wi =
Abb.6.4: κ- Drehung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.7
______________________________________________________________________________
Drehmatrix Dκ :
cos κ − sin κ 0
D κ =  sin κ cos κ 0
 0
0
1
Transformierte Koordinaten von Pi :
u
v = D
κ
 
 w  i
x 
 y
 
 z  i
φ-Drehung (x,z / u,w-Ebene):
u i = x i cos φ + 0 + z i sin φ
vi =
0
+ yi + 0
w i = − x i sin φ
Abb. 6.5: φ −Drehung
Drehmatrix Dφ :
 cos φ 0 sin φ 
D φ =  0
1
0 
− sin φ 0 cos φ
Transformierte Koordinaten von Pi :
u
v = D
φ
 
 w  i
x 
 y
 
 z  i
0 + z i cos φ
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.8
______________________________________________________________________________
ω-Drehung (y,z / v,w-Ebene):
ui = xi
+
vi = 0
+
yi cos ω − z i sin ω
wi = 0
+
yi sin ω + z i cos ω
0
0
Abb. 6.6: ω-Drehung
Drehmatrix Dω :
0
0 
1

D ω = 0 cos ω − sin ω
0 sin ω cos ω 
Transformierte Koordinaten von Pi :
u
v = D
ω
 
 w  i
x 
 y
 
 z  i
Dκ, Dφ, Dω sind orthogonale Matrizen !
Eine Folge von 3 einzelnen Drehungen kann als Matrixprodukt formuliert werden:
D = Dω Dφ Dκ
Demzufolge wäre die vollständige 3D-Transformation:
x 
x 
u
 v  = D  y = D D D  y
ω
φ
κ  
 
 
 z  i
 z  i
 w  i
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.9
______________________________________________________________________________
Fallunterscheidung:
(a) Drehung um „feste Achsen“ (vgl. vorstehendes Verfahren)
(b) Drehung um „mitgedrehte Achsen“
Erläuterung des Konzepts der „mitgedrehten Achsen“:
(Instrumentell bedingt in Analoggeräten !)
Yneu
Festes System: ωf, φf, ; Raumwinkel ε konstant !
Mitgedrehte Systeme:
(1) φ Primärachse: ωr , φr
(2) ω Primärachse: ωr , φr
ωr = ωf , da ω primär
φ r = φ f , da φ
primär
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.10
______________________________________________________________________________
Beachte: in der terrestrischen Photogrammetrie sollte φ als Primärwinkel dienen.
(a) Drehungen um feste Achsen
Reihenfolge der Rotationen: φ, ω, κ
D = Dκ Dω Dφ
(b) Drehungen um mitgedrehte Achsen
ZEISS Stereoanaloggeräte:
φ primär
ω sekundär
D = Dφ Dω Dκ
κ tertiär
WILD Stereoanaloggeräte:
ω primär
φ
sekundär
D =D ω D φ D κ
κ tertiär
Die vollständige Drehung D ist für alle drei Fälle identisch ( D = D = D ).
Es unterscheiden sich aber die entsprechenden Drehwinkel
( κ ≠ κ ≠ κ , φ ≠ φ ≠ φ , ω ≠ ω ≠ ω ).
Beziehungen zwischen Drehwinkeln verschiedener Systeme können aufgrund von
D = D = D durch Koeffizientenvergleich hergestellt werden:
d11 = d11 = d11
d12 = d12 = d12
M
M
M
d 33 = d 33 = d33
Dies ist z.B. dann ein wichtiger Gesichtspunkt, wenn Drehwerte von Systemen eines
Herstellers auf die anderer Hersteller übertragen werden müssen.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.11
______________________________________________________________________________
Berechnung einzelner Elemente von D:
Für
D = Dω
 d 11
D φ D κ = d 21
d 31
d 12
d 22
d 32
d 13 
d 23 
d 33 
Resultat nach Matrizenmultiplikation:
d 11 = cos φ cos κ
d 21 = cos ω sin κ + sin ω sin φ cos κ
d 31 = sin ω sin κ − cos ω sin φ cos κ
d 12 = − cos φ sin κ
d 13 = sin φ
d 22 = cos ω cos κ − sin ω sin φ sin κ
d 23 = − sin ω cos φ
d 32 = sin ω cos κ + cos ω sin φ sin κ
d 33 = cos ω cos φ
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.12
______________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.13
______________________________________________________________________________
Abb. 6.8: Verschiedene Neigungsfälle für Luftbilder
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.14
______________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.15
______________________________________________________________________________
Abb.6.9: Verschiedene Neigungsfälle für terrestrische Bilder
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.16
______________________________________________________________________________
6.3. Differentielle Drehungen
(Kleine Drehungen dω, dφ, dκ)
sin dω = dω
sin dφ = dφ
cos dω = 1
cos dφ = 1
sin dκ = dκ
cos dκ = 1
0 
1 0

dD ω = 0 1 − dω
0 dω
1 
0 dφ
 1

dD φ =  0
1 0 
− dφ 0 1 
 1 − dκ 0
dD κ = dκ
1
0
 0
0
1
Gesamte Transformation

 1


dD = dDω ⋅ dDφ ⋅ dD κ = dDω ⋅  dκ

− dφ


− dκ
1
d{
φdκ
0

dφ


0

1


Term zweiter Ordnung
− dκ dφ 
 1

dD ≈  dκ
1
− dω
− dφ dω
1 
Multiplikationsgesetz für Drehmatrizen
Wenn D ( 0 ) eine Näherung von D ist, dann kann man D mit
D = dD D ( 0 )
berechnen, falls dD die Korrektur von D ( 0 ) ist.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.17
______________________________________________________________________________
6.4. Ableitungen der Drehmatrix
a) Ableitungen von D κ , D φ , D ω
− sin κ − cos κ 0
∂Dκ 
=  cos κ − sin κ 0 = Tκ D κ = D κ Tκ
D′κ =
∂κ
 0
0
0
0 − 1 0 
Tκ = 1 0 0
0 0 0
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
 − sin φ 0 cos φ
∂Dφ 
= 0
D′φ =
0
0  = Tφ D φ = D φ Tφ
∂φ
− cos φ 0 sin φ 
 0 0 1
Tφ =  0 0 0
− 1 0 0
–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––
0
0 
0
∂Dω 
= 0 − sin ω − cos ω = Tω D ω = D ω Tω
D′ω =
∂ω 
0 cos ω − sin ω 
0 0 0 
Tω = 0 0 − 1
0 1 0 
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.18
______________________________________________________________________________
b) Ableitungen von D
D = F (ω, φ, κ )
dD =
∂D
∂D
∂D
dω +
dφ +
dκ
∂ω
∂φ
∂κ
Für D = D ω D φ D κ :
________________________
∂D
∂Dω
∂D ω
∂D
=
⋅
=
D φ Dκ = Tω Dω Dφ Dκ = Tω D
∂ω ∂D ω
∂ω
∂ω
∂Dφ
∂Dφ
∂D
∂D
=
⋅
= Dω
Dκ = D ω Tφ D φ D κ
∂φ ∂Dφ
∂φ
∂φ
∂Dκ
∂D κ
∂D
∂D
=
⋅
= D ω Dφ
∂κ ∂Dκ
∂κ
∂κ
= Dω Dφ Dκ Tκ = D Tκ
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.19
______________________________________________________________________________
6.5. Perspektive Projektion
6.5.1 Spezialfall : „Normalaufnahme“
x, y, z … Bildkoordinaten
X,Y, Z … Objektkoordinaten
Abb. 6.10: "Normalaufnahme"
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.20
______________________________________________________________________________
Strahlensatz:
(X i − X 0 ) : x i = (Yi − Y0 ) : y i = (Z 0 − Z i ) : c
Andere Formulierung (Massstabsfaktor λ i ):
(I )
Vektorgleichung:
Xi − X 0 = λi ⋅ x i 

(II) Yi − Y0 = λi ⋅ yi 

(III) Zi − Z0 = − λi ⋅ c
r
r
r
Xi − X0 = λi xi
 xi 
r  
x i =  yi 
 − c
 
λ i bestimmt den Massstab der Projektion
Zi − Z 0
c
X − X0
x i = −c i
Zi − Z0
Aus (III) : λ i = −
In (I ) :
In (II) :
y i = −c
Yi − Y0
Zi − Z 0
Wenn die Innere (c) und Äussere ( X 0 , Y0 , Z0 , Normalaufnahme) Orientierung gegeben ist,
können wir aus Objektkoordinaten (X i , Yi , Z i ) immer Bildkoordinaten (x i , yi ) berechnen.
Der umgekehrte Fall:
Xi − X 0
x
=− i
Zi − Z0
c



Yi − Y0
y
=− i
Zi − Z0
c



Transformationsgleichungen der
perspektiven Projektion
Es können nur Verhältnisse bestimmt werden !
Daraus ergibt sich:
Die Bestimmung von Objektkoordinaten
Aufnahme ist nicht möglich !
(X i ,Yi , Z i ) aus einer einzigen metrischen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.21
______________________________________________________________________________
6.5.2 Der allgemeine Fall: (Allgemeine Orientierung der Aufnahme)
Abbildung eines dreidimensionalen Objektes
Abb. 6.11: Abbildung eines Punktes Pi. Allgemeinfall
(
r
 (X 0 Y0 , Z 0 ) Objektkoordinatensystem Vektor X 0
0
r
Bildkoordinatensystem (Vektor x 0 )
 (x 0 , y 0 , c )
 (x , y , 0 )
Pi′  i i
 (u i , v i , w i )
Pi { (X i , Yi , Z i )
)
r
Bildkoordinatensystem (Vektor x i )
r
Zwischensystem (Vektor u i )
(
r
Objektkoordinatensystem Vektor X i
)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.22
______________________________________________________________________________
Kollinearitätsbedingung: „Die Punkte Pi , Pi′ und 0 liegen auf einer Geraden“
r
r
r
r
X 0i = X i − X 0 = λ i ⋅ u i
r
r
(Vergleiche mit der Vektorgleichung der Vertikalaufnahme : u i → x i ):
r r
r
u i ist der Vektor x i − x 0 , im System (u, v, w) dargestellt.
r
r r
u i = D (x i − x 0 )
1
D … Drehmatrix
1 
 1





3
−3








3
=3
3
D=
 d 11
d
 21
d 31
d 12
d 22
d 32
d 13 
d 23 
d 33 
=
 ui 
x i − x 0 
 v  = D y − y 
0
 i
 i
 w i 
0 − c 
d 1T 
 T
d 2  = d1
d 3T 
 
[
d2
d3
]
Somit ergibt sich die Kollinearitätsbedingung in Vektorform zu
r
r
r r
X i − X0 = λ i D (x i − x 0 )
Komponentenform der Kollinearitätsbedingung:
X i − X 0 
x i − x 0 
 Y − Y  = λ ⋅ D y − y 
0 
i
0
 i
 i
 Z i − Z 0 
 0 − c 
Vereinfachung: Annahme x 0 = y 0 = 0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.23
______________________________________________________________________________
3 Gleichungen:
Nach Eliminierung des Massstabsfaktors λi: 2 Gleichungen
 xi 
(I) X i − X 0 = λ i d 1T  y i  ,
− c
 xi 
(II) Yi − Y0 = λ i d T2  y i  ,
− c
X i − X 0 d 11 x i +d 12 y i − d 13 c
=
Z i − Z 0 d 31 x i +d 32 y i − d 33 c
Yi − Y0 d 21 x i +d 22 y i − d 23 c
=
Z i − Z 0 d 31 x i +d 32 y i − d 33 c
 xi 
(III) Z i − Z 0 = λ i d  y i  ,
− c
T
3
Inverse Darstellung der Kollinearitätsbedingung
r
r
r r
X i − X 0 = λ i D (x i − x 0 )
(xr i − xr 0 ) =
Mit
(
r
1 T r
D Xi − X 0
λi
x0 = y0 = 0
)
D −1 = D T
ergeben sich die Komponenten:
X i − X 0 
 xi 


 

  1 T
 y i  = λ D  Yi − Y0 
i


 
 Z i − Z 0 
− c
oder
( I)
da
Xi − X 0 


1
x i = d1T  Yi − Y0 
λi


 Zi − Z0 
Xi − X 0 


1
(II) yi = d 2T  Yi − Y0 
λi


 Zi − Z0 
Xi − X 0 


1
(III) − c = d3T  Yi − Y0 
λi


 Zi − Z0 
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.24
______________________________________________________________________________
Fall 1:
Gegeben: Objektkoordinaten Xi , Yi , Zi von Punkt Pi
Innere Orientierung
Äussere Orientierung D, X0 , Y0 , Z0
→ 3 Gleichungen für λi , xi , yi
Eindeutige Lösung
Fall 2:
Gegeben: Bildkoordinaten xi , yi , von Bildpunkt Pi′
Innere Orientierung
Äussere Orientierung D, X0 , Y0 , Z0
→ 3 Gleichungen für λi , Xi , Yi , Zi
Lösung nicht eindeutig
Es gilt allgemein:
Ein Objektpunkt P kann nicht aus einem einzigen Photo rekonstruiert werden !
Abb. 6.13. Rekonstruktion eines Objektpunktes aus nur einer Aufnahme
Elimination des Massstabfaktors λi:
Einsetzen von Gl. (III) in (I) und (II) ergibt:
d (X – X 0) + d21 (Yi – Y0 ) +d31 (Z i – Z 0 )
x i = – c 11 i
d13 (Xi – X 0) + d23 (Yi – Y0 ) +d33 (Z i – Z 0 )
d (X – X ) + d (Y – Y ) +d (Z – Z )
y i = – c d 12 (X i – X 0) + d 22 (Y i – Y 0) +d 32 (Z i – Z 0)
13
i
0
23
i
0
33
i
0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.25
______________________________________________________________________________
6.5.3 Abbildung einer Ebene
Abb. 6.14: Abbildung einer Ebene
Das Objektkoordinatensystem wird hier so gewählt, dass die X, Y - Achsen in die Ebene ε
zu liegen kommen (Zi = 0).
Kollinearitätsbedingung mit Zi = 0:
Xi = −
Z 0 (d11 x i + d12 y i − d13 c )
+ X0 ,
d 31 x i + d 32 y i − d 33 c
Yi = −
Z 0 (d 21 x i + d 22 y i − d 23 c )
+ Y0 .
d 31 x i + d 32 y i − d 33 c
Substitutionen:
a1 = X0 d 31 − Z 0 d11
b1 = Y0 d31 − Z 0 d21
a 2 = X0 d32 − Z 0 d12
b2 = Y0 d 32 − Z 0 d22
a 3 = c (Z 0 d13 − X0 d 33 )
c1 = d31 ,
c 2 = d 32 ,
b3 = c (Z 0 d 23 − Y0 d33 )
c3 = −d 33c
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.26
______________________________________________________________________________
Neues System:
oder:
a x + a 2 yi + a 3
Xi = 1 i
c1 x i + c 2 yi + c3
;
b x + b 2 yi + b3
Yi = 1 i
c1 x i + c 2 yi + c3
.
a x + a 2 yi + a 3
Xi = 1 i
c1 x i + c2 yi + 1
b x + b2 yi + b3
Yi = 1 i
c1 x i + c2 yi + 1
;
.
Es sind hier 8 unbekannte Parameter (a1 , a 2 , a 3 , b1, b 2 , b3 , c1 c2 ,)
zu berechnen → „Entzerrung“
Beachte: Innere Orientierung muss nicht bekannt sein !
Inverses System:
xi =
A1 Xi + A 2 Yi + A3
C1 Xi + C2 Yi + C3
B X + B2 Yi + B3
yi = 1 i
C1 Xi + C2 Yi + C3
xi =
;
A1 Xi + A 2 Yi + A3
C1 Xi + C2 Yi + 1
B X + B2 Yi + B3
yi = 1 i
C1 Xi + C2 Yi + 1
.
,
.
Identität der projektiven Transformation mit der allgemeinen Form der Kollinearitätsbedingung (perspektive Projektion):
Projektiv
A 1Xi + A 2Yi + A3
C 1X i + C 2Yi + C 3
B X + B2 Yi + B3
yi = 1 i
C1 Xi + C2Yi + C3
xi =
Perspektiv
xi = – c
d11 (Xi – X 0) + d21 (Yi – Y0 ) + d31 (Z i – Z 0)
+ xH
d13 (Xi – X 0) + d23 (Yi – Y0 ) + d33 (Z i – Z 0)
yi = – c
d 12 (Xi – X0 ) + d 22 (Yi – Y0 ) + d 32 (Z i – Z0 )
+ yH
d13 (Xi – X 0) + d23 (Yi – Y0 ) + d33 (Z i – Z 0)
Für xH = yH = 0 und c bekannt:
xi =
–cd 11X i – cd21Yi + cd 11X0 + cd 21Y0 + cd 31 (Zi – Z 0)
d13Xi + d 23Y i – d13X0 – d 23Y0 + d33 (Z i – Z 0 )
yi =
–cd 12X i – cd22Yi + cd 12X0 + cd 22Y0 + cd 32 (Zi – Z 0)
d 13Xi+ d23Yi – d 13X0 – d23Y0 + d 33 (Z i – Z 0)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.27
______________________________________________________________________________
Koeffizientenvergleich:
A 1 = −cd 11
A 2 = −cd 21
A 3 = −cd 11 X 0 + cd 21 Y0 + cd 31 (Z i − Z 0 )
⋅
⋅
⋅
C 3 = −d 13 X 0 − d 23 Y0 + d 33 (Z i − Z 0 )











9 Gleichungen für 6 Unbekannte
X 0 ,Y0 , Z 0 , ϕ, ω, κ
Damit lassen sich die Daten der äusseren
Orientierung aus den Koeffizienten der
projektiven Projektion berechnen !
6.5.4. Abbildung einer Geraden
Die entsprechenden Gleichungen werden erhalten, indem man einen Satz Koordinaten (x, X
oder y, Y) in den Gleichungen zur Abbildung einer Ebene zu Null setzt.
Beispiel: y = Y = 0
Abb.6.15: Abbildung einer Geraden
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.28
______________________________________________________________________________
Resultat:
Xi =
ax i + b
;
cx i + d
xi =
AX i + B
.
CX i + D
Nur 3 Parameter sind hier unabhängig, da gilt:
ax + b
X i = c xi + 1
i
;
xi =
AXi + B
CX i + 1
.
Drei Punktepaare genügen somit, um die mathematische Beziehung zwischen 2
Geraden, welche durch perspektive Projektion aufeinander bezogen sind,
eindeutig herzustellen (z. B. 1,1' ; 2,2' , 4,4').
Beachte: Innere Orientierung muss nicht bekannt sein !
6.6. Differentialformeln für Bildkoordinaten von Normalaufnahmen
Frage: Wie werden die Bildkoordinaten von Normalaufnahmen durch kleine Änderungen
der Elemente der äusseren Orientierung beeinflusst ?
Kollinearitätsbedingung:
r
r
r
X i − X 0 = λ i Dx i
 xi 
r
r r
(x i − x 0 ) ist hier ersetzt durch x i =  y i 
− c
Inverse Formulierung:
r
1 T r
r
xi =
D (Xi − X0 ) ,
λi
X i − X 0 
 xi 
 y  = 1 DT  Y − Y 
0 
 i
 i λ
i
 Z i − Z 0 
− c
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.29
______________________________________________________________________________
Annahme: Normalaufnahme
(ω = ∆ω, φ = ∆φ, κ = ∆κ):
∆κ − ∆φ
 1
D T = ∆D T = − ∆κ
1
∆ω 
 ∆φ − ∆ω
1 
Elimination des Massstabfaktors λ i :
x i = −c
(Xi − X0 ) + ∆κ(Yi − Y0 ) − ∆φ(Z i − Z 0 )
∆φ (Xi − X0 ) − ∆ω (Yi − Y0 ) + (Z i − Z 0 )
(I)
y i = −c
−∆κ (Xi − X0 ) + (Yi − Y0 ) − ∆ω (Z i − Z 0 )
∆φ (Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z 0 )
Allgemeine Funktion:
x i = f x i (X 0 , Y0 , Z0 , ∆ω, ∆φ, ∆κ )
yi = f yi (X 0 , Y0 , Z0 , ∆ω, ∆φ, ∆κ )
Differentiation von (I):
dx i =
∂fxi
∂fxi
∂fxi
dX0 +
dY0 + … +
d∆κ
∂X 0
∂Y0
∂∆κ
dy i =
∂fyi
∂fyi
∂fyi
dX 0 +
dY0 + … +
d∆κ
∂X 0
∂Y0
∂∆κ
Da die Gleichungen (I) unbequem für die praktische Differentiation sind, werden sie
folgendermassen umgeordnet:
Fx i = x i [∆φ(Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z0 )] + c[(Xi − X 0 ) + ∆κ(Yi − Y0 ) − ∆φ(Zi − Z0 )] = 0
(II)
Fyi = yi [∆φ(Xi − X 0 ) − ∆ω(Yi − Y0 ) + (Zi − Z0 )] + c[− ∆κ(Xi − X 0 ) + (Yi − Y0 ) + ∆ω(Zi − Z0 )] = 0
14444444244444443
Ni
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.30
______________________________________________________________________________
Differentiation von (II)
dFxi =
∂Fxi
∂Fxi
∂Fxi
dxi +
dX0 + …
d∆κ = 0
∂x i
∂X0
∂∆κ
dFyi =
∂Fyi
∂Fyi
∂Fyi
dyi +
dX0 + …
d∆κ = 0
∂y i
∂X0
∂∆κ
∂Fx i
= Ni ≈ (Zi − Z0 )
∂x i
∂Fx i
= − x i ∆φ − c
∂x 0
∂Fx i
= − x i + c∆φ
∂Z0
∂Fx i
= − x i (Yi − Y0 ) ;
∂∆ω
∂Fx i
= x i ∆ω − c∆κ
∂Y0
∂Fx i
= c (Yi − Y0 )
∂∆κ
∂Fx i
= x i (Xi − X 0 ) − c (Zi − Z0 )
∂∆φ
∂Fyi
= Ni ≈ (Zi − Z0 )
∂yi
∂Fyi
= − yi (Yi − Y0 ) + c (Zi − Z0 )
∂∆ω
∂Fyi
= − yi ∆φ − c∆κ
∂X 0
∂Fyi
= yi (Xi − X 0 )
∂∆φ
∂Fyi
= yi ∆ω − c
∂Y0
∂Fyi
= −c(Xi − X 0 )
∂∆κ
∂Fyi
= − yi − c∆ω
∂Z0
Übergang d∆ω → dω, d∆φ → dφ, d∆κ → dκ, ( ∆ω , ∆φ , ∆κ ) ≤ ε :
dFx i = (Zi − Z0 )dx i − cdX 0 − x idZ0 − x i (Yi − Y0 )dω+ [x i (Xi − X 0 ) − c(Zi − Z0 )]dφ + c(Yi − Y0 )d κ = 0
dFyi = (Zi − Z0 )dyi − cdY0 − yidZ0 − [yi (Yi − Y0 )+ c(Zi − Z0 )]dω+ yi (Xi − X 0 )dφ − c(Xi − X 0 )d κ = 0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.31
______________________________________________________________________________
Umordnen:
Für flaches Gelände: Z i − Z 0 = − hg
x i (Xi − X 0 ) x i
X − X 0 yi
Y − Y0
,
,
≈
≈ i
≈ i
yi (Yi − Y0 ) − c
− hg
− hg
−c
dx i = −

x i yi
c
x
dX 0 − i dZ0 −
dω + c  1 +

hg
hg
c


c
y
dyi = − dY0 − i dZ0 − c 1 +

hg
hg

x i2 
dφ + y i dκ
c 2 
x i yi
yi2 
dω +
dφ − x i dκ
c
c 2 
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.32
______________________________________________________________________________
6.7. Koplanaritätsbedingung
Analytisches Modell für relative (gegenseitige) Orientierung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.33
______________________________________________________________________________
Vor Vollendung der relativen Orientierung sind die Strahlen P´, P´´ windschief.
Aufgabe der relativen Orientierung: Herbeiführung des Strahlenschnitts, d. h. der
r
r
r
Basisvektor B und die Strahlenvektoren X 0i
′ , X0i
′′ müssen in einer Ebene zu liegen
kommen ("Koplanarität“).
Ableitung unter Benutzung der Kollineariätsgleichung:
r
r
r
r
X 0i = Xi − X0 = λ i ui
r
r r
u i = D (x i − x 0 ) , D … Drehmatrix
a) Lösung durch räumlichen Geradenschnitt
r
r
r
r
X′0i = X i − X′0 = λ ′i u′i ;
r
r
r
r
(II ) X′0i′ = Xi − X′0′ = λ ′i′u′i′ ;
(I )
r
r
u ′i = D′ x′i
r
r
u ′i′ = D′′ x ′i′
linker Strahl
rechter Strahl
__________________________
(I) - (II)
r r
r
r
r
B = X′0′ − X′0 = λ ′i u′i − λ ′i′ u ′i′
r
r
r
B = λ ′ u ′ − λ ′′ u′′
r
B … Basisvektor
Merkformel für Koplanaritätsbedingung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.34
______________________________________________________________________________
Komponentendarstellung:
(I) b x   u ′i − u ′i′ 
(II) b y  =  v′i − v′i′ 
(III)  b z   w ′i − w ′i′
λ′i 
λ′′
 i
Elimination von λ ′i , λ ′i ′ : λ ′i , λ ′i ′ , aus (I), (II) in (III)
Resultat:
b x (w′i v ′i′ − v′i w′i′) + b y (u′i w′i′ − w′i u ′i′) + b z (v′i u′i ′ − u′i v′i′) = 0
Koplanaritätsbedingung
(Komponentendarstellung)
b) Pyramidenlösung:
Dreiseitige Pyramide 0 ′ 0′′ Pi′′ Pi′
Bedingung: Volumen V = 0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.35
______________________________________________________________________________
Volumen einer dreiseitigen Pyramide:
(
)
r r r
1
1
V = Det B, u ′i , u ′i′ =
6
6
bx
by
bz
u ′i
v′i
w ′i
u ′i′
v′i′ = 0
w ′i′
Auflösung der Determinante:
b x (v′i w ′i′− v′i′w ′i ) + b y (u ′i′w ′i − u ′i w ′i′) + b z (u ′i v′i′ −u ′i′v′i ) = 0
Koplanaritätsbedingung
Alternativformulierung:
 0
[u ′i v′i w ′i ]  b z
− b y

 0
rT 
u′  b z
− b y

− bz
0
bx
− bz
0
bx
by 

− bx 
0 
by 
 r
− b x  u ′′ = 0
0 
 u ′i′ 
 v ′′  = 0
 i
 w ′i′
„Schutbedingung“
Merkformel
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 6.36
______________________________________________________________________________
6.8. Literatur
Finsterwalder/Hofmann: Photogrammetrie. Walter de Gruyter & Co., Berlin, 1968,
S. 23 - 44, S. 229 - 233.
Konecny/Lehmann: Photogrammetrie. Walter de Gruyter, Berlin, New York, 1984,
S. 140 - 146.
Schwidefsky/Ackermann: Photogrammetrie. B.G. Teubner, Stuttgart, 1976, S. 34 - 38,
S. 175 - 183.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.1
____________________________________________________________________________
7. Grundlagen der digitalen Photogrammetrie (I)
Die digitale Photogrammetrie befasst sich mit der Auswertung digitaler Bilder. Diese können
durch direkten Bildeinzug (z.B. mit CCD-Kameras) oder durch Scannen analoger Bildvorlagen
gewonnen werden. Zur mathematischen Sensormodellierung, für Orientierungs-, Kalibrierungsund Auswerteverfahren gelten nach wie vor die Grundlagen der analytischen Photogrammetrie.
Dazu kommen Verfahren aus der digitalen Bildverarbeitung, Bildanalyse, Computervision und
Computergraphik.
7.1. Bilddigitalisierung durch Scannen
Bild: 2D-Lichtintensitätsfunktion f (x,y)
x, y … Koordinaten
f (x,y) ist proportional zur Helligkeit (oder "Grauwert") des Bildes im Punkt (x,y).
Abb. 7.1: Bildfunktion eines digitalen Bildes
Ein "digitales Bild" ist ein Bild g(x,y), welches diskretisiert wurde in Bezug auf die
Koordinatenwerte (x,y) (sampling) und auf die Helligkeit (Quantisierung).
Vergleich: Matrix mit x,y als Reihe, Spalte und g als Matrixelement
Matrixelement =ˆ "picture element" (Pixel)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.2
____________________________________________________________________________
Meist werden quadratische Formate benutzt, z.B. 512 x 512 mit 28 = 256 Grauwerten.
Ein derartiges Bild beansprucht 262 Kbyte Speicher.
"Binärbild":
"Halbtonbild":
"Quantisierung":
1 bit - -> 0 oder 1 (weiss oder schwarz)
Bis 8 bit = 256 Grauwerte
Sonderfälle (Medizin) bis 12 bit
Grauwertzuordnung
Entweder die Dichte (D) oder die Intensität (I) werden quantisiert,
wobei die Beziehung gilt:
D= log (1/I)
Farbvorlagen: (a) 3 Digitalisierdurchgänge, Farbfilter oder Farblichtquellen
(Blau-, Grün-, Rotauszug) => Problem: geometrische
Übereinstimmung der drei Auszüge.
(b) 1 Digitalisierdurchgang, z.B. spektrale Zerlegung des Lichtes
durch Prismen.
Der Digitizer konvertiert ein Bild in eine numerische ("digitale") Form, welche kompatibel
mit einem digitalen Computer ist.
Abbildung 7.2 zeigt die diskrete digitale Repräsentation einiger einfacher elementarer
Bildmerkmale.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.3
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.4
____________________________________________________________________________
Abb. 7.2: Digitale Bilder elementarer Bildmerkmale
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.5
____________________________________________________________________________
Digitalisiert werden: (a) Bilder
(b) Texte
(c) Karten, Pläne
Scannerprinzipien
• Trommelscanner (Punktabtastung "Flying spot" mit Laserlicht)
• Flachbettscanner (Punkt-, Zeilen-, Flächenabtastung)
Linear Array CCD
Flächenarray CCD
Beleuchtung
• Auflicht (Papiervorlagen)
• Durchlicht (Transparente Träger)
Auflösung:
"dpi", z.B. 600 dpi = 24 dpmm = 42 µm Pixelgrösse
= 57 600 Pixel/cm2
Beispiel Luftbild: 23 x 23 cm2 S/W
Auflösung 50 lp/mm = 10 µm Pixel → 23 0002 Pixel → 529 MB
Farbe: Faktor 3 mehr
Korrekt: Umrechnungsfaktor „Kell-Faktor“ 2.7
Anzahl Pixel = 2.7 Anzahl lp, d.h. bei 50 lp/mm erhalten wir
richtigerweise 135 Pixel/mm oder aber eine Pixelgrösse von 7.4 µm
Moderner Trommelscanner:
100 000 Pixel Sek-1
Magnetband
Scanning Spot: ≥ 6 µm (quadratisch)
Dichtebereich: 0-4.0
Quantisierung: 8-12 bit
Format: Bis 100 x 100 cm
Beispiel: Optronics ColorGetter Plus, Optronics 5040 Scanner/Laser Plotter, Hell,
Joyce Loebl
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.6
____________________________________________________________________________
Abb. 7.3: Digitales Lese- und Schreibgerät Optronics P 1700
+ Optronics P 1700 ist Photoscanner (Formate ≤ 23 x 23 cm2 )
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.7
____________________________________________________________________________
Abb. 7.4: Prinzip Flachbett Scanner
Beispiele für Flachbettbildscanner:
• Agfa Horizon ("Desktop")
Format: DIN A4 (auch 23 x 23 cm2)
Messsystem: Kabelantrieb, 10 µm genau
Sensor: 3 CCD Linear Arrays (3 x 5000 Pixel)
Scanauflösung: 21, 42 µm Pixel (1200, 600 dpi)
10 Bit Radiometrie
S/W; Farbbilder RGB sequentiell
Scandauer: 5-100 mm/Sek.
Computer: MAC, PC, Sun
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.8
____________________________________________________________________________
•
RM-1 Rastermaster, Wehrli & Associates Inc.
Format: 26 x 26 cm2
Messsystem: Linearencoder, 1 µm Auflösung, 3 µm Genauigkeit
Sensor: CCD Linear Array TDI mit 2048 x 96 Pixel à 13 µm
Aktiv nur 1024 Pixel
Scanauflösung: 12.5, 25, 50, 75, 100 µm Pixel
S/W 8 Bit
Scandauer: Luftbild mit 12.5 µm Pixel ~ 25 Min.
Computer: PC/AT 486
MS-DOS 5.0
Besonderes: Filmspule mit bis zu 80 m Film
•
PS1 PhotoScan, Zeiss Oberkochen (vgl. Abb. 7.5)
Format: 26 x 26 cm2
Messsystem: Linearencoder, 1 µm Auflösung, 2 µm Genauigkeit
Sensor: CCD Linear Array mit 2048 Pixel, 15.36 mm Streifenbreite
Scanauflösung: 7.5, 15, 30, 60, 120 µm Pixel
8 Bit Radiometrie
S/W oder Farbfilter R, G, B
Scandauer: 7.5 µm: < 20 Min
15 µm: < 10 Min
120 µm: < 3 Min
Computer: Intergraph 6000 Serie, Modell IS 6105
Clipper RISC Prozessor
UNIX
•
Leica/Helava DSW 200
Format: 26,5 x 26,5 cm2
Messsystem: Linearencoder, 1 µm Auflösung, < 3 µm Genauigkeit
Sensor: CCD Matrix Array Kodak Megaplus
20292 Pixel à 9 µm
Scanauflösung: 5-15 µm (in Firma eingestellt), dann ein Vielfaches von 2
8 Bit Radiometrie
S/W oder Farbe (simultan)
Scandauer: 7.5 µm: 5-10 Min. VITEC Format
30-60 Min. TIFF Format
Computer: Sun Sparc 20
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.9
____________________________________________________________________________
Abb. 7.5: PS1 PhotoScan
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.10
____________________________________________________________________________
Eine besondere Form des Flachbettscannens ist das "Réseauscanning". Dabei wird eine Bildvorlage
zusammen mit einem darüberliegenden Réseaunetz durch eine CCD-Kamera mit Flächensensor
(Matrixarray) sequentiell abgetastet. Das Réseaunetz dient als Referenzrahmen zur Transformation
der Pixelkoordinaten der einzelnen Aufnahmen in ein einheitliches übergeordnetes
Koordinatensystem
Abb. 7.6. Prinzip der Réseauscannens
(a) Scanprinzip
(b) Bildaufzeichnung
(c) Réseauaufzeichnung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.11
____________________________________________________________________________
Ein Gerät dieser Kategorie ist der VX 3000 von Vexcel Imaging Co.:
Format: 25 x 51 cm2
Messsystem: Réseau, Genauigkeit < 5 µm für 23x23 cm2
Sensor: CCD Flächenarray Kamera
Scanauflösung: 8.5 µm (3000 dpi) bis 160 µm (160 dpi)
8 Bit Radiometrie
S/W; Farbfilter RGB Filter
Computer: UNIX / C
X Windows
Tabelle 7.1: Flachbettbildscanner (Übersicht, Auswahl)
Nach vollendetem Scanprozess liegen die Daten zunächst im Rasterformat vor. Diese
Rasterdaten stehen zu den entsprechenden Vektordaten folgenderweise in Beziehung.
Daten:
Struktur:
Information:
Klassifizierung:
Analysen:
Speicheraufwand:
Vektordaten <--->
Hochgradig
Selektiv, reduziert
Ja
Einfach
Gering
Rasterdaten
Keine
Umfassend
Nein
Schwierig
Hoch
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.12
____________________________________________________________________________
7.2. Direkter Bildeinzug
Vgl. Kapitel 3.2
Eine besondere Form der direkten Bildakquisition ist das "In-der-Kamera-Scannen". Dabei
unterscheidet man die Prinzipien "Mikroscanning" und "Makroscanning". Beim
Makroscanning benutzt man eine metrische oder halbmetrische Kamera zur Abbildung, d.h.
zur Erzeugung eines virtuellen Bildes. Dieses virtuelle Bild wird in der Bildebene der Kamera
entweder durch einen Halbleiterchip direkt erfasst oder über eine zusätzliche Optik auf diesen
Chip abgebildet. Abbildung 7.7 zeigt letzteres Prinzip. Das Réseaunetz dient als
Referenzrahmen zur Transformation der Pixelkoordinaten in das Bildkoordinatensystem der
Kamera.
Abb. 7.7: Prinzip des direkten Bildeinzugs durch Makroscanning
(a) Grundprinzip
(b) Bildaufzeichnung
(c) Réseauaufzeichnung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.13
____________________________________________________________________________
7.3 Ausmessung digitaler Bilder
• Manuell
• Halbautomatisch
• Vollautomatisch
(a) Manuell
Messen mit Cursor am Monitor: Mono, Stereo
Stereo: 2 Messmarken, Stereobetrachtung (Anaglyphen, Splitscreen, Polarisation)
Messauflösung: Bildschirmpixel (0.1-0.2 mm)
Erhöhung der Messauflösung durch Zoomen.
Vorsicht: Bildkontext kann zerfallen --> Limit für Messgenauigkeit
Messauflösung [Inkremente/Pixel]
Messgenauigkeit [1/σ]
Limit
1
2
4
8
16
Limit: σ ≈1/4 - 1/8 Pixel
Abb. 7.8: Zoomfaktor versus Messgenauigkeit und Messauflösung
Zoomfaktor
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.14
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.15
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.16
____________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.17
____________________________________________________________________________
Abb.7.9: Bildzerfall durch starkes Zoomen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.18
____________________________________________________________________________
(b) Halbautomatisch
Konzept: Mensch interpretiert Bildinhalt und macht Grobeinstellung, Computer macht
Feinmessung.
Bild
Fenster
"Messmarke"
Messobjekt
Abb. 7.10: Verfahren der Grobmessung
(c) Vollautomatisch
Problem: Bildinterpretation durch Computer ("Computer Vision")
Mensch: Erkennung --> Messung, (qualitativ stark, besser im Erkennen)
Computer: Erkennung <--> Messung, (quantitativ stark, besser im Messen)
Verfahren der Feinmessung:
(a) Zentroidbestimmung
(b) Template Matching durch Kreuzkorrelation (Musterzuordnung)
(c) Template Matching durch Kleinste Quadrate Korrelation
(--> spätere Vorlesungen)
(d) Andere
+ Lokale Oberflächenanpassung: Ausgleichendes Polynom
(Wendepunkte --> Kantenverlauf = g'(x,y)) -->Max = g''(x,y) = 0)
+ Einpassung geometrischer Elemente (Gerade, Kreis, Ellipse, etc.) auf
Kantenelemente
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.19
____________________________________________________________________________
Zentroidbestimmung (Massenschwerpunkt):
Jedes Pixel wird als Masseteilchen mit Masse = Grauwert angesehen.
•M
M(x M , y M )
y
∑ (xg(x,y))
∑ g(x, y)
∑ (yg(x,y))
=
∑ g(x, y)
xM =
yM
x
Abb. 7.11: Zentroidbestimmung durch gewichtete Mittelbildung
"Allgemeines arithmetisches Mittel" mit Grauwerten g(x,y) als Gewichtsfunktion.
Vorteil: Schnell, einfach
Nachteile: + Setzt Objekte voraus, bei denen der Messpunkt als Massenschwerpunkt
definiert werden kann.
Schwerpunkt
.
Messpunkt
+ Probleme (Verzerrungen) bei syst. Fehlern in der Grauwerten
(vgl. Abbildung 7.12)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.20
____________________________________________________________________________
Abb.7.12: Versetzung des Messpunktes durch Signaldeformation
Template Matching durch Kreuzkorrelation
Exkurs: Filterung
Definition:
Ergebnis:
Anwendungen:
Transformation der Grauwerte, um bestimmte Bildmerkmale
hervorzuheben und /oder zu unterdrücken
--> neues digitales Bild
Bildrestauration, Bildverbesserung, Kantendetektion,
Objekterkennung und Detektion, Rauschunterdrückung,
Datenreduktion.
Filterung entweder im
Ortsbereich (originale Bilddaten)
oder
Frequenzbereich (Transformierte Bildfrequenzdaten mit einer
Frequenztransformation, z.B. Fourier, Hadamard).
Meistens Filterung im Ortsbereich (nur das wird hier behandelt).
Praktische Anwendung:
+ An jedem Pixel wird eine Maske (Fenster, Kernel) zentriert. Die Grösse der Maske definiert
die Nachbarschaft des Pixels, die für die Filterung benutzt wird.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.21
____________________________________________________________________________
(Filterung = Nachbarschaftsoperation (NO)). Die Koeffizienten der Maske bestimmen den
Beitrag jedes Pixels innerhalb der Maske zu dem neuen modifizierten Grauwert des
zentralen Pixels.
+ Je grösser die Maske und/oder je kleiner die zentralen Koeffizienten, desto stärker die
Effekte der Filterung. Iterative Filterung führt ebenfalls zu stärkeren Effekten.
+ Die NO kann linear oder nicht linear sein.
Nicht-lineare NO: - mathematisch schwierig zu analysieren
- algorithmisch aufwendig
- können sehr leistungsfähig sein
- anwendbar für spezielle Probleme (Bildverbesserung, Restauration)
- Beispiele: Median, Wallis.
+ Die lineare Filterung kann als eine Konvolution (Faltung) des Bildes mit der Maske
betrachtet werden. Dies entspricht im diskreten Fall einer gleitenden Mittelwertbildung.
Mit
*
g(x,y)
f(x,y)
h(x,y)
M, N
= Konvolutionsoperator
= Bildfunktion
= Filterfunktion (Maske)
= gefiltertes Bild
= y, x Dimensionen der Maske
Kontinuierliche Bilder:
∞
h(x,y) = f ∗ g =
∞
∫ ∫
f(i, j) g(x − i, y − j) di, dj
−∞ −∞
Digitale (diskrete) Bilder:
M
h (x,y) = f ∗g = ∑
N
∑ f (i, j) g(x − i,y − j )
j=0 i=0
Beispiel:
Maske für gleitende Mittelwertbildung:
1
1
1
1
1
1
1
1
1
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.22
____________________________________________________________________________
Das Ergebnis einer solchen gleitenden Mittelwertbildung ist in Abbildung 7.13 dargestellt.
Abb. 7.13: Tiefpassfilterung einer Kante durch 3 x 3 Mittelwertbildung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.23
____________________________________________________________________________
Filterklassifizierung
- Tiefpassfilter
Die tiefen (kleinen) Frequenzen, d.h. lange Wellenlängen (Merkmale grösser als die Maske)
werden hervorgehoben, die hohen Frequenzen unterdrückt.
Ergebnis ---> Weicheres, weniger scharfes Bild
Rauschen, Kanten, kleine Merkmale geglättet.
- Hochpassfilter
Das Gegenteil vom Tiefpassfilter.
Ergebnis ---> Schärferes, kontrastreicheres Bild
Kanten und Rauschen hervorgehoben
Gefahr: Rauschhervorhebung; deshalb Anwendung, wenn Rauschanteil gering,
d. h. Rauschwerte wesentlich kleiner als die Bildwerte.
- Bandpassfilter
Vorgewählte Frequenzbereiche (Bänder) werden hervorgehoben, die übrigen unterdrückt.
- Matched Filter (Template Matching)
Detektion eines vorgegebenen Bildes (Template) in einem anderen Bild. Das Objekt wird
dort detektiert, wo eine Ähnlichkeitsfunktion zwischen Template und Bild maximiert
wird.
Beispiel Kreuzkorrelation:
M
R gf (x, y) = ∑
N
∑ f (i, j) g(x − i,y − j) .
j=0 i=0
f(i,j) … Template
Normalisierte Kreuzkorrelation:
Σ Σ g – g f–f
2
Σ Σ g – g Σ Σ f–f
g, f… Mittelwerte von g, f
R g f (x,y) =
2 1/2
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.24
____________________________________________________________________________
N
Fenster
Template
Maximum
für Rgf(≤ 1)
M
y
Target
x
Abb. 7.14: Verfahren der Kreuzkorrelation
Probleme mit Kreuzkorrelation:
Methode verlangt Kongruenz zwischen Template und Bild. Drehungen, massstäbliche
Änderungen und Deformationen höherer Ordnung sind nicht berücksichtigt.
7.4. Grauwertinterpolation
Viele Operationen, z. B. die Drehung eines Bildes, verlangen eine Grauwertinterpolation:
Rotation
g(x,y)
g(x,y)
Grauwerte im g x,y stehen nicht mehr auf Integer-Positionen > Grauwerte des Bildes
g x,y müssen auf Integer-Positionen interpoliert werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.25
____________________________________________________________________________
Verfahren:
Artifakte:
Aufreissen von
schrägen Linien
(b) Bilinear
Lokales Koordinatensystem:
1,1
0,1
g (x , y ) = d + ax + by + cxy
g
y
0,0
x
1,0
g (xy ) = [g (1,0 ) − g (0,0)]x + [g(0,1) − g(0,0 )]y +
+ [g(1,1) + g(0,0) − g(0,1) − g(1,0)]xy + g(0,0)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 7.26
____________________________________________________________________________
(c) Interpolation höherer Ordnung
Kubische Splines, sin (x)/x (sinc-Function), etc.
Anwendungen:
• Korrektur geometrischer Verzeichnungen
• Entzerrung für Display; Transformation in andere Projektionen
• Überlagerung (Image Registration) Bild/Bild, Karte/Bild
• Änderung Bildformat
• Kartenprojektion
7.5. Geometrische Bildtransformationen
Änderung der Bildgeometrie.
2 Stufen: (a) Metrische Transformation
(b) Grauwertinterpolation
Metrische Transformation:
g x,y = g a x′,y′ , b x′, y′
Die Funktionen a,b definieren eindeutig die Art der Transformation.
Funktionen a, b kontinuierlich --> "Connectivity" (Topologie) von Pixeln bleibt
erhalten.
Wichtige Transformationen:
x = x ′ + ∆x
y = y ′ + ∆y
} Verschiebung
x = cos ϕ x′ − sinϕ y′
y = sinϕ x′ + cosϕ y ′
} Drehung
} Massstäbliche Änderung
Affine Transformation
}
x = mx ′
y = m y′
x = a 1 x ′ + a 2 y′ + a 3
y = b1 x ′ + b 2 y ′ + b 3
x=
a 1x′ + a2 y′ + a 3
c 1x′ + c2 y′ +1
y=
b 1 x′ + b 2 y′ + b 3
c 1x′ + c2 y′ +1
} Projektive Transformation
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.1
________________________________________________________________________________
8. Stereoskopie und Parallaxe
Problem: Bei einer projektiven Abbildung entspricht jedem Objektpunkt P (XP, YP, ZP)
genau ein Bildpunkt P´. Umgekehrt werden jedoch jedem Bildpunkt die unendlich
vielen Punkte des projizierenden Strahles zugeordnet.
Folge:
Der Objektpunkt P ist nicht definiert. Selbst bei bekannter innerer Orientierung ist
die Rekonstruktion eines Einzelbildes nur möglich, wenn zusätzliche Angaben
über das Objekt vorliegen, zum Beispiel, wenn das Objekt in einer Ebene liegt
oder die Höhen der Objektpunkte bekannt sind. Ansonsten können nur
Koordinatenverhältnisse Xp / Zp, Yp / Zp abgeleitet werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.2
________________________________________________________________________________
Allgemeine Lösung:
Für die Bestimmung der Koordinaten ist ein zweites Bild erforderlich, welches den Punkt P von
einem unterschiedlichen Standort aus abbildet. Durch diese zusätzliche Aufnahme ist P
eindeutig bestimmt (Schnitt der beiden Aufnahmestrahlen). Zusätzlich hat man die Möglichkeit
zur stereoskopen Bildbetrachtung.
8.1. Konzept der Kernebene
Beim natürlichen stereoskopischen Sehen bilden die Augenbasis und der betrachtete Punkt eine
Ebene. In dieser Ebene werden die den Raumeindruck verursachenden Horizontalparallaxen
vom Auge erfasst und im Gehirn ausgewertet. Deshalb muß auch das künstliche stereoskope
Sehen nach diesem Prinzip erfolgen. Die Aufnahmebasis O´O´´ und der zu erfassende Punkt P
bilden die sogenannte Kernebene.
Die Spuren der Kernebene mit den beiden Bildern ergeben in jedem von ihnen eine Kerngerade,
auf welcher die Bildpunkte abgebildet sind. Alle Kerngeraden zusammengehöriger Bildpunkte
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.3
________________________________________________________________________________
schneiden sich auf der Spurgeraden s. Alle Kerngeraden eines Bildes formen ein
Strahlenbüschel mit Zentrum im Kernpunkt K´ (K´´). Eine Ausnahme bildet der "Normalfall".
Spezialfall: Normalfall
Bei der Aufnahme stereoskopischer Bilder wird oft der Normalfall angestrebt, d.h.
zusammengehörige Aufnahmen werden so angeordnet, dass die Aufnahmerichtungen parallel
zueinander und senkrecht zur Basis sind. Dann sind auch die Bildebenen zur Basis parallel. Die
Kernpunkte K´, K´´ liegen im Unendlichen.
Früher wurden die Kernpunkte K´,K´´ für graphische Konstruktionszwecke benötigt. Heute
erleichtert die Theorie der Kernebenen das Verständnis der Bedingungen für das
stereoskopische Sehen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.4
________________________________________________________________________________
8.2. Räumliches Sehen
8.2.1. Das menschliche Auge
Aufbau
Das menschliche Auge ist ein kugelförmiger Körper von etwa 25 mm Durchmesser. Es ist von
der harten weissen Lederhaut umschlossen, die es vor Verletzungen schützt. Sie ist in ihrem
vorderen Teil durchsichtig und wird hier als Hornhaut bezeichnet. Unter der Lederhaut liegt die
Aderhaut, welche die das Auge ernährenden Blutgefässe enthält und infolge ihrer dunklen
Färbung das Augeninnere vor zerstreutem Licht schützt.
Die Netzhaut setzt sich aus sehr vielen feinen, lichtempfindlichen Zellen (Stäbchen u.
Zäpfchen) zusammen, welche die Enden der Nervenfasern des Sehnervs sind. Die etwa 7
Millionen Zäpfchen sind vor allem im Zentrum des Gesichtsfeldes, im sog. „gelben Fleck“
gehäuft. Sie sind licht- und farbempfindlich (Ø 2-8 µm). Die etwa l20 Millionen nur
lichtempfindlichen Stäbchen (Ø 2 µm) fehlen dort, sind aber sonst über das ganze Gesichtsfeld
verteilt. An der Eintrittsstelle des Sehnervs, dem blinden Fleck, fehlen beide.
Querschnitt durch das menschliche Auge
N = Netzhaut
C = Cornea (Hornhaut) n = 1,38
A = Vorderkammer (Kristallwasser)
n = 1,34
L = Augenlinse n = 1,41
Q = Gallertkörper n = 1,34
J = Iris
Z = Ziliarmuskel
Nf = gelber Fleck mit Fovea, Macula
T = Sehnerven (blinder Fleck)
D = Aderhaut
S = Sehnen; Lederhaut
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.5
________________________________________________________________________________
Funktionsweise
Das Auge stellt ein optisches System dar, bei dem durch die aus einem hornähnlichen,
durchsichtigen Stoff mit der Brechungszahl n ≈1,41 bestehende Kristalllinse zusammen mit
der Hornhaut und dem Kristallwasser von den betrachteten Gengenständen reelle, verkleinerte
umgekehrte Bilder entworfen werden, die das Bewusstsein aufrecht wahrnimmt. Dabei werden
beim Auftreffen von Lichtstrahlen auf die Sehnervenzellen elektrische Impulse ausgelöst, die
über die Sehnerven zum Gehirn gelangen und dann dort als Lichtstrahlen wahrgenommen
werden. Da diese Impulse durch chemische Veränderungen in den Stäbchen und Zäpfchen
hervorgerufen werden, verschwindet die Lichtempfindung nach Beendigung des Lichteinfalles
nicht sofort. Der Eindruck wirkt etwa noch 1/20 Sekunden nach. Deshalb werden Eindrücke,
welche etwa in 1/20 Sekunde aufeinanderfolgen, auch nicht mehr scharf voneinander
unterschieden, sondern kontinuierlich aneinandergereiht, was seine besondere Bedeutung
bespielsweise beim Kino und Fernsehen hat.
Analog zur Blendeneinstellung bei einer Kamera wird das einfallende Licht durch Verändern
der Pupillenöffnung zwischen 2 und 8 mm durch die Iris (farbiger Teil des Auges) gesteuert.
Ebenfalls muß das Auge für Scharfabbildung die Bedingungen der Linsengleichung einhalten.
Da seine Bildweite für Einstellung auf Unendlich konstant ist
f ∞ = 23mm ,
muß die
Brennweite variiert werden können. Dies ist gewährleistet durch die Fähigkeit des Auges, mit
dem Ziliarmuskel die Krümmung der Augenlinse in Abhängigkeit von der Objektentfernung
zu verändern (Akkommodation). Die Augen lassen somit das Bild trotz wechselnder Objektentfernungen immer automatisch scharf auf der Netzhaut entstehen. Es wird jedoch nur in der
Umgebung der optischen Achse im Bereich des gelben Flecks deutlich wahrgenommen. Der
gelbe Fleck ist eine kleine Vertiefung in der Mitte der Netzhaut mit einem Durchmesser von 2
mm und einem Öffnungswinkel von 7g, d.h. bei einer Sehweite von 25 cm (Leseentfernung)
beträgt der Durchmesser des scharf abgebildeten Objektbereichs ca. 30 mm. Um das ganze
Objekt scharf zu erfassen, besitzen die Augen die Fähigkeit, die Richtung der optischen Achse
sehr rasch zu verändern und zu akkommodieren.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.6
________________________________________________________________________________
Scharfsehen
Das eigentliche Scharfsehen vermitteln die Zäpfchen, da die Stäbchen (nicht farbempfindlich)
viel lichtempfindlicher sind und bei hellem Licht wegen Übermüdung völlig ausfallen. Wird
beim Sehen nur 1 Zäpfchen erregt, so empfindet das Auge den Gegenstand als Punkt.
Zwei Gegenstände erscheinen dem unbewaffneten Auge nur dann getrennt, wenn der Abstand
ihrer Bildpunkte auf der Netzhaut grösser als der Durchmesser eines Zäpfchens ist.
Damit ergibt sich der Genzwinkel für das Trennungs- oder Auflösungsvermögen des Auges
nach vorstehender Skizze zu
4 µ ⋅ ρcc
ω=
≈ 160cc ;
15 mm
Da dieser Wert jedoch von der Güte des Auges abhängt (Schwankung zwischen 30cc und 300cc),
nimmt man im allgemeinen ω = 2c, was bei einer Entfernung von 25 cm ca. 0.07 mm entspricht.
Die Verschiebung zweier gerader Linien (für den Geodäten etwa bei der Noniusstrichablesung
von Interesse) wird hingegen noch bei etwa 30cc (von manchen Personen gar bei 10cc )
wahrgenommen. Dies lässt sich daraus erklären, dass das Bild der Linien mehrere Zäpfchen
erregt und somit vom Auge leicht bemerkt wird.
Die photographische Auflösung eines Bildes beträgt 0.02 - 0.03 mm, d.h. das Bild muss bei der
Interpretation zur vollen Ausnutzung seiner Auflösung etwa drei- bis viermal vergrössert
werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.7
________________________________________________________________________________
Das zweite Auge erlaubt die binokulare Betrachtung eines Objekts. Dabei beträgt der mittlere
Augenabstand (Basis) ~ 65mm. Die beiden Bilder des Objekts werden im Gehirn zur Deckung
gebracht. Die Auflösung wird durch diese Überlagerung etwa auf das Dreifache verbessert.
Vergleich Auge - Kamera:
Analogien:
Auge:
- Hornhaut
- Linse
- Netzhaut
- Iris
- Pupille
Kamera:
- Filter
- Objektiv
- photographische Schicht
- Blende
- Eintrittsöffnung
Unterschiede: - Bildseitiges Medium Wasser
- Fokussierung durch Brennweitenänderung (Ziliarmuskel), Akkommodation
- Scharfabbildung nur im Bereich des gelben Flecks
8.2.2. Natürliches stereoskopes Sehen
Räumliches Sehen ist nur mit zwei gesunden Augen möglich. Der subjektive räumliche
Eindruck, der durch Sehen mit einem Auge entsteht, beruht nur auf Erfahrungswerten, auf den
scheinbaren Größenunterschieden der betrachteten Gegenstände, Verdeckungen, etc. Betrachtet
man ein Objekt P1 in endlicher Entfernung, so bilden die beiden optischen Achsen einen
Konvergenzwinkel γ , und unterschiedlich entfernte Objekte P1, P2 ergeben Bilder mit
Parallaxen entlang der Richtung der Augenbasis bA. Das Gehirn verarbeitet die durch den
Differenzwinkel δ erzeugte Parallaxen P1´´P2´´, so daß der Mensch einen räumlichen Eindruck
empfindet, welcher als stereoskopisches Sehen bezeichnet wird.
Die Auflösung beim stereoskopischen Sehen ist deutlich grösser als beim monoskopischen
Sehen (Faktor 3).
Auflösung der Augen:
Ein Auge
Beide Augen
δmin = 2c
δmin = 30cc - 80cc
-> monoskopisch
-> stereoskopisch
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.8
________________________________________________________________________________
Es stellt sich nun die Frage, wie klein ein Tiefenunterschied sein darf, um vom Auge noch
als solcher erkannt zu werden.
Mit
b A << y ergibt sich
γ≈
bA
y
dγ ≈ −
bA
y2
dy
Fehler in der Tiefenwahrnehmung: dy ≈ −
y2
bA
dγ
Für dγ = δmin ≈ 50cc:
y2
50 cc
y2
dy = −
⋅
≈−
[m]
0,065 ρ cc
825
Für
y = 0,25m:
dy = 0,07mm
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.9
________________________________________________________________________________
Dies entspricht dem minimalen erkennbaren Tiefenunterschied auf die Distanz von 25cm.
Für dy = y verschwindet das Tiefenwahrnehmungsvermögen der Augen vollständig. Dies
gilt für die Entfernung y = 825m. Tatsächlich liegt die praktische Grenze für viele Personen
bei
y ≈ 500m. Das darüber hinaus dennoch auftretende Gefühl für Tiefenunterschiede
beruht nur auf der Erfahrung.
8.2.3. Künstliches stereoskopes Sehen
Das Objekt, das betrachtet werden soll, wird nun durch Bilder (Photographien) ersetzt. Es
müssen, um einen stereoskopen Eindruck zu erlangen, drei Bedingungen erfüllt werden:
1) Jedem Auge muß separat ein Bild des Objektes zugeführt werden. Die zwei Bilder
müssen von verschiedenen Standpunkten aus aufgenommen worden sein.
2) Das Betrachten dieser Bilder muß in Kernebenen erfolgen. Das heisst, die Richtungen zu
homologen Bildpunkten müssen sich näherungsweise im 3-D Raum schneiden. Kleine
"Restparallaxen" py kann das Gehirn kompensieren.
3) Freies stereoskopes Sehen (ohne optische Hilfsmittel) ist nur möglich, wenn homologe
Bildpunkte (P´/ P´´) den Abstand der Augenbasis nicht überschreiten (bA ≈ 65mm).
Eine Divergenz der Augenachsen muß vermieden werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.10
________________________________________________________________________________
Künstliche Verbesserung des Tiefeneindrucks:
2
y
dy = dγ
bA
a) Basis bA vergrössern auf n bA (n > 1)
b) Reduktion von dγ durch Vergrösserung der Bilder um den Faktor v
dy = -
1
nv
2
y
dγ
bA
{n v} -> "Totale Plastik"
In der Luftbildphotogrammetrie ist b = n bA >> bA
Betrachtungsmöglichkeiten eines Stereopaares
8.2.4. Instrumentelle Hilfsmittel zur Stereobetrachtung
a) Stereoskope
Zweck: + Jedem Auge wird genau ein Bild zugeordnet.
+ Die natürliche Kopplung der Akkommodation (Fokussierung) und
Konvergenz (Anzielen) des Auges wird aufgehoben.
+ Das betrachtete Bild wird vergrössert.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.11
________________________________________________________________________________
Typen:
+ Linsen- oder Taschenstereoskop
Vorteil: Klein, billig, handlich
Nachteil: Beschränktes Bildformat
+ Spiegelstereoskop
Vorteil: grössere Bildformate, variable Vergrösserung
Figur: Spiegelstereoskop
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.12
________________________________________________________________________________
Beim Spiegelstereoskop ist ein Prisma eingezeichnet. Tatsächlich existieren auf beiden Seiten
solche Prismen. Um das ganze Bild zu betrachten, müssen nun nicht die Bilder unter den
Linsen herumgeschoben werden, sondern durch Drehen der Prismen kann das ganze Bild
abgetastet, also alle Teilbereiche überblickt werden.
(b) Bildtrennung durch Anaglyphen (Rot-Grün Farbbilder)
Das Anaglyphenverfahren wurde 1853 von Rollmann eingeführt. Es beruht auf der
Subtraktionseigenschaft von Komplementärfarben.
Farbenkreis (Rollmann):
rot
gelb
purpur
WEISS
blau
grün
blaugrün
Druckverfahren
blau-grün
rot
Druck
rot
blau-grün
Brille
schwarz schwarz
Bild (visuell)
Es werden zwei komplementär
gedruckte Bilder mit einer
Farbbrille gleicher Farbwahl
betrachtet.
Gesehen wird ein stereoskopes
schwarzes Bild.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.13
________________________________________________________________________________
Projektionsverfahren
Licht
Projizierte Bilder
Funktionsweise:
Die schwarzen Linien im grün
projizierten Bild werden vom
rechten Projektor mit rotem Licht
belichtet, daher sieht man sie mit
dem grünen Brillenglas schwarz
Gleiches gilt für das rot projizierte
Bild und dessen Betrachtung mit
dem roten Brillenglas.
Brille
Vorteil: s/w - Bilder können
betrachtet werden.
Filter
Bild (schwarz-weiss)
Projektionsfläche
blaugrün
rot
blaugrün
rot
Ergebnis
schwarz
(c) Polarisation
Vorteil: - Es kann mit Farbbildern
gearbeitet werden
- Der Lichtverlust im Filter
ist gering
Polarisatoren
Analysatoren
Polarisationsfilter
Nachteil: - Empfindlichkeit gegen
Kopfbewegungen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.14
________________________________________________________________________________
(d) Schwingblenden, SIA (Stereo Image Alternator)
Betrachter
Blende
(30Hz)
Vor beiden Augen befinden sich
Verschlüsse, die sich mit einer
Phasenverschiebung von 180 grad
Licht
öffnen und schliessen. Ist der eine
Verschluss offen, so ist der andere
geschlossen. Dasselbe System
von Verschlüssen ist vor den Lichtquellen angebracht. So wird jedem
Verschluss (30Hz)
Auge "sein" Bild zugeführt.
Vorteil: Volle Lichtausnützung
(e) „Elektronische“ Stereodisplays
Die Stereobetrachtung digitaler Bilder kann nach folgenden Prinzipien erfolgen:
(1) Stereoskopverfahren (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Minimonitore)
(2) Anaglyphen
(3) Elektromechanisches Zeitmultiplexen (vgl. SIA, Verschlussprinzip)
(4) Polarisierung (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Einmonitorsystem
aktiv, passiv (PLZT, LCS))
(5) Autostereoskopie (wechselndes Bildpaar mit Vertikalparallaxen)
(6) Monitor mit Zylinderlinsen
(7) Holography
(8) Andere (Zykloramischer Display, LC Sandwichmonitor, Vari-fokaler Spiegel, etc.)
Von praktischer Bedeutung sind lediglich die Methoden (1), (2) und (4).
Diese werden im folgenden detailliert dargestellt. Dabei unterscheiden wir die Varianten
(α) Stereoskopverfahren (Splitscreen)
(β) Polarisierung im Zweimonitorsystem
(γ) Polarisierung aktiv mit PLZT oder LCS
(δ) Polarisierung passiv mit LCS
(ε) Anaglyphen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.15
________________________________________________________________________________
(ε) Anaglyphen
grün/rot
Vorteil: preiswert
Nachteile: Kein Display von Farbbildern möglich
Halbierung der Displaytiefe für jedes Bild
( Einzelbild:
8 bit
, Doppelbild:
4 bit
Ghosting/Crosstalk
4 bit )
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.16
________________________________________________________________________________
8.3. Stereoskopes Messen
In der Photogrammetrie werden Bild- und Modellkoordinaten gemessen. Das Messen von
Bildkoordinaten erlaubt der Stereokomparator (z. B. STK I von Wild / PSK I, II von
Zeiss). Mit ihm werden Einzelpunkte ausgewertet. Vergleiche dazu auch Kapitel 7.3.
Ausmessung von Einzelbildern; Monokomperator.
Beim Messen von Modellkoordinaten wird punktweise und linienweise ausgewertet.
(a) Messen von Bildkoordinaten mit einem Stereokomparator:
Der Stereokomparator wurde 1901 durch Pulfrich für die Firma Zeiss entwickelt.
Zum Prinzip :
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.17
________________________________________________________________________________
Besonderheiten:
Neben x', y' werden die Parallaxen
px = x' - x'', py = y'-y'' direkt gemessen.
Bei dem alten Pulfrich'schen Gerät werden zur x', px, py - Messung die Bildbühnen bewegt,
zur y'-Messung dagegen das Betrachtungssystem mit M', M''. Bei neueren Geräten ist das
Betrachtungssystem fest. Gemessen werden x', y', x'', y'' oder x', y', px, py.
Zur Stereomessung am Bildschirm bedarf es zweier Messmarken, die über je zwei
Freiheitsgrade (x,y) im Pixelraum verfügen. Zur Kontrolle dieser Messmarken können die
üblichen Elemente benutzt werden (Maus, Rollkugel, Drehzylinder, Joystick, Tastaturknöpfe,
etc.).
Auch die Messung im Stereomodus kann manuell oder/und halbautomatisch durchgeführt
werden. Vollautomatische Ansätze sind wegen der Schwierigkeiten bei der automatischen
Bildinterpretation („Image Understanding“) i.a. nicht brauchbar. Eine gewisse Ausnahme
macht hier das Verfahren des Imge Matching zur Generierung eines Digitalen
Oberflächenmodells.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.18
________________________________________________________________________________
Stereodisplay nach dem Splitscreen-Verfahren am Leica DVP
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.19
________________________________________________________________________________
Arbeitsschritte im Stereokomparatormodus:
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.20
________________________________________________________________________________
(b) Messen von Modellkoordinaten
Der "Doppelprojektor" wurde 1915 von Gasser eingeführt. Die Stereobetrachtung wird nach der
Anaglyphenmethode oder durch Schwingblenden realisiert. Als Ergebnis der Projektion erhält
man ein "objektiv optisches Modell", ein 3-D Stereomodell.
Rückprojektion: Umgekehrter Vorgang zur Aufnahme -> Messen von Modellkoordinaten
Der Vorteil in der Ausnutzung des Stereoeffekts liegt in der Möglichkeit, auch schlecht definierte
homologe Bildpunkte einander zuordnen zu können (Probleme: Wiese, Sand, Schnee,
Wiederholungsmuster, etc.).
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.21
________________________________________________________________________________
8.4. Normalfall der Stereophotogrammetrie
Formeln zur Berechnung der Koordinaten:
bc
px
(I)
YP =
(II)
XP = YP
x´ b x´
=
c
px
(III)
ZP = YP
b z´
z´
=
c
px
Gegeben: Innere Orientierung
Gemessen: b, x´, z´, px
Berechnet: X, Y, Z
Für die Luftphotogrammetrie gilt:
(I)
ZP =
bc
px
b x´
(II) XP =
px
(III) YP =
Basisverhältnis:
b y´
px
b / hg (Luft)
;
b / YP (Terrestrisch)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.22
________________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.23
________________________________________________________________________________
Das Basisverhältnis ist verantwortlich für die Höhengenauigkeit. In der Figur oben ist
die Flughöhe für Normalwinkel (hgNW) doppelt so groß wie für Weitwinkel (hgWW). Aus
untenstehenden Gleichungen sieht man, daß daraus derselbe Maßstab und dieselbe
Bodenbedeckung resultieren.
cNW
γNW,WW
cWW
=
=
=
Kammerkonstante der Normalwinkelaufnahme
Parallaktischer Winkel
Kammerkonstante der Weitwinkelaufnahme
γWW > γNW
->
daraus resultiert die bessere Höhengenauigkeit
von WW gegenüber NW:
σ Z ( WW) ≈ (1 / 2) σ Z ( NW )
NW
mB
1
=
NW
=
MB
WW
mB
=
1
WW
MB
mB = Massstabszahl
NW
hg
cNW
WW
=
hg
NW
MB
=
WW
MB
MB = Massstab
cWW
Kamera
c
[cm]
s´
Bildformat
Überdeckung
in [%]
hg
[m]
NW
30
23
60
0,3m
~1/3
WW
15
23
60
0,15m B
~2/3
SWW
8,8
23
60
0,088m
~3/3
b / hg
B
B
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite: 8.24
________________________________________________________________________________
Genauigkeit der Punktbestimmung
Terrestrischer Fall :
YP =
bc
px
2
bc
dYp = -
dpx = -
2
px
YP
bc
dpx
2
σY =
P
σX =
P
σ
YP
bc
YP
c
Y
σPx
σx'
p
= c σz'
Ζ
P
Der Fehler in der Tiefenkoordinate (σYP) verhält sich quadratisch zu Yp. Er wirkt sich also viel
ungünstiger aus als diejenigen in X- und Z-Richtung.
Luftbilder, flaches Gelände:
σZp =
σX p =
σY p =
Beispiel:
WW,
b
hg
=
h g2
bc
hg
c
hg
c
σP ≈
x
hg
b
m Bσ P x
σ X′ ≈ m B σ X′
σ Y′ ≈ m B σ Y′
c = 150 mm,
hg = 1500 m,
1
1,5
σ P x = σ X′ = σ Y′ = 5 µm
MB = 1 : 10'000
σ Z p = 7,5 cm
σ X p = 5cm
σ Y p = 5cm
Verhältnis der Fehler:
σZp
σX / Y
=
3 ,
1,5 ,
NW
WW
1
ÜWW
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.1
__________________________________________________________________________
9. Der Bildflug
9.1. Elemente der Bildflugplanung
Heute werden in zivilen Anwendungen fast ausschließlich Senkrechtaufnahmen verwendet.
Im allgemeinen werden Blöcke geflogen, die eine stereoskopische Auswertung gewährleisten.
Zum Begriff des Blockes
Photogrammetrisches Modell: 2 Photographien
Überlappung
Bild 1
Bild 2
Photogrammetrischer Streifen: 3 und mehr Photographien
zweifache Überlappung
dreifache Überlappung
Photogrammetrischer Block: 2 und mehr Streifen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.2
__________________________________________________________________________
Die Längs- und Querüberlappung wird in Prozent angegeben. Der Betrag p = q = 20%
entspricht einer minimalen Überlappung, welche aber noch keine geschlossene Stereoauswertung ermöglicht. Die Überlappung soll nie weniger betragen, da sonst Lücken
entstehen können.
Nur die Bereiche mit Überlappung können im Prinzip stereoskopisch ausgewertet werden. Der
gesamte restliche Bereich dient ausschließlich der Auswertung durch Entzerrung (falls das
Gelände flach ist) und der Luftbildinterpretation. Für volle stereoskopische Auswertung
braucht es mindestens 60% Überlappung in Längsrichtung. Oft wird sogar eine Überlappung
von 80% angestrebt. Damit wird auch gleich die Gefahr von Verdeckungen minimiert, da die
Basis O´-O´´ bei größerer Überlappung kleiner wird.
H´
+
H´´
+
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.3
__________________________________________________________________________
Ein weiterer großer Vorteil einer Überdeckung liegt im Einsparen von Paßpunkten. Ein
Paßpunkt kann auf mehreren Bildern abgebildet sein, was bewirkt, daß die benötigte Anzahl
der Paßpunkte gesenkt werden kann.
Elemente der Flugplanung
Fläche F einer Aufnahme:
2
2
2
F = s = s´
2
mB
= s´
2
hg
2
c
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.4
__________________________________________________________________________
Basis:
p
100
hg 
p 
b = s′  1−
100 
c
b = s−s
Basisverhältnis:
p… Überdeckung in %
b s′ 
p 
= 1 −
hg c
100 
Bildfolgezeit:
b
v g … Geschwindigkeit des Flugzeugs über Grund
vg
s′
p 

∆t =
m B 1 −
vg
100 
∆t =
Bildwanderung: Während der Belichtungszeit bewegt sich das Flugzeug fort,
woraus Unschärfen entstehen können, welche Bildwanderung genannt werden.
vg dt
ds´ =
dt ... Belichtungszeit
mB
ds´ m
ds
B
=
v =
g
dt
dt
Beispiel:
v g = 150 km / h
ds ′ =
150 ⋅10
3600
3
dt =
1
sec
500
1
1
500 8000
m B = 8 000
→ ds′ = 0, 01mm
Auswirkung der Bildwanderung:
(Flugrichtung wird sichtbar!)
Signal
Deformiert
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.5
__________________________________________________________________________
Abtrift: Verdrehen der Kamera um den Abtriftwinkel α.
vA ... Eigengeschwindigkeit des Flugzeuges
vW ... Windgeschwindigkeit
vg ... Fluggeschwindigkeit über Grund
vg = vA + vW
Stereoskope Auswertung (Topographische Kartierung)
p ...
q ...
Längsüberdeckung = 60 - 90%
Querüberdeckung = 20 - 60%
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.6
__________________________________________________________________________
q 

F = s′ 2 m 2B ; a = s′m B 1 −

 100 
FN : Fläche, die durch ein zusätzliches Bild (stereoskopisch) addiert wird.
q 
p 

FN = a b = s′ 2 m 2B 1 −
 1 −

 100  100 
p 
q 

FN = F1 −
 1 −

 100   100 
Abschätzung der Anzahl Photographien für den ganzen Block: Bekannt ist die Gebietsfläche FT, die Maßstabszahl mB, die Längsüberdeckung p und die Querüberdeckung q.
Anzahl Photographien =
FT
FN
Beispiel:
p = 60% ; q = 25%
=>
FN = 0,3 • F
Entscheidungsabfolge bei der Flugplanung (z. B. Kartierprojekt für topographische Karte)
• Gegeben: Kartenmassstab M K = 1/ m K
• Gesucht:
Beispiel:
mK = 10'000
mK = 1'000
mK = 100'000
Bildmassstab => Faustregel: m B ≈ 200
mK
=> mB = 20'000
=> mB = 6'000
=> mB = 65'000
-> mB ist abhängig von:
- Kartenmaßstab mK
- Steighöhe des Flugzeuges hg = 5'000 - 14'000 m
- Detailerkennbarkeit (das heißt, daß zum Beispiel bei
kleinen Kartenmaßstäben trotzdem relativ tief geflogen
wird, um Details noch erfassen zu können)
- Wirtschaftliche Aspekte (u.a. Minimierung der Anzahl
der Aufnahmen)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.7
__________________________________________________________________________
-> Kammerkonstante c
Sie ist abhängig von:
-
Höhengenauigkeit
Instrumenten (insbesondere Auswertegeräte !)
Höhenunterschiede im Gelände
Erwünschtes Produkt oder Ziel der Aufnahmen
(z. B. Orthophotos: NW ; Linienkarte: WW)
-> Flughöhe hg
Sie ist abhängig von:
- Maximale / Minimale Flughöhe
- hg = c mB mit Randbedingungen
p 
p 


-> Basis b: b = s1 −
 = s ′m B 1 −

 100 
 100 
q 
q 


->Abstand der Streifen: a = s 1 −
 = s ′m B 1 −

 100 
 100 
-> Bildfolgezeit : ∆t =
b
Mit verschiedenen Bedingungen für v g
vg
-> Belichtungszeit dt ist abhängig von:
- Blende, Lichtverhältnisse
- Filmempfindlichkeit <--> Auflösung
- Bildwanderung (ds´≤ 30 µm)
- Flugzeugvibrationen
-> Grundlagen zur Vorbereitung der Flugkarte
- Bestehende Karten mit Eintrag von:
+ Projektionszentren
+ Flughöhe (h)
+ Flugrichtung (O-W, N-S)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.8
__________________________________________________________________________
Der Blattausschnitt der herzustellenden
Karte soll durch die Wahl der
Projektionszentren optimal im Modell
zu liegen kommen.
-> Flugdatum; Berücksichtigung der Jahreszeiten, Tageszeit
- Schnee:
+ Reflexion
+ Verdeckung
+ Gletschereffekt (kein Stereoeffekt)
- Bewuchs:
+ Verdeckung (aber: Waldschadenerhebung!)
- Luftverschmutzung
Bevorzugte Jahreszeit für Bildflüge ist der Frühling und der Herbst . Zudem muß auch die
Tageszeit berücksichtigt werden. Der Sonnenstand soll ≥ 30o und ≤ 60o sein.
Ein ungünstiger Sonnenstand kann lange Schatten oder Reflexionen verursachen. Weiterhin
ist bei einem Bildflug auf allfälligen Nebel und Staub zu achten.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.9
__________________________________________________________________________
9.2. Ausführung des Bildfluges
Flugteam
Das Flugteam besteht eigentlich aus einem Piloten, einem Navigator und einem
Operateur. In heute gebräuchlichen modernen Flugzeugen reichen aber schon Pilot und
Operateur aus, um sämtliche Funktionen erfüllen zu können.
Ausrüstung
Luftbildkammern sind Reihenmesskammern (im Flugzeug eingebaut) mit folgenden
Eigenschaften:
- Hochleistungsobjektive, Filter
- Stabiler Kammerstutzen
- Anlegerahmen mit Rahmenmarken
- Andruckplatte für Film (Vakuum)
- Filmmagazin
- Kameraaufhängung mit Dämpfung
- Drehvorrichtung um vertikale Achse (Abtrift !)
- Steuereinrichtungen
1
1
bis
Belichtungszeiten:
250
1000
Maximale Blende:
d
≈ 1:4
c
Format:
23 x 23cm2
Zentralverschluss: Sonderkonstruktion im Gegensatz zum Schlitzverschluss der
Normalkamera. Diese Konstruktion ist nötig, da sich das
Flugzeug während der Belichtung bewegt. Für diese Tatsache
wäre ein Schlitzverschluss zu langsam.
Optionen für den Bildflug: 1) Ausgleich der Bildwanderung mit einer Genauigkeit
von 0,3% dadurch, dass der Film während der
Belichtung mitbewegt wird (FMC).
2) Réseau, ein Gitter von Rahmenmarken. Wird benutzt
zur Kompensation des Filmverzuges und der
Filmunebenheit.
• Frontréseau
• Rückprojektion
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.10
__________________________________________________________________________
Zusatzeinrichtungen zu den Kammern
a) Mattscheibenkammer
IRU, NS1 (Zeiss): Automatisches Auslösen des Verschlusses nach
vorgegebenem Zeitintervall.
Problem: Variationen von Geländehöhe, Flughöhe, Abtrift, vg
Mattscheibenkammer 14 x 14cm2
Bildwinkel 56grad (NW) mit Sprossenkette.
Mit diesem Instrument wird der Wert vg /hg bestimmt = vB/c
vB … Geschwindigkeit im Bild
vg
hg
0
1
2
3
4
vg
vB
Falls die Sprossenkette synchron mit dem
Objekt läuft, ist das Zeitintervall korrekt
ermittelt.
0
1
2
3
4
0
1
2
synchron
asynchron
Mit dieser Anordnung kann auch die Abtrift korrigiert werden. Die Fortbewegung des
Bildes muß parallel zur Sprossenachse sein !
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.11
__________________________________________________________________________
b) Flug- und Datenmanagement (am Beispiel der Wild RC30)
PEM-F, der automatische Belichtungsmesser der RC30 misst integral mit
maximaler Empfindlichkeit im nahen
Infrarot.
Bei extremen Aufnahmebedingungen
kann der Operateur die automatische
Regelung ausser Kraft setzten,
entweder durch Speicherung der
momentanen Einstellungen oder durch
Eingabe bewusster Korrekturen.
EDI, das Externe Daten-Interface, ist
eine
Datenverbindung
zwischen
Kamera und Navigationsanlage oder
dem weiter unten beschriebenen
ASCOT. Die Daten werden in zwei
Zeilen von je 100 alphanumerischen
Zeichen am unteren respektive oberen
Rand abgebildet. Ein LED-Datenfeld
erzeugt eine kontrastreiche, auf jedem
Filmtyp gut lesbare Abbildung.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.12
__________________________________________________________________________
ASCOT steht für „Aerial Survey Control Tool“ (Bildflug-Kontroll-Instrument) und ist
eine intelligente, universelle Schnittstelle samt Bedienertastatur und Bildschirm.
ASCOT kommuniziert mit einer oder mehreren Kameras, Flugzeugnavigationssystemen
und Sensoren wie GPS- Empfängern. ASCOT macht die automatische Randdatenabbildung frei programmierbar. Mit verschiedenen Softwaremodulen übernimmt ASCOT
die folgenden Aufgaben:
• Bildflugmanagement
In Verbindung mit einem GPS-Empfänger kann dem Piloten während des
Fluges laufend die aktuelle und die Sollposition angezeigt werden.
• Programmierbare Randdatenabbildung
• Datenspeicherung
ASCOT erlaubt die Registrierung der Kameraparameter sowie der Navigations- und
Positionsdaten. Diese Informationen stehen somit zur Auswertung nach dem Flug
zur Verfügung.
• Koordinatentransformation
WGS84-Kordinaten von einem GPS-Empfänger können bereits vor deren Abbildung
und Registrierung in ein übliches lokales Koordinatensystem transformiert werden.
• Automatische Abtriftkorrektur
Aufgrund von Daten aus einem Richtungskreisel oder Navigationssystem kann
ASCOT Steuerbefehle an die Kameraaufhängung senden.
c) FMC - Forward Motion Compensation
Durch die Vorwärtsbewegung des Flugzeugs während der Belichtung können die
Aufnahmen verwischt werden. Die Bildwanderungkompensation (FMC) wirkt diesem
Effekt entgegen und ermöglicht so schärfere Bilder.
P' P'
Filmbewegung ds'
ds ′ =
c
O
ds
O
Flugrichtung
hg
P
cds ds vgdt
=
=
hg m B m B
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.13
__________________________________________________________________________
d) Photoflugkonfiguration
RMK TOP:
Luftbildkamera (Zeiss)
T-CU:
Kontrolleinheit für das ganze System
T-TL:
Terminal für die Systemüberwachung mit integriertem Computer
T-NT:
Navigationsteleskop; erlaubt manuelle Kontrolle der Überlappung durch
v g / h g - Messungen und Abtriftkorrektur
NA:
Navigationsautomat; steuert die Überdeckung automatisch (über v g / h g )
Wir unterscheiden Einmann-, Zweimann- und Dreimannbildflüge. Im folgenden ist eine
übliche Konfiguration des Zweimannbildfluges abgebildet.
Gleichzeitig mit den Photoaufnahmen kann GPS (Global Positioning System) im
kinematischen Modus benutzt werden. Dabei werden die X,Y,Z-Koordinaten der Empfängerantenne laufend gemessen. Diese Daten können folgendermassen genutzt werden:
(a)
Zur Navigation des Bildflugs (Echtzeitmodus)
(b)
Zur Bestimmung der 3-D Position der Projektionszentren (Postprocessingmodus)
Die folgende Abbildung zeigt die Konfiguration eines Zweimannbildflugs mit GPS
9.3. Geräte zur Navigation und Hilfsdatenerfassung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.14
__________________________________________________________________________
Hilfsdaten <--> Daten der äußeren Orientierung (X0, Y0, Z0, ω, ϕ, κ)
Im Gegensatz zur terrestrischen Photogrammetrie, bei welcher die Größen der äußeren
Orientierung genau messbar sind, ist dies in der Aerophotogrammetrie nicht möglich.
Die Daten müssen hier bestimmt werden aus:
a) Paßpunkten
b) direkten Messungen (sehr ungenau !)
9.3.1. Bestimmung der Drehwinkel
• Gyrokompass (Kreiselkompass) (Nistri; OMI/Italien): Registrierung des
Nadirpunktes. Daraus erhält man ω und ϕ.
• INS (Inertial Navigation System; Trägheitsnavigation)
• Dosenlibelle: Genauigkeit ±1 Grad
9.3.2.
Bestimmung der Projektionszentren
Bestimmung von Z0
• Statoskop:
Messung der Höhenunterschiede zwischen zwei benachbarten Projektionszentren
innerhalb eines Flugstreifens.
Manometer: Genauigkeit 1 -2 m ; Ablesegenauigkeit 0,5 m
Druckunterschiede -> Höhenunterschiede
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.15
__________________________________________________________________________
Das Statoskop ist gut geeignet für Messungen, die nicht eine allzu große
Genauigkeit verlangen. Dies sind zum Beispiel Kartierprojekte mittlerer und
kleinerer Maßstäbe.
• Airborne Profile Recorder (APR):
Messung von hg. Die Messung beruht auf Radar oder Laser.
Flug
α
∆t
Laufzeitdifferenz ∆t => hg
Größe des Streuwinkels α: Radar: α = 1g
Laser: stärker gebündelt
=> Lasermessungen sind genauer !
Genauigkeit Radar: 300 km Streifen ± 3 m
Genauigkeit Laser: ± 1.2 m für hg = 2000 m
Problem:
Bodenbedeckung mit Häusern, Bäumen und anderem ergibt eine Verfälschung.
Bestimmung der Koordinaten X0 und Y0:
• Decca, Shoran, Hiran, Aerodist (Hyperbelverfahren)
Genauigkeit: ca. ±20m ; mit Aerodist ca. ± 1m
Alle Systeme benötigen aktive Bodenstationen.
Wegen ihrer eingeschränkten Genauigkeit werden diese Systeme in erster Linie für
Navigationszwecke benutzt!
• Dopplernavigation:
Dabei sind keine aktiven Bodenstationen nötig. v g und Abtrift werden direkt
gemessen. Das System beruht auf der Frequenzverschiebung von am Boden
reflektierten Radarstrahlen.
Genauigkeit: Weg über Grund ± 1‰
Kurs (Richtung) ± 0,1 Grad
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 9.16
__________________________________________________________________________
Bestimmung von X0, Y0, Z0, κ, ϕ, ω:
• INS (Inertial Navigation System)
Beruht auf dem Prinzip der Trägheitsnavigation (Messung: Beschleunigungen).
Nachteile: Hohe Kosten, hohe Dynamik
Bestimmung von X0, Y0, Z0:
• NAVSTAR Global Positioning System (GPS):
Anwendungsbereich vor allem in der Passpunktbestimmung (Anstelle von
Theodoliten und EDM). Es kann jedoch im kinematischen Modus auch an Bord
benützt werden zur Bestimmung der Koordinaten der Projektionszentren.
σ X 0 / Y0 / Z 0 ≈ 10cm im Postprocessing Modus (Phasenmessung im Relativmodus)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.1
__________________________________________________________________________
10. Grundlagen der Stereomodellorientierung
10.1. Allgemeines
Die Orientierung von Stereomodellen erfordert die Kenntnis der Orientierungsdaten. Wenn wir
voraussetzen können, dass die Daten der inneren Orientierung bekannt sind, geht es hier nur noch
um die Bestimmung der Daten der äusseren Orientierung. Dazu stehen grundsätzlich zwei Möglichkeiten zur Verfügung:
(A) Direkte Bestimmung bei der Aufnahme selbst durch Einsatz von Sensoren (Teilkreise, GPS,
INS, etc.)
(B) Bestimmung aus Passpunktkoordinaten und/oder anderen Objektinformationen (Distanzen,
Parallelität von Linien/Geraden, rechte Winkel, Punkte an einer Ebene, etc.)
Wir werden uns in diesem Abschnitt nur mit dem Verfahren (B) und hier wiederum nur mit der
Verwendung von Passpunktkoordinaten beschäftigen.
„Hauptaufgabe“ der Photogrammetrie
In klassischer Formulierung besteht die „Hauptaufgabe“ der Photogrammetrie in der Bestimmung
der äusseren Orientierung aus Passpunkten. Diese Bestimmung kann an manchen Stereoanaloggeräten durchgeführt werden (analoges Verfahren) oder nach den analytischen Verfahren an Analytischen Plottern oder Digitalen Stationen. Wir werden im folgenden nur die Grundlagen der analytischen Verfahren behandeln.
Bestimmung der Orientierungsdaten mit analytischen Verfahren
Hierzu existieren zwei Möglichkeiten:
a) Rechnen von zwei räumlichen Rückwärtseinschnitten
b) Gemeinsame Orientierung beider Photographien
Zu a):
0 (X 0 , Y0 , Z0 )
c
Bestimmung von:
X , Y , Z , ω, ϕ , κ
0
0
0
für jedes der beiden Bilder separat.
Diese Methode erfordert mindestens 3
Vollpasspunkte pro Bild.
PP3
PP1
PP2
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.2
__________________________________________________________________________
Diese Methode ist zwar einfach im Prinzip, aber in Bezug auf Genauigkeit und notwendiger
Passpunktanzahl dem Verfahren (b) unterlegen. Sie findet daher in der Praxis keine Anwendung.
Zu b):
O1
O2
Bestimmung von:
X 0 , Y0 , Z0 , ϕ1 , ω1 , κ 1
1
1
1
X 0 , Y0 , Z0 , ϕ2 , ω2 , κ 2
2
2
2
für beide Bilder zusammen
12 Parameter
Hier werden nicht nur Passpunkte benötigt (ein Minimum von 7 Passpunktkoordinaten), sondern es sind zusätzliche Orientierungspunkte in beiden Bildern einzumessen.
Die Orientierung nach diesem Zweibildverfahren kann nach zwei Methoden durchgeführt werden:
(1) Zweistufenlösung mit Aufspaltung in relative Orientierung und absolute Orientierung
(2) Simultane Orientierung (Einstufenlösung)
Dieses Verfahren wird in Photogrammetrie II behandelt.
Das Zweibildverfahren erfordert die Bestimmung von 12 Orientierungsparametern. Diese verteilen sich folgendermassen auf die beiden Orientierungsschritte:
Relative Orientierung:
Absolute Orientierung:
Total
5 Parameter
7 Parameter
____________
12 Parameter
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.3
__________________________________________________________________________
10.2. Relative Orientierung
Aufnahme
Auswertung (nicht orientiert)
Die relative Orientierung beruht auf der Herbeiführung der Strahlenschnitte entsprechender (homologer) Strahlen, d.h. die Kernebenen müssen rekonstruiert werden. Dafür benötigt man ein Maß
für die "Windschiefe" der Strahlen.
Korrekturverfahren
∆yII / ∆xII (Parallaxen)
1. Beliebige Projektion:
2. Höhenverschiebung von RP:
∆xI = 0
=>
∆yI
Durchführung der relativen Orientierung:
Berechnung der Elemente der äußeren Orientierung dergestalt, daß alle y - Parallaxen verschwinden (pyi = 0
,
i = 1, 2, ..., m ; m = Anzahl Modellpunkte).
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.4
__________________________________________________________________________
y y′
y'
y''
x'
x''
b
Die gegenseitige Orientierung erfordert, daß von den zwölf möglichen Orientierungselementen
der beiden Bilder fünf so bestimmt werden, daß sich je zwei zugehörige Bildstrahlen in fünf
Modellpunkten schneiden. Die Begründung liegt in einem Satz der projektiven Geometrie:
Zwei Räume sind projektiv zueinander, wenn sich fünf homologe Strahlen schneiden.
Die beiden homologen Sehstrahlen müssen in einer Kernebene liegen. Also müssen die Vertikalparallaxen in diesen fünf Punkten verschwinden. In diesem Fall ist die Vertikalparallaxenfreiheit für alle anderen Punkte des Modells auch gewährleistet, falls keine Bildfehler vorliegen.
Die Grundgleichung der relativen Orientierung ist die Koplanaritätsbedingung. In der Darstellung
nach Schut ergibt sich mit
r
r r
r
ui′T M ui′′ = xi′T D′T M D′′ xi′′= 0 Schutbedingung
 0

M =  bz

− by
− bz
0
bx
by 

− bx 

0 
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.5
__________________________________________________________________________
i = 1, ... , m
m = Anzahl Modellpunkte
In dieser Gleichung treten noch 9 Orientierungsbekannte auf. Durch Einführung von
Basiskomponenten b x = X ′0′ − X ′0 , b y = Y0′′ − Y0′ , b z = Z′0′ − Z′0 wurden die ursprünglichen 6 Koordinaten der beiden Projektionszentren auf 3 Basiskomponenten reduziert.
Bemerke: Die gegenseitige Orientierung stellt ein im Prinzip beliebig im Raum
gelagertes und orientiertes Modell des Objekts her, ohne notwendigen Bezug zum
Objektkoordinatensystem (daher auch der Begriff „Modellkoordinatensystem“).
Da die relative Orientierung durch 5 Parameter bestimmt ist, können wir in der Koplanaritätsbedingung über 9-5 = 4 Orientierungselemente frei verfügen.
Hier unterscheidet man zwei Varianten in der Parameterwahl:
(a) Folgebildanschluss. In der analogen Photogrammetrie auch als Einprojektormethode
bezeichnet.
Hier werden die Elemente eines Bildes festgehalten, z. B. ϕ′, ω′, κ′, dazu b x . Es
verbleiben als Unbekannte ϕ′′, ω′′, κ ′′, b y , b z .
(b) Methode der unabhängigen Modelle (Zweiprojektormethode, Methode der Bilddrehungen). Hier werden die Elemente b x , b y , b z , ω′ (oder ω′′) festgehalten. Man benutzt als freie Parameter nur die Bilddrehungen κ′, κ′′, ϕ′, ϕ′′, und ω′′ (oder ω′) .
10.2.1. Folgebildanschluss
Wird in der Gleichung
r
r
x ′i T D′ T M D′′ x ′i′ = 0
das linke Bild festgehalten, so ergibt sich mit der Wahl κ ′ = ϕ′ = ω′ = 0
D′ = D′ T = I
und somit
r
r
x ′i T M D′′ x ′i′ = 0
Weiterhin wird b x festgehalten, da dieser Parameter nicht zur y-Parallaxe
( p y ) beiträgt, z. B. b x = 1 .
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.6
__________________________________________________________________________
Jeder Modellpunkt (i) trägt nun eine Koplanaritätsgleichung zur relativen Orientierung bei.
Allgemeine Funktion:
F i (b y , b z , κ ′′, ϕ′′, ω′′) = 0
Annahme (Regelfall):
c′ = c′′ = c (gleiche Kamera für beide Aufnahmen)
Komponentenform der Koplanaritätsbedingung:
[x ′i
Beobachtungen:
− c]
y′i
 0

 bz

− b
 y
− bz
0
1
x ′i , y ′i , x ′i′, y ′i′
by 
 x ′i′ 

 
− 1 D′ϕ′ D′ω′ D′κ′  y′i′  = 0

 
− c
0 
i = 1, K , m
,
m≥5
Ausgleichungsproblem:
Fi (l a , x a ) = 0
f Bedingte Ausgleichung mit Unbekannten
5 Unbekannte
k Beobachtungen
m Bedingungsgleichungen
Vereinfachung für Senkrechtaufnahmen:
κ, ϕ, ω, b y , b z kleine Grössen :
− κ′′ ϕ′′ 
 1


D′′ =  κ′′
1
− ω′′


− ϕ′′ ω′′
1 
x ′i , x ′i′ tragen fast nichts zur y- Parallaxe bei, werden also nicht als Beobachtungen im
Sinne der Ausgleichungsrechnung betrachtet.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.7
__________________________________________________________________________
Die Koplanaritätsbedingung vereinfacht sich somit zu:
Fi ≡ [x ′i
y ′i
− c]
 0

 bz

− b
 y
− bz
0
1
by 

− 1

0 
− κ ′′ ϕ′′ 
 1


 κ ′′
1
− ω′′


− ϕ′′ ω′′
1 
 x ′i′ 
 
 y′i′  = 0
 
− c
Linearisierung durch Taylor-Reihenentwicklung:
(
)
∂F
∂Fi
dx + i v + Fi l b , x (0) = 0
14243
∂ la
∂ xa
{
{
w
B
A
Sammlung der Koeffizienten in den Designmatrizen A, B, Widerspruchsvektor w.
Koeffizienten der Matrix A:
0
0

∂Fi
y′i
0
= [x ′i
− c]  0
∂b y

− 1 0
1

0

0
 1

 κ ′′

− ϕ′′
− κ ′′
1
ω′′
ϕ′′ 

− ω′′

1 
= − x ′i x ′i′ ϕ′′ + cx ′i′ + x ′i ω′′ ϕ′′ − cκ ′′ y ′i′ − cx ′i − c 2 ϕ′′ ≈
≈ c (x ′i′ − x ′i ) = − cp x i ;
∂Fi
∂b z
0 − 1 0 
 x ′i′ 


 
= [x ′i y ′i − c] 1 0 0 D′′  y ′i′  ≈ y ′i x ′i′ − x ′i y ′i′ =


 
0 0 0
− c
= x ′i′ p y i − y ′i′ p x i ≈ − y ′i′ p x i
 0

∂Fi
= [x ′i y′i − c]  b z

∂φ′′
− b
 y
bz
0
1
(
by 

− 1

0 
 0 0 1  x ′i′ 

  
 0 0 0  y ′i′  =

  
− 1 0 0 − c
)
= − x ′i x ′i′ b y + y′i x ′i′ − c b z y′i + cb y ≈
≈ y ′i x ′i′ ;
 x ′i′ 
 
 y ′i′  =
 
− c
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.8
__________________________________________________________________________
0 0 0   x ′i′ 

  
∂Fi
= [x ′i y′i − c] M 0 0 − 1  y ′i′  = x ′i y ′i′ b y − y′i y′i′ − ′ x ′i′ cb z − c 2 ≈
∂ω′′

  
0 1 0  − c
(
)
≈ − y ′i y ′i′ + c 2 ;
0 − 1 0 


∂Fi
= [x ′i y ′i − c] M 1 0 0
∂κ′′


0 0 0
 x ′i′ 
 
 y ′i′  =
 
− c
= − b z (x ′i x ′i′ + y ′i y ′i′ ) − cx ′i′ − cb y y′i′ ≈
≈ − cx ′i′ ;
Widerspruchsvektor wi :
 x ′i′ 
w i = [x ′i y′i − c] M (0) D′′(0)  y′i′  ≈ −c(y′i′ − y′i ) = cp y i
− c
 
Koeffizienten der Matrix B:
∂Fi
∂y ′i
∂Fi
∂y ′i′
∂Fi
∂y′i
r
= [0 1 0] MD′′ x ′i′ ≈ b z x ′i′ + c
≈c
0
 
r
= x ′i T MD′′ 1 ≈ − b z x ′i − c
≈ −c
 
0
∂F
= − i > Spaltenrang von B wird um m reduziert;
∂y′i′
v ′y = − v ′y′ , cv ′y − cv ′y′ ⇒ cv py ; v py = v ′y − v ′y′
(
)
Es bleibt als neu eine Verbesserung pro Gleichung übrig. Dies entspricht einer vermittelnden
Ausgleichung der Form
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.9
__________________________________________________________________________
p y i + v p y = p x i db y +
i
y′i p x i
c
y ′i x ′i′
db z −
c
 y ′i y′i′

dϕ′′ + 
+ c  d ω′′ + x ′i′ dκ ′′
 c

Dasselbe Ergebnis lässt sich über die Differentialformeln für Bildkoordinaten von Normalaufnahmen (Kap. 6.6.) gewinnen:
p y i (=ˆ dy′i − dy′i′ ) + v p y =
i
y
y
c
−c
dYo′ +
dY0′′ − i dZ′0 + i dZ′0′
hg
hg
hg
hg

− c +


Mit hg ≈
y i2 
x y
dω′′ + i i dϕ′′ + x i dκ′′
c 
c

b⋅c
, b y = dY0′′ − dY0′ , b z = dZ′0′ − dZ′0 , y ′i ≈ y ′i′ = y i und b ≈ b x = 1
px
erhält man:
p yi + vp y = p x i b y +
i
yi p x i
c
bz −
x ′i′y i
c

 y2
dϕ′′ +  i + c  d ω′′ + x ′i′ dκ′′

 c


10.2.2 Methode der Bilddrehungen
”Zweiprojektormethode“
Grundgleichung: Schutbedingung
rT r
rT
r
u ′i M u ′i′ = x ′i D′ T MD′′ x ′i′ = 0
Insgesamt:
9 Orientierungselemente
Festlegung:
b x = 1 , b y = b z = ω′ (oder ω′′) = 0
Das heisst, nur die 5 Drehwerte ϕ′ , κ′ , ω′′ , ϕ′′ , κ ′′ werden zur gegenseitigen Orientierung herangezogen.
Mit
D′ω = I ,
erhält man
0
M = 0
0
0
0
1
0
− 1
0 
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.10
__________________________________________________________________________
(
D′ = D′ϕ D ′κ
(
)
mit 2 Unbekannten ϕ′ , κ ′
D′′ = D′ω′ D′ϕ′ D′κ′
)
mit 3 Unbekannten ϕ′′ , ω′′ , κ ′′
Damit ergibt sich für jeden Modellpunkt (i) mit
i = 1, …, m ;
m ≥ 5 ; m = Anzahl Modellpunkte :
0

Fi ≡ [x ′i y ′i − c] D′κT D′ϕT 0

0
0
0
1
0

− 1 D′ϕ′ D′ω′ D′κ′

0 
 x ′i′ 
 
 y ′i′  = 0
 
− c
Taylor Linearisierung:
(
)
Fi l b + v, x (0 ) + dx = 0
Ausgleichungsmechanismus siehe Folgebildanschluss !
Allgemeiner Algorithmus zur Ausgleichung der gegenseitigen Orientierung
1.
Wahl von Näherungswerten x (0) für die 5 unbekannten Orientierungsparameter,
z.B. x (0) = 0
2.
Berechnung der Koeffizientenmatrizen A, B und des Widerspruchvektors w unter Verwendung aller beobachteten Modellpunkte
3.
Berechnung der Normalgleichungen
4.
Auflösung der Normalgleichungen (ergibt dx)
5.
Wegen Nichtlinearität des Problems: Iteration
Prüfung des Iterationskriteriums
dx T dx
<
ε
>
( z.B. ε = 10-8 )
Falls Iterationskriterium überschritten wird (>):
Verbesserung der Näherungswerte der Parameter, Einführung neuer Näherungswerte
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.11
__________________________________________________________________________
x (1) = x (0) + dx
x (0) =ˆ x (1)
Wiederholung ab 2.
6.
Berechnung der Verbesserungen v für alle Beobachtungen
7.
Berechnung des Varianzfaktors σ o2 und der Kovarianzmatrix der geschätzten Parameter
8.
Berechnung der Modellkoordinaten durch räumlichen Vorwärtsschnitt
10.3 Räumlicher Vorwärtsschnitt
z.B. benützt zur Berechnung von Modellkoordinaten
Gegeben: Drehmatrizen D′, D′′
r
r
Projektionszentren X ′o, X′o′
r r
Innere Orientierung x ′o , x′o′
Gemessen: Komparatorkoordinaten von Pi′, Pi′′
r
Gesucht: Objektkoordinaten von Pi X ′i
( )
Lösung:
Annahme: Komparatorkoordinaten mit innerer Orientierung, reduziert auf
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.12
__________________________________________________________________________
r r
Bildkoordinaten x ′i , x ′i′
x′
r  i
x ′i  y′i
− c
,
x ′′
r  i
x ′i′ y′i′
− c

Mathematisches Modell (Kollinearitätsgleichung):
r
r
r
X i = X ′o + λ ′i D ' x ′i
r
r
r
X i = X ′o′ + λ ′i′ D ' ' x ′i′
Inverse Repräsentation:
(
r
r
r
1
x ′i =
D ′ T X i − X ′o
λ ′i
(
r
r
r
1
x ′i′ =
D ′′ T X i − X ′o′
λ ′i′
)
)
;
′
 d 11

 ′
D ′ T = d 12

d 13
′
d ′21
d ′22
d ′23
d ′31 


d ′32 

d ′33 
Elimination von λ ′i, λ ′i′ (Komponenten) :
d ′ (X − X ′o ) + d ′21 (Yi − Yo′ ) + d ′31 (Z i − Z′o )
k′
x ′i = − c 11 i
= −c x ,
′ (X i − X ′o ) + d ′23 (Yi − Yo′ ) + d ′33 (Z i − Z′o )
d13
k ′z
y ′i = − c
x ′i′ = − c
y ′i′ = − c
k ′y
k ′z
k ′x′
k ′z′
k ′y′
k ′z′
,
,
;
Diese 4 Gleichungen bilden das nichtlineare Funktionalmodell für die Beobachtungsgleichungen.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.13
__________________________________________________________________________
Beobachtungen: x ′i , y′i , x ′i′, y′i′
Unbekannte:
X i , Yi , Z i
Annahme:
X o , Yo , Z o , ϕ, ω, κ
fehlerfrei
Allgemeine Funktionsdarstellung:
Fx′ (x ′i , X i , Yi , Z i ) = 0
Fy′ (y ′i , X i , Yi , Z i ) = 0
Fx′′ (x ′i′, X i , Yi , Z i ) = 0
Fy′′ (y ′i′, X i , Yi , Z i ) = 0
Linearisierung über Taylor-Reihe:
x ′i + v′x i =
y ′i + v ′yi =
x ′i′ + v ′x′ i =
y ′i′ + v′y′ i =
∂Fx′
∂F′
∂F′
dX i + x dYi + x dZ i + Fx′ (0)
∂Yi
∂X i
∂Z i
∂Fy′
∂X i
dX i +
∂Fy′
∂Yi
dYi +
∂Fy′
dZ i + Fy′ (0)
∂Z i
∂F′′
∂F′′
∂Fx′′
dX i + x dYi + x dZ i + Fx′′ (0)
∂Z i
∂Yi
∂X i
∂Fy′′
∂X i
dX i +
∂Fy′′
∂Yi
dYi +
∂Fy′′
dZ i + Fy′′ (0)
∂Z i
System der Verbesserungsgleichungen:
l + v = Ax ; P
(
l T = x ′i − Fx′ (0) , y′i − Fy′ (0) , x ′i′ − Fx′′ (0) , y ′i′ − Fy′′ (0)
)
x T = (dX i , dYi , dZ i )
1
4
1
+ 4
3
=
4
4 Beobachtungen, 3 Unbekannte
1
3
f
Redundanz
r = 1 (schwach!)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.14
__________________________________________________________________________
(
Beachten: Näherungswerte für X i , Yi , Zi nötig X i( 0) , Yi( 0 ) , Z i( 0 )
)
Iteration, da Problem nichtlinear !
Erweiterung des Ausgleichungsmodells:
Elemente der äusseren Orientierung als stochastische Grössen einführen. Gewichte aus Genauigkeitsangaben der relativen Orientierung
Korr .
→ ω′′ ).
(Folgebildanschluss: σ b y , σ b z , σ ϕ′′ , σ ω′′ , σ κ ′′ und eventuelle Korrelationen ! b y ←
f Verbesserung der Ausgleichungsergebnisse !
10.4 Absolute Orientierung
Nach der relativen Orientierung erhalten wir ein photogrammetrisches Modell in "wildem"
Maßstab und mit unbekannter absoluter Orientierung und Lagerung.
Aufgabe der absoluten Orientierung ist es nun, Lage, Maßstab und Orientierung des Modells
im Raum zu finden. Es sind also folgende Parameter zu bestimmen :
Maßstab
Lagerung
Orientierung
1 Maßstabsunbekannte
3 Verschiebungen
3 Drehungen
∆λ
∆X , ∆Y , ∆Z
∆ κ , ∆Φ , ∆Ω
Zur Bestimmung dieser Parameter dienen die Paßpunkte. Erforderlich sind sieben Informationen für die sieben Parameter. Zur Verfügung stehen Vollpaßpunkte (Lage und Höhe; X, Y, Z),
Lagepaßpunkte (X, Y) und Höhenpaßpunkte (Z). Es sind also zum Beispiel folgende Kombinationen möglich:
- 2 VPP und 1HPP
- 2 LPP und 3 HPP
Zu beachten ist, daß immer mindestens drei Höheninformationen gebraucht werden !
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.15
__________________________________________________________________________
Restriktionen bezüglich der gegenseitigen Lage der Passpunkte:
mässige Verteilung
sing. Verteilung
Aufgabe :
ordentliche
Verteilung
Auffelderung der Modellpunkte an bestehendes Passpunktnetz.
Lösungen : - Räumliche Ähnlichkeitstransformation
(7-Parameter Lösung)
- Getrennte Lage - Höhe Einpassung
(4/3-Lösung)
Gegeben:
Modellkoordinaten der Punkte Pi : Xi , i = 1,K, m
Objektkoordinaten der Passpunkte Pj : Xj
j = 1,..., np ; np = Anzahl der Passpunkte
Gesucht:
Koordinaten aller Modellpunkte Pi im Passpunktsystem
10.4.1 Räumliche Ähnlichkeitstransformation
Xi = λ
R
Xi + T
Translationsvektor
orth. Drehmatrix
Massstabsfaktor
1
3
3
=1
1
1
3
3
1
+ 3
2 Schritte :
1.
Bestimmung der 7 Transformationsparameter durch kleinste Quadrate Ausgleichung, da
normalerweise mehr als 7 PP-Informationen verfügbar sind.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.16
__________________________________________________________________________
2.
Unter Verwendung dieser 7 Parameter werden alle Modellkoordinaten in das
PP-System transformiert.
Einfaches Modell: Verbesserungen werden den PP-Koordinaten zugeschlagen
Xj + vj = λR Xj + T
Vor- und Nachteile:
Dieses Modell ist einfach zu handhaben (vermittelnde Ausgleichung); verschiedene PP-Typen
können leicht eingebracht werden: Für jede PP-Beobachtung eine separate Beobachtungsgleichung
Lage-PP:
X
Y
+
vX
=λ
vY
r11
r12
r13
r21
r22
r23
X′
Y′
Z′
+
TX
TY
Höhen-PP :
= λ r31
r32
r33
vX
r11
r12
r13
Y + vY
Z
vZ
= λ r21
r22
r23
r31
r32
r33
Z + vZ
X′
Y ′ + TZ
Z′
Voll-PP :
X
X′
TX
Y ′ + TY
Z′
TZ
Derartige Gleichungen werden für alle Passpunkte aufgestellt; sie formen das System der
Verbesserungsgleichungen.
Linearisierung !
Näherungsmodell, da die Modellbeobachtungen X nicht als stochastische Grössen betrachtet werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.17
__________________________________________________________________________
Detaillierte Behandlung
Xj + v j = λ R Xj + T ;
j = 1, . . . , np
np = Anzahl der Passpunkte
 Ω um X - Achse

 φ um Y - Achse

 κ um Z - Achse
R beinhaltet
Allg. Funktion:
Fj (X j , θ )
θ . . . 7 Parameter der räumlichen
= 0 ;
Aehnlichkeitstransformation
Fj ≡ X j − λ R X j − T = 0
θ T = (λ, Ω, φ, κ, T X , T Y , T Z )
Taylor Entwicklung:
∂Fj
∂Fj
vj = 0
Fj X j , θ ( 0 ) +
dθ +
∂X j
∂θ
(
)
X j − λ(0 ) R (0 ) X j − T (0 ) +
X ′j


X j  Y j′

 Z′j
Komponenten:
(
∂Fj
∂λ
,
dλ + K +
∂Fj
∂Tz
dTz +
X j


X j  Yj

 Z j
)
FjX ≡ X j − λ r11X ′j + r12 Y ′j + r13 Z′j − TX = 0
1444
424444
3
T
rl X j
(
)
(
)
FjY ≡ Y j − λ r21X ′j + r22 Y ′j + r23 Z′j − TY = 0
1444424444
3
T
r2 X j
FjZ ≡ Z j − λ r31X ′j + r32 Y ′j + r33 Z′j − TZ = 0
1444
424444
3
T
r3 X j
∂Fj
∂X j
vX j +
∂Fj
∂Y j
vY j +
∂Fj
∂Z j
vZ j = 0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.18
__________________________________________________________________________
Taylor Entwicklung für FjX :
Beachte: Tx ist a priori linear !
(
)
(
)
T
T
T ( 0)
(0) ∂ rl X j
(0) ∂ rl X j
( 0) T ( 0)
X j − λ rl
X j − r1 X jdλ − λ
dΩ − λ
dφ −
∂Ω
∂φ
(
T
(0) ∂ rl X j
−λ
∂κ
) dκ − T
X + 0 + 0 + v Xj + 0 + 0 = 0
f Ähnliches für FjY , FjZ
Näherungswerte 1. Stufe:
 rii = 1

 , gebräuchlich für Senkrechtaufnahmen
λ(0) = 1 ; R (0) = I 
 r = 0, falls i ≠ k 
 ik

Annahme: λ = 1 + dλ , d.h. Modellmassstab wurde schon grob dem PP-Massstab angepasst
Rotationsmatrix für kleine Drehungen:
rlT 
 1 −κ φ 
 


R= κ
1 − Ω  =ˆ r2T 
 


r3T 
− φ Ω
1 
 
;
rlT X j = X ′j − κY ′j + φZ′j
r2T X j = κX ′j + Y ′j − ΩZ′j
r3T X j = − φX ′j + ΩY ′j + Z′j
(
∂ rlT X j
∂φ
) = Z′
j
;
(
∂ rlT X j
∂Ω
)=0
;
(
∂ rlT X j
∂κ
) = −Y ′
j
X j + v xj = X ′j + X ′jdλ + 0 + Z′jdφ − Y j′dκ + TX + 0 + 0
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.19
__________________________________________________________________________
Verbesserungsgleichungen für Vollpasspunkt in Matrix/Vektor-Form:
 v Xj  X ′j
 

 v Yj  =  Y ′j
 

 v   Z′
 Zj   j
0
Z′j
- Y ′j
1
0
- Z′j
0
X ′j
0
1
Y ′j
- X ′j
0
0
0
3,1
3,7
vj
Aj
 dλ 
 
 dΩ 
 
 X ′j − X j 
0   dφ 


 
0  dκ  +  Y ′j − Y j 


 





1 TX
 Z′j − Z j 
 
T 
3,1
 Y
T 
−l j
 Z
7,1
dθ
v j = A j dθ − l j ; Pj
Für alle np PPs:
n ... Anzahl der PP-Informationen
 v1 
 A1 
 l1 






 v2 
 A2 
 l2 

 = 
 dθ − 

 M 
 M 
 M 






 v np 
A np 
l np 






n,1
n,7
n ,1
v = A dθ − l
;
P
(wird normalerweise als diagonal angenommen !)
Normalgleichungen:
(A T PA ) dθ = A T Pl
7
7
;
1
7
N dθ = A T Pl
1
= 7
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.20
__________________________________________________________________________
Lösung:
(
dθ = A T PA
)
−1
A T Pl
Kovarianzmatrix, Varianzfaktor:
(
Κ θ = σˆ o2 A T PA
σˆ o2 =
)
−1
v T Pv
; r = n−7
r
Vorsicht: Problem nichtlinear → Iteration !
Nach jedem Iterationsschritt: Verbesserung der Modellkoordinaten durch Transformation
X (j k ) = λ( k ) R ( k ) X (j k −1) ; k − ter Iterationsschritt
Translation T muss hier nicht berücksichtigt werden, da linear !
Benutzung der ”neuen“ Modellkoordinaten für nächsten Iterationsschritt.
Neuberechnung von A, l.
Iterationskriterien:
a)
1 cm


∆X Max = X (jk ) − X (jk −1) ≤ ε1 ; z.B. ε1 = 1 cm


1 cm
b) dΩ 2 + dφ 2 + dκ 2 ≤ ε 2
; z.B. ε 2 = 10 -8
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.21
__________________________________________________________________________
Spezialfall: Absolute Orientierung, wenn ein Bild bereits absolut orientiert ist.
Dies kann bei Streifenmessung im Folgebildanschluß auftreten ("Streifenbildung").
Das heißt, sechs von sieben Orientierungselementen sind bereits bestimmt. Es kann somit nur
noch über den Maßstab des Modells frei verfügt werden.
1,2...absolut orientiert
(3)...Ergebnis rel. Orientierung
3... Ergebnis Maßstabsanpassung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 10.22
__________________________________________________________________________
Übersicht zur Orientierung:
Orientierung
Innere Orientierung
Äussere Orientierung
Simultane Lösung
2-Stufenlösung
Relative Orientierung
Simultane Lösung
7 Parameter
Absolute Orientierung
Lage/Höhe Iteration
4/3 Parameter
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.1
___________________________________________________________________________
11. Stereoauswertegeräte
11.1. Klassifizierung
... nach Art und Ausmaß der Computerbenutzung:
• analog (Modellkoordinaten → Objektkoordinaten)
• analytisch (Bildkoordinaten → Objektkoordinaten)
• digital
Die digitalen Geräte stecken zum Teil noch in der Entwicklung.
... nach Art der Daten, Auswertegeräte und -methoden:
- Registrierung und off-line Auswertung:
Gerät
Registrierung
Gesammelte
Daten.
Speicherung
Operateur
- Computergestützte Auswertung:
Gerät
Computer
Operateur
- Computergesteuerte Auswertung:
Gerät
Computer
Operateur
Computer
Off-line
Software
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.2
___________________________________________________________________________
- Zweibildauswertung (Stereo):
• Stereokomparator (misst nur diskrete Punkte, es können keine Linien ausgewertet
werden)
- analytisch
• Stereokartiergeräte (messen diskrete Punkte und Linien)
- analytisch (Projektion über mathematische Berechnungen, "Digitaler Projektor")
- digital ("Digitale Station")
- analog (Projektion mechanisch oder optisch)
Einteilung der Analoggeräte
(a) Einteilung nach der Konstruktion des Projektionssystems
- optisch
- mechanisch
- optisch - mechanisch
Optische Projektion:
Lichtquelle
P´
P´´
c
c
Projektoren
Optische Strahlen
P
Registrierung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.3
___________________________________________________________________________
Geräte mit optischer Projektion:
• Multiplex
• Balplex
• Kelsh Plotter
• Doppelprojektor DP1, DP2
• Photocartograph
• PG I
• Stereoplanigraph C1 - C8
(ZEISS)
(Bausch & Lomb, USA)
(Kelsh, USA)
(ZEISS)
(Nistri / OMI)
(KERN)
(ZEISS)
Mechanische Projektion:
P'
P''
c
c
Kardangelenke
Mechanische Lenker
P
Geräte mit mechanischer Projektion:
• Autograph A7 - A10; B8, B9; AG1 (Alle WILD)
• PG2
(KERN)
• Stereometrograph
(Jenoptik)
• Topocart
(Jenoptik)
• Planimat
(ZEISS)
• Planicart, Planitop
(ZEISS)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.4
___________________________________________________________________________
Optisch-mechanische Projektion:
P´
P´´
c
c
Optisch
Linse
Gelenk
Mechanisch
P
Geräte mit optisch-mechanischer Projektion:
• Photostereograph
(Nistri, OMI)
• Stereotopograph
(Poivilliers, SOM, Paris)
• Thompson - Watts Plotter (Hilger + Watts, London)
(b)
Einteilung nach der Genauigkeit und Universalität (Flexibilität) des Gerätes
- Geräte 1. Ordnung
- Geräte 2. Ordnung
- Geräte 3. Ordnung
Geräte 1. und 2. Ordnung arbeiten mit strengen Lösungen, d.h. das mathematische Modell der
Zentralprojektion wird streng optisch/mechanisch realisiert. Geräte 3. Ordnung dagegen
verwenden meist Näherungslösungen, womit ein erheblicher Genauigkeitsverlust verbunden ist
(Beispiele: Stereopantometer, Stereotop, Stereocord, etc.).
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.5
___________________________________________________________________________
Zur 1. Ordnung:
Geräte der ersten Ordnung sind Hochpräzisionsgeräte, die universell einsetzbar sind. Mit ihnen
können Luftbilder und terrestrische Bilder ausgewertet werden.
Die Geräte besitzen die Möglichkeit, verschiedene Kammerkonstanten und große
Ω / Φ - Werte einzustellen.
Die Genauigkeit dieser Geräte:
σx, y ≈ 10 µm (im Bildmassstab)
σz
≈ 0.1 - 0.2 %o hg
Dies bedeutet aber, daß die mögliche Messgenauigkeit in der Lage höher ist als die
Zeichengenauigkeit ( ≈ 0.2 mm).
Beispiel:
hg = 2000 m; Vergrösserungsfaktor Photo-Plot: 5
σx, y(Plot) ≈ 0,01 • 5 mm = 0,05 mm (< 0,2 mm)
σz
≈ 0,2 • hg / 1000 = 0,4 m
Zur 2. Ordnung:
Bei der Genauigkeit kann oft keine klare Trennung zwischen den Geräten der ersten und der
zweiten Ordnung gemacht werden. Die Geräte zweiter Ordnung haben manchmal eine etwas
reduzierte Genauigkeit. Bezüglich Universalität (d.h. Anwendungsbreite) unterscheiden sie sich
aber deutlich von Geräten 1. Ordnung.
Prinzip der Analoggeräte
Prinzip:
- Rekonstruktion der Aufnahmeanordnung in verkleinertem Maßstab
- Stereoskopische Betrachtung der orientierten Bilder oder ihrer optischen Projektionen.
Daraus ergibt sich das optische Modell, inklusive räumliche Messmarke
- Abtastung dieses Modelles punkt- oder linienweise
- Registriereinrichtungen, wie zum Beispiel Zeichenstift
Komponenten:
- Projektionssystem ("Analogrechner")
- Betrachtungssystem
- Registriersystem (Mess- und Kartiersysteme)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.6
___________________________________________________________________________
Auswerteprinzip (-> Umkehrung des Strahlenganges)
1. Orientierung des Modelles
• Innere Orientierung
• Relative Orientierung
• Absolute Orientierung
2. Abtastung des Modelles ("Auswertung")
Linien, Punkte
11.2. Analoggeräte mit Computerstützung
"Computerstützung": Auswertung eines Stereomodells oder Triangulation an einem Analoggerät mit
Unterstützung eines on-line geschalteten Computers.
Hauptkomponenten computergestützter Systeme zur Stereoauswertung:
Analoggerät, Operateur, Interface,Computer
Graphisches Kartiersystem:
Analoggerät
Interface
"Intelligenter" Zeichentisch
Mikroprozessor
Digitaler
Zeichentisch
Operateur
schwache Verbindung
System zur Punktbestimmung:
Analoggerät
Interface
Operateur
Computer
Datenspeicher
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.7
___________________________________________________________________________
für off-line
Verarbeitung
Interaktives System zur digitalen Kartierung
Datenauswertung
Datenerhebung
Datenspeicher
Analoggerät
Analogger
ät
Interface
Computer
Zeichentisch
Operateur
Bildschirm
Datenoutput
Daten der
Feldvermessung
Karten, Pläne
Digitalisiertisch
Graphische
Arbeitsstation
Vorteile computergestützter Systeme:
+ Flexibilität, allgemeine Lösungen
+ Real-time Qualitätskontrolle durch on-line Berechnungen in Bezug auf
- Geometrie (Stabilität des Ausgleichungssystems)
- Messungen (frühe Erkennung grober Fehler, schnelle und billige Nachmessungen)
+ Interaktives Auswerten; Unterstützung und Objektivierung, somit Verbesserung der
manuellen Arbeiten wie Orientierung, usw.
+ Off-line Zeichnen mit vorgeschalteten Korrekturmöglichkeiten ("digitales" Kartieren);
Datenbank, Digital Mapping
+ Beschleunigung praktisch aller wesentlichen Operationen.
Von der Computerstützung zu unterscheiden ist die Computersteuerung.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.8
___________________________________________________________________________
+ Beispiel
Rechnergestützte Stereokartierung: Dem Tastensystem der
Funktionstastatur werden
unterschiedliche Funktionen wie Symbole, Linienarten, Beschriftung, Kurven (Splines),
parallele Linien, Schattierung, etc. zugeordnet.
Leistungsmerkmale:
+ Generieren von Symbolen und Linien: Anpassung an unterschiedliche
Zeichenvorschriften.
+ Auswerten von Häusern: Kartierung rechtwinkeliger Objekte
- automatisches Schliessen auf den Ausgangspunkt
- automatisches Ergänzen paralleler Seiten
- automatisches Schraffieren
- Korrektur der Rechtwinkeligkeit
+ Zeichnen gekrümmter Linien; Polynome und Splines: Einzelpunkte können
automatisch durch glatte Linien verbunden werden.
+ Höhenkoten und Beschriftung: beliebige Positionierung, die Höhenkoten werden
automatisch geschrieben.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.9
___________________________________________________________________________
Leistungsmerkmale
Generieren von Symbolen und Linien
Auswerten von Häusern
Zeichnen gekrümmten Linien
Beschriftung
Anwendungen computergestützter Auswertesysteme
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.10
___________________________________________________________________________
+
+
+
+
+
+
+
+
+
+
+
Datenerfassung (Punkte, Linien)
Datentransformation in Echtzeit (Wahl spezieller Referenzflächen)
relative Orientierung
absolute Orientierung
räumlicher Rückwärtsschnitt --> Bestimmung des Kamerastandpunktes
Streifen - Folgebildanschluß
Streifenausgleich
Kamerakalibrierung
Berechnung abgeleiteter Größen: Strecken, Winkel, Fläche, Volumen
Darstellung der Punkte - graphisches Editieren
Kompensation von systematischen Fehlern und Aufdecken zufälliger Fehler in
jeder Skizze.
Vergleich konventioneller und computergestützter
Auswertung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.11
___________________________________________________________________________
11.3. Computergesteuerte Stereogeräte. Der Analytische Plotter
11.3.1. Historische Entwicklung der Analytischen Plotter
"How the Analytical Plotter works and differs from an Analog Plotter."
Dr. Gottfried Konecny, Technical University of Hannover, Hannover
AP-Symposium, Reston/Vi, 1980
Erste Anwendungen:
Ziviler Durchbruch:
Hauptsächlich Militär
1976, ISP Kongress Helsinki
8 APs vorgestellt (einer aus Holz)
unterschiedliche Entwicklungsstadien
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.12
___________________________________________________________________________
Aus "Manual of Photogrammetry", 4. Ausgabe:
Probleme mit frühen Modellen:
- Computerprogrammierung (Assembler )
- Abgelehnt durch zivile Praxis (aus z.T. unlogischen Gründen;
z.T. wegen fehlender Vertrautheit mit analytischen Methoden)
- Zu teuer ( 2 x Analoggerät 1. Ordnung )
- Wegen Mangel an oder mangelhafter Software:
Produktivität nicht viel höher als mit Analoggeräten
Gründe, die zur Annahme führten:
- Schnell anwachsende Leistungsfähigkeit der Computertechnologie
bei stark abnehmenden Kosten
- Zunehmende Vertrautheit mit analytischen Methoden
- Verfügbarkeit von Software
- "Normative Kraft der Fakten": Verfügbar -> Angewendet
- Engagement vertrauter Hersteller
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.13
___________________________________________________________________________
11.3.2. Konstruktionsprinzip des Analytischen Plotters nach Helava
Auswertegerät, in welchem die perspektiven Beziehungen zwischen Bild- und
Objektraum digital (im Computer) realisiert werden.
(Gegensatz: Optische, mechanische Projektion)
Nach erfolgter Modellorientierung:
Messungen:
X, Y, Z Objektkoordinaten (Modellsystem, Passpunktsystem)
Computer Input: X, Y, Z
Berechnet:
x´, y´, x", y" Bildkoordinaten
xT, yT Tischkoordinaten
6 Servos
Real-time Rechnungen ( "innere Schleife" ) X, Y, Z --> x´, y´, x", y"
Gewöhnlich mit ca. 50 Hz, damit die Messmarke stetig durch das Modell
gleitet (kein Springen, Oszillieren!)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.14
___________________________________________________________________________
d (X − X 0 ) + d12 (Y − Y0 ) + d13 (Z − Z0 )
x′ = − c 11
d31(X − X 0 ) + d32 (Y − Y0 ) + d33 (Z − Z0 )
d (X − X 0 ) + d 22 (Y − Y0 ) + d 23 (Z − Z0 )
y′ = − c 21
d 31(X − X 0 ) + d 32 (Y − Y0 ) + d33 (Z − Z0 )
Steuerprinzip:
∆xT
∆yT
Prozessor,
Computer
∆x'
∆x''
∆y'
∆y''
Pufferspeicher
Σ∆X, Σ∆Y, Σ∆Z
Zeichentisch
Stereogerät
(Viewer)
Y
X
Z
Handräder (X, Y) und Fusscheibe Z generieren über Rotationsgeber digitale
Impulse. Diese werden unter Berücksichtigung der Vorzeichen in einem Pufferspeicher aufsummiert und zu bestimmten Taktzeiten dem Rechner übergeben.
Dieser bildet
X i = X i −1 + ∑ ∆X ; i − 1K letzter Takt
Yi = Yi −1 + ∑ ∆Y ;
i K neuer Takt
Z i = Z i −1 + ∑ ∆Z ;
und berechnet
x ′i , y ′i , x ′i′, y ′i′ nach den Kollinearitätsgleichungen
(Orientierung bekannt ! ), sowie x T , y T nach
X Ti = λ (X i cos α + Yi sin α ) + x T0
YTi = λ (− X i sin α + Yi cos α ) + y T0
Die neu berechneten Werte werden mit den vorher gespeicherten verglichen:
∆x ′i = x ′i − x ′i −1 , ∆x ′i′ = x ′i′ − x ′i′−1 , ∆x Ti = x Ti − x Ti −1
∆y′i = y ′i − y ′i −1 , ∆y ′i′ = y ′i′ − y′i′−1 , ∆y Ti = y Ti − y Ti −1
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.15
___________________________________________________________________________
Diese Differenzen werden nach Taktvorgabe an den Pufferspeicher weitergegeben und
anschliessend
- als Impulsfolgen Schrittschaltmotoren zugeführt, welche die Bildbühnen
(oder die Optik) und den Zeichentisch über Spindeln positionieren,
> "Offenes Schleifensystem"
- oder (Alternativprinzip) als Impulsfolgen Servomotoren zugeleitet, welche die
Positionierung über Spindeln durchführen. Die ausgeführten Positionierungsbeträge werden hier durch Rotationsgeber (oder Lineargeber ; genauer !) kontrolliert.
> "Geschlossenes Schleifensystem"
Die Geber senden die empfangenen Impulse dx ′, dy ′, dx ′′ , dy ′′, dx T , dy T
an den Pufferspeicher zurück. Man erhält die neuen Korrekturwerte für die Servos,
indem man diese Impulse von den gespeicherten Werten subtrahiert
d∆x ′i = ∆x ′i − ∑ dx ′ , d∆x ′i′ = ∆x ′i′ − ∑ dx ′′ , d∆x Ti = ∆x Ti − ∑ dx T
d∆y′i = ∆y′i − ∑ dy′ , d∆y′i′ = ∆y ′i′ − ∑ dy′′ , d∆y Ti = ∆y Ti − ∑ dx T
Diese d∆ -Differenzen werden in einem Iterationsverfahren Servo <-> Geber
verkleinert, bis sie praktisch zu null werden, womit die präzise Positionierung
abgeschlossen ist. Die schnelle Berechnung der Positionierung (in "Echtzeit")
bewirkt, dass der Operateur das eigentlich stufenweise Arbeiten der Servoeinstellung nicht bemerkt.
11.3.3. Hardware – Komponenten
a) Computer
Liest die Impulse, welche an den Handrädern und an der Fusscheibe gezählt
wurden --> verarbeitet diese --> überträgt sie in Form von Translationsgrössen
zum Bildwagen und/oder zum Zeichentisch.
Berechnungen sollten frei von "Trägheit" sein, d.h. wenigstens 40 Berechnungszyklen pro Sekunde; Translationswerte werden durch Servosysteme in lineare
Bewegungen der Bildwagen umgesetzt, bevor der nächste Outputzyklus folgt.
Zusätzliche Anforderungen (neben hoher Rechengeschwindigkeit): Hohe Rechengenauigkeit; Messgenauigkeit ≈ 10-6 (0.2 µm über Bildformat 23 x 23 cm2),
entspricht 20 bits.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.16
___________________________________________________________________________
Real-time Anforderungen verlangen vom Computer eine realtiv starke Leistung, so
dass er immer dann beschäftigt ist, wenn die Messmarke bewegt wird. Somit wird der
Computer faktisch zum Prozessrechner.
Um den Computer aber gleichzeitig und auf effiziente Weise auch als "stand-alone"
Computer benutzen zu können, verwenden manche Hersteller separate Mikros zur
Abarbeitung der inneren Schleife.
Der Hostcomputer ist dann frei für das Betriebssystem und für die Anwenderprogramme. Zusätzlich kann er sogar noch separate Programme bearbeiten oder
an weitere Analytische Plotter angeschlossen werden.
b) Steuereinrichtungen zum Bewegen der Bildbühnen und/oder der Optik
Positionierungs-Transportelemente:
Transport ausgelöst durch:
Bestimmung der Position:
Spindeln
Zugbänder
Rollen
Servomotoren, welche ihre Kommandos
vom Computerinterface erhalten
Rotations-, Lineargeber (Auflösung 1-2 µm)
c) Mechanische Einstellelemente
Handräder, Fussscheibe, Joystick, Drehzylinder, Rollkugel; Rotationsgeber
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.17
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.18
___________________________________________________________________________
Analytische Stereoplotter (Stand 1992):
- ADAM Technology:
MPS -2 (1985)
ASP2000 (1989)
- Agusta - O.M.I.S.r.L.:
AP/C-4
AP5-MKIII (1988)
AP6 ´Digit´(1990)
ASII/A1
TA3/PI, TA3/PII
- Autometric:
APPS-IV
- Galileo Siscam S.p.A.:
DS Digital Stereocartograph
Digicart 40 (1987)
Stereocart (1991)
- International Imaging System (I2S):
Alpha 2000 (1991)
- Kern:
DSR1, DSR 11
DSR14, DSR15 (1988)
- Leica:
SD2000, SD3000 (1991)
- MATRA:
Traster
- Prime Computervision:
S9-AP
- Wild:
Aviolyt AC1, BC2, BC2S
Aviolyt AC3, BC3 (1988)
- Zeiss:
P-Serie Planicomp P1, P2, P3,
PHOCUS (1987)
- Sonderkonstruktion:
YZERMAN APY
AVIOLYT AC1, Wild (1984):
Bildschirm; Lineargeber
Zoom:
Messmarke:
Bildbühne:
Auflösung:
Genauigkeit:
Steuerelemente:
6x - 20x
Beleuchtet; punktförmig ø 25, 40 µm
kreisförmig ø 70/90, 110/130 µm
24 x 24 cm2
1 µm
1 - 2 µm
- 2 Handräder (verstellbar), 1 Fusscheibe,
py - Drehkopf
- Option: Freihandführung auf internem Tisch
- 2 Hebel (weiss) zur X, Y-und Z-Geschwindigkeitseinstellung (grob, mittel, fein)
- 3 Hebel (rot) für X, Y, Z-Schnellbewegung
(Max. Geschwindigkeit: 40 mm/Sek.)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.19
___________________________________________________________________________
- Positionsanzeiger: Beleuchteter Punkt wird
synchron mit der rechten Messmarke über einen
Papierabzug des rechten Photos geführt;
zeigt Grobposition
- Steuerhebel zur Profiliergeschwindigkeit
- TV Monitor zur Zeichenkontrolle
Hostcomputer:
Zeichentisch:
Nova 4/X
16 bit, 128 - 256 K bytes
floating point hardware
kombinierte Disk/Diskette mit 12.5/1.2 M bytes
Aviotab TA2, TA10
AVIOLYT BC1, Wild (1982):
Bildschirm; Lineargeber
6 - 20 x Zoom
Bildfeld 30 mm bei 6 x
Messmarken:
Beleuchtet, Punkt ø 60 µm
Kreise ø 100, 130 µm
Bildrotation, Stereo-Ortho, Stereo-Pseudo, kein gemeinsames Mono
Bildbühne:
24 x 24 cm2, Option 24 x 48 cm2
Auflösung:
1 µm
Genauigkeit:
3 µm
Steuerelemente:
siehe AC1
Hostcomputer, Zeichentisch:
siehe AC1
ADAM MPS-2:
• "low-cost-AP"
• kompakte Bauweise, kleine Ausmasse, leicht
• Bildträger: beschränkt auf Format 6 cm x 6 cm
• Zoom 8-35fach
• Bildfeld: 26.3 mm x 6 mm
• Messmarke: beleuchtet, Punkt, Durchmesser 25µm
• Hostcomputer: PC ( 386 oder 486; MS-DOS)
• Interface zu AutoCad (optional)
• Genauigkeit: ca. 4 µm
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.20
___________________________________________________________________________
MPS - 2
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.21
___________________________________________________________________________
ADAM TECHNOLOGY MPS-2 APPLICATION
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.22
___________________________________________________________________________
11.3.4. Software - Komponenten
Die Software bestimmt letztlich Qualität und Leistungsvermögen eines Analytischen
Plotters. Flexibilität, Bedienungskomfort und Effizienz sind abhängig von der Software.
Potential Analytischer Plotter:
+ Hohe Genauigkeit durch Selbstkalibrierung (analytische Kompensation
systematischer Fehler)
+ Hochwertige Verfahren zur Aufdeckung grober Fehler
+ On-line Kontrolle der Systemqualität
(Genauigkeit und Zuverlässigkeit)
+ Verwendung beliebiger Kammern (metrisch, nicht metrisch)
keine Einschränkungen durch "exotische" innere Orientierung
+ Beliebige äussere Orientierung (Sonderanwendungen)
+ Hochpräzise Spezialanwendungen möglich, z. B. Unterwasseraufnahmen,
Röntgen, Elektronenmikroskopie oder andere ungewöhnliche Sensorgeometrien
+ Schnelles Messen und Nachmessen durch automatische Grob- und
Feinpositionierung
+ Beschleunigung der Orientierungsvorgänge
+ Computerunterstütztes off-line und on-line Zeichnen; beliebige Masstäbe,
schnelle Zeichenblattvorbereitung und -orientierung
+ Halbautomatisches Messen, z. B. von Digitalen Höhenmodellen; Interpolation,
Repräsentation, Ableitung von Informationen im DHM in "real-time"; progressive
sampling"
+ Schnelle Ableitung von Profilen und Parametern zur Orthophoto- und Stereoorthophotoherstellung; Anschluss eines Orthoprojektors
+ Anschluss eines Korrelators; automatisches Auswerten
.
.
.
etc.
Softwareniveaus:
a) "Computer Software"
b) "Betriebsprogramme
c) "Anwenderprogramme"
zu a) : Betriebssystem, Programmbibliothek, Editor, Interpreter
Assembler, Loader, Debugger
zu b) : Früher in Assembler, Beispiele:
LOOP - Innere Schleife, startet alle 20 mSek., liest Impulse von
Handrädern und Fussscheibe, berechnet neue Position der Bildwagen,
gibt Translationswerte zum Positionieren durch Servomotoren ab;
ersetzt mechanische/optische Lenker bei Analoggeräten.
PANEL - liest und analysiert die Position von Steuerknöpfen
(Tastatur) und Hebeln und startet die gewählten "Anwenderprogramme"
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.23
___________________________________________________________________________
zu c):
In Hochsprache (Fortran, Pascal, C), um Erweiterungen,
Modifikationen zu erleichtern; verschiedene Prioritätsstufen
+ Kalibrierung des Messsystems
+ Orientierung (innere, relative, absolute, simultane, Tisch)
+ Punktoperationen (move to, record, store, delete, display, clear point
memory)
+ Datenerfassung zum DTM
(Höhenlinien, Profile, Gitter, Querprofile; Registrierparameter: Zeit,
Entfernung, Höhenunterschiede, Kombinationen)
+ Streifenbildung
+ Zeichensoftware (off-line, on-line)
+ Datenbereitstellung zur Orthophoto-, Stereoorthophotoproduktion
+ Off-line Programme, wie Modell- oder Bündelblockausgleichung,
DHM Interpolationsprogramm
11.4. Digitale Photogrammetrische Stationen
11.4.1. Konzept und Merkmale
Entwicklung der grundlegenden photogrammetrischen Methoden/Geräte:
Analog → Analytisch → Digital
Unterschiede in
+ Art der Aufgabe und des Produkts
+ Auswertetechnik
Traditionelles photogrammetrisches Verfahren (analog/analytisch):
Datenakquisition → Verarbeitung → Editierung → Repräsentation
Wenig Rückkoppelung, viele unterschiedliche Geräte
Digitale Photogrammetrie: Ein Gerätetyp, aber viele unterschiedliche Daten, Auswerteverfahren und Produkte.
Gerät der Digitalen Photogrammetrie: Digitale Station (vgl. Abb.1)
Die Digitale Station eröffnet die Möglichkeit, von der Datenakquisition bis zur Verwaltung
in Räumlichen Informationssystemen alle relevanten Funktionen wahrzunehmen.
Als Produkte ergeben sich somit
• 3-D, 2-D Vektordaten, mit Attributen
• Rasterdaten, Bildkarten
• Punktwolken aus Punktbestimmung
• Massenpunktprodukte, wie DTM, DSM
• Synthetische Bildprodukte
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.24
___________________________________________________________________________
Es kann in den Modi
• manuell
• halbautomatisch
• vollautomatische
ausgewertet werden.
Abb. 1: Die Digitale Station (funktionale Komponenten)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.25
___________________________________________________________________________
Charakteristika einer Digitalen Station:
• Keine optisch-mechanischen Präzisionsteile
•
•
•
•
•
•
•
Robustes Messsystem, keine Abnutzung
Keine Gerätekalibrierung
Stabile Bildgeometrie, keine zeitabhängigen Deformationen
Kombination von manueller und automatischer Auswertung
Hoher Grad an Interaktivität
On-line und Echtzeitauswertung
Datenakquisition, Auswertung, Editierung, Analyse, Speicherung, Verwaltung und
Repräsentation in einem einzigen System
Man kann folgende Daten behandeln :
• Mono-, Stereo- und Mehrfachbildanordnung
• Terrestrische-, Luft- und Satellitenbilder
• Unterschiedliche Bildsensoren, Sensorkombinationen, Daten von nichtbilderzeugenden
Sensoren
• Digitale, digitalisierte Bilder/Karten
Weitere Möglichkeiten bestehen bezüglich
• Photogrammetrischem und kartograpischem Editieren
• Integration von Bildanalyse- und Bildsynthesefunktionen, z.B. Überlagerung von Vektorund Rasterdaten (Karte und Bild), Generierung und Überlagerung von synthetischen
Bildern
• Interface zu konventionellen und modernen Geräten und Systemen für Ein- und Ausgabe
(Analytische Plotter, Scanner, Printer, CAD, GIS)
• Produkte in analoger und digitaler Form
• Integration von Datenbankfunktionen; Management grosser Datenmengen
Entwicklungslinien Digitaler Stationen
Im Laufe der vergangenen 25 Jahre haben sich drei unterschiedliche Konzepte von
Digitalen Systemen entwickelt. Diese sind, jedes für sich, stark mit den benutzten
Sensorplattformen (und somit deren Bildern) korreliert. Wir unterscheiden RS-Systeme
(für Satellitenaufnahmen), DPS (für Luftbildauswertung) und MV-Systeme (für den
Nahbereich). Die folgende Tabelle zeigt einige spezielle Charakteristika diese Systeme.
Noch gibt es heute kein einzelnes System, welches die Bedürfnisse aller drei Bereiche
abdecken würde.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.26
___________________________________________________________________________
Development of Systems
Systems ↔ Sensor platforms
RS systems
DPS
MV systems
images
satellite
aerial
close-range
number
1
2
n
sensor models
No
single frame
(lin.array)
single frame
input
satellite images
multispectral
scanned aerials
BW/C
CCD images
BW
max. solution
space
2-D
2.5-D, (3-D)
3-D, 2.5-D
results
images (2-D)
attributes
>
>
point fields (0-D
line features (1-D)
images (2-D)
surfaces (2.5-D)
attributes
point fields (0-D)
surfaces (2.5-D)
(3-D)
Slow integration / merger of concepts
Different communities (manufacturers, vendors, users)
Abb. 2: Hardwarekomponenten einer Digitalen Station
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.27
___________________________________________________________________________
11.4.2. Hardware Komponenten
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.28
___________________________________________________________________________
Die Stereobetrachtung digitaler Bilder erfolgt nach folgenden Prinzipien (vgl. Kap.8.2):
(1) Stereoskopverfahren (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Minimonitore)
(2) Anaglyphen
(3) Polarisierung (Zweimonitorsystem; Einmonitorsystem/Splitscreen; Einmonitorsystem
aktiv, passiv (PLZT, LCS))
Monitor Display
Auflösung des menschlichen Auges: 70µm
Auflösung von Standardmonitoren: 100-300 µm
> Reduktionsfaktor 1.5-4
Besondere Probleme: Binärbilder
Monitor Messung
Auflösung eines Analytischen Plotters: 1 µm
Pixelgrösse am Monitor: 10-100 µm
Abhilfe: Zoom-in (wegen Bildzerfall aber nur beschränkt möglich)
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.29
___________________________________________________________________________
Bildspeicherung und -handling
RAM: 256 MB und mehr
Luftbild: Mit 12.5 µm Pixelgrösse und S/W ergibt sich ein Speicherbedarf
von 0.4 GB
Dies erfordert zum effizienten Bildhandling (z.B. Verschieben) eine
ausgefeilte virtuelle Memorytechnik (Disk <—> RAM). Vielfach wird auch
Bildkompression und -dekompression benutzt.
Vorsicht: Bei zu grossen Kompressionsfaktoren (>5) kann die Bildgeometrie gestört werden.
Transfer Times
Ethernet/fast Ethernet: 10-100 Mbit/sec
Ultra SCSI: 20 MB/sec - 40 MB/sec
Ultra 2 SCSI LUD - 80 MB/sec
Serielles SCSI (Fibre channel)
12.5 - 100MB/sec
PCI-bus 64bit - 267 MB/sec
UPA-bus
- 1,6 GB/sec
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.30
___________________________________________________________________________
11.4.3. Kommerzielle Systeme (2000)
• ZI-Imaging
+ Image Station 2000 - WinNT - STEREO
+ Image Station SSK - WinNT- STEREO
+ Phodis - SGI, IRIX - STEREO
• LH-Systems
+ Socet-Set 4.2 - UNIX, Win NT- STEREO
• ERDAS
+ Imagine (OrthoBASE, VirtualGIS, OrthoMAX, VectorModule) - WinNT- STEREO
• INPHO
+ Cobra - WinNT and Linux STEREO
• TOPOL+ATLAS
+ PhoTopoL Atlas - WinNT - STEREO
• Supresoft Inc.
+ VirtuoZo - (SGI), WinNT - STEREO
• Geomatics System Inc.
+ DVP - WIN NT- STEREO
• ISM Corp.
+ DiAP (Digital Analytical Plotter) - WIN NT- STEREO
• Siscam
+ A.D.A (Automatic DEM Acquisition) - Win 95-NT
+ Stereometric PRO - WIN 98 -NT- STEREO
• PCI
+ OrthoEngine 7.0 - UNIX STEREO???
• DAT/EM
+ Summit PC - WIN NT- STEREO
• R-WEL
+ DMS (Desktop Mapping System) - PC WIN 95-98 -STEREO
• GeoSystem
+ Delta - WIN 98/NT -STEREO
• KLT
+ Atlas - WIN 95/NT, UNIX
• RACURS, Moscow
+ PHOTOMOD – PC – STEREO
• Beijing, China
+ JX – 4A DPW – PC – STEREO
• 3D Mapper, Australia
+ DDPS – PC – STEREO
• State Siberian Academy of Geodesy, Novosibirsk
+ SDS (Siberian Digitial Steoreoplotter) – PC – STEREO
• menci software scientifico
+ StereoView – PC – STEREO
• Autometric
+ KDSP (Kork Digital Stereo Plotter) – PC – STEREO
• Topcon Corp.
+ PI - 1000 – PC – STEREO
• Verschiedene Systeme, die speziell für Nahbereichsapplikationen konzipiert sind
11.4.4. Funktionen und Produkte Digitaler Stationen
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite 11.31
___________________________________________________________________________
+ (am Beispiel von LHS SOCET SET)
• CORE: Basisfunktionen
+
Verwaltung, Transfer, Sicherung
Auswahl Koordinatensysteme, Kartenabbildung
+
Bildimport, -export
+
Bildmanipulation (Verschieben, Zoom, Kontrast, Helligkeit,
Bildverbesserung, etc.)
+
Cursor-Editor
+
Math. Sensormodelle: Luftbilder, Panoramakameras (DLT, Polynome)
+
Entzerrung
+
Bildpyramide
+
Innere Orientierung
+
Äussere Orientierung
+
Bildpunktmessung
+
Messfunktionen: Position, Distanz, Winkel
+
Textbearbeitung
• STEREO Betrachtung
• SPOT
Bildimport, Sensormodell
• LANDSAT
Bildimport, Sensormodell
• JERS-1
Bildimport, Sensormodell
• Terrain
DTM Import/Export, Matching, Editierung, Sichtbarkeitsberechnungen,
Schattierung
• HATS
Autom. Triangulation, GPS-Daten, Blockausgleichung
• O-Image
Orthobilder, Mosaik einfach, True Orthophotos, Stereopartner
• MOSAIC
Geometrische/radiometrische Anpassung, benutzerdefinierte Schnittlinien
• F-GIS
Vektor-Datenerfassung, Linien-, Polygon-, Volumen-, Punkt- und
Textobjekte, Import/Export in Standardformaten, 3-D Gebäudemodellierung,
• IMAGE-MAP
Kombination von Bild- und Vektordaten, Beschriftung
• P-SCENE
Photorealistische Szenen, Path Editor, Schrägansichten/stereoskopische
Ansichten, Bildsequenzen
• CLOSE-R
Orientierung von Bildern aus Nahbereich, Bündelausgleichung
• TOOL-KIT
Werkzeuge und Bibliotheken zum Programmieren/Einbindung externer Programme
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.1
___________________________________________________________________________
Annex: Messung und Verfeinerung von Bildkoordinaten
(Erweiterung von Kap. 4.3., 4.4.)
Das typische Messgerät zur Gewinnung von Bildkoordinaten ist der Komparator. Dieser Komparator existiert als Mono- und Stereokomparator, aber auch ein System mit drei Bildbühnen wurde
schon verwirklicht (Nistri TA3/P). Die im Messsystem des Komparators unmittelbar gemessenen
Werte bezeichnet man als ”Komparatorkoordinaten”. Diese Komparatorkoordinaten sind zur
weiteren Auswertung zunächst unter Verwendung von Rahmenmarken (oder auch Réseaumarken)
als identische Punkte in das ”Bildkoordinatensystem” zu transformieren. Im Zuge dieser
Transformation werden bereits mögliche systematische Fehler (Filmdeformation und Hauptpunktlage) korrigiert. Die resultierenden, auf den Hauptpunkt bezogenen Bildkoordinaten werden
anschliessend weiteren Korrekturschritten wegen systematischer Fehler (Unebenheit Andruckplatte, Objektivverzeichnung, Refraktion, ”Erdkrümmung”) unterzogen. Die schliesslich voll
bereinigten (”verfeinerten”) Bildkoordinaten dienen der nachfolgenden photogrammetrischen
Verarbeitung. Sie gehen in der Regel in analytische Systeme auf der Basis der Zentralprojektion
ein.
1. Messung von Komparatorkoordinaten
Zum prinzipiellen Aufbau von Mono- und Stereokomparatoren siehe Kap. 5.3. und 8.3.
1.1 Monokomparator
Schwebel, R.: Die Genauigkeit des Präzisionskomparators
PK 1. ZfV 104, 1979, S. 157-165.
Der neue Präzisionskomparator PK 1. BuL 4, 1976, S. 147-151.
ZEISS
PK 1
KERN
MK2, CPM 1 (Comparator Point Marker)
JENOPTIK
Ascorecord 3 DP
O.M.I.
TA 1/P
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.2
___________________________________________________________________________
Messprinzip ZEISS PK - 1 :
Abbe’sches Komparatorprinzip; die zu messende Strecke (Koordinate) muss in geradliniger
Fortsetzung der Massstabseinteilung liegen
(a) Abbe’sches Komparatorprinzip eingehalten
(b) Längenmessfehler ∆1, ausgelöst zum Beispiel durch mangelhafte Parallelführung
des Bildträgers
Glasmassstäbe sind fest angeordnet, Abtastraster ist auf verschiebbarer Bildträgerplatte
aufgebracht. Photoelektrisches Linearmesssystem. Abtastraster erzeugt zusammen mit dem
Massstabsraster einen Moiré-Effekt.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.3
___________________________________________________________________________
Gitterkonstante der Linearimpulsmessung: 40 µm
(Periode der Signale)
Auflösung: 0.5 µm , 1 µm
(Interpolation)
Genauigkeit aus Gittermessungen: 1.5 µm
Broschüren:
ZEISS PK 1
KERN MK2
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.4
___________________________________________________________________________
1.2
Stereokomparator
ZEISS PSK 1 , PSK 2
WILD STK 1 , seit 1956
JENOPTIK Stecometer C2
Messprinzip WILD STK 1:
Messgrössen x ′ , y ′ , p x , p y (im Komparatorsystem)
Genauigkeit: ± 1-2 µm
Optische Ausgleichsplatten (Verzeichnung)
Bildkantung 400 g
Vergrösserung 6, 11, 20, 40
variabler Messmarkendurchmesser
Optische Bildvertauschung (Ortho-Pseudo)
Dove Prismen
Registriergerät EK 6 , Leuchtskalen
Gewicht ca. 1300 kg
Messspindeln, Rotationsencoder
→ Broschüren: WILD STK 1
Heute sind diese Komparatortypen veraltet und man benutzt den Analytischen Plotter im
Stereokomparatormodus.
1.4
Digitale Komparatoren (Mono, Stereo)
Im einfachsten Fall stellt ein Computer (PC oder Workstation) mit einem graphischen
Monitor bereits einen Monokomparator dar.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.5
___________________________________________________________________________
Der digitale Monokomparator
Ein digitales Bild wird auf den Monitor gebracht und dort manuell oder halbautomatisch
punktweise ausgemessen. Das Pixelraster definiert ein stabiles, unveränderliches
"Komparatorkoordinatensystem". Die Messung erfolgt direkt in diesem System. Zur manuellen
Messung wird der Curser als Messmarke benutzt. Das Messinkrement ist somit ein
(Monitor-)Pixel. Um in diesem Modus Subpixelauflösung zu erhalten muss das Bild lokal
(ausschnittweise) gezoomt werden. "Halbautomatisches" Messen bedeutet, dass der Operateur die
Bildinterpretation und die Grobeinstellung vornimmt, während der Algorithmus (die Software) die
Feinmessung erledigt. Techniken der automatischen Feinmessung (z.B. Templatematching nach
der Methode der Kleinsten Quadrate) ergeben implizit Subpixelauflösung. Ein Papierabzug des
Bildes kann zusammen mit einem Digitalisiertablett zur Übersichtsdarstellung und Grobmessung
dienen.
Digitale Komparatoren lassen sich aber auch im allgemeineren Kontext einer "Digitalen Station"
beschreiben.
Insbesondere lässt sich eine derartige digitale Station als Stereokomparator einsetzen. Hierbei
spielen Stereodisplay und -messung eine wichtige Rolle.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.6
___________________________________________________________________________
2.
Rahmenmarkentransformation, Filmdeformation, Achsschiefe des Komparators
169 Projektoren (13 x 13) auf 23 x 23 cm2 Fläche
Belichtungszeit: 0.5 sek. für ASA 100 Film
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.7
___________________________________________________________________________
Vorteile: +
Durch aktive Beleuchtung einheitliche Bildqualität. Gute
Unterscheidung vom ”Objekthintergrund”
+ Wegen orthogonaler Projektion der Réseaumarken werden deren
Positionen nicht durch Filmunebenheiten gestört. Der Einfluss der
Filmdeformation kann klar isoliert werden
+ Filmunebenheiten werden durch wechselnde Grösse (φ) des
projizierten Réseaukreises angezeigt
∆d = 1 µm Änderung Film/Platte entspricht ∆φ = 1 µm Änderung
Kreisdurchmesser
Verwendung:
KC - 6A
LFC
(Militär)
(NASA)
(a) Rahmenmarkentransformation
Beobachtungen (x k , y k )i
Transformation
Kalibrierte Werte (x, y)i
Ähnlichkeitstransformation:
x = ax k − by k + c
(Lineare Drehstreckung)
y = ay k + bx k + d
Affine Transformation:
x = a 1x k + a 2 y k + a 3
y = b1x k + b 2 y k + b 3
Projektive Transformation :
a x + a 2yk + a3
x= 1 k
c1x k + c 2 y k + 1
b x + b 2 y k + b3
y= 1 k
c1x k + c 2 y k + 1
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.8
___________________________________________________________________________
Affine Transformation kompensiert:
+
Schiefe der Komparatorachsen
+
Massstabsdifferenzen
+
Linearer Anteil Filmdeformation (Schrumpf, Ausdehnung)
+
Ablage Zentrum Bildsystem
(b) Filmdeformation
Film- und Schichtdeformationen entstehen durch mechanische, thermische und
physikalisch/chemische Beanspruchungen des Schichtträgers und der Photoschicht
während des Zeitraums zwischen Belichtung und Ausmessung (Hauptstörquellen:
Filmtransport, Entwicklung, Trocknung, Kopierverfahren, Lagerung). Die affine
Komponente wird als Hauptanteil dieser Deformationen angesehen. Man hofft, sie
durch Transformation auf die Rahmenmarken ausschalten zu können. Moderner Film
auf Polyesterbasis führt zu Längenausdehnungen in Laufrichtung des Films von bis
zu 0,02 %, was auf das Gesamtformat s = 23 cm übertragen einen Betrag von 0,05
mm ausmacht. Nach affiner Transformation verbliebene Restdeformationen
produzieren einen mittleren Koordinaten-fehler von etwa 5 µm. Liegen mehr als 4
Rahmenmarken vor, z.B. Rahmenmarkenleisten, so sind höhere Polynomansätze
üblich, im Fall von Réseauaufnahmen greift man auch zu lokalen
Interpolationsansätzen oder zur Interpolation nach kleinsten Quadraten.
Aufnahme
x ′, y′
Auswertung
Transformation
x, y
Grad der Transformation wird von der Anzahl der Bildmarken bestimmt.
Kompensation des globalen Anteils der Filmdeformation:
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.9
___________________________________________________________________________
Modellierung durch Polynome 3. Grades; Reséaumessungen
∆x = a o + a 1x + a 2 y + a 3 x 2 + a 4 xy + a 5 y 2 + a 6 x 3 + a 7 xy 2 + a 8 xy 2 + a 9 y 3
∆y = b o + b1x + b 2 y + b 3 x 2 + b 4 xy + b 5 y 2 + b 6 x 3 + b 7 xy 2 + b 8 xy 2 + b 9 y 3
Lokale Korrekturen durch Réseaumessungen:
(a) Zur Korrektur von Pi wird lediglich der
nächstgelegene Réseaupunkt (2) eingemessen
(Korrekturwert von 2 wird auf Pi übertragen)
(b) Messung von 4 benachbarten
Réseaupunkten (1,2,3,4); Affintransformation
3.
Radiale und tangentiale Objektivverzeichnung
Hakkarainen, J.: On the relationship between the radial and tangential component of
decentering distortion. Publication of the Finnish Geodetic Institute, No.
89, Helsinki 1979
Die geometrische Objektivverzeichnung wird verursacht durch fertigungsbedingte
Abweichungen des Objektivs vom idealen Zustand, so zum Beispiel durch Störungen der
korrekten (sphärischen) Form der Linsenoberflächen und mangelhafte Zentrierung der
Einzellinsen.
Man unterscheidet radiale und tangentiale Verzeichnung.
∆ r = ∆r ′ + ∆r ′′
symm.
Anteil
∆t
asymm.
Anteil
tangentialer
Anteil
Dezentrierverzeichnung
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.10
___________________________________________________________________________
Die symmetrischen Anteile der radialen Verzeichnung sollten bei modernen Hochleistungsobjekten unter 5 µm liegen. Zur Modellierung des symmetrischen Anteils werden
Polynome angesetzt von der Art
∆r ′ = f ′(r ) = a 1r + a 2 r 3 + a 3 yr 5 + − − −
,
mit den Komponenten
∆x = a 1x + a 2 xr 2 + a 3 xr 4 + − − −
,
∆y = a1 y + a 2 yr 2 + a 3 yr 4 + − − −
,
Die Dezentrierverzeichnung wird mit ihrem radialen und tangentialen Anteil nach Conrady formuliert zu
∆r ′′ = 3 f ′′(r ) sin (φ−φ o ) ,
∆t = f ′′(r ) cos(φ− φo ) ,
mit
f ′′(r) = b1r 2 + b2 r 4 + b3 r6 + . . .
φ ...
Richtungswinkel des Bildpunkts
φ o . . . Richtungswinkel für den Maximalbetrag der Tangentialverzeichnung
f′′(r) ist somit das Profil der Tangentialverzeichnung in der Achse des Maximums.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.11
___________________________________________________________________________
Dezentrierverzeichnung:
Vorsicht:
Die radiale Verzeichnung wird immer zusammen mit der Kammerkonstanten bestimmt, d.h. zu
einer bestimmten Kammerkonstanten gehört eine wohldefinierte Verzeichnung.
Es wird versucht, die radiale Verzeichnungskurve zu ”balancieren“, d.h. die Nulldurchgänge der
Kurve so zu wählen,
dass z.B.
∑ ∆r′
= 0, oder
′
′
∑ ∆r ∆r = Min.
Für
∆rk′ = 0 ergibt sich
(
a1 = − a 2rk2 + a 3rk4 + .....
)
Die kalibrierte Kammerkonstante c k wird nun so bestimmt, dass der lineare Anteil von ∆r ′ zu
Null wird (a 1 = 0 ) .
c k = c + ∆c = c ( 1 − a 1 ).
∆c
c
=
− ∆r ′
r
∆c =
−c
c
∆r ′ = − (a 1r + a 2 r 3 + a 3 r 5 +...)
r
r
∆c = − ca1 − ca 2 r2 − ca3r 4 + ...
vernachlässigt
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.12
___________________________________________________________________________
D.C. Brown verwendet stattdessen den Ansatz
∆r ′′= f ′′(r )sin(φ − φ o ) ,
∆t = f ′′(r ) cos(φ − φo ) ,
und ersetzt diesen durch den einfacheren Ausdruck
∆x = P1 ( y 2 +3x 2 ) + 2P2 xy ,
∆y = 2P1 xy
+ P2 ( x 2 +3y 2 ) .
Hakkarainen 1979 berichtet von der Überlegenheit des Conrady-Ansatzes gegenüber dem Brown-
Ansatz. Die radiale Verzeichnung wird im Labor des Kammerherstellers bestimmt und ist mit
ihrem symmetrischen und nichtsymmetrischen Anteil Bestandteil des Kalibrierungsprotokolls.
Vermisst werden nach wie vor Angaben zur tangentialen Verzeichnung. Die Verzeichnung ist
verschiedenen Einflüssen während des Bildflugs, wie Druck- und Temperaturunterschieden
zwischen Innen- und Aussenraum der Kammer unterworfen, die zu signifikanten Änderungen der
Laborwerte führen können. Weiterhin ist die Art des Einbaus der Messkammer in das
Bildflugzeug (in einer Druckkammer mit Abschlussglas oder in freier Atmosphäre ohne
Abschlussglas) ein wichtiger Faktor. Diese Änderungen der Verzeichnungswerte sind empirisch
noch wenig erforscht, können aber durchaus Werte von 2 - 8 µm annehmen, was etwa der Grösse
der Laborwerte selbst entspricht.
2.4.
Unebenheiten der Abbildungsfläche
- Durchbiegung der Andruckplatte
- Variationen der Filmdicke
- Mangelhafte Anlage des Films an der Andruckplatte
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.13
___________________________________________________________________________
P′
... Korrekte Abbildung
P ′P ... Ablage wegen Unebenheit
Brown, D.C.:
The bundle adjustment - progress and prospects.
Int. Arch. Phot., Vol. XXI, Part 3, Helsinki 1976
Hakkarainen, J., Ruotsalainen, R.: Checking the planeness of the magazin platens and
camera frames of aerial cameras. Phot. J. Finland, Vol. 7, No. 2, 1978
Meier, H.K.:
Zur Filmplanlage in Luftbildkammern. BuL, 1972, Nr. 1, S. 56 - 63
Schilcher, M.:
Empirisch-statistische Untersuchungen zur Genauigkeitsstruktur des
photogrammetrischen Luftbilds. DGK, Reihe C, Heft 262, München 1980
Die ermittelten Werte für die Fehlereinflüsse zu Lasten der Unebenheit der Abbildungsfläche
schwanken von Autor zu Autor zum Teil erheblich. Im Labor festgestellte Deformationen neu
gefertigter Andruckplatten bleiben weit unter jenen, die bereits im praktischen Einsatz waren.
Hakkarainen, Ruotsalainen, 1978 weisen in einer Prüfstudie von 16 Platten mittlere quadratische Abweichungen von ca. 1 - 11 µm nach. Additive Unebenheiten von Andruckplatte und
Film sind (auch nach Brown, 1976) in der Grösse von 10 µm zu erwarten.
Brown, 1976 formuliert diese Deformationen mit 7 Koeffizienten zunächst als
x
(c1x 2 + c 2 xy+ c 3 y 2 + c 4 x 3 + c 5 x 2 y + c 6 xy 2 + c 7 y 3 ) ,
c
y
∆y = (c1x 2 + c 2 xy + c 3 y 2 + c 4 x 3 + c 5 x 2 y + c 6 xy 2 + c 7 y 3 ) .
c
∆x =
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.14
___________________________________________________________________________
Nach praktischen Erfahrungen modifiziert er diesen Ansatz zu
x
c
y
∆y =
c
∆x =
[a
[a
]
− y ) ] + y (a
13 ( x
2
− y 2 ) + a14 x 2 y 2 + a 15 ( x 4 − y 4 ) + x (a 16 r 4 + a 17 r 8 + a 18 r12 ) ,
13 ( x
2
− y 2 ) + a 14 x 2 y 2 + a 15 ( x 4
4
16 r
4
+ a 17 r 8 + a 18 r12 ) .
Dabei sollen a13 , a14 , a15 den Anteil kompensieren, der nicht streng radial abhängig ist;
a16 , a17 , a18 repräsentieren radialsymmetrische Komponenten der Plattendurchbiegung.
Für die mangelhafte Anlage des Films an der Andruckplatte sind nach Meier, 1972
kurzperiodische Störungen von bis zu ca. 7 µm zu erwarten.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.15
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.16
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.17
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.18
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.19
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.20
___________________________________________________________________________
5.
Atmosphärische Refraktion
Schut, G.H.: Photogrammetric refraction. Phot. Eng. 35, 1969, S. 79 - 86
Albertz/Kreiling: Photogrammetrisches Taschenbuch. Herbert Wichmann Verlag,
Karlsruhe, 1980, S. 72-73
Die atmosphärische Refraktion wird ausgelöst durch Brechung der Strahlen des Strahlenbündels
an Luftschichten unterschiedlicher optischer Brechkraft. Unter Annahme einer Normatmosphäre
lautet das entsprechende Korrekturmodell
∆r = − kr (1 +
r2
c2
) ,
k . . . Refraktionskoeffizient
mit den Komponenten
∆x = − kx (1 +
∆y = − ky(1 +
r2
c2
r2
c2
),
).
k = f(hg,Z p ,A ) ;
hg ... Flughöhe über Grund
Z p ... Geländehöhe
A ... Parameter für atmosphärische Bedingungen
der Normatmosphäre
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.21
___________________________________________________________________________
Für die Normatmosphäre kann k abgeschätzt werden zu


Z 2p
Zo
.
k = 0.00241 
−
 Z o2 −6Z o +250 Z o ( Z 2p −6 Z p +250) 


Z o , Z p in km
Z o . . . Höhe Projektionszentrum über N.N.
Die Korrektur wegen Refraktion ∆r kann auch aus Tabellen entnommen werden (z.B.
Albertz/Kreiling 1975, Schut 1969).
Beispiel: Z p = 500
MB
1 : 10´000
1 : 30´000
∆r [µm]
c
Zo
[mm]
[km]
r = 100
r = 150
305
3.5
3
6
153
2.0
2
5
85
1.3
2
7
305
9.5
8
13
153
5.0
7
14
85
3.0
7
18
Die tatsächliche Refraktion kann von dieser Modellrefraktion wegen atmosphärischer
Störungen abweichen. Ausserdem sind zusätzlich noch Störungen aufgrund der sich am
Flugzeugrumpf bildenden Luftgrenzschicht und durch vornliegende Motoren ausgelöste
Turbulenzen zu erwarten. Es muss am Bildrand mit Bildkoordinatenfehlern, ausgelöst
durch Abweichungen von der Normalfraktion, von ca. 2 - 3 µm bei Bildmassstäben
< 1 : 10'000 gerechnet werden.
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.22
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.23
___________________________________________________________________________
6.
Berücksichtigung der „Erdkrümmung“
Finsterwalder, Rü.: Die Berücksichtigung der Erdkrümmung bei der photogrammetrischen
Auswertung, ZfV 1963, S. 190 - 196
Konventionelle Methode:
∆rE . . . Radiale Versetzung wegen
”Erdkrümmung“
(a) P ′ benutzen und korrektes Objektkoordinatensystem einführen (kartesisches Tangentialsystem)
(b) P ′ benutzen (Korrektur ∆rE ) und mit
nichtkompatiblem Objektkoordinatensystem arbeiten
Statt Korrektur ∆rE besser: Transformation der Objektkoordinaten in ein mit der
Photogrammetrie kompatibles Koordinatensystem (kartesisch).
∆ rE ist kein Fehler in den Beobachtungsgrössen!
∆rE
≈
r 3 hg
2c 2 R
,
R... Erdradius (6380 km)
Diese Formel berücksichtigt weder die Bildneigungen noch die Geländehöhenunterschiede.
Mit hg = 1000 m, r = 100 mm, c = 150 mm:
∆rE ≈ 3.5 µm
Beachte: Refraktionskorrektur und Korrektur wegen Erdkrümmung haben unterschiedliche
Vorzeichen!
Formeln für Koordinatentransformation G.K. → Tangentialsystem:
Kraus, K.: Photogrammetrie. Band 2, Dümmler/Bonn, 1984, S. 92 – 95
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.24
___________________________________________________________________________
Korrektur der Landeskoordinaten
Eine strenge Lösung des gestellten Problemes besteht aus folgenden Schritten :
a) Man nimmt einen Punkt B des Erdellipsoides, der etwa in die Mitte des photogrammetrisch
zu bearbeitenden Gebietes fällt, und legt in diesem Punkt B die Tangentialebene an das Erdellipsoid. Anschliessend projiziert man die bezüglich des Erdellipsoides mit ihren geographischen Koordinaten φ und λ sowie der ellipsoidischen Höhe Z L festgelegten geodätischen
Passpunkte orthogonal auf diese Tangentialebene. Dadurch erhält man von den geodätischen
Passpunkten Koordinaten, die - wie in der Photogrammetrie üblich - durch orthogonale
Projektion auf Koordinatenebenen entstehen. Die Tangentialebene ist die XY-Ebene des
Koordinatensystems, wobei die Y-Achse die Tangente an den Meridian im Berührungspunkt B
ist und die X-Achse dazu senkrecht verläuft; die Z-Achse steht orthogonal auf der
Tangentialebene (Bild 8-1).
Bild 8-1: Cartesische XYZ-Koordinaten bezogen auf eine Tangentialebene der Erdellipsoides
Aus den Gauss-Krüger-Landeskoordinaten YL X L sowie den ellipsoidischen Höhen
Z L kann man mittels folgender Formeln die XYZ-Koordinaten bezogen auf die
Tangentialebene berechnen, die einer orthogonalen Projektion der Punkte auf die
Koordinatenebenen entsprechen: 1)
1)
Ableitung siehe Rinner, K.: DGK Reihe A, Heft 34, Teil II, 1959
1
X = (1 + Z L / R) Y L −
(1 + Z L /R) Y 3L ...
2
3R
1
1
Y = (1 + Z L / R ) X L −
(1 + Z L / R ) X 3L −
(1 + Z L / R ) X L Y 2L ...
2
6R
2R 2
1
Z=ZL −
(1 + Z L / R ) ( X 2L + Y 2L ) ⋅ ⋅ ⋅
2R
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.25
___________________________________________________________________________
Dabei bedeuten:
X,Y,Z: Cartesische Koordinaten bezogen auf die Tangentialebene mit dem Ursprung
im Berührungspunkt B.
YL , X L : Gauss - Krüger - Koordinate reduziert um die Gauss - Krüger - Koordinaten
ZL :
des Berührungpunktes B.
Ellipsoidische Höhe.
R:
Erdradius.
Diese Formeln liefern dm-Genauigkeit für Interessengebiete mit einem Ausmass von etwa
80 x 80 km2. Strengere Formeln, die in einem Gebiet von 200 x 200 km2 erst Vernachlässigungen im Bereich einiger Milimeter haben, hat K. Hubeny1) angegeben.
b) Mit Hilfe der geodätischen Passpunkte, die jetzt im XYZ-System vorliegen, erfolgt die
eigentliche photogrammetrische Punktbestimmung, in der Regel eine Blocktriangulation. Das
Ergebnis, d.h. die Koordinaten der Neupunkte, fallen im XYZ-System an.
c) Man ist im allgemeinen an dem photogrammetrischen Ergebnis nicht im XYZ-System,
sondern im YL XL Z L -System der Landesvermessung interessiert. Man erhält die Formeln für
diese Transformation durch die Umkehrung der Beziehungen (8-1) und Beschränkung auf die
relevanten Terme. Dabei errechnet man zuerst Z L , das dann zur Berechnung der YL X L Koordinaten verwendet werden kann:
(
)
1
(1 + Z / R ) X 2 + Y 2 K
2R
3
YL = (1 − Z L / R )X + XZ 2 / R 2 + X / 3R 2 K
X L = (1 − Z L / R )Y + YZ 2 / R 2 + Y 3 / 6R 2 + YX 2 / 2R 2 K
Die Bedeutung der einzelnen Grössen wurde im Anschluss an das Formelsystem (8-1)
angegeben.
ZL = Z +
1)
BuL 46, 35-38, 1978
( )
( )
( )
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.26
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.27
___________________________________________________________________________
Institut für Geodäsie
und Photogrammetrie ETHZ
Photogrammetrie GZ
Seite A.28
___________________________________________________________________________
7.
Literatur
Albertz/Kreiling: Photogrammetrisches Taschenbuch. Herbert Wichmann Verlag, Karlsruhe,
1980
Brown, D.C.: The bundle adjustment - progress and prospects. Int. Arch. Phot., Vol. XXI, Part 3,
Helsinki 1976
Finsterwalder, R.: Die Berücksichtigung der Erdkrümmung bei der photogrammetrischen
Auswertung. ZfV 1963
Finsterwalder/Hofmann: Photogrammetrie. Walter de Gruyter & Co., Berlin, 1968
Hakkarainen, J.: On the relationship between the radial and tangential component of decentering
distortion. Publ. of the Finnish Geodetic Institute, No. 89, Helsinki 1979
Hakkarainen, J.: Radial and Tangential Distortion of Aerial Cameras. Reports of the Finnish
Geodetic Institute, 83:3, 1983
Hakkarainen, J., Ruotsalainen, R.: Checking the planeless of the magazin platens and camera
frames of aerial cameras. Phot. J. Finland, Vol. 7, No. 2, 1978
Konecny/Lehmann: Photogrammetrie. Walter de Gruyter, Berlin, New York, 1984
Kraus, K.: Band 1: Grundlagen und Standardverfahren. Dümmler/Bonn, 1982
Kraus, K.: Band 2: Theorie und Praxis der Auswertesysteme. Dümmler/Bonn, 1984
Meier, H.K.: Zur Filmplanlage in Luftbildkammern. BuL, 1972, Nr. 1
Schilcher, M.: Empirisch-statistische Untersuchungen zur Genauigkeitsstruktur des
photogrammetrischen Luftbilds. DGK, Reihe C, Heft 262, München 1980
Schwebel, R.: Die Genauigkeit des Präzisionskomparators PK1. ZfV 104, 1979
Schwebel, R.: Der neue Präzisionskomparator PK1. Bildmessung und Luftbildwesen 4
Schwidefsky/Ackermann: Photogrammetrie. B.G. Teubner, Stuttgart, 1976
Schut, G.H.: Photogrammetric Refraction. Phot. Eng. 35, 1969