Das photographische Bild

Transcription

Das photographische Bild
Das photographische Bild
Photometrische Grundlagen
Latentes Bild und photographisches Entwickeln
Charakteristische Kurve und spektrale Empfindlichkeit
Geometrische Auflösung der Emulsion
1
Photometrische Grundlagen
•
I.....Intensität (Lichtstärke [Candela] = [cd])
•
I = Lichtstrom F / Raumwinkel w des Lichtstroms; F....Lichtstrom [lumen] = [lm
•
F = Lichtleistung, die von einer Normallampe in den Raumwinkel w = 1
abgestrahlt wird
Optischer Empfänger
Undurchlässigkeit (Opazität)
O=
Transparenz
IO
IT
T=
Dichte (Schwärzung)
(D = 1, d.h. nur 1/10 des
Lichtes wird durchgelassen)
Beleuchtungsstärke
Belichtung
(t…Zeit)
IO
IT
1 IT
=
O IO
D = logO = log
E=
Lichtstrom Φ
Fläche F
lm
2
IO
IT
= lx
m
Bel = E * t lx sec
2
1
Kontrast C
Photo
Kontrastverhältnis
Differentieller Kontrast
Logarithmischer Kontrast
CR =
CD =
Emax
Emin
(Emax-Emin)
Emin
Emax
CL = log E
min
3
Grauwertprofil
E
Emax
Modulation
M=
M=
Emax - Emin
Emax + Emin
CR - 1
CR + 1
Emin
x (Ort)
CR und M werden meistens in der Luftbildphotographie verwendet. Kontrastreduktion
bedingt durch die Atmosphäre: Faktor 2 -3 bei 9 km hg (Flughöhe über Grund).
M: Beschreibt das Vermögen von Filmen, Objektiven etc. ein Objekt mit einer
bestimmten Qualität wiederzugeben
4
2
Latentes Bild und photographisches Entwickeln
Analoges vs. Digitales Bild:
• Digitales Bild muss nicht entwickelt werden
• Elektronisch speicherbar
• Anschliessend digitale Bildverarbeitung möglich
• Möglichkeit des Belichtens auf Fotopapier oder drucken mit einem Tintenstrahl-,
Laserdrucker ….
5
Schwarzweiss – Photographie
Schicht, Emulsion (5-25 µm)
(Silberhalogenid)
Schichtträger, Basis
Die Emulsion besteht aus Gelatinemasse mit eingebetteten SilberhalogenidKristallen (Bromsilber). Diese "Körner" sind photosensitiv. Treffen Photonen
(Lichtstrahlen) auf eine Anzahl Körner, dann wird dort das Silberhalogenid zerlegt in
Silber und Halogen (Brom). Die Schicht ist "belichtet".
Silber (schwarz)
Lichtquanten
Silberhalogenid
Halogen (Brom)
"Belichtung"
latentes Bild
6
3
Licht
Emulsion
Basis
nach der Belichtung -----> "Latentes Bild”
nach der Entwicklung
nach Fixieren, Wässern -----> „Negativ“
Fog (Schleier)
7
• Entwickler verstärkt Reduktionsprozess
• Fixierbad löst unreduzierte Silberhalogenidkörner aus der Schicht
• Härtet damit die Emulsion und stoppt den Entwicklungsprozess
• Restbestände durch Wasser herausgewaschen
Ergebnis ist ein "Negativ", welches die Helligkeitsunterschiede des Objekts als
Dichteunterschiede der photographischen Schicht zeigt.
Das schwarze Silber repräsentiert die hellen Objektstellen. Bereiche, welche kein
Licht erhalten haben, werden hell nach der Auswaschung der unreduzierten
Körner (weiss im Falle von Papier als Basis, durchsichtig bei Film oder Glas).
8
4
Schwarzweissphotographie vs. Farbphotographie:
• Bei Schwarzweissphotos sind Farbkontraste gegenüber der Farbphotographie
kaum wahrnehmbar
• Bei Schwarzweissbildern „sieht“ man anders
• Motive, die in Farbe gut aussehen, können in S/W eher langweilig wirken,
umgekehrt können andere Motive durchaus in S/W besser wirken
• In der Photogrammetrie kommt es aber weniger auf die Wirkung eines Bildes an,
sondern mehr auf den Informationsgehalt zur Erfüllung einer speziellen
Messaufgabe
Quelle: www.paparazzi-smile.de
9
Schwarzweissphotographie vs. Farbphotographie:
Unterschiede in der Empfindlichkeit der Farben bei S/W-Bildern tritt vor allem in
den Grundfarben auf
Rot wird auf Schwarzweissfilmen etwas zu hell wiedergegeben.
Grün wird noch stärker als rot zu hell dargestellt, kräftig grüne Farbe wird
annähernd weiß.
Der Farbunterschied grüner Bäume zu blauem Himmel kann mit einem Rotfilter
extrem verstärkt werden.
Blau wirkt dunkler als wir es eigentlich wahrnehmen.
Mit Rotfilter wird es nahezu schwarz, was beim Vorhandensein von Wolken dazu
führt, dass fast unwirkliche, sehr kontrastreiche Bilder entstehen.
10
5
Farbphotographie
Weisses Licht
Blau
Grün
Cyan
Rot
Primärfarben
Gelb
Sekundärfarben
Magenta
Die Emulsion der Farbphotographie besteht aus drei Schichten, wobei jeder
Schicht ein Farbstoff zugemischt ist. Dieser wirkt jeweils als Filter.
11
Filtereigenschaften von Farben
Weiss
Weiss
Weiss
Cyan
Gelb
Magenta
Grün
Blau
subtrahiert rot
Rot
Grün
subtrahiert blau
Blau
Rot
subtrahiert grün
12
6
Aufbau eines Farbnegativ - Films
Drei Schichten; die Farbstoffe sind in Schichten eingelagert
Blau
Grün
Rot
Weiss
Cyan
Magenta Gelb
Objektfarben
Zurückgehalten
Eingelagert
Blauempfindlich
Gelb
Gelbfilter
Grünempfindlich
Magenta
Rotempfindlich
Cyan
Nach Belichtung und Entwicklung
gelber Farbstoff
magenta Farbstoff
cyan Farbstoff
Nach Fixierung
Gelb
Magenta Cyan
Schwarz
Rot
Grün
Blau
Farben im Negativ
Die Farbschichten für Diafilme sind anders aufgebaut. Daneben gibt es noch
Filme mit speziellem Aufbau, so zum Beispiel Infrarotfilme.
13
Charakteristische Kurve und spektrale Empfindlichkeit
Dichte : Ausmass der Schwärzung eines entwickelten Photos
D = log
IO
IT
Charakteristische Kurve : D = f (Belichtung Et) (Schwärzungskurve)
Die charakteristische Kurve definiert somit die Beziehung zwischen Dichte D
einer Emulsion und der Belichtung (Et). Der Logarithmus von (Et) wird
benutzt, da das menschliche Auge Lichtunterschiede ebenfalls über eine
logarithmische Funktion registriert.
Diese Kurve beschreibt ein Charakteristikum der photographischen Emulsion.
14
7
Abb. 2. 1: Charakteristische Kurve einer
photographischen Emulsion
γ
Der geradlinige Teil dieser Kurve ist von besonderer Bedeutung für die Erzielung
"guter" Photos. Bei einer "richtig" belichteten Aufnahme fallen alle Dichtewerte auf
den geradlinigen Teil. Die Steigung dieser Geraden nennt man "Gradation γ" .
γ = tan α =
∆D
∆ log (Et
)
γ … Gradation
15
Abb. 2. 2: Kurven unterschiedlicher Gradation
"Hart" bedeutet: Scharfe Unterschiede zwischen hell und dunkel (starker Kontrast).
16
8
Der Verlauf der Kurve ist auch von der Entwicklung und nicht nur von der Art der Emulsion
abhängig (Entwicklungsdauer, Zusammensetzung,Temperatur und Typ des Entwicklers).
Abb. 2. 3: Schwärzungskurven bei verschiedener Entwicklung
Die Schwärzungskurve gibt auch Hinweise bezüglich der Empfindlichkeit einer Emulsion.
17
Die DIN- und ASA-Normen sind so festgelegt, dass sie eine reziproke
Funktion der Belichtung (Et) darstellen, welche bei einer festgelegten
Entwicklung einen bestimmten Dichtewert erzeugt, und zwar um ∆D = 0.1
über dem Schleier
D
A
D
∆D =
0.10
A
Schleier
Normen:
1
DIN − Zahl = 10log  
 Et  A
Log (Et)A
Log Et
1
ASA− Zahl = 0,8 log  
 Et  A
18
9
Spektrale Empfindlichkeit
Die spektrale Empfindlichkeit einer Emulsion zeigt an, in welchem Ausmass sie
gegenüber Licht verschiedener Wellenlängen des Spektrums empfindlich ist.
• Photographische S/W-Emulsionen sind grundsätzlich blauempfindlich. Die
Beimischung von Farben macht sie auch gegenüber anderen Wellenlängen
empfindlich.
• Als "orthochromatisch" bezeichnet man Emulsionen, die blau-, grün- und
gelbempfindlich sind.
• Sind sie zusätzlich noch rotempfindlich, so bezeichnet man diese als
"panchromatisch ".
19
Aus: Philip Swain und Shirley Davis,
Remote Sensing: The Quantitative
Approach; MacGraw-Hill, 1978
20
10
Abb.2.4: Spektrale
Empfindlichkeitskurven von
menschlichem Auge, unsensibilisiertem,
orthochromatischem und
panchromatischem Schwarzweiss-Film
Deutlich wird die erhöhte Blau- und
die verringerte Gelbempfindlichkeit
des
Films,
üblichen
die
im
panchromatischen
Gegensatz
zur
Augenkurve steht. Das erklärt auch,
weshalb Blau auf dem Film (zu) hell,
Gelb
dagegen
wiedergegeben
widersprüchlichen
(zu)
wird.
und
dunkel
Solche
oft
unerwünschten Grautonwerte lassen
sich mit Hilfe von Farbfiltern ganz
oder teilweise korrigieren.
21
Aus:Albertz/Kreiling,
Photogrammetrisches Taschenbuch
3. Auflage, Herbert Wichmann Verlag
Karlsruhe, 1980
22
11
Geschwindigkeit
Geschwindigkeit einer Emulsion:
Schnell heisst hochempfindlich; erfordert wenig Licht, um eine bestimmte Dichte
zu erreichen. Wenig Licht bedeutet aber kurze Belichtungszeit. Anwendung bei
schnell bewegten Objekten oder schlechten Lichtverhältnissen.
Empfindlichkeit
Die Empfindlichkeit hängt ab von Grösse und Anzahl der Bromsilberkristalle.
Grosse Bromsilberkristalle erhöhen die Empfindlichkeit, aber reduzieren die
Auflösung und umgekehrt.
23
Geometrische Auflösung
Ein weiterer wichtiger Parameter der Emulsion ist die geometrische Auflösung.
Zwischen der Empfindlichkeit einer Emulsion und ihrer geometrischen
Auflösung besteht eine Wechselwirkung:
Empfindlichkeit
Grosses Korn
Hoch
Kleines Korn
Gering
Geometrische
Auflösung
Gering
Hoch
Heute sind Emulsionen sehr hoher Auflösung verfügbar (Kodak: 700 lp/mm).
Die Gesamtauflösung eines photographischen Systems wird durch Objektiv und
Emulsion bestimmt. Dabei ist das Objektiv der eigentlich einschränkende Faktor
(Auflösungsvermögen
moderner
Luftbildobjektive:
ca.
100
lp/mm,
bildortabhängig).
24
12
Rayleigh-Streuung
Das sichtbare Sonnenlicht besteht aus Strahlung unterschiedlicher Wellenlängen,
die ein Farbspektrum von Violett und Blau über Grün und Gelb zu Rot ergeben.
Das weiße Licht entsteht durch die Mischung dieser Farben. Der englische
Physiker Lord Rayleigh konnte 1871 nachweisen, daß das Sonnenlicht an den
Luftmolekülen in alle Richtungen gestreut wird. Weiterhin zeigte er, daß die
kurzwelligen Lichtstrahlen (also Violett und Blau mit Wellenlängen L=0,38 bis 0,45
µm) an diesen kleinen Partikeln stärker gestreut werden als das langwellige Licht
(Orange und Rot, L=0,65 bis 0,75 µm).
Die Streuung des Lichtes nimmt also mit abnehmender Wellenlänge zu. Das
Himmelsblau ergibt sich als gewichtetes Mittel aller gestreuten Strahlung des
sichtbaren Bereiches, in dem der kurzwellige Blau-Anteil überwiegt. Umgekehrt
beruht auch die Rotfärbung der tiefstehenden Sonne auf diesem Effekt, da
aufgrund des langen Weges durch die Atmosphäre die Blau- und Grünanteile aus
der direkten Sonnenstrahlung herausgestreut werden und Orange und Rot
überwiegen.
Die blaugraue Färbung entfernter Landschaftsteile beruht auf genau diesem
Streu-Effekt.
25
Praktische Bedeutung
a) Terrestrische Photogrammetrie:
• Es bestehen große Lichtunterschiede
• Bei nichtbewegten Objekten sind lange Belichtungszeiten möglich
• Daher wird gewöhnlich eine feinere Emulsionen benutzt (Kontrast CR = 30 : 1).
b) Luftbildphotographie:
• Wegen der Flugzeugbewegung werden kurze Belichtungszeiten benutzt,
d.h. man braucht dann zur Erzielung guter Bilder eine relativ "schnelle" Emulsion
• Forderung nach hoher Auflösung steht Forderung nach grosser Empfindlichkeit
gegenüber. Es ist ein Kompromiss nötig (FMC -> Forward Motion Compensation).
Die Lichtunterschiede (abhängig von hg und Zustand der Atmosphäre), die durch
diffuse Reflexion und Streuung des Sonnenlichts an Staub- und Wasserteilchen
verursacht werden, sind kleiner. Es werden Filme hoher Gradation (γ = 1-2), also
harte Emulsionen, benutzt. Zudem ist ein sorgfältiges Aufeinanderabstimmen von
Emulsion, Entwickler und Entwicklungszeit nötig. Der hohe Blaulichtanteil muss mit
einem Gelb- oder Orangefilter abgeschwächt werden.
26
13
2.3 Geometrische Auflösung der Emulsion
Ein wichtiger Parameter ist das Auflösungsvermögen und im Zusammenhang
damit die Modulationsübertragungsfunktion.
- Ziel des Auflösungsvermögens:
Erhalten eines quantitativen Masses zur Beschreibung der Fähigkeit
eines optischen Systems, benachbarte Punkte oder Linien noch erkennbar
übertragen/wiedergeben zu können.
- Testfiguren:
Testfiguren bestehen aus Strichrastergruppen mit wechselnden
Abständen (z. B. Siemensstern).
27
- Definition des AV:
Das Auflösungsvermögen definiert sich nach der Anzahl noch erkennbarer
Hell/Dunkel-Perioden pro Längeneinheit, z.B. 50 lp/mm für ein Objektiv.
(Linienpaare pro Millimeter -> lp/mm)
lp{
28
14
29
30
15
- Problem:
Eine einzelne Zahl für das AV ist nicht aussagekräftig genug. So beeinflusst
zum Beispiel auch der Kontrast das Auflösungsvermögen.
- Lösung:
Modulationsübertragungsfunktion (MTF)
Allgemein: Optische Übertragungsfunktion (OTF).
Man erhält sie aus einer Ableitung aus der Nachrichtentechnik.
31
f(x) = a + b cos (2 π ω x + ε)
"Input" opt. System:
Objekt f(x)
"Output" opt. System:
Abbildung g(x)
Bild
Der "Output" ist ebenfalls sinusförmig und hat die gleiche Frequenz, aber
eine andere Amplitude als der "Input" (--> Amplitudenmodulation).
g(x) = a + M(ω) b cos (2 π ω x + ε + Φ(ω))
32
16
Definition Input Modulation
fmax - fmin
Min =
Definition Output Modulation
Mout =
MTF =
Das Verhältnis
fmax + fmin
=
gmax - gmin
gmax + gmin
b
a
= M(ω)
b
a
Output Modulation
= M(ω)
Input Modulation
hängt ab von der Frequenz ω (= Wechsel zwischen schwarz und weiss).
(MTF -> Modulus der Fourier Transformation der Verwaschungsfunktion)
Normalisierung von M(ω):
Modulus M(ω) =
Phase
2
M(0) = 1
2
C (ω) + S (ω)
φ(ω) = arctan
-S(ω)
C(ω)
Damit
C(ω) = Μ(ω) cos φ(ω)
S(ω) = -M(ω) sin φ(ω)
33
MTF of Zeiss RMK AR 15/23 1:8000 aerial photographs
34
17
Rayleigh-Kriterium
[nach J. W. Rayleigh]
Das Rayleigh-Kriterium definiert, wann zwei
Lichtquellen als aufgelöst betrachtet werden
können. Beugungsphänomene begrenzen das
Auflösungsvermögen jedes optischen Apparates.
Nach Lord Rayleigh gelten zwei Lichtpunkte als
aufgelöst, wenn der Abstand der beiden
Hauptmaxima nicht geringer ist als der vom
Maximum einer Beugungsfigur zu ihrem ersten
Minimum.
35
Photogramphische und Nichtphotographische Sensoren
Bildaufnahmeröhren / Vidicons (veraltet)
CCD-Sensoren
CMOS-Sensoren
36
18
Bildaufnahmeröhren / Vidicons
Aufzeichnung und Wiedergabe von Fernsehbildern:
Beim Fernsehen werden Bilder direkt in elektrische Signale umgewandelt.
• An Stelle der photographischen Schicht wird
Sensor angebracht
ein optoelektronischer
• Schnelle Übertragung der Bilder über grössere Distanzen möglich
• Bilder werden zurückgewandelt und am Bildschirm dargestellt
• Einsatz dieser Technologie in der Vermessung nur für Betrachtungszwecke
• Erhebliche Nachteile des Verfahrens wegen instabiler Bildgeometrie
37
Abbildung 3.1: Funktionsprinzip der Vidicon-Bildröhre
38
19
3.2 CCD - Sensoren
3.2.1 Aufbau
3.2.2 Funktionsweise
3.2.3 Architektur
3.2.4 Zeilensensoren
3.2.5 Flächensensoren
3.2.6 Farbsensoren
39
CCD - Sensoren
CCD: Charge-Coupled Device
CCDs in 60er Jahren von Forschern der Bell Laboratorien (USA) entwickelt
• Ursprünglich neuer Typ von Speicherschaltkreisen für Computer
• Fähigkeit des neuen Chips, Ladungen zu transportieren und mit Licht zu
interagieren
Andere Anwendungsgebiete:
• Signalverarbeitung
• Bilderfassung
CCD ist heutzutage das gebräuchlichste Mittel, als AllzweckBilderfassungsbauteil die gewöhnliche Fotografie durch die digitale zu
ersetzen.
40
20
CCD - Sensoren
41
CCD - Sensoren
• Heute verdrängen CCD-Sensoren vollständig die Bildröhren und analoge
Kameras
• CCD-Sensoren sind wesentlich kleiner, leichter, robuster
• Sie haben einen grösseren dynamischen Bereich und sind geometrisch
stabiler als Bildröhren
• Der CCD-Sensor liefert beim Auslesen der Information nicht ein komplettes Bild
simultan
sondern Punkt für Punkt und zeilenweise in serieller elektrischer Form
• Das elektrische Signal wird in der Signalaufbereitungsstufe in ein genormtes
Format umgesetzt und anschliessend zum Ausgang weitergeleitet
42
21
Aufbau von CCDs
Die meisten heutigen Sensoren wie auch CCD sind auf MOS (Metal Oxide
Semi-conductor) Technologie aufgebaut.
• Solche Sensoren sind verfügbar als Zeilen- und Flächensensoren
• Klassifizieren
Belichtungszeit
Effekte)
nach
{ohne
der
Auslesemethode
(Auswirkung
auf
Verschluss} , sensitive Fläche und weitere
Unterscheidung zwischen:
• CCD (Charge Coupled Device)
• CID (Charge Injection Device)
• Photodioden
Bei CIDs und Photodioden Bildelemente einzeln adressier- und auslesbar.
43
MOS (Metal Oxide Semi-conductor)
Quelle: Universität Berlin
44
22
Aufbau CCD Element
• Der CCD in seiner einfachsten Form ist eine lineare Anordnung (linear
array) von dichtbenachtbarten MOS-Dioden (Fotodioden).
• Die gängigsten CCDs bestehen aber aus einer Matrix von Fotodioden.
• Fotodioden wandeln Lichtenergie in Form von Photonen in elektrische
Ladungen um.
• Die Elektronen, die durch Interaktion von Licht mit Siliziumatomen
entstehen, werden in einem Ladungspool gesammelt.
• Jedes der so erzeugten Ladungspakete werden mit Hilfe von
Schieberegistern über den Chip zum Ausgang und zu einem Verstärker
transportiert.
45
Aufbau CCD Element
Quelle: Universität Berlin
46
23
Funktionsweise von CCD - Sensoren
• Licht (Ultraviolettes, sichtbares oder infrarotes) dringt durch eine dünne
transparente Elektrode und einer ebenfalls lichtdurchlässige Oxidschicht und trifft
auf ein Halbleitermaterial (Siliziumatom).
CCD Entstehung eines freien Elektrons.
• Durch zeitweise Abwesenheit des Elektrons im Kristall entsteht ein elektrisch
positiv geladenes Loch.
• Freie Elektronen werden in einem Ladungspool gesammelt. Diese Ladungspools
können nur eine bestimmte maximale Anzahl von Ladungen speichern
Festlegung der Dynamik einer Kamera
• Die einzelnen Fotodioden sind voneinander isoliert, können sich aber
beeinflussen „Blooming“
• Freie Elektronenpakete werden zur Elektrode gebracht.
• Ist der Ladungspool mit Elektronen aus der Verarmungszone gefüllt, werden die
Ladungspakete durch eine Kombination von parallelen und seriellen Transfers so
zu einem einzigen Ausgangsknoten an der Ecke des Chips geführt.
47
Architektur von CCD - Sensoren
• Zeilensensoren bestehen aus einer einzigen Reihe nebeneinander liegender
CCD-Zellen. Für Farbaufnahmen müssen die RGB-Bildanteile in drei
verschiedenen Belichtungsphasen erfasst werden. Zeilensensoren bieten eine
sehr hohe Auflösung.
• Trilineare Zeilensensoren bestehen aus drei parallelen Sensorzeilen, die auf
ihrer Oberseite jeweils einen Farbfilter für Rot, Grün und Blau tragen. Diese
Sensoren haben ein hohes Auflösungsvermögen und Farbwiedergabequalität.
• TDI (Time-Delayed-Integration) Zeilensensoren sind eine Art „Zwitter“ von
Zeilen- und Flächensensoren. Sie besitzen mehrere nebeneinander angeordnete
Zeilen. Die Bildinformationen werden dabei synchron mit der Fortbewegung des
zu scannenden Objekts von einer Zeile zur nächsten geschoben und dabei analog
summiert.
Neben der Verminderung des Rauschens ist vor allem die höhere
Empfindlichkeit zu nennen als Vorteil gegenüber herkömmliche Zeilensensoren.
48
24
Architektur von CCD - Sensoren
Flächensensor
Linearzeilensensor
Digitales Bild
Digitales Bild
49
Architektur von CCD - Sensoren
• Flächensensoren (Matrizen) erfassen alle Bildpunkte gleichzeitig und erlauben
die Aufnahme bewegter Objekte mit (fast) beliebiger Verschlusszeit.
• Interline und Frame Transfer CCDs setzen zwei getrennten Flächen für die
Bildaufnahme und für den Ladungstransport ein.
• Vollbild-Sensoren (Full Frame Transfer) nutzen fast ihre gesamte Oberfläche zur
Lichtumwandlung.
• X3-Bildsensoren repräsentieren eine
neue
CCD-Technik,
welche
eine volle Ausnutzung der Pixelanzahl
für Farbaufnahmen ermöglicht. X3
macht sich die Tatsache zu Nutze,
dass Licht je nach Wellenlänge
unterschiedlich
tief
in
Silizium
eindringen kann.
50
25
Zeilensensoren
• Zeilen-Sensoren bestehen normalerweise aus einer lichtempfindlichen Zeile
(Ausnahme TDI). Unter der Zeile befindet sich das abgedunkelte horizontale
Schieberegister. Eine Ladungsbarriere verhindert, dass die Ladungen schon
während des Integrierens in das Schieberegister „auslaufen“.
• Ein Hauptproblem bei grösseren Sensoren ist die Datenrate. Ein Zeilensensor mit
12000 Pixels soll zum Beispiel mit 2000 Zeilen pro Sekunde ausgelesen werden.
Bei nur einem Ausgang entspricht das einer Frequenz von 24 MHz.
Damit stösst man an physikalische Grenzen.
• Entweder man nutzt zwei Ausleseregister. Eines oberhalb und das andere
unterhalb der Zeile. Eine weitere Möglichkeit ist, dass die Ausleseregister in zwei
entgegengesetzt auslesbare Hälften unterteilt werden oder die Zeile in mehrere
kleinere Abschnitte unterteilt und parallel ausgelesen wird.
51
Zeilensensoren
52
26
Flächensensoren
Interline Transfer
Bei CCDs müssen die Ladungen gesamthaft verschoben werden.
"Interline Transfer"
• Kolonnen von lichtempfindlichen Sensoren neben Transportbahnen angelegt
• Ladungen werden in Transportbahnen transferiert
• Während Belichtung werden Ladungen zunächst in Kolonnen verschoben
und dann in Registerzeilen ausgelesen
• Transfer geschieht sehr schnell, da die Ladungspakete nur um ein
Sensorelement verschoben werden müssen
53
Interline Transfer
Abbildung: Prinzip CCD Interline Transfer,
Quelle (rechtes Bild): Universität Berlin
54
27
Frame Transfer
• Sensorfläche in Bildzone und Speicherzone aufgeteilt
• Die gesammelten Ladungen werden schnell in die Speicherzone transportiert
• Von dort wird Zeile um Zeile in die Auslesezeile(n) verschoben und
anschliessend ausgelesen
• Verhältnis Belichtungszeit zu Verschiebezeit des Bildes ist etwa 19:1
• Frame Transfer Sensoren sind lichtempfindlicher als Interline Transfer Sensoren
(Pixelfläche ist wesentlich grösser)
• Typische Flächensensoren 2k x 2k Elemente
• horizontale Auflösung meist besser als die vertikale, da letztere durch die
Anzahl Zeilen des Videosignals beschränkt ist
55
Frame Transfer
Abbildung: Prinzip CCD Frametransfer
(rechtes Bild): Universität Berlin
56
28
CCD-Chipformate
Die Formatangabe des Bildsensors in Zoll kommt aus der Zeit, in der es nur
Fernsehröhren gab. Eine runde Aufnahmeröhre mit 1“ Durchmesser hatte
ein rechteckiges, aktives Fenster mit einer Diagonalen von 16mm.
• 1“-Chips waren bei CCDs eher die Ausnahme, werden heute aber wieder mehr
eingesetzt
• Gängige Größen sind 2/3“, 1/2“, 1/3" (1“ = 2,54 cm)
• Diese finden immer mehr Anwendung (u.a. im Bereich der Überwachung, bei
Miniaturkameras und bei Home-Videokameras)
57
Farb-Sensoren (CCDs)
• Farberkennung wird durch separate Speicherung der Intensität der
Grundfarben Rot, Grün und Blau (RGB) durchgeführt.
One-Chip Technologie ermöglicht kostengünstigen Kameraaufbau
• Vor den Pixeln sind Farbfilter integriert
• Es kann entsprechend des Filters nur ein Wellenlängenbereich aufgenommen
werden
• Bei einer RGB-Kamera ergeben die Messung der Intensität der Grundfarben
zusammen ein Farbpixel
• Jeder Bildpunkt hat nur die Information über eine Farbe, die beiden anderen
müssen interpoliert werden
• Qualität des Ergebnisbildes hängt u.a. von der Interpolationsmethode ab
• Farbfehler und Schärfeverluste können auftreten
58
29
Farb-Sensoren (CCDs) – One-chip technology
Abbildung: Bayerfilter (Quelle: Universität Berlin)
59
Farb-Sensoren (CCDs) – Three-chip technology
• Bei Three-Chip-Technologie spaltet ein Prismensystem das
einfallende Licht auf und lenkt es auf separate CCD-Sensoren
Diese wiederum bürgen für genauere Ergebnisse und höhere Farbtreue.
• Nachteil ist die Komplexität der Mechanik
• die aufwendiger zu produzieren
• Störungsanfälliger als One-Chip-Technologie
Quelle: TU Wien
60
30
Farb-Sensoren (CCDs)
Beispiel: Rotationszeilenkamera
Quelle: Schneider & Maas, 2003
Das Aufnahmeprinzip einer digitalen Panoramakamera ähnelt dem eines Flachbettscanners. Bei einem Flachbettscanner wird eine RGB-CCD-Zeile linear über das
aufzunehmende Objekt geführt.
Da der Zeilensensor aus jeweils einer CCD-Zeile je Farbkanal besteht, wird die volle
RGB-Information ohne Verwendung von Farbfiltern und nachträglicher Interpolation
aufgezeichnet.
61
CMOS-Sensoren
CMOS: Complementary Metal Oxide Semiconductor
• Active Pixel Sensors (APS) basiert wie CCD-Sensor– auf dem inneren
fotoelektrischen Effekt
Im Gegensatz zu CCDs ist in jedem einzelnen Bildelement ist ein Verstärker integriert.
• Jedes Bildelement enthält zusätzlich zur Fotodiode eine Vielzahl von Transistoren
gesammelte Ladung werden in eine messbare Spannung umgewandelt
• Elektronik kann direkt das Spannungssignal eines einzelnen Pixels auslesen
Weniger Blooming
• Zwischen lichtempfindlichen Fotodioden befindet sich viel Elektronik
Kleinere lichtempfindliche Fläche
Daher in 70er und 80er Jahren war diese Technologie bedeutungslos.
62
31
CMOS-Sensoren
• CMOS -Bildsensoren haben Fähigkeit, eine Vielzahl von Verarbeitungsschritten
und Kontrollfunktionen parallel auszuführen bzw. direkt auf dem Chip zu
implementieren:
• Timing,
• Analog – Digital – Wandlung (ADC),
• Bildkontrolle,
• Verschlussautomatik (Shuttering),
• Taktung,
• Weißabgleich sowie erste Bildverarbeitungsschritte.
63
Aufbau eines CMOS-Sensors
Quelle: Universität Berlin
64
32
Blockschaltbild CMOS
Quelle: Universität Berlin
65
CMOS
Quelle: Universität Berlin
66
33
Vergleich / Unterschiede CCD vs. CMOS
Siehe:
http://www.dalsa.com/markets/ccd_vs_cmos.asp
67
Vergleich / Unterschiede CCD vs. CMOS
68
34
Vor- und Nachteile der vorgestellten Sensoren
Vorteile von CCD- und CMOS-Sensoren gegenüber Filmkameras:
• Information sind sofort nach dem Belichten verfügbar (Entwicklungsprozess
entfällt). Daher Echtzeitfähigkeit
• Stabile, stationäre Bildgeometrie
• Kosten sind geringer
Nachteil:
• Kleineres Bildformat
• Gefahr der Manipulation
• (Speicherprobleme)
Definitionen von Video-Normen:
Wichtig für den Auslesevorgang und Kompatibilität zu anderen (Video)geräten
69
Vor- und Nachteile der vorgestellten Sensoren
Nachteile von Vidicons:
• Grössere Geräteformate
• Kleinere Bildformate
• Instabile Bildgeometrie
Vorteile von CCDs:
• Die Ausgangsuniformität & Bildqualität bei CCD-Sensoren ist sehr hoch
• Lichtausbeute (Empfindlichkeit) ist sehr hoch
• Es sind keine oder nur wenige lichtunempfindliche Bauteile auf der
Chipoberfläche vorhanden hoher Dynamikbereich (Dichte)
70
35
Vor- und Nachteile der vorgestellten Sensoren
Vorteile von CMOS:
• CMOS-Kameras haben kleine Baugrößen
• Die meisten Funktionen können auf Chiplevel implementiert werden, Verdrahtung
ausserhalb des Chips ist sehr gering
• Jedes Pixel vollzieht selbst die Umwandlung von Ladungen in Spannungen
• Digitalisierung erfolgt schon auf dem Chip
• Stromverbrauch des Chips ist sehr gering.
• Bloomingeffekte treten wegen der sofortigen Umwandlung der Ladungen in
Spannungen nicht (gering) auf.
• Einzelne Bildbereiche können direkt adressiert werden
• Hohe Bildwiederholraten
• CMOS–Systeme können nach erfolgreicher Entwicklung in hohen Stückzahlen
sehr günstig produziert werden
• Anwendungen wo es weniger auf Bildqualität, jedoch mehr auf
Platzsparsamkeit ankommt
Überwachungskameras, Webcams, Spielsachen,
71
Vor- und Nachteile der vorgestellten Sensoren
Nachteile von CCDs:
• Auftreten von Bloomingeffekten
• Direktes Adressieren von Bildbereichen ist nicht möglich
• Die Nachverarbeitungsmodule nehmen viel Platz ein und machen sich in den
grösseren Abmessungen der Kamera bemerkbar
Nachteile von CMOS:
• Herstellungsbedingte Schwankungen des Ladungs-pro-Spannungsverhältnisses
Einheitlichkeit von gleichfarbigen Bereichen (Uniformität) des Bildes leidet
• Schlechtere Lichtempfindlichkeit
72
36
Grenzen der Sensoren
Die Grösse des Sensors kann aufgrund der folgenden zwei Punkte nicht beliebig
reduziert werden:
•
Teilcheneigenschaft des Lichtes
• Erhöhung des Rauschens
• Reduktion des dynamischen Bereichs
• Reduktion der ISO Geschwindigkeit
•
Welleneigenschaft des Lichtes
• Beugung: Rayleigh Grenzwert (lp/mm) = 1600 / f-stop
73
Wikipedia:
Die Nyquist-Frequenz, durch Claude Elwood Shannon benannt nach Harry
Nyquist, ist die halbe Abtastfrequenz:
fnyquist = ½ fabtast
Das Abtasttheorem besagt, dass ein kontinuierliches, bandbegrenztes Signal, mit
einer Minimalfrequenz von 0 Hz und einer Maximalfrequenz fmax, mit einer
Frequenz größer als 2 · fmax abgetastet werden muss, damit man aus dem so
erhaltenen zeitdiskreten Signal das Ursprungssignal ohne Informationsverlust
exakt rekonstruieren und beliebig genau approximieren kann.
Nach dem WKS-Abtasttheorem (für Whittaker-Kotelnikow-Shannon) müssen alle
Anteile in einem Signal kleinere Frequenzen als die Nyquist-Frequenz haben,
damit das abgetastete Signal beliebig genau rekonstruiert werden kann:
fsignal < fnyquist
Das Abtasttheorem ist ein Gesetz, wonach die Taktfrequenz der punktweisen
Probeentnahme aus dem Ursprungssignal mehr als doppelt so hoch sein muss,
wie die höchste im Ursprungssignal enthaltende Frequenz fsignal :
fabtast > 2fsignal
Falls dieses Kriterium verletzt wird, entstehen Verzerrungen, die auch als AliasEffekt bezeichnet werden.
74
37
Grenzen der Sensoren
Beugung
f-stop
5.6
Rayleigh
Limit (lp/mm)
286
Pixel spacing
(RL = Nyquist)
1.75 µm
8
200
2.5 µm
11
145
3.44 µm
16
100
5 µm
• Um den Vorteil von kleinen Pixeln nutzen zu können muss die Beugung der Linse
durch die Wahl eines entsprechenden f-stops klein gehalten werden.
• Kleine Pixel reduzieren das Signal/Rauschen Verhältnis
Mit Pixeln kleiner als 2 µm is wenig zu gewinnen, jedoch viel zu verlieren
(ISO Geschwindigkeit, dynamischer Bereich, Rauschen)
75
Weitere Literatur und Links
Digitalkameras
• www.canon.de
• www.sony.de
Der Fotoeffekt
http://smile.unibw-hamburg.de/HL_Physik/Undotierte_HL.htm
Feldeffekttransistoren und CMOS-Technologien:
Dr. Winkler, Technische Informatik 1, HU Berlin
CCD, CMOS, Aufbau
http://micro.magnet.fsu.edu/primer/digitalimaging/concepts/concepts.html
http://www.dpreview.com/learn/Glossary/Camera_System/Sensor_01.htm
Neue Bilderfassungstechnologie - Foveon Chip
www.foveon.com
www.sigma-photo.com/Html/news/news_sd9_fs.htm
Vergleich CCD CMOS
http://www.dalsa.com
http://www.dalsa.com/markets/ccd_vs_cmos.asp
76
38