Dokument 1

Transcription

Dokument 1
Vergleich globaler Beleuchtungsmodelle für Image
Based Lighting über HDR-I
Florian Wittwer, Matr.Nr.707659
16. Dezember 2009
Diplomarbeit
Fachbereich IEM der Fachhochschule Gießen-Friedberg
Referent
Korreferent
Dipl.-Math. Cornelius Malerczyk
Dipl.-Ing. Klaus Schmidt
Danksagung
Ich möchte mich zunächst bei meinen Betreuern Dipl.-Ing. Klaus Schmidt und
Dipl.-Math. Cornelius Malerczyk bedanken, die mir die Möglichkeit gaben,
meine Diplomarbeit an der FH Gießen-Friedberg durchzuführen und mir mit
Ratschlägen und technischer Ausrüstung zur Seite standen.
Bei folgenden Personen möchte ich mich für die Möglichkeit bedanken, die
benötigten Fotografien anzufertigen: Lothar und Jadwiga Bugla, Daniela Breidert und Deniz Asuman, sowie den Mitarbeitern des Museums Kaiserpfalz Gelnhausen.
Dank gebührt außerdem Hannah Dewies und Martin Trippen für die Erlaubnis,
in ihrem Unternehmen angefertigte Modelle in die Diplomarbeit einfließen zu
lassen.
Nicht zuletzt bedanke ich mich bei Claudia, Astrid, Horst und Michael Herröder
für die unschätzbare Unterstützung, Geduld und Fehlerkorrektur.
I
Eidesstattliche Erklärung
Hiermit versichere ich, dass ich die vorliegende Diplomarbeit selbständig verfasst und nur die in der Arbeit angegebenen Hilfsmittel und Literaturstellen
verwendet habe.
Jossgrund, 15.12.2009,
II
Florian Wittwer
Inhaltsverzeichnis
1 Einleitung
1.1 Motivation . . . . . . . . . . . . . . . . . . .
1.2 Problemstellung und Zielsetzung . . . . . . .
1.3 Organisation der Arbeit . . . . . . . . . . . .
1.4 Zusammenfassung der wichtigsten Ergebnisse
2 State of the Art
2.1 Techniken der Panoramafotografie .
2.1.1 Skydome-Fotografie . . . . .
2.1.2 Mirrorball-Technik . . . . . .
2.1.3 One-Shot-Technik . . . . . .
2.1.4 Segment-Technik . . . . . . .
2.2 Computer–Hardware . . . . . . . . .
2.3 Computer–Software . . . . . . . . .
2.3.1 Überblick . . . . . . . . . . .
2.3.2 Autodesk Maya 2010 . . . . .
2.3.3 Blender . . . . . . . . . . . .
R
2.3.4 Mental Images Mental Ray
2.3.5 Next Limit Maxwell V2 . . .
2.4 Zusammenfassung . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 High Dynamic Range-Imaging
3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Fotografie . . . . . . . . . . . . . . . . . . .
3.1.2 Der Dynamikbereich . . . . . . . . . . . . .
3.1.3 Zielsetzung HDR-I . . . . . . . . . . . . . .
3.2 Die Ausrüstung . . . . . . . . . . . . . . . . . . . .
3.2.1 Canon EOS 5D (Mark 1) . . . . . . . . . .
3.2.2 Mamiya 645 AFDII, Capture One P45 . . .
3.2.3 Zubehör . . . . . . . . . . . . . . . . . . . .
3.3 Die Software . . . . . . . . . . . . . . . . . . . . .
3.3.1 Capture One DB . . . . . . . . . . . . . . .
3.3.2 PTGui . . . . . . . . . . . . . . . . . . . . .
3.3.3 EXIFeditor . . . . . . . . . . . . . . . . . .
3.3.4 Adobe Photoshop . . . . . . . . . . . . . .
3.4 HDRI-Panaromafotografie mit der Segmenttechnik
3.4.1 Einleitung . . . . . . . . . . . . . . . . . . .
3.4.2 Positionierung und Aufnahme . . . . . . . .
3.4.3 Bildverarbeitung . . . . . . . . . . . . . . .
3.4.4 Bearbeitung der Exif Daten . . . . . . . . .
3.4.5 Erzeugen eines HDR-Panoramas . . . . . .
3.5 Darstellbarkeit . . . . . . . . . . . . . . . . . . . .
3.6 Zusammenfassung . . . . . . . . . . . . . . . . . .
III
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
3
4
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
10
11
12
13
14
15
15
15
16
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
17
18
19
20
20
21
23
23
23
25
25
25
26
26
27
30
31
31
34
37
4 Ergebnisteil Fotografie
4.1 Bar . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Bearbeitung und Ergebnisse – Bar . . . . .
4.2 Scheune . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Bearbeitung und Ergebnisse – Scheune . . .
4.3 Kaiserpfalz Gelnhausen . . . . . . . . . . . . . . .
4.3.1 Bearbeitung und Ergebnisse – Kaiserpfalz
4.4 Zusammenfassung . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
38
38
44
44
51
51
51
5 Rendering
5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Bildsyntheseverfahren und globale Beleuchtungsmodelle
5.2.1 Scanline . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Raytracing . . . . . . . . . . . . . . . . . . . . .
5.2.3 Brute-Force-Rendering . . . . . . . . . . . . . . .
5.2.4 Global Illumination / Photon-Mapping . . . . .
5.2.5 Final Gathering . . . . . . . . . . . . . . . . . . .
5.2.6 Importons . . . . . . . . . . . . . . . . . . . . . .
5.2.7 Irradiance Particles . . . . . . . . . . . . . . . . .
5.2.8 Zusammenfassung . . . . . . . . . . . . . . . . .
5.3 Renderer . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Maxwell V2 . . . . . . . . . . . . . . . . . . . . .
5.3.2 Mental Ray . . . . . . . . . . . . . . . . . . . . .
5.4 Anforderungsanalyse . . . . . . . . . . . . . . . . . . . .
5.4.1 Subjektive Vergleichbarkeit . . . . . . . . . . . .
5.4.2 Inhaltlicher und räumlicher Kontext . . . . . . .
5.4.3 Objektive Vergleichbarkeit . . . . . . . . . . . . .
5.5 Testszenen . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5.1 Bar . . . . . . . . . . . . . . . . . . . . . . . . .
5.5.2 Scheune . . . . . . . . . . . . . . . . . . . . . . .
5.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
58
58
58
58
59
59
59
59
60
60
60
60
61
68
68
68
69
70
70
70
70
6 Ergebnisteil Rendering
6.1 Erzeugen einer Image-Based-Lighting-Umgebung
6.2 Testbedingungen . . . . . . . . . . . . . . . . . .
6.3 Qualitätseinstellungen . . . . . . . . . . . . . . .
6.3.1 Ergebnisse . . . . . . . . . . . . . . . . . .
6.4 Reflexionseigenschaften . . . . . . . . . . . . . .
6.4.1 Ergebnisse und Diskussion . . . . . . . . .
6.5 Caustics . . . . . . . . . . . . . . . . . . . . . . .
6.5.1 Ergebnisse und Diskussion . . . . . . . . .
6.5.2 Auswertung . . . . . . . . . . . . . . . . .
6.6 Zusammenfassung . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
75
75
76
76
77
78
79
80
80
81
7 Zusammenfassung und Ausblick
IV
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
96
1
Einleitung
1.1
Motivation
Die Produktion von Grafik und Video im Bereich der Werbe- und Filmindustrie hat sich im Verlauf der letzten 25 Jahre drastisch verändert. Dieser Prozess ist auf die Integration von rechnergestützter Bildbearbeitung in analogen
Filmschnitt zurückzuführen. Zur Komposition und Überblendung unterschiedlicher analoger Bildquellen ist im Laufe der Zeit ein größer werdender Anteil
digital bearbeiteter Bildausschnitte hinzugekommen. Die wachsende Rechenund Speicherkapazität der eingesetzten Computersysteme hat die Möglichkeit
geschaffen, komplexe Szenen, Gegenstände, Personen oder Ereignisse virtuell
zu erzeugen. Die Grenzen des Darstellbaren haben sich verschoben und sind
nun weiterhin abhängig von der Vorstellungskraft der Autoren und Entwickler,
nicht aber mehr schlussendlich vom Vorhandensein einer umfangreichen Requisite, Schauspielern oder eines bestimmten Drehortes. Dieser Prozess äußert sich
für den Betrachter darin, dass das Angebot an visuellen Medien umfangreicher
geworden ist. Ein Beispiel aus der Kinogeschichte der letzten Jahre ist der, nach
mehreren erfolglosen Versuchen,1 als nicht verfilmbar geltende Fantasy-Roman
Der Herr der Ringe“ von J.R.R. Tolkien. In der von Peter Jackson verfilmten
”
Fassung werden einige Hundert computeranimierte Akteure und eine Vielzahl
umfangreicher virtueller Szenenbestandteile dargestellt (s. Abb. 1).
c
Abbildung 1: Ausschnitte aus Herr der Ringe New
Line Pictures, Inc.2
Ein weiteres Beispiel ist die Entwicklungsgeschichte der Weltraumsaga Star
”
Trek“ von Gene Roddenberry. Während hier zu Beginn Modellbau und Studioaufnahmen zur Visualisierung des zentralen Schausplatzes Enterprise“ ein”
gesetzt wurden, ist das im aktuellen Kinofilm Star Trek“ gezeigte Raumschiff
”
vollständig am Computer entstanden (s. Abb. 2). Eine solche Entwicklung ist
auch in der Werbebranche zu bemerken. Der Einsatz von CAD Systemen hat
bezüglich der Visualisierung der Produkte den Bau von Prototypen hinfällig
werden lassen. Die Daten aus der Fertigungstechnik lassen sich mit vergleichsweise geringem Aufwand in Modellierungsprogramme übertragen, um daraus
Einzelbilder oder Animationssequenzen zu erzeugen. Ein Beispiel ist der Automobilhersteller Opel und sein aktuelles Modell Insignia“, siehe dazu die Di”
plomarbeit [Opp09] von Mischa Opper.
Für die Werbe- und Filmindustrie gilt hier gleichermaßen der Anspruch, Bilder
1
http://www.herr-der-ringe-film.de/v2/de/filmtrilogie/film-infos.php, 9.11.09, 16:00 Uhr
Quelle: http://www.warnerbros.de/movies/herrderringe/
3
Quelle: http://memory-alpha.org/de/wiki/
2
1
c
Abbildung 2: Raumschiff Enterprise 1966 und 2009 Paramount
Pictures 3
zu erzeugen, die nicht vom Betrachter auf den ersten Blick in Frage gestellt
werden. Im Compositing (deutsch: Zusammenführen“) der Bilder geht es vor
”
allem darum, dass unterschiedliche Bildinhalte zu einem stimmigen Gesamt”
bild“ 4 verschmolzen werden. Oft werden virtuelle Gegenstände oder Szenarien mit Realfilm bzw. Fotografie kombiniert. Die unterschiedliche Herkunft der
Bildquellen birgt jedoch eine Hürde, die es zu überwinden gilt, wenn das Resultat als eine Einheit erscheinen soll: 3d Elements [...] lack the subtle com”
plexity of real-world illumination“ (zu deutsch: 3d Elemente lassen die subtile
”
Komplexität der Beleuchtung der wirklichen Welt vermissen“)[AC07, Lighting].
Damit das Gesamtbild die Illusion der Echtheit vermitteln kann, bietet es sich
an, eine Kopie“ des Lichts der Wirklichkeit in die Szene zu integrieren. Dies ge”
schieht mittels einer Digitalfotografie mit größtmöglichem Farbraum. Um darin
die optimale Bandbreite an Informationen unterzubringen wird ein High Dynamic Range-Image (deutsch: Bild mit hohem Dynamikbereich), kurz HDR”
I“ erzeugt. Durch diese Technik entsteht ein visueller Informationsgehalt, der
in der Regel über das auf Monitoren, Leinwänden und Druckern Darstellbare hinausgeht. Der Inhalt eines solchen Bildes kann zur Simulation von Licht,
Lichtbrechung (Refraktion) oder Reflektion eingesetzt werden oder schlicht als
Hintergrundbild der virtuellen Szene dienen. Zudem eröffnet der hohe Dynamikbereich wertvollen Spielraum bei der Finalisierung des Endprodukts, der
sogenannten Post-Produktion.
Nicht immer werden jedoch diese Fotografien extra für eine Szene angefertigt.
HDR-Fotografien und -Panoramen werden auf einer Vielzahl von Internetseiten
kommerziell vertrieben.5
1.2
Problemstellung und Zielsetzung
Die Herstellung einer virtuellen Szene ist ein komplexer Vorgang, dessen erfolgreiche Umsetzung sich schlussendlich im Gesamteindruck des Ergebnisses
niederschlägt. Zu Beginn steht dabei immer ein Katalog visueller Kriterien. Neben der passgenauen Positionierung und Orientierung der virtuellen und realen
Gegenstände zueinander wird grundsätzlich je nach Verwendungszweck eine bestimmte Auflösung, Farbtiefe oder ein gewisser subjektiver Eindruck verlangt.
4
5
de.wikipedia.org/wiki/Compositing,24.10.2009, 18:09
z.B.: http://hdri-panorama.de , http://www.turbosquid.com/
2
Das kann beispielsweise das Spiegelbild eines realen Gebäudes im virtuellen
Autolack oder auch die intensive rötliche Farbgebung eines Sonnenuntergangs
sein, die sich in einer virtuellen Szene wiederfinden soll. Die Imitation solcher
komplexer Lichteinflüsse ist zeitintensiv und erfordert umfangreiche Kenntnisse
in Bezug auf Lichtsetzung und deren Auswirkung. Um diese Prozesse zu vereinfachen, bedient man sich des Image Based Lighting (deutsch: Bildbasierte
Beleuchtung). Bei dieser Technik bindet man reale Vorbilder in Form von Panoramafotografien in den Prozess der Bildsynthese ein, um eine Umgebung zu
schaffen, die bereits alle nötigen Informationen für Beleuchtung, Reflexion und
Lichtbrechung mitbringt.
Dennoch ist die zielgerichtete Erstellung einer solchen Umgebung von der Anfertigung der Fotografie über die Bildverarbeitung, Erstellung eines Panoramas
und Einbindung in den Renderer (Bildsyntheseprogramm, zuständig für die Erstellung einer zweidimensionalen Projektion einer dreidimensionalen, virtuellen
Szene) eine Aufgabe, die eine Vielzahl von Erfahrungswerten nötig macht. Zudem unterscheiden sich die Renderer in ihrer Funktionsweise, Bedienung und
der benötigten Zeit für die Erstellung eines Bildes. Da die Anwendungsgebiete
dieser Technik sehr unterschiedlich sein können, soll in dieser Diplomarbeit ein
Vergleich zwischen der Funktionalität verschiedener Render-Software an Hand
von drei Szenen ausgearbeitet werden. Dazu wird eine Reihe von Kriterien eingeführt, die eine qualitative Beurteilung der Ergebnisse möglich machen.
1.3
Organisation der Arbeit
Zu Beginn soll im Kapitel State of the Art“ der technische Standard in Bezug
”
auf Kamerasysteme, Computer-Hardware, Bildbearbeitungssoftware, Modeller
und Renderer aufgezeigt werden. Dazu werden einige Beispiele aus der Industrie
aufgeführt, sowie deren relevante technische Details und Einsatzzwecke dargelegt. Außerdem sollen die wesentlichen Verfahren aufgeführt werden, mit denen
Panoramen erzeugt werden können.
Im darauffolgenden Kapitel soll die Herstellung von HDR-Panoramafotografien
anhand der sogenannten Segmenttechnik veranschaulicht werden. Es folgt eine
Einführung der für die Diplomarbeit verwendeten Ausrüstung, sowie der Ablauf
der verwendeten Methode im Detail. Danach werden die Ergebnisse vorgestellt
und bezüglich der erreichten Qualität diskutiert.
Im Kapitel Rendering werden Voraussetzungen für die Verwendung von ImageBased Lighting genannt, sowie die Einbindung in virtuelle Szenen beschrieben.
Das Verfahren wird an Hand einiger Szenen veranschaulicht, die jeweils inhaltlich auf das verwendete Panorama abgestimmt sind. Es werden einige Testreihen
durchgeführt, bei der die Variation der Rendereinstellungen und deren Auswirkung auf das Ergebnis im Vordergrund steht. Zuletzt sollen die Ergebnisse der
Renderer untereinander qualitativ verglichen werden. Im Mittelpunkt der Diskussion soll dabei auch die Gegenüberstellung mit realen Vorbildern stehen.
Abschließend werden noch einmal die Ergebnisse der Arbeit zusammengefasst
und eine Auswahl qualitativ hervortretender Bilder gezeigt.
3
1.4
Zusammenfassung der wichtigsten Ergebnisse
In der Diplomarbeit wird die Funktionsweise unterschiedlicher Konzepte der
globalen Lichtsetzung innerhalb dreier Renderer erklärt (Maya Software / Mental Ray / Maxwell Render). Dabei wird jeweils auf die Konfiguration bildbasierter Beleuchtung im jeweiligen Renderer eingegangen. Daraus geht eine Versuchsreihe hervor, die alle Beleuchtungsvarianten untereinander vergleichbar macht.
Die Ergebnisse werden in Form von Panoramafotografien, vergleichenden Tabellen und einer Diskussion der Ergebnisse dargereicht. Zusammenfassend läßt
sich diese Diplomarbeit als ein Leitfaden zur vollständigen Erstellung einer virtuellen Szene mit bildbasierter Beleuchtung beschreiben.
Abbildung 3: Darstellung einer Szene mit Beleuchtung durch ein HDRPanorama (Maxwell Render)
4
2
State of the Art
Im einleitenden Kapitel wurde die Relevanz des Image-Based Lighting für die
Kino- und Werbeproduktion dargelegt. Aufgrund der immensen Auswahl an
Produkten und Unterhaltungsmedien und deren Kurzlebigkeit ist es charakteristisch für diese Branchen, Bildqualität auf höchstem Niveau erzielen zu wollen.
Das hängt mit dem Ziel zusammen, in der Fülle der Auswahl positiv auffallen
zu wollen. Die ästhetische Wahrnehmung wird oft von jeweiligen Modeerscheinungen wie Trendfarben und üblichem Jargon der Zielgruppe beeinflusst. Technisch gemessen wird diese Qualität an Auflösung, Farbtiefe oder auch Verarbeitungsgeschwindigkeit. Es werden nun die unterschiedlichen Verfahren vorgestellt, die sich für die Erstellung eines Panoramas etabliert haben. Danach wird
eine Übersicht der in die Produktion involvierten technischen Geräte folgen.
Dazu zählen einige ausgewählte Kameras sowie für Bildproduktion eingesetzte
Computersysteme. Abschließend folgt eine Übersicht der jeweils aktuellen Version gängiger Software, die zur Synthese und Bearbeitung von Bildern eingesetzt
wird.
2.1
Techniken der Panoramafotografie
Je nach Anforderung an Auflösung, Produktionszeit oder Vollständigkeit des
Panoramas können unterschiedliche Lösungswege zur Erstellung einer Panoramafotografie beschritten werden. Im Allgemeinen werden Panoramen dort
benötigt, wo die Abbildung des visuellen Gesamtkontextes des dargestellten
Ortes gewünscht ist. Die Gründe dafür haben unterschiedliche Wurzeln. Beispielsweise kann es im Interesse einer polizeilichen Ermittlung sein, einen Ort
ganzheitlich mit all seinen Bestandteilen für einen späteren Zeitpunkt virtuell
zugänglich zu machen6 . In der VFX7 Produktion ist es gängige Praxis, dass
die Lichtsituation eines Drehorts eingefangen wird, um dem Produktionsteam
später ihre Imitation bei der Montage von Fremdmaterial zu erleichtern [AC07].
Ausrüstung und benötigte Zeit für die Erstellung des Panoramas sind davon
abhängig, welches Verfahren dafür angewandt wird.
2.1.1
Skydome-Fotografie
Um sich die wesentlichen Merkmale eines Skydome zu vergegenwärtigen, ist
folgende Vorstellung nützlich: Man stelle sich einen Standpunkt auf einem
überdimensionalen, mit einer Glasglocke abgedeckten Speiseteller vor. Die Wahrnehmung der Umgebung sei dabei auf das beschränkt, was durch die Glocke
hindurch sichtbar ist. Ein Blick auf die Umgebung unterhalb des Tellers ist
nicht möglich und es erstreckt sich ein Horizont in Gestalt des Tellerrandes.
Diese Beschränkung des Blickfeldes ist mit der Beschaffenheit des dafür eingesetzten Objektivs verbunden. Ein sogenanntes Fisheye (deutsch: Fischauge) ist
ein Objektiv mit einer sehr kurzen Brennweite. Diese führt im Idealfall zu einem
6
7
http://www.spheron.com/en/sceneworks/portfolio/scenecam.html
VFX: Visuelle Effekte in Film und Fernsehen
5
Abbildung 4: Aufstellung und Sichtweise des Fisheye Objektivs
Bildwinkel von 180◦ und damit zu einem halbkugelförmigen Sichtfeld. Hersteller solcher Objektive ist beispielsweise die Firma Sigma8 , die Objektive mit 4,5
bzw. 8mm für die Panoramafotografie anbietet. Wird die solchermaßen ausgestattete Kamera senkrecht nach oben ausgerichtet (s. Abb.4), kann mit einer
einzigen Aufnahme ein Panorama erzeugt werden, das bereits einen Großteil des
fotografierten Motivs enthält. Wird von dieser Szene eine Belichtungsreihe erstellt, kann daraus innerhalb kurzer Zeit ein HDR-Panorama generiert werden.
Dieses ist allerdings auf die Auflösung der Kamera beschränkt.
Panoramen, die auf diese Weise erstellt wurden, können überall dort eingesetzt
werden, wo das Vorhandensein der vollständigen Abbildung der Szene verzichtbar ist und die Auflösung der Kamera für das Panorama ausreicht.
2.1.2
Mirrorball-Technik
Bei der sogenannten Mirrorball (deutsch: Spiegelkugel )- Technik werden mehrere Fotografien variabler Betrachtungswinkel einer ideal spiegelnden Kugel aus
größtmöglicher Entfernung aufgenommen, mit dem Ziel, ein Panorama aus
einer geringen Anzahl Belichtungsreihen mit einem Betrachtungswinkel von
näherungsweise 180◦ x 360◦ zu erzeugen. Die Position der Spiegelkugel muss so
gewählt werden, dass zwei Aufnahmen aus gleichem Abstand erfolgen können,
wobei der Winkel der Kamera zur Kugel um 90◦ versetzt wird (siehe Abbildung
5). Da das gesamte Panorama aus der Reflexion in der Kugel gewonnen werden soll, ergänzen die beiden Aufnahmen den Informationsgehalt hinsichtlich
kritischer Bildinhalte, sind aber größtenteils redundant. Wie in der Abbildung
dargestellt, ist zum einen die Kamera Bestandteil der Spiegelung, zum anderen nehmen Darstellungsqualität und Schärfe in der Spiegelung mit steigendem
Blickwinkel ab, was sich beim Entfalten des Panoramas (siehe Abbildung 6) in
einer Singularität äußert. Zur Nachbearbeitung der Rohaufnahmen sind mehrere Schritte erforderlich, in denen die Aufnahmen entzerrt, übereinandergelegt
und zusammen geschnitten werden (siehe Abbildungen 7,8,9). Wurden zur Erstellung eines HDR-Panoramas Belichtungsreihen erstellt, so sind diese vor dem
8
http://www.sigma-foto.de/
6
Abbildung 5: Zwei Kamerapositionen bei der Mirrorball-Technik
Zusammenschnitt zu HDR-Aufnahmen zu verschmelzen. Das Entzerren kann
zum Beispiel mit dem kostenlosen Programm HDRShop V19 erfolgen. Mit Hilfe einer spiegelnden Kugel ein Panorama zu erzeugen ist eine verlustbehaftete
Methode. Dies liegt daran, dass nicht nur die Qualität des Objektivs und die
Auflösung der Kamera, sondern auch die Beschaffenheit der Spiegelkugel und
die Kenntnisse über das verwendete Bildbearbeitungsprogramm auf das Ergebnis Einfluss nehmen. Im Idealfall entspräche das Ergebnis der Qualität einer
Einzelaufnahme der Kamera. Dennoch handelt es sich um einen attraktiven
Lösungsweg, da weder hohe Kosten noch ausgedehnte Zeitfenster zu veranschlagen sind.
2.1.3
One-Shot-Technik
Mit der One-Shot (deutsch: Ein Schuss) Technik wird in der Panoramafotografie die Möglichkeit beschrieben, ein vollständiges Panorama durch einmaliges
Auslösen zu erfassen (s.Abb.10). Einen bekanntes Gerät, mit dem dieses Verfahren praktiziert werden kann, wird von der Firma SPHERON-VR AG gefertigt, die SpheroCam HDR“. Dieses Gerät arbeitet vollautomatisch und erzeugt
”
ein vollständiges Panorama mit hohem Dynamikbereich (bis zu 26 Blenden).
Die Auflösung beträgt für ein sphärisches Panorama 50 Mio. Pixel (5.300 x
”
10.600 Pixel)“ 10 . Eine durch zusätzliche Messinstrumente und ein Satellitenortungssystem ergänzte Variante für den erwähnten kriminologischen Einsatz
9
www.hdrshop.com
www.spheron.com/en/intruvision/solutions/spherocam-hdr/technicaldetails.html,28.10.2009,16:12
10
7
Abbildung 6: Mirrorball-Technik: Auseinanderfalten der Bilder in HDRShop
Abbildung 7: Mirrorball-Technik: Überblenden der Bilder mit Photoshop
8
Abbildung 8: Mirrorball-Technik: Entfernen der störenden Bildinhalte, hier beispielsweise der Kamera
Abbildung 9: Fertiges Panorama mit der Mirroballtechnik
9
Abbildung 10: Die One Shot Technik von außen und aus der Sicht der Kamera
wird unter dem Namen SceneCam“ 11 beworben.
”
Produkt
Panoscan MK-3
Roundshot D3
2.1.4
Hersteller
Panoscan Inc.
Seitz Phototechnik AG
Auflösung Horizontal, Vertikal
65000 , 6000 (9000) Pixel 12
62830 , 7500 Pixel 13
Segment-Technik
Als Segmenttechnik bezeichet man ein Verfahren, bei dem das Panorama aus
einer Matrix sich überlappender Belichtungssequenzen zusammengesetzt wird.
Hierzu wird die Kamera auf einer Vorrichtung montiert, die eine beliebige Wahl
des Bildausschnitts aus dem Bereich von 180◦ x 360◦ ermöglicht. Die Belichtungssequenzen werden zu HDR Bildern verschmolzen und mit spezieller Software zu einem Panorama verbunden. Das eingesetzte Verfahren wird in Kapitel
3.4 ausführlich erläutert.
Bei der Durchführung dieses Verfahrens ist nicht ausschließlich die Qualität des
Objektivs oder das Auflösungsvermögen der eingesetzten Kamera von Bedeutung. Auch die Möglichkeit, das Gerät von einem Rechner aus fern zu steuern
und eine schnelle Datentransferrate tragen zum Gelingen bei, da je nach Blickwinkel des eingesetzten Objektivs einige Hundert Bilder anzufertigen sind und
die genannten Merkmale einen flüssigen Arbeitsablauf gewährleisten. Das Arbeitsaufkommen der Erstellung einer solchen Menge an Einzelbildern führte
zu allerlei Bestrebungen, das Verfahren zu automatisieren. So sind mittlerweile motorisierte Stativköpfe14 erhältlich und Anleitungen für den Selbstbau15 zu
finden.
Eine aktuelle Kamera des High-End Segments ist die Hasselblad H4D–60. Es
handelt sich um eine digitale Spiegelreflex-Kamera, deren Digitalrückteil Bilder mit einer Auflösung von 60 Mio. Pixel einzulesen vermag. Das entspricht
einer Bildgröße von 6708 x 8956 Pixel. Die Farbtiefe beträgt 16 bit. Die Bilder
werden auf einer Compact Flash Karte gespeichert. Mittels einer Firewire-80011
www.spheron.com/en/sceneworks/portfolio/scenecam.html,28.10.2009,17:03
http://www.marc-kairies.de/mk-panorama-systeme/mk-panomachine/index.html
15
http://www.secondpage.de/tutorials/mindstorms/vr1.html
14
10
Abbildung 11: Die Segmenttechnik. Die Brennweite und die Segmentgröße sind
umgekehrt proportional
Verbindung kann die Kamera über die Software Phocus“ fern bedient werden,
”
und die Bilder direkt auf dem Computer gespeichert werden. Es wird auch eine Version mit 50 Mio. Pixeln unter der Bezeichnung H4D–50 geben. Beide
Kameras werden im Januar 2010 erhältlich sein16 .
Technik
Zeitbedarf
Vorteil
Nachteil
Skydome
<1 min.
schnell
unvollständig
Mirrorball-Technik
<5 min.
One-Shot-Technik
>1min.
schnell,
günstig
schnell
Segment-Technik
>15min.
begrenzte
Bildqualität
hohe
Kosten
langsam
hohe
Bildqualität
Produktionsbereich
Computerspiele
Kino,
Werbung
Kino,
Werbung
Dokumentation
Zusammenfassung der wichtigen Panoramatechniken in Tabellenform
2.2
Computer–Hardware
Bildbearbeitungsprogramme und Renderer haben Systemanforderungen, die
leistungsstarke Computersysteme voraussetzen. Die Geschwindigkeit der Computer hat sich, gemessen an der Taktfrequenz der verbauten Prozessoren, in
den letzten 20 Jahren um den Faktor 1000 erhöht. Dieser Vergleich bezieht sich
16
http://www.heise.de/newsticker/meldung/Schwenken-erlaubt-Hasselblad-H4D-60-mitneuer-Fokustechnik-Update-798145.html
11
auf einen Intel 80286er aus dem Jahre 1988 (12 Mhz)17 der einem aktuellen
Vierkernprozessor Intel Core i7 (4 x 3 Ghz)18 gegenübergestellt wird. Die heutige Technologie erlaubt die parallele Berechnung mehrerer Prozesse. Dies wird
durch das Vorhandensein mehrerer physikalischer und logischer Recheneinheiten möglich gemacht. Leistungsstarke Workstations (deutsch: Arbeitsrechner)
für den Bereich der Visualisierung und Bildbearbeitung verfügen oft über zwei
R XeonR
Mehrkernprozessoren. Gängige Vertreter sind die aktuellen Intel
R
Prozessoren der 8000
Prozessoren der W5500 Serie und die AMD-Opteron
Serie. Sie verfügen über vier (Intel) bzw. sechs (AMD) Rechenkerne auf einer
CPU (Central Processing Unit, deutsch: zentrale Recheneinheit). Betriebsbereite Workstations werden von verschiedenen Firmen angeboten, z.B. Hewlett–
Packard19 , Apple20 oder Deltacomputer21 . Rendering ist jedoch nicht mehr
ausschließlich von der Leistung der CPU abhängig. Die Leistung der Grafikkarten hat, angetrieben durch die wachsenden Ansprüche der Computerspiele,
in den letzten Jahren an Relevanz gewonnen. Zunehmend werden die Ressourcen der Grafikkarte und ihrer Prozessoren (GPUs, sinngemäß: Grafikprozessoren) genutzt, um nicht mehr ausschließlich 3D–Echtzeitberechnungen auszuführen. Es ist ein System auf den Markt gekommen, das beispielweise die Berechnung von physikalischen Wechselwirkungen simulierter Festkörper erlaubt,
TM .22 Die Bedeutung solcher Systeme wird auch für fotorealistiR
NvidiaPhysX
sche Anwendungen zusehends interessanter. Mental Images hat mit Reality Server 3.0 ein System zur GPU-internen Echtzeitberechnung von 3D–Umgebungen
herausgebracht. Dieses System macht die Interaktion mit einer auf einem Server abgelegten 3D Szene über ein Netzwerk möglich ohne die Notwendigkeit
komplexer Berechnungen auf dem verbundenen Client[Fis09] Zusammenfassend
lässt sich sagen, dass die Fertigung einzelner spezialisierter Komponenten den
Einsatz von Konzentrierter zentraler Rechenleistung abgelöst hat.
2.3
Computer–Software
Hier soll ein Überblick über die übliche 3D-Software vermittelt werden. Man
unterscheidet Modeller, Sculpting-Software, Animationsprogramme, Multiagentensysteme, Renderer und Compositing Programme. Bei einem Modeller steht
die Erstellung der Oberflächenmodelle virtueller Objekte im Vordergrund. Bei
den Animationsprogrammen liegt der Schwerpunkt auf den virtuellen Bewegungsabläufen von Festkörpern oder Charakteren. Eine Besonderheit stellt das
Multiagentensystem dar, bei dem spezielle Zielsetzung und Interaktion der einzelnen Agenten neben Bewegung auch Kampf, Flucht, Zusammenkunft oder
ähnliche gruppendynamische Aktivitäten umfasst. Im Vordergrund steht dabei die Erstellung einer Vielzahl von Charakteren und deren Animationsablauf , ohne die Notwendigkeit der redundanten Animation einzelner Individuen.
17
http://computermuseum–muenchen.de/computer/compaq/slt286.html
http://www.intel.com/Assets/PDF/Prodbrief/xeon–5500.pdf
19
http://h10010.www1.hp.com/wwpc/de/de/sm/WF02d/12454-12454-296719.html
20
http://www.apple.com/de/macpro/
21
http://www.deltacomputer.de/produkte/cluster/angebot opteron workst.shtml
22
http://www.nvidia.de/object/nvidia physx de.html
18
12
Die Sculpting Software erweitert die wesentliche Funktionalität eines Modellers
durch die Möglichkeit der Modellierung feiner Strukturen mit Pinsel, Griffel,
Stempel und ähnlichen Werkzeuge aus der Malerei und Bildhauerei. Beim Renderer handelt es sich um die Bildsynthese-Software. Dieses Programm erzeugt
unter der Anwendung einer physikbasierten Gleichung aus den Informationen
des 3D Programms ein zweidimensionales Bild.
2.3.1
Überblick
Die folgende Tabelle23 soll einen Überblick über gängige Modellierer und Rendering Software bieten. Nachfolgend soll noch einmal auf einige ausgewählte
Software im Detail eingegangen werden.
23
http://en.wikipedia.org/wiki/3D computer graphics software
13
Produkt
3ds Max
AC3D
Aladdin4D
Blender
Carrara
Cinema 4D
formZ
finalrender
fryrender
Houdini
Hypershot
LightWave3D
LuxRender
MASSIVE
Maya
Modo
Mudbox
Renderman
Silo
SketchUp Pro
Softimage
Swift 3D
true Space
Vray
Vred
Vue
ZBrush
Hersteller
Autodesk
Inivis
Discreetfx
Blender Foundation
DAZ Productions
MAXON
AutoDesSys, Inc
cebas
VISUAL
TECHNOLOGY Inc.
randomcontrol
Side Effects Software
Bunkspeed
NewTek
Open Source
Autodesk
Luxology
Autodesk
Pixar
Nevercenter
Google
Autodesk
electric Rain
Caligari
Chaos Software
PI-VR GmbH
E-on Software
Pixologic
Schwerpunkt
Modellierung, Auto-CAD kompatibel
Modellierung
Modellierung, Rendering
Modellierung, Rendering, Sculpting
Modellierung, Rendering
Modellierung, Rendering
Modellierung
Rendering
Rendering
Multiagentensystem
Rendering
Modellierung, Animation, Rendering
Rendering
Character Animation, Multiagentensystem
Modellierung, Animation,
Rendering, Compositing
Modellierung, Sculpting, Rendering
Modellierung, Sculpting
Rendering
Modellierung
Modellierung
Modellierung, Animation, Rendering
Modellierung, Animation, Flash
Modellierung, Animation, Rendering
Rendering
Texturing, Rendering
Modellierung von Ökosystemen, Rendering
Modellierung, Sculpting
Ein Überblick über aktuelle Rendersoftware
2.3.2
Autodesk Maya 2010
Bei Autodesk Maya 2010 handelt es sich um eine 3D-Modellierungssoftware, die
mit eigenen Renderern (Maya Software, Hardware, Vector), dem populären
Renderer Mental Images Mental Ray, sowie einer Vielzahl von Simulationswerkzeugen ausgeliefert wird. Neben der Modellierung können unter anderem
Animationen von Festkörpern und Lebewesen (Skelettanimation) erstellt werden, Bewegung von Muskeln, Behaarung, Stoffen und Flüssigkeiten simuliert
werden. Auch sogenannte Partikeleffekte wie Feuer oder Rauch können gestaltet werden. Mit dem mitgelieferten Programm Autodesk Matchmover können
auch Kamerafahrten aus Realfilm nachvollzogen werden (Motion Tracking). In
der aktuellen Version ist zudem ein Compositing-Werkzeug enthalten, das das
14
Zusammenführen mehrerer Bildquellen ermöglicht.24
2.3.3
Blender
Bei Blender handelt es sich um eine Software, die in einem In-House-Projekt
eines Animationsstudios entworfen wurde.25 Im Jahre 2002 wurde dieses Projekt unter GPL26 der Öffentlichkeit zur Verfügung gestellt. Seither wird diese
Open-Source Software ständig erweitert. Die aktuelle Version ist Blender 2.49.
Zum Funktionsumfang zählt unter anderem 3D-Modellierung, 3D-Sculpting
(deutsch: Bildhauerei, Verformung), Skelettanimation sowie Partikel- und Flüssigkeitssimulation. Blender verfügt auch über einen eigenen Renderer und es
ist möglich mit einer eingebauten Compositing- Software 2D- Effekte zu erzeugen. Eine Besonderheit stellt die Bullet Physics Library dar, eine OpenSource Schnittstelle mit der Physik-Effekte für Computerspiele erzeugt werden
können.27
2.3.4
R
Mental Images Mental Ray
Mental Ray ist eine eigenständige Rendersoftware der Firma Mental Images, die
sowohl als Standalone-Variante als auch als integraler Bestandteil verschiedener Modellierungssoftware, wie 3D Studio Max oder Maya vertrieben wird. Mit
Mental Ray lassen sich sowohl komplexe, naturalistische als auch stilisierte,
comicartige Szenen berechnen. Mit der Software stehen eine Vielzahl unterschiedlicher Lichtsimulationsverfahren zur Verfügung, bei denen Lichtstrahlen
oder Photonen in ihrer natürlichen Verhaltensweise simuliert und manipuliert
werden können. Mental Ray enthält voreingestellte und in ihrer Wirkung beliebig veränderbare Materialien, die einen Schwerpunkt auf Produkt- und Architekturvisualisierung setzen. Die Vielfalt der Simulationsmöglichkeiten erlaubt
dabei die Kreation sowohl natürlicher als auch irreal wirkender Darstellungen
und macht Mental Ray zu einer attraktiven Lösung für die Werbe- und Filmindustrie. Die Komplexität der Software und Menge an möglichen Einstellungen
macht eine intensive Einarbeitung nötig, für die ein eigener Markt an Tutorien
und Seminaren entstanden ist.
2.3.5
Next Limit Maxwell V2
Maxwell V2 ist die aktuelle Version des von der Firma Next Limit entwickelten Brute Force- Renderers. Dieser wird als Eigenständiges Paket aus einem
Programm zur Entwicklung von Szenen, einem Materialeditor, einem Renderer
und einem Netzwerkmanager ausgeliefert. Die Anbindung an gängige Modellierungssoftware wie Maya wird unter Verwendung eines Plugins realisiert, das
die Funktionen des Materialeditors, einer Materialbibliothek und die Ansteuerung der Rendersoftware innerhalb des verwendeten Modellierungsprogramms
24
http://images.autodesk.com/emea dach main germany/files/maya 2010 product brochure a4 de.pdf
http://www.blender.org/development/architecture/
26
http://www.gnu.de
27
http://www.blender.org/features–gallery/features/
25
15
zugänglich macht. Wird das Rendern eines Bildes in Auftrag gegeben, wird automatisch die vorhandene Szene im Maxwell-Format *.mxs exportiert und im
Renderer geladen. Die Qualität des Ergebnisses ist von der Anzahl der Wiederholungen abhängig, mit der das Bild berechnet wird. Damit liegt zunächst ein
zufälliges Bildrauschen vor, das mit steigender Anzahl sogenannter SamplingLevel verschwindet und ein zunehmend klareres Bild hervorbringt. Die Firma
Next Limit unterhält eine Internetplattform28 , die ein Diskussionsforum, eine
Sammlung von Tutorien sowie eine kostenlose Tauschbörse für Material-Dateien
bietet. Letztere ist in der aktuellen Version 2.1 aus der Materialbibliothek des
Renderers einsehbar und es können Materialien von dort in die eigene Bibliothek eingepflegt werden. Der Zuspruch der Besucher und Wettbewerbe in der
Erstellung von speziellen Materialien hat eine Vielzahl von gebrauchsfertigen
Materialdateien hervorgebracht, die im Bereich der Architektur- und Produktvisualisierung eingesetzt werden können.
2.4
Zusammenfassung
In diesem Kapitel wurden die in der Produktion eingesetzten Techniken sowie
Hard- und Software behandelt. Zu Hard- und Software muss erwähnt werden,
dass es sich dabei um Produkte handelt, die jeweils in einer bestimmten Disziplin Höchstleistungen erbringen können. Diese Fähigkeit schlägt sich auch in der
Preisgestaltung nieder. Grundsätzlich kann das im praktischen Teil der Diplomarbeit eingesetzte Verfahren oder auch z.B. die vorgestellte Mirrorball- Technik auch unter Verwendung günstigerer Produkte aus dem Comsumer-Bereich
durchgeführt werden. In der Regel resultiert diese Möglichkeit allerdings in einem höherem Zeitbedarf, der in einer industriellen Produktion jedoch nicht
gedeckt werden kann.
28
http://www.maxwellrender.com/
16
3
High Dynamic Range-Imaging
Die Anfertigung eines HDR-I (High Dynamic Range-Image) geschieht mit dem
Ziel, die Bandbreite der Bildinformationen eines Motivs zu erfassen, ohne dabei
auf die Grenzen der Darstellbarkeit Rücksicht nehmen zu müssen. In diesem
Kapitel werden zunächst einige Grundlagen erarbeitet, die die Bedeutung der
HDR Technik für die Fotografie veranschaulichen. Es wird die Entstehung eines
solchen Bildes im Hinblick auf den Einsatz als Lichtquelle anhand eines Beispiels erklärt. Dazu werden mehrere deckungsgleiche Einzelbilder angefertigt,
die später digital zu einem Gesamtbild mit hohem Dynamikumfang verschmolzen werden. Außerdem wird die Optimierung eines HDR-I für die Betrachtung
auf Wiedergabemedien mit niedrigem Dynamikbereich erläutert.
3.1
Grundlagen
In diesem Abschnitt wird erklärt, welche technischen Vorzüge die HDR-Fotografie
gegenüber der konventionellen Technik hat. Dazu werden einige Grundlagen der
Fotografie vermittelt und Messgrößen eingeführt, mit denen diese Vorteile beschrieben werden können.
3.1.1
Fotografie
Die Aufnahme einer Fotografie ist naturgemäß an Rahmenbedingungen gekoppelt, die von der physikalischen Beschaffenheit des Aufnahmemediums abhängen.
In der klassischen analogen Fotografie sind es die kristallinen Partikel auf der
Filmoberfläche, in der digitalen Fotografie die Sensoren auf der CCD (chargecoupled device) oder CMOS(complementary metal oxide semiconductor)29 Oberfläche. Durch die Betätigung des Auslösers wird eine Reihe von Mechanismen in
Gang gebracht, die dazu führen, dass die Umgebung vor dem Objektiv für eine
bestimmte Zeit, sie wird Verschlusszeit genannt, auf eine Fläche im Inneren der
Kamera projiziert wird. In dieser Zeit tritt eine Veränderung in den kleinsten
Bestandteilen dieser Oberfläche ein, die ein Konservieren des Abbildes zur Folge
hat. In jedem Fall liegen diese Vorgänge in physikalischen Grenzen, die für das
Abbild in limitiertem farblichem Auflösungsvermögen resultieren. Das ist darauf zurückzuführen, dass die in der Verschlusszeit einfallende Lichtmenge aus
unterschiedlichen Teilmengen größerer und kleinerer Lichtintensität besteht. Da
die Helligkeit des Ausgabemediums an einer Stelle primär von der Zeit abhängt,
die ein bestimmter Bereich der Umgebung auf das Medium projiziert wurde,
bedingt die Belichtungsqualität eines Bereichs gleichermaßen die eines beliebigen anderen Bereichs des abgebildeten Motivs. Ist für die Abbildung einer
beliebigen hellen Stelle des Motivs gerade ausreichend Zeit vergangen, ist das
nicht unmittelbar damit verbunden, dass eine dunkle Stelle des Motivs hinreichend Zeit hatte, um auf dem Medium eine nennenswerte Reaktion zu erwirken.
Resultiert dies im verlorenen Detail, spricht man von Unterbelichtung. Umgekehrt verhält es sich ähnlich: Wird eine Dunkle Stelle des Motivs lange genug
auf das Medium projiziert um detaillierte Helligkeitsnuancen herauszuarbeiten,
29
http://www.dalsa.com/corp/markets/CCD vs CMOS.aspx
17
Abbildung 12: Unterschiedliche Kontrastverhältnisse bei 24 bit JPEG (links)
und 8 bit GIF (rechts). Deutlich erkennbare Farbstufen im GIF-Bild
kann das zur Folge haben, dass eine hellere Stelle in der Zwischenzeit einer
Lichtmenge ausgesetzt war die zur größten darstellbaren Helligkeit geführt hat.
Diesen Fall bezeichnet man als Überbelichtung.
Oftmals ist bei der Aufnahme eines Motivs deshalb ein Kompromiss gefragt.
Hilfreich ist hier der Belichtungsmesser der Kamera, der im Aufnahmemodus
Automatik bereits für eine von der Kamera gesteuerte Auswahl der Blende
und Belichtungszeit sorgt. Dennoch resultiert die unterschiedliche Lichtintensität auf den Teilbereichen eines Motivs oft in einer Fotografie mit mangelhafter Belichtung. Sofern dieses Ergebnis nicht beabsichtigtes Resultat eines
kreativen Ausdrucks ist, eröffnet sich im darauf folgenden Entwicklungsprozess die Möglichkeit, Dunkelkammertechniken zur Anwendung zu bringen, um
Teilbereiche des Bildes heller oder dunkler erscheinen zu lassen. Ein anderer
Lösungsansatz besteht darin, eine Anzahl Fotografien unterschiedlicher Belichtung anzufertigen und die Teilbereiche mit den individuell besten Ergebnissen
zu einem Gesamtbild zu kombinieren. Diese Techniken finden sowohl in der
analogen als auch in der digitalen Fotografie Anwendung.
3.1.2
Der Dynamikbereich
Die Menge an unterschiedlichen Farbnuancen, die in einem Motiv vorkommen,
wird Motivkontrast genannt. Von dieser Informationsmenge kann nur ein Teil
von heutigen analogen und digitalen Medien abgebildet werden. Die Bandbreite
unterschiedlicher Helligkeitswerte, die ein Abbild enthält, gibt den Dynamikbereich eines Bildes vor. Das Helligkeitsverhältnis des geringsten von Schwarz verschiedenen Tonwerts und der größtmöglichen darstellbaren Helligkeit wird als
Kontrastverhältnis bezeichnet. Enthält ein Bild beispielsweise 10 von schwarz
verschiedene Helligkeitswerte, ist sein Kontrastverhältnis mit 10:1 anzugeben.
Das Menschliche Auge kann durch einen Anpassungsprozess an die wahrgenomme Lichtsituation Kontrastverhältnisse von 1:1000000 wahrnehmen [Blo08].
Dieser Prozess, bei dem der Dynamikbereich auf verschiedene Hintergrundhelligkeiten verschoben werden kann wird Adaptation genannt [GH03].
In Abbildung 12 ist das Rendering einer diffus reflektierenden Fläche zu sehen,
die von einer Seite großflächig beleuchtet wird. Durch die mit steigender Entfernung abfallende Lichtintensität erscheint die Projektion des Leuchtkörpers
als ein schwarz-weißer Helligkeitsverlauf auf der Fläche. Dieses Bild wird im
JPEG–Format mit einer Farbtiefe von 24 bit, und in einer zweiten Variante im
18
GIF-Format mit einer Farbtiefe von 8 bit abgespeichert. Es ist zu erkennen,
dass bei der 8 bit Variante offenbar eine Farbmittelwertbildung durchgeführt
wurde, die sich in einer deutlichen Abstufung der Farbnuancen äußert. Daraus kann man schließen, dass der offensichtlich höhere Motivkontrast durch die
Kodierung in einen geringeren Farbraum komprimiert wurde und nun ein geringeres Kontrastverhältnis vorliegt als bei der Vergleichsvariante. Der nutzbare
Dynamikbereich eines Bildes hängt also in der Digitalfotografie von der zur
Verfügung stehenden Farbtiefe ab. Dennoch darf die Farbtiefe einer Bilddatei
nicht dazu verwendet werden, um Rückschluss auf den Dynamikbereich einer
Abbildung zu ziehen. Die Farbtiefe ist lediglich als ein Farbkasten zu verstehen,
in dem eine begrenzte Anzahl Nuancen Platz findet. Ist die gewünschte Farbe
nicht auffindbar, wird sie durch eine artverwandte Farbe ersetzt. Ebenso kann
es aber auch vorkommen, dass der zur Verfügung stehende Farbraum ungenutzt
bleibt. Beispielsweise würde ein Abspeichern der 8 bit Variante in einem Format
mit 16 oder 32 bit nicht die verloren gegangenen Kontraste zurückholen.
3.1.3
Zielsetzung HDR-I
Heutige Digitalkameras erzeugen Bilder mit Farbtiefen von bis zu 32 bit pro
Farbkanal. Wie viel davon tatsächlich genutzt wird, hängt zum Einen von der
Qualität des Sensors und der Verarbeitung der Rohdaten durch die Betriebssoftware der Kamera ab, zum Anderen spielt die Art und Weise der Belichtung
dafür eine große Rolle. HDR-Bilder werden in der Regel ebenfalls mit einer
Farbtiefe von 32 bit pro Farbkanal abgespeichert. Es wäre jedoch nicht sinngemäß, bei jeder 32 bit Datei von einem hohen Dynamikbereich zu sprechen.
Der Grund dafür ist, dass es im Verständnis der HDR-I Fotografie liegt, einen
vorhandenen Dynamikbereich zu erweitern und bei der Verarbeitung der Daten auf einen größeren Spielraum zurückgreifen zu können als es ein Bild mit
niedrigem Dynamikbereich zulassen würde.
Wie in Kapitel 3.1.1 angesprochen, führt eine zu lange Belichtungszeit zur
Überbelichtung, eine zu kurze Belichtungszeit zur Unterbelichtung. Führt man
die vorteilhaft belichteten Partien der Bilder zusammen, kann das Ergebnis einem optimal belichteten Bild gleichkommen und sogar dessen Möglichkeiten
übertreffen. Auf dieser Grundlage wird ein HDR-I erstellt. Um ein zielgerichtetes Verfahren beschreiben zu können, bedarf es an dieser Stelle einer weiteren
Definition. Es handelt sich um den Lichtwert (abk.: LW oder EV für engl: exposure value). Definitionsgemäß ist 0 LW die Menge Licht, die in 1 s bei Blende 1
in das Kameragehäuse einfällt. Für jede Erhöhung der Blende um einen Schritt
oder Halbierung der Belichtungszeit wird 1 LW addiert. Daraus ergibt sich folgende offene Tabelle:
19
Belichtungszeit
4s
2s
1s
0.5s
0.25s
0.125s
...
f1
-2
-1
0
1
2
3
...
f1.4
-1
0
1
2
3
4
...
f2
0
1
2
3
4
5
...
f2.8
1
2
3
4
5
6
...
Blende
f4 f5.6
2
3
3
4
4
5
5
6
6
7
7
8
... ...
f8
4
5
6
7
8
9
...
f11
5
6
7
8
9
10
......
f16
6
7
8
9
10
11
...
...
...
...
...
...
...
...
...
Beleuchtungstabelle: Lichtwerte im Zusammenhang mit Blende und
Belichtungszeit
Der Lichtwert wird in der Praxis meist als relative Angabe verwendet. Viele
Kameras geben ihn im manuellen Modus in Form einer Skala an. Die Stellung
Null“ gibt dabei die vom Belichtungssensor berechnete optimale Belichtungs”
zeit an. Zielt man mit der Kamera auf einen helleren oder dunkleren Bereich,
wird die Skala einen von 0 verschiedenen Wert anzeigen. Für die Aufnahme
eines HDR-I ist die Aufnahme mit 0 LW der Ausgangspunkt. Je nach Farbtiefe eines Einzelbildes werden weitere Aufnahmen in größeren oder kleineren
Lichtwertstufen angefertigt. In den folgenden Abschnitten wird erklärt, welche
Ausrüstung dafür benötigt, wie das Ausgangsmaterial angefertigt und zu einem
HDR-I verschmolzen wird.
3.2
Die Ausrüstung
Im Rahmen der Diplomarbeit wurde die Erstellung der HDR-I Panoramen auf
dem Wege der Segmenttechnik durchgeführt. Im folgenden Abschnitt soll beschrieben werden, welche Hilfsmittel und Techniken hierzu verwendet wurden.
Zur Auswahl standen zwei unterschiedliche Kamerasysteme.
3.2.1
Canon EOS 5D (Mark 1)
Bei der Canon EOS 5D (Mark 1)(s. Abb. 13) handelt es sich um eine digitale
Spiegelreflexkamera, die mit einem Vollformat CMOS Sensor in der Grösse 35,8
x 23,9 mm2 und 12,8 Megapixeln ausgestattet ist.30 Dabei sind Empfindlichkeiten von 100 - 1600 ISO möglich. An der Kamera können Verschlusszeiten
zwischen 1/8000 s und 30 s eingestellt werden. Optional zur Bedienung an
der Kamera kann die Einstellung und Auslösung auch über verschiedene Fernauslöser sowie einen tragbaren Computer mit entsprechender Software (EOS
Capture) erfolgen. Die Bilddaten werden roh oder komprimiert auf einer CFSpeicherkarte oder im Falle der Bedienung mit EOS Capture direkt auf dem
Rechner abgelegt.
30
www.canon.de
20
Abbildung 13: Canon EOS 5D
An der EOS 5D können unterschiedliche Objektive zum Einsatz kommen. Im
Rahmen der Diplomarbeit standen ein 100mm Makro-Objektiv sowie ein 50mm
Normal-Objektiv(s. Abb. 14) zur Auswahl.
3.2.2
Mamiya 645 AFDII, Capture One P45
Die Mamiya 645 AFDII (s. Abb. 15) ist eine Mittelformat–Spiegelreflexkamera,
die mit einer MSCE Standard Schnittstelle für Digitalrückteile [. . .] direkt kompatibel zu den Digitalrückteilen verschiedener Hersteller ist. [M6403]. Die Kamera unterstützt Belichtungszeiten zwischen 1/4000 s und 30 s. Sie kann mit
unterschiedlichen Objektiven verwendet werden, in diesem Fall standen ein 35
mm Weitwinkel–Objektiv, ein 80 mm Normal - Objektiv, sowie ein 150 mm
Makro - Objektiv zur Auswahl. Als Digitalrückteil kam ein P45 der Firma
Phase One31 zum Einsatz. Dieses Digitalrückteil verfügt über einen Vollformat CCD-Sensor im 4:3 Format und einer Auflösung von 39 Megapixeln. Die
einstellbare Empfindlichkeit beträgt 50 - 400 ISO. Das Digitalrückteil verfügt
über ein Laufwerk für CF Speicherkarten, auf die es die Bilddaten im Rohformat *.IIQ ablegt. Das System aus Kamera und Digitalrückteil kann von einem
tragbaren Rechner über die Software Capture One DB ferngesteuert werden,
wobei optional die Auslösung und Speicherung der Daten seitens des Rechners
erfolgen.
31
http://www.phaseone.com
21
Abbildung 14: Canon 50 mm Normalobjektiv
Abbildung 15: Capture One P45, Mamiya 645 AFDII
22
Abbildung 16: Aufbau der Ausrüstung beim Panorama Scheune“
”
3.2.3
Zubehör
Für die Panorama - Aufnahmen wurde eine Reihe von Zubehör benötigt. Unter
Anderem kam ein Stativ vom Typ Manfrotto 190DB (s. Abb. ??) zum Einsatz.
Es ist ein Dreibeinstativ mit einer Montageplatte für Stativköpfe und wurde
mit einem Triton PH46 (s. Abb. 17) bestückt. Dieser Kugelkopf ermöglicht dem
Benutzer, die darauf montierte Kamera in einem Bereich von 180◦ x 360◦ Betrachtungswinkel einzusetzen. Ein Novoflex Castel-L-Einstellschlitten (s. Abb.
17) ergänzte den Aufbau.
Für die rechnergestützte Fernbedienung der Kameras wurden zwei tragbare
Computer eingesetzt. Die EOS Capture Software wurde auf einem Asus EEE Pc 1000H betrieben. Für die Capture One Software wurde ein Apple Macbook
Pro eingesetzt. Beide Systeme zeichnen sich durch eine Akkulaufzeit von mehreren Stunden aus, der Apple Rechner verfügt darüber hinaus über einen IEEE
1394 - Anschluss, der für den Betrieb des P45 am Rechner erforderlich ist.
3.3
Die Software
Im Folgenden soll die verwendete Software vorgestellt werden, die zur Erstellung
und Bearbeitung der Fotografien eingesetzt wurde.
3.3.1
Capture One DB
Capture One DB32 ist eine Software zum Entwickeln von Kamerarohdaten des
Capture One P45 Digitalrückteils. Hier kann das Raw-Format *.iiq eingelesen
32
http://www.phaseone.com
23
Abbildung 17: Stativkopf Triton PH46 / Einstellschlitten Novoflex Castel -L
Abbildung 18: Objektiv Mamiya 35mm / AF Drahtauslöser Hama / Stativ
Manfrotto
24
Abbildung 19: Benutzeroberfläche PTGui
werden und fotografische Techniken wie Tonwertkorrektur und Weißabgleich
durchgeführt werden. Alle Änderungen eines Fotos können auch auf beliebige
andere Fotos übertragen und in Form einer Stapelverarbeitung zur Anwendung
gebracht und in üblichen Dateiformaten abgespeichert werden. Dazu zählen
unter anderem Targa (*.tga), Bitmap (*.bmp), Joint-Picture Experts Group
(*.jpg) oder Tagged-Image File Format (*.tiff). Letzteres ermöglicht eine Speicherung der Bilddaten in einer Farbtiefe von bis zu 32 bit pro Farbkanal.
3.3.2
PTGui
PTGui33 (s.Abb.19) ist eine kostenpflichtige Distribution verschiedener OpenSource Programme (Panorama Tools), deren Funktionsumfang über eine einheitliche Benutzerschnittstelle (Gui) zugänglich gemacht wird. Mit PTGui ist
es möglich, große Mengen Einzelbilder automatisch zu einem Panoramabild
anzuordnen und nahtlos aneinander zu fügen. Es unterstützt zudem das Verschmelzen von Belichtungsreihen zu HDR-Aufnahmen, sodass die Erstellung eines HDRI-Panoramas in einem Arbeitsgang durchgeführt werden kann. In der
kostenpflichtigen Version PTGui Pro ist die Stapelverarbeitung (Batch Processing) mehrerer Arbeitsaufträge möglich.
3.3.3
EXIFeditor
EXIFeditor34 ist ein kostenloses Programm, mit dem die Metadaten (Exif35 Daten, s. Abb.20) von Digitalfotografien als Textdatei exportiert, manipuliert
und importiert werden können. Es können beispielsweise einzelne Parameter
wie Belichtungszeit, Datum oder Autor bearbeitet werden, oder auch das Vorschaubild (Thumbnail) verändert werden.
3.3.4
Adobe Photoshop
Photoshop CS336 (s.Abb.21) ist ein universelles Bildbearbeitungsprogramm, das
eine Vielzahl fotografische und gestalterische Hilfsmittel zur Verfügung stellt,
33
www.ptgui.com/
http://www.heise.de/software/download/exifeditor
35
Exchangeable Image File Format
36
www.Adobe.com/Photoshop
34
25
Abbildung 20: Benutzeroberfläche EXIF Editor
Abbildung 21: Benutzeroberfläche Photoshop CS3
um eine ganzheitliche Bildbearbeitung durchführen zu können. Der Funktionsumfang reicht von Dunkelkammertechniken über Utensilien aus dem Bereich der Malerei und Grafik hin zu Komposition verschiedener Bildinhalte auf
der Basis von Ebenen. Photoshop enthält zudem eine Funktion zur Erstellung
von HDR-Bildern und einige Werkzeuge zu deren Manipulation. Auch können
dreidimensionale Objekte (aus einem Modellierungsprogramm) in Photoshop
importiert werden, um eine Texturierung der Oberfläche zu vereinfachen, indem diese mit herkömmlichen Mitteln der Bildgestaltung bearbeitet wird. Es
ermöglicht darüber hinaus das Speichern von Dateien oberhalb der Größe von 2
Gb im proprietären Format *.psb. Die aktuelle Version von Photoshop ist CS4.
3.4
3.4.1
HDRI-Panaromafotografie mit der Segmenttechnik
Einleitung
Seitens der technischen Ausrüstung sind einige Maßgaben zu beachten, damit die deckungsgleiche Aufnahme der Belichtungssequenz gelingen kann. Um
26
eine unerwünschte Bewegung der Kamera und die resultierende Veränderung
des Bildausschnitts auszuschließen, ist die Verwendung eines Dreibeinstativs zu
empfehlen. Zudem sollte die Kamera trotz der Montage auf dem Stativ zwischen
den einzelnen Aufnahmen nicht mehr berührt werden. Die beiden verwendeten
Kameras verfügen über eine Belichtungsreihenautomatik, die drei Einzelbilder
mit unterschiedlicher Belichtung automatisch aufnimmt. Sollen jedoch beispielsweise mehr als drei Einzelaufnahmen angefertigt werden, ist die Verwendung
einer Fernbedienung empfehlenswert, da eine Berührung der Kamera zwischen
den Aufnahmen unerwünschte Blickwinkelunterschiede zwischen den Einzelbildern nach sich ziehen kann. Üblicherweise kommt hier ein tragbarer Rechner
zum Einsatz, der über eine entsprechende Software verfügt und mit der Kamera
verbunden ist. Die HDRI Fotografie ist jedoch ebenfalls mit Zugeständnissen
verbunden. Das Aufnehmen einer deckungsgleichen Bildserie bringt eine Reihe
von Rahmenbedingungen mit sich, die es zu beachten gilt. So geschieht das
Aufnehmen der Fotos in einer Sequenz und damit in einem Zeitfenster. Zu einer Vielzahl von zeitabhängigen Bestandteilen innerhalb des Motivs, wie zum
Beispiel Sonne, Schatten, Wetterlage, Windbewegung in Wasser, Wolken oder
Vegetation geschehen noch andere mehr oder weniger vorhersehbare Ereignisse,
wie Bewegung von Menschen, Tieren oder Verkehrsmitteln. Oft sind deshalb
die unterschiedlichen Belichtungsstufen nicht vollständig deckungsgleich.
3.4.2
Positionierung und Aufnahme
Nachdem das gewünschte Motiv festgelegt ist, muss der Standort der Kamera bestimmt werden. Vorzugsweise ist der Ort zu wählen, an dem die Umgebung der Kamera unabhängig von der Wahl des Bildausschnitts gleich scharf
erscheint. Ein nahtloses Verschmelzen der Belichtungssequenz (Brackets) ist
nur dann möglich, wenn der Fokalpunkt in allen Bildern eine gleich bleibende Entfernung zur Kamera aufweist. Aus diesem Grund ist darauf zu achten,
dass die Autofokus-Funktion der Kamera während der gesamten Panoramaaufnahme deaktiviert ist. Einige Testaufnahmen mit unterschiedlichen Blenden
im Modus Zeitautomatik helfen, eine geeignete Blende mit ausreichender Tiefenschärfe zu ermitteln. Diese wird im manuellen Betriebsmodus der Kamera
für alle Belichtungsreihen der Szene übernommen. Eine Veränderung würde erneut die Tiefenschärfe modifizieren und hätte somit die gleichen Folgen wie eine
direkte Änderung des Fokalpunktes. Dennoch darf im Falle der Anwendung als
Licht- und Reflexionsquelle eines computergenerierten Bildes (CGI) das Projektionszentrum der Aufnahme keines Falls beliebig gewählt werden. Der visuelle Kontext in der Reflexion der virtuellen Gegenstände macht es deutlich.
Somit ist als Standort für das Stativ oder der Spiegelkugel im Idealfall der
spätere Mittelpunkt der virtuellen Szene zu wählen. Die Aufnahme des Hintergrundbildes, der sogenannten Backplate“ zu Beginn der Produktion eröffnet
”
die Möglichkeit, diesen Punkt zielgerichtet zu wählen. Ist die kugelförmige Projektion des Panoramas bei der Komposition eines computergenerierten Bildes
nicht als unmittelbare Umgebung der Backplate zu begreifen, kommt es zu optischen Widersprüchen im Gesamtbild. Es ist zum Beispiel mit einer Verzeichnung
der Umgebung in der Spiegelung auf der Oberfläche des virtuellen Gegenstands
27
Abbildung 22: Logische Problematik der Zusammengehörigkeit von Backplate
und Panorama: In der Reflexion scheint das Glas in der Luft zu schweben.
zu rechnen und der Gegenstand verliert die bei der Betrachtung subjektiv erfahrene Zugehörigkeit zum visuellen Kontext. Abbildung 22 soll erläutern, wie
dieser Eindruck zu Stande kommt.
Der Mittelpunkt des aufgenommenen Panoramas befindet sich im räumlichen
Mittelpunkt der Kapelle. Inhaltlicher Zentralpunkt der Backplate ist jedoch der
abgebildete Steinaltar, auf dem die virtuellen Gegenstände angeordnet sind.
Das resultiert in einer irreführenden Reflexion auf den Gegenständen. Das Glas
bricht die Projektion des scheinbar hinter ihm befindlichen Altars und scheint
dabei, erkennbar in der Reflexion der Kugel, in der Luft zu schweben. Ist ein
adäquater Zentralpunkt für das Panorama gefunden, kann die Aufnahme vorbereitet werden. Dazu wird zunächst das Stativ im Zentralpunkt aufgebaut und
die Montageplatte in eine waagerechte Position gebracht. Als nächstes erfolgt
die Ermittlung der Belichtungsreihe. Hier kommt der integrierte Belichtungsmesser der Kamera zum Einsatz. Die Kamera wird auf den hellsten Punkt
der Szene ausgerichtet und die Belichtungszeit so gewählt, dass sich für den
Lichtwert (EV) ± 0 ergibt. Diese Belichtungszeit wird notiert und das gleiche
Verfahren für den dunkelsten Punkt der Szene wiederholt. Die beiden Belichtungszeiten ergeben die Grenzen, in denen die Belichtungsreihe aufgenommen
werden soll. Dazwischen wird eine Anzahl weiterer Belichtungszeiten festgelegt,
wobei die Schritte so zu wählen sind, dass sich eine resultierende Änderung
des Lichtwerts <2 ergibt. Da diese Grenzen den Dynamikumfang des Resultats
festlegen, ist an dieser Stelle die Aufnahme einer Testsequenz zu empfehlen.
Diese wird dann auf Vorhandensein aller gewünschten Details überprüft und
gegebenenfalls durch Ergänzung weiterer Belichtungszeiten in der Sequenz angepasst. Für die Verschmelzung mehrerer Aufnahmen zu einem HDR-I sind
mindestens zwei Aufnahmen vonnöten. Die Obergrenze für die Anzahl der Einzelaufnahmen ist dort anzusiedeln, wo der zeitliche Aufwand zur Erstellung
des gesamten Rohmaterials in einem merklichen Kontextverlust der aufeinander folgenden Bilder resultiert. Ein Panorama eines Ortes mit rein künstlicher
Beleuchtung, ohne Bewegung seiner Bestandteile in ihrer Postition zueinander,
28
Abbildung 23: Nicht kontinuierlicher Schattenwurf zwischen zwei Belichtungsreihen
ist von dieser Grenze nicht betroffen. Man stelle sich in diesem Zusammenhang
einen U-Bahnhof bei Nacht oder ein Opernhaus ohne Publikum vor. Viele Szenarien enthalten jedoch veränderliche Bildinhalte. Bei einem Motiv unter freiem
Himmel ist durch die Erdrotation ein sich ständig veränderndes Schattenspiel
zu beobachten. Wenn zwischen den Einzelnen Umrundungen gleicher Höhe zu
viel Zeit vergeht, können Abrisse im Schatten auftreten (s. Abb. 23).
Es ist möglich, unter Angabe der Brennweite und der Sensorgröße die erwartete
Anzahl der Bilder zu berechnen. Voraussetzung dafür ist die strikte Einhaltung
der Winkel sowie der Überlappung zwischen den Bildern. Dazu sind Internetseiten mit Kalkulatoren verfügbar, die zum Teil Voreinstellungen für verschiedene
Kameratypen und Objektive enthalten, beispielsweise die Seite von Frank van
der Pol 37 oder der Kalkulator auf Excel Basis von Matt Nolan38 . Auf Grund
der Vielzahl der verschiedenen Kameramodelle und Objektive, die zum Teil Unterschiede zwischen möglicher und tatsächlicher Bildweite aufweisen, sind die
entsprechenden Daten beim Hersteller einzuholen und danach eine Tabelle anzufertigen. Dieses Beispiel bezieht sich auf die verwendete Kamera Canon Eos
5D:
Brennweite
[mm]
80mm
50mm
35mm
16mm
HFoV
[◦ ]
25,36
39,6
54,43
96,73
Anzahl
19
12
9
5
Auflösung
[px]
62000
40000
28000
16000
VFov
[◦ ]
17,06
26,9
37,85
73,74
Anzahl
14
9
6
3
Auflösung
[px]
31000
20000
14000
8000
Aufl.
Pano
[Gpx]
1,91
0,77
0,4
0,12
Bilder
gesamt
266
108
54
15
Tabelle: Auflösung der Panoramen in Zusammenhang mit der Brennweite.
Gerundete Werte für Bildanzahl und Auflösung
Auffällig dabei ist, dass mit abnehmender Brennweite auch die Anzahl der
nötigen Bilder kleiner wird, was auf das Verhältnis von Brennweite und Bildwin37
38
http://www.frankvanderpol.nl/fov pan calc de.htm
http://www.panotools.org/mailarchive/msg/64744
29
kel zurückzuführen ist. In der Kapelle wurde die Aufnahme mit einem 50mm
Objektiv durchgeführt. Werden die errechneten Werte für die Aufnahme in
der Horizontalen und der Vertikalen multipliziert, ergeben sich 108 Bilder für
eine Belichtungsstufe. Multipliziert mit der Anzahl der Bilder, die für eine Verschmelzung zum HDR-I nötig sind (in diesem Fall fünf), beläuft sich die Anzahl
für das Panorama der Kapelle auf 540 Bilder. Bei einem mittleren Zeitbedarf
von 12s pro Bild ist dafür ein Zeitfenster von etwa 2 Stunden zu kalkulieren.
Hinzuzufügen ist hier, das solche Tabellen keinen genauen Rückschluss auf den
tatsächlichen Zeitbedarf für den praktischen Einsatz zulassen. Es soll vielmehr
vermittelt werden, in welcher Größenordnung sich die Unterschiede in Auflösung
und Zeitbedarf, bedingt durch die Brennweite, äußern. Dies soll die Wahl der
möglichen Objektive anwendungsgerecht eingrenzen. Der Stativkopf, in diesem
Fall eine Kombination aus Kugelkopf und Einstellschlitten, wird so eingestellt,
dass bei Drehung der Kamera keine optische Verschiebung zwischen Vorder-,
Mittel- und Hintergrund auftritt. Dies ist gewährleistet, wenn sich der sogenannte Nodalpunkt im Zentrum der Drehachse des Objektivs befindet. Der hier
verwendete Aufbau macht es nötig, diesen Punkt nach jeder Drehung um die horizontale Achse neu einzustellen. Bei der Belichtung der Aufnahmen ist darauf
zu achten, dass zwischen jeder Belichtungssequenz etwa 25% Überlappung des
Bildinhalts vorliegt. Dies ist nötig, um ausreichend Spielraum zum Auffinden
möglicher Referenzpunkte im Bild zu gewährleisten. (siehe Kapitel 3.4.5)
3.4.3
Bildverarbeitung
In diesem Abschnitt soll dargestellt werden, wie aus den Rohdaten ein Panoramabild entsteht. Zunächst liegen die Fotografien in einem Rohformat39 vor.
In diesem Fall handelt es sich um *.tiff Dateien. Sie sind im entsprechenden
Programm für die Entwicklung (abhängig vom Typ der Kamera) zu öffnen und
zunächst auf Vollständigkeit zu überprüfen. Das hat den Vorteil, dass fehlende
Belichtungen im Vorfeld bemerkt werden und erspart eine zeitintensive Fehlersuche innerhalb der Panoramasoftware. Wie eine fehlende Belichtung ergänzt
werden kann, soll im folgenden Beispiel unter Verwendung der Software EXIFeditor und des Entwicklungsprogramms erläutert werden. Gegeben sei die folgende Belichtungssequenz:
1/15s
1/30s
1/60s
1/125s
1/250s
Die Aufnahme mit der Belichtungszeit 1/60 s fehlt. Sie soll ergänzt werden, indem die Kopie einer benachbarten Fotografie nachbelichtet wird. Aus der Tabelle (siehe S.19) wird entnommen, dass bei einer Verdoppelung der Belichtungszeit der Lichtwert (EV) um den Wert 1 abnimmt. Das Entwicklungsprogramm
Capture One DB stellt eine Funktion zur Belichtungskorrektur zur Verfügung.
Wendet man auf die Aufnahme mit 1/30 s eine Belichtungskorrektur mit +1
39
Das optionale Rohformat (engl.:Raw file) und seine Dateiendung sind vom Kamerahersteller abhängig
30
Abbildung 24: PTGui: Für die CGI Anwendung wichtig: Um eine automatische
Tonwertkompression zu verhindern, ist im Fenster Bracketed Exposures True
”
HDR“ zu wählen
EV an, erhält man ein Ergebnis, das einer Aufnahme mit 1/60 s Belichtungszeit entspricht. Noch fügt sich die manipulierte Aufnahme nicht vollständig in
die Belichtungsreihe ein. In den Exif-Daten ist noch der ursprüngliche Wert
von 1/30 s abgelegt, dessen Änderung in Kapitel 3.4.4 beschrieben wird. Um
den Arbeitsablauf im Entwicklungsprogramm abzuschließen, sind hier zunächst
noch alle gewünschten weiteren Einstellungen (z.B. Weißabgleich) vorzunehmen. Die entwickelten Bilder können exportiert und in einem separaten Ordner
abgespeichert werden.
3.4.4
Bearbeitung der Exif Daten
Im Beispiel aus dem Abschnitt 3.4.3 wurde eine Bilddatei mit korrigierter Belichtung erzeugt. Diese Datei soll nun einen Exif-Datensatz erhalten, der ihrem
neuen Belichtungswert (1/60 s) entspricht. Dazu wird eine zweite Datei mit einer tatsächlichen Belichtungszeit von 1/60 s benötigt. Mit dem Programm EXIFeditor wird der Exif-Datensatz dieser Datei extrahiert und in einer *.xml Datei
abgelegt. Die Datei mit der korrigierten Belichtung wird nun in den EXIFeditor
geladen, mit dem Datensatz aus der *.xml Datei versehen und gespeichert.
3.4.5
Erzeugen eines HDR-Panoramas
Die vorhandenen Bilder sollen nun zu einem Panorama vernäht werden, ein
Vorgang der als Stitching“ (to stitch: nähen) bezeichnet wird. Im Programm
”
PTGui wird nun ein neues Projekt angelegt und die entwickelten Bilder dort
hineingeladen. Hier ist darauf zu achten, dass das Programm die Brennweite des
Objektivs und den Crop-Faktor (Verkürzungsfaktor des Bildausschnitts bedingt
durch die Sensorgröße) korrekt anzeigt (s. Abb. 24). Aus Gründen der Übersicht
soll der Vorgang hier an zwei Belichtungsreihen veranschaulicht werden.
Wenn sich im Quellordner ausschließlich Bilder dieses Panoramas befinden und
31
Abbildung 25: PTGui, Image Parameters, verkürzte Darstellung: Hier befinden
sich neben dem verkleinerten Vorschaubild alle wichtigen EXIF-Informationen
sowie verschiedene Parameter bezüglich Position und Verzerrung im Panorama
die Belichtungssequenzen vollständig sind, fasst PTGui die Sequenzen zu sogenannten HDR-Brackets zusammen, (s. Fenster in Abb. 24). Diese Funktion
erleichtert dem Programm die räumliche Zuordnung der Panoramabestandteile,
da es für jede Sequenz nur eine Parameterliste erstellen muss, und beschleunigt
den Prozess des Stitching. Voraussetzung dafür ist die deckungsgleiche Aufnahme der Belichtungssequenzen. Sollte das Programm die Belichtungssequenzen
nicht erkennen, bietet es im Advanced- Modus (s. Abb. 19) die Möglichkeit im
Reiter Image Parameters“ (s. Abb. 25 die Sequenzen auf Vollständigkeit zu
”
überprüfen.
Hier wird jedes geladene Bild mit allen Exif-Informationen angezeigt. Der Haken in der Spalte Link“ deutet auf die Zuordnung zu dem ersten Bild der
”
Sequenz hin. In der Spalte Exposure“ ist die Belichtungszeit angegeben. Soll”
te die Belichtungsreihe unvollständig sein, ist das Verfahren aus Kapitel 3.4.3
anzuwenden. Durch Drücken der Taste Align Images“ beginnt das Programm
”
mit der Ausrichtung der Bilder. Der Erfolg dieses Arbeitsschrittes hängt davon
ab, ob das Programm innerhalb eines Bildes Strukturen der angrenzenden Bilder ermitteln kann. Jede Referenz auf ein Nachbarbild erhält automatisch einen
Kontrollpunkt, der eine eindeutige Zuordnung der Bilder untereinander zulässt.
Das Programm verlangt mindestens vier Kontrollpunkte, um zuverlässig arbeiten zu können.
Große Flächen mit wiederkehrenden Mustern, wie zum Beispiel Stabparkett,
Fliesen oder Strukturtapete weisen eine Vielzahl möglicher Referenzpunkte auf
und erfordern deshalb oft ein manuelles Setzen der Kontrollpunkte. Ebenso
verhält es sich mit großen strukturlosen Flächen, wie beispielsweise glatt verputzte Wände oder wolkenloser Himmel. Im Idealfall ist in einem solchen Bild
im Randbereich noch ein Referenzpunkt zu finden, der die eindeutige Zuord32
Abbildung 26: PTGui, Control Points: Manuelles Setzen der Kontrollpunkte.
Dies geschieht durch Bestimmung eines Bildpunkts durch einen Mausklick auf
ein Bild und Festlegen seines Äquivalents im anderen Bild durch einen weiteren
Mausklick.
nung ermöglicht. Ist dies nicht der Fall, muss das Bild manuell an seine Position geschoben werden. Dies geschieht im Fenster Panorama Editor (s.Abb.27.
Hier wird eine Vorschau auf das fertige Panorama dargestellt. Der Inhalt dieses Fensters wird ständig aktualisiert und reagiert somit auf jeden gesetzten
Kontrollpunkt.
Im Reiter Create Panorama wird die Größe und das Format des Panoramas festgelegt. Wird dafür vorausgesetzt[Blo08], dass, für den Transport aller nötigen
Bildinformationen, in der Virtuellen Realität ein 360◦ Panorama mit zum Bildwinkel proportionaler Auflösung benötigt wird, so ergibt sich dafür die Formel:
Auf lösungP anorama =
360◦
BildwinkelHorizontal
· Auf lösungBildwinkel
Der Übersicht halber soll dafür lediglich die horizontale Auflösung betrachtet
werden. Für die Bildwinkel der Objektive der Canon 5D ergibt sich folgende
Tabelle:
Auflösung Horizontal [px]
Brennweite Bildwinkel 640
1024
1280
1920
2000
4000
◦
35mm
54,43
4233 6773
8466 12699 13228 26456
50mm
39,6◦
5818 9309 11636 17455 18182 36364
80mm
25,36◦
9085 14536 18170 27256 28391 56782
Tabelle: Auflösung der Panoramen bezüglich üblicher Brennweiten /
33
Abbildung 27: PTGui, Panorama Editor: Hier wird eine ständig aktualisierte
Vorschau auf das Panorama angezeigt
Bildweiten
Vergleicht man diese Ergebnisse mit denen aus der Auflösungstabelle in Kapitel
3.4.2 so ist zu erkennen, dass unter Anwendung der Segmenttechnik durchaus
möglich ist, Panoramen dieser Größe zu erstellen. Es sei jedoch angemerkt,
dass dies für den eingesetzten Computer ein äußerst rechenintensives Unterfangen darstellen kann. Die hierzu benötigte Menge an Auslagerungsplatz kann in
PTGui über Project, Calculate temporary disc space im vornherein berechnet
werden. Im Rahmen der Diplomarbeit wurden Panoramen mit einer Auflösung
von bis zu 18000 x 9000 px erzeugt. Die benötigte Zeit lag dafür etwa bei zwei
Tagen. Der berechnete Auslagerungsplatz lag bei 37 GB. Abschließend wird unter Create Panorama mit Druck auf die Schaltfläche Create Panorama“ oder
”
Save and send to Batch Stitcher“ die Erstellung des Panoramabildes gestartet.
”
Das Stitching nimmt einen Zeitraum zwischen einigen Minuten und einigen Tagen in Anspruch, je nach gewählter Auflösung und in Abhängigkeit der Leistung
des eingesetzten Rechners.
3.5
Darstellbarkeit
Das vorliegende Panorama kann nun in einem Viewer (deutsch:Betrachtungsprogramm) oder einem Fotobearbeitungsprogramm, wie beispielsweise Photoshop angezeigt werden. Photoshop blendet bei der Betrachtung eines 32-bitFormats automatisch einen Regler ein, der eine Echzeit-Belichtungskorrektur
auf den angezeigten Bildausschnitt zur Anwendung bringt. Es handelt sich dabei um eine Möglichkeit, einen Abschnitt des Dynamikbereichs des Bildes sequenziell zu betrachten, ohne dabei permanente Veränderungen an der Farbtiefe
des Bildes durchführen zu müssen. Es entsteht dabei der visuelle Eindruck, als
würde der Dimmer einer Lampe betätigt werden.
Gleichzeitig fällt dabei auf, dass die hellen und dunklen Grenzbereiche im Bild
bei unterschiedlichen Positionen des Reglers verschieden gut belichtet sind (siehe Abbildung 28). Die visuelle Information innerhalb dieser Bereiche ist vorhanden, jedoch mit diesen Möglichkeiten noch nicht ganzheitlich überschaubar. Als
34
Abbildung 28: Links: Die Auswirkung des Belichtungsreglers; Rechts: Tonemapping durch zusammenschneiden der optimal belichteten Bildausschnitte
Lichtquelle einer 3D Szene wäre das Bild nun einsatzbereit. An dieser Stelle sollen jedoch noch einige Techniken behandelt werden, die einen möglichst umfangreichen Eindruck des Informationsgehalts des Bildes offenbaren. Es handelt sich
um das Tonemapping (deutsch:Tonwertkompression). Der wesentliche Aspekt
der Technik hinter dem Tonemapping ist es, unterschiedliche Bildbereiche einer
selektiven Belichtungskorrektur zu unterziehen, um die größtmögliche Menge an
Details für den Betrachter auf einem Medium mit niedrigem Dynamikbereich
sichtbar zu machen. In Abbildung 28 ist eine Schwingtür mit Fenstern zu sehen,
hinter der sich ein Pavillon mit weiteren Fenstern befindet. Für ein selektives
Tonemapping lässt sich das Motiv in drei logische Bereiche unterschiedlicher Belichtung unterteilen: Innenbereich, Pavillon, Außenbereich. Beispielsweise durch
Maskieren oder das Anlegen unterschiedlicher Ebenen, läßt sich jeder Bereich
eingrenzen und darauf individuell Einstellungen mit dem Werkzeug Exposure
Value (deutsch: Belichtungswert) anwenden. Es gibt zudem eine Vielzahl von
automatisch operierenden Tonemapping-Algorithmen[ER05]. Diese werden unter anderem auf der Internetseite von Bernhard Vogl40 miteinander verglichen.
Die Technik des Tonemapping ermöglicht nicht nur eine auf niedrigen Dynamikbereich optimierte Darstellung des hohen Dynamikbereichs. Sie eröffnet zudem
auch gewissen kreativen Spielraum. Zu Beginn dieses Kapitels wurde der Vergleich der Belichtungskorrektur mit einem Dimmer angebracht.
Anhand des Beispiels in Abbildung 29 soll dieser Vergleich untermauert werden.
Diese Tonemapping- Variante enthält als Quelle lediglich ein HDR-I, dem durch
Maskieren und selektiver Belichtungsänderung die Anmutung einer nächtlichen
Szene verliehen wurde. Nachfolgend soll das eingesetzte Verfahren noch einmal
veranschaulicht werden (siehe Abbildung 30).
Dieses Verfahren beruht auf der Verwendung von mehreren Ebenen: ein heller
40
www.dativ.at
35
Abbildung 29: Das Potential des hohen Dynamikumfangs kann auch für eine
kreative Interpretation des Bildes verwendet werden. Hier wird durch selektive
Belichtungsänderung eine neue Lichtsituation geschaffen.
36
Abbildung 30: Links: Maskieren und Löschen, Rechts: Details an Früchten und
Tisch
Hintergrund, der von einer dunklen Ebene verdeckt ist. Indem einzelne Bereiche
der obersten Ebene maskiert und gelöscht (z.B. Lampenfuß), oder mit dem
Löschpinsel entfernt werden (z.B. Lampenschirm), wird die darunter liegende,
helle Ebene sichtbar.
3.6
Zusammenfassung
In diesem Kapitel wurden die Grenzen der Fotografie aufgezeigt und die Bedeutung der HDR–Technik als Erweiterung ihrer Möglichkeiten herausgestellt.
Es wurden die theoretischen und praktischen Grundlagen vermittelt, um ein
solches Bild zu erstellen. Es wurde eine Auswahl der möglichen Ausrüstung
bezüglich Hard- und Software vorgestellt sowie deren Handhabung und Funktionsweise bei der Erstellung eines HDR- Panoramas veranschaulicht. Daraufhin
wurden Techniken zum Anzeigen und Bearbeiten eines HDR-I vorgestellt. Abschließend wurde auf das Verfahren der Tonwertkompression eingegangen. Das
folgende Kapitel stellt den Ergebnisteil der HDR-Panoramafotografie dar. Darin
werden die erarbeiteten Ergebnisse und deren technische Details vorgestellt.
37
4
Ergebnisteil Fotografie
In diesem Kapitel werden die praktischen Ergebnisse der Panoramafotografie
vorgestellt. Es wurden insgesamt drei Panoramen angefertigt, die jeweils individuelle Besonderheiten bei der Bearbeitung mit sich brachten. Zunächst mussten jeweils alle Fotografien sortiert und auf Vollständigkeit überprüft werden.
Nach dem Ausrichten der Bilder und setzen der Referenzpunkte in PTGui wurde an jedem Panorama jeweils eine Retusche in Photoshop durchgeführt. Im
Vordergrund stand dabei das Entfernen des Stativs sowie die Korrektur einiger Ungenauigkeiten und Geisterbilder. Abschließend wurden die Panoramen
in unterschiedlichen Bildgrößen exportiert und ein Tonemapping durchgeführt.
Nachfolgend sollen die Ergebnisse dieses Arbeitsablaufs vorgestellt werden. Auf
Grund der Vielzahl der Bilder, die als Rohmaterial in diesen Prozess eingeflossen
sind, werden die Belichtungsreihen an dieser Stelle nur in Auszügen gezeigt.
4.1
Bar
Bei dieser Szene handelt es sich um den Bar-Bereich eines Restaurants, das
zu einem Golf-Club gehört. Hier mischen sich indirekt von außen einfallendes
Sonnenlicht und verschiedene direkte und indirekte Lichtquellen an Wänden
und im Bereich der Regale der Bar. Die Uhrzeit der Aufnahme lag zwischen
9 und 12 Uhr. Zu dieser Tageszeit wirft die Sonne kein direktes Licht in den
Raum. Das sorgt in diesem Fall für günstige Aufnahmebedingungen, da so nicht
mit harten, wandernden Schatten zu rechnen ist. Für die Aufnahme der Belichtungsreihen stand ein Zeitfenster von etwa drei Stunden zur Verfügung, das
durch die Öffnungszeit und vermehrtes Eintreffen der Gäste eingegrenzt wurde.
4.1.1
Bearbeitung und Ergebnisse – Bar
Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Bar vorgestellt
werden. Dazu werden die Belichtungsreihen gezeigt und der Motivkontrast an
einem ausgewählten Beispiel veranschaulicht. Da das Panorama der Bar aufwendig retuschiert werden musste, werden einige Details herausgestellt, in denen
das Bild nachbearbeitet wurde. Abschließend wird das Endergebnis in Form des
fertigen Panoramas gezeigt.
38
Kamera
Objektiv
Blende
Belichtungsreihe
Einzelbilder
Auflösung Einzelbild
Dateigröße
Gesamtgröße Rohmaterial
Mögliche Gesamtgröße Panorama
Tatsächliche Größe Panorama
Benötigter Auslagerungsplatz
Mamiya 645 AFD II, Phase One P45
35 mm AF
F/12
13 s / 3 s / 0,8 s / 0,2 s / 0,05s
165
7216 x 5412
15-28 MB
3,2 GB
33096 x 16548
15000 x 7500
37 GB
Tabelle: Technische Daten des Panoramas der Bar
Bei diesem Beispiel ist, wie in Abbildung 33 zu sehen, eine Nachbearbeitung
unumgänglich. Bei den auftretenden Verzerrungen und Rissen an räumlich hintereinander befindlichen Objekten handelt es sich um Parallaxenfehler. Diese
entstehen durch eine Blickwinkeländerung und sind durch die in Kapitel 3.4.2
erläuterte Einstellung der Drehachse um den Nodalpunkt des Objektivs zu vermeiden. Wenn dieses Verfahren nicht mit entsprechender Sorgfalt durchgeführt
wird oder der Stativkopf zwischen den Belichtungsreihen verstellt wird, ist die
Software nicht mehr in Lage, den auftretenden Fehler zu korrigieren und es entsteht die Notwendigkeit aufwändiger Nachbearbeitung. Die Retusche für das
gesamte Panorama nahm ungefähr zwei Tage in Anspruch. In einem solchen
Fall wäre die Neuanfertigung des Ausgangsmaterials in Erwägung zu ziehen,
da dies inklusive des Stitching ein ähnliches Zeitfenster beansprucht und eine
Retusche immer mit einem Qualitätsverlust verbunden ist.
39
Abbildung 31: Belichtungsreihen Bar
40
Abbildung 32: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Bar
41
Abbildung 33: Retusche am Panorama der Bar
42
43
Abbildung 34: Panorama Bar, Endergebnis. Automatisches Tonemapping
4.2
Scheune
Dieses Panorama wurde in einer alten Scheune aufgenommen. Da kein künstliches
Licht in der Szene vorhanden ist, besteht die Lichtquelle aus dem Sonnenlicht,
das durch eine offene Tür, ein Fenster und die Rippen eines Scheunentores
dringt. Es fällt dabei hauptsächlich auf den Boden, aber auch auf einige an
der Wand lehnende Gegenstände, sowie ein Auto, das in der Ecke steht. Da
hier Licht und Schatten in ständiger Bewegung sind, musste die Aufnahme
der Belichtungsreihen so schnell wie möglich erfolgen. Günstig für die Aufnahmebedingungen war, dass es sich bei der Scheune nicht um einen öffentlich
zugänglichen Raum handelt. Insgesamt wurden für die Aufnahmen zwei Stunden benötigt.
4.2.1
Bearbeitung und Ergebnisse – Scheune
Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Scheune vorgestellt werden. Dazu wird ein Auszug der Belichtungsreihen gezeigt und der
Motivkontrast anhand eines Beispiels dargestellt. Abschließend wird das Endergebnis in Form des fertigen Panoramas und einiger Detailausschnitte gezeigt.
Kamera
Objektiv
Blende
Belichtungsreihe
Einzelbilder
Auflösung Einzelbild
Dateigröße
Gesamtgröße Rohmaterial
Mögliche Gesamtgröße Panorama
Tatsächliche Größe Panorama
Benötigter Auslagerungsplatz
Canon EOS 5D
50 mm AF
F/9,1
4 s / 2 s / 1 s / 0,5 s / 0,25s
665
4368 x 2912
2-7 MB
2,41 GB
38816 x 19408
15000 x 7500
38 GB
Tabelle: Technische Daten des Panoramas der Scheune
44
Abbildung 35: Belichtungsreihen Scheune
45
Abbildung 36: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Scheune
46
Abbildung 37: Retuschearbeiten am Boden der Scheune. Entfernen des Stativs
durch Überlagern passender Bildinhalte.
47
Abbildung 38: Details des Panoramas der Scheune
48
Abbildung 39: Details des Panoramas der Scheune
49
50
Abbildung 40: Panorama der Scheune, automatisches Tonemapping
4.3
Kaiserpfalz Gelnhausen
In dieser Szene wurde die Kapelle der Kaiserpfalz Gelnhausen fotografiert. Dies
ist ein historischer Gebäudekomplex, der von Kaiser Friedrich I. Barbarossa im
Jahre 1170 41 gegründet wurde. Da die Mauern der Kapelle nicht vollständig
vorhanden sind und kein Dach existiert, besteht die Lichtquelle im einfallenden
Sonnenlicht. Bedingt durch die Jahreszeit fällt das Licht direkt in die Szene
(Sommer) oder wird hauptsächlich von einer Wand reflektiert, was zu einer indirekten Beleuchtung der Szene führt (Winter). Hier sind Licht und Schatten
in ständiger Bewegung und somit eine schnellstmögliche Aufnahme der Belichtungsreihen anzustreben. Da die Kaiserpfalz durch ein Museum zugänglich ist,
liefen während den Aufnahmen gelegentlich Besucher durch die Szene. Zudem
sind im Hintergrund der Szene einige große Bäume zu sehen, die in Abhängigkeit
von der herrschenden Windgeschwindigkeit mehr oder weniger in Bewegung waren.
4.3.1
Bearbeitung und Ergebnisse – Kaiserpfalz
Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Kaiserpfalz
vorgestellt werden. Dazu werden einige Belichtungsreihen gezeigt sowie einige
ausgewählte Beispiele genannt, in denen der Motivkontrast der Szene zum Ausdruck kommen soll. Abschließend wird das Endergebnis in Form des fertigen
Panoramas und einiger Detailausschnitte gezeigt.
Kamera
Objektiv
Blende
Belichtungsreihe
Einzelbilder
Auflösung Einzelbild
Dateigröße
Gesamtgröße Rohmaterial
Mögliche Gesamtgröße Panorama
Tatsächliche Größe Panorama
Benötigter Auslagerungsplatz
Mamiya 645 AFD II, Phase One P45
35 mm AF
F/11
1/8 s / 1/20 s / 1/50 s / 1/125 s / 1/320s
170
7216 x 5412
8-34 MB
3,7 GB
38816 x 19408
15000 x 7500
38 GB
Tabelle: Technische Daten des Panoramas der Kaiserpfalz
4.4
Zusammenfassung
In diesem Kapitel wurden die Ergebnisse der HDR–Panoramafotografie mit der
Segmenttechnik gezeigt.
41
http://www.schloesser-hessen.de/schloesser/gelnhausen/gelnhausen.htm
51
Abbildung 41: Auszug aus den Belichtungsreihen der Kaiserpfalz
52
Abbildung 42: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Kaiserpfalz
53
Abbildung 43: Details des fertigen Panoramas
54
Abbildung 44: Details des fertigen Panoramas
55
Abbildung 45: Retusche des Panoramas der Kaiserpfalz
56
57
Abbildung 46: Panorama der Kaiserpfalz, automatisches Tonemapping
5
Rendering
5.1
Einleitung
In den vorangegangenen Kapiteln wurde die Relevanz des Image Based Lighting
für die Computergrafik erläutert, die Merkmale von HDR-Bildern herausgestellt
sowie Panoramen mit hohem Dynamikumfang erzeugt. In diesem Kapitel werden verschiedene Renderer vorgestellt, in denen die zuvor erzeugten Panoramen
als Lichtquelle zum Einsatz kommen sollen. Es wird die Handhabung des jeweiligen Benutzerinterfaces dargestellt und verschiedene Parameter festgelegt, an
Hand derer eine Qualitätsbewertung der Renderer erfolgen soll. Dabei soll die
qualitative Vergleichbarkeit der Renderer diskutiert werden.
5.2
Bildsyntheseverfahren und globale Beleuchtungsmodelle
Im folgenden Abschnitt sollen wichtige Verfahren der Bildsynthese erklärt werden, die sich im Laufe der Zeit etabliert haben, in Abhängigkeit der verwendeten Rendersoftware in Erscheinung treten sowie in einzelnen Fälle miteinander
kombiniert werden können. Besonderes Merkmal einiger Verfahren ist dabei,
die sogenannte global illumination (deutsch: globale Beleuchtung) zu erzeugen.
Die Verfahren können als Lösungswege der Rendergleichung [Kaj86] verstanden
werden, da sie jeweils eine Methode zur näherungsweisen Berechnung implementieren.
L(x, x ) = g(x, x ) · (Le (x, x ) +
s b(x, x , x )L(x , x )dx )
Rendergleichung nach James T. Kajiya
5.2.1
Scanline
Das Scanline-Verfahren ordnet vor dem eigentlichen Rendervorgang die in der
Szene befindlichen Objekte nach ihrer Sichtbarkeit.42 Danach erfolgt eine zeilenförmige Abtastung der Szene, bei dem die Materialeigenschaften der Objekte
in das resultierende Bild einfließen. Da dieses Verfahren keine realistische Lichtbrechung und Reflexion simuliert, wird es zur Berechnung dieser sogenannten
secondary effects (deutsch: sekundäre Effekte) oft mit dem nachfolgend beschriebenen Raytracing-Verfahren kombiniert.
5.2.2
Raytracing
Bei Raytracing handelt es sich um einen Render-Algorithmus, der die Simulation des in der Szene befindlichen Lichts von der Lichtquelle bis zum Bildausschnitt durchführt. Die simulierten Lichtstrahlen haben dabei ihren Ursprung
in der Betrachtungsebene und werden von dort aus zu ihrer Lichtquelle verfolgt. Das Auftreffen auf ein bestimmtes Material bewirkt eine Fortbewegung
42
http://download.autodesk.com/us/maya/2009help/index.html — Raytracing Concepts
58
des Strahls unter Berücksichtigung der materialspezifischen Eigenschaften. So
kann es beispielsweise zu einer Streuung, Reflexion oder Brechung kommen,
woraus eine entsprechende optische Anmutung resultiert. Die Anzahl der vollzogenen Ereignisse auf dem Weg des Strahls wird vom Nutzer durch einen
Parameter in den Eigenschaften des Renderers vorgegeben und beeinflusst die
Bildqualität des Ergebnisses. Durch Kombination mit einem schnelleren Verfahren, beispielsweise Scanline, können einfachere Berechnungen (zum Beispiel:
Sichtbarkeit eines Objektes) ausgelagert und dadurch beschleunigt werden43 .
5.2.3
Brute-Force-Rendering
Brute-Force-Renderer wenden eine Variante der Monte-Carlo-Methode zur wiederholten, näherungsweisen Lösung der Rendergleichung an. Bei diesem Verfahren wird die Verfolgung der Lichtstrahlen ähnlich dem Raytracing-Verfahren angewandt, jedoch wird das Ergebnis durch Neuberechnung unter Voraussetzung
einer gewissen Variation sukzessiv verfeinert. Da diese Berechnung naturgemäß
unendlich fortgesetzt werden könnte, wird die gewünschte Qualität durch den
Nutzer bestimmt, indem die Anzahl der Wiederholungen festgelegt wird.
5.2.4
Global Illumination / Photon-Mapping
Eine Möglichkeit der globalen Beleuchtung bietet das Photon-Mapping. Bevor
eine Szene durch den Renderer abgetastet und sichtbar gemacht wird, werden
große Mengen Energieträger, Photonen genannt, aus einer Lichtquelle geschossen und in der Szene verteilt. Diese hinterlassen dort Spuren, indem sie von
Objekten abprallen und dabei das jeweils vorangegangene Objekt farblich referenzieren. Benachbarte Objekte der Szene färben“ dadurch aufeinander ab, ein
”
Phänomen, das auch in der Realität zu beobachten ist. Im Bereich der computergenerierten Bilder ist dies elementarer Bestandteil der sogenannten globalen
Beleuchtung. Der Begriff des Photons ist dabei nicht mit der quantenphysikalischen Interpretation des Lichts als Teilchen gleichzusetzen, da es sich, bezogen
auf den Renderer, lediglich um eine abstrahierte Größe handelt.
5.2.5
Final Gathering
Durch Final Gathering wird die punktuelle Helligkeit beleuchteter Flächen interpoliert, um ein homogenes Gesamtbild zu erreichen. Dazu wird die Helligkeit
im freien Raum über der Fläche herangezogen, indem von dort aus neue Strahlen (Final Gather Rays) in die Umgebung abgegeben werden. Auf diese Weise
wird globale Beleuchtung zeitlich effizient simuliert.
5.2.6
Importons
Importons sind virtuelle Partikel, die vor der eigentlichen Berechnung von der
Kamera aus in der Szene verteilt werden44 . Sie sind nicht wie die Photonen
(siehe Abschnitt 5.2.4) Energieträger, sondern sammeln Informationen über die
43
44
http://download.autodesk.com/us/maya/2009help/index.html — Raytracing Concepts
http://download.autodesk.com/us/maya/2009help/index.html — Importons
59
Priorität, mit der die Prozessorlast für die nachfolgende Berechnung verteilt
werden muss. Das Entscheidungskriterium dafür ist die Genauigkeit, mit der
eine Lichtmenge an einem bestimmten Punkt nachzuvollziehen ist. Diese Auswertung kann zur optimierten Berechnung der Photon-Map sowie der Irradiance
Particles verwendet werden und stellt somit eine Ressourcen schonende Art und
Weise dar, globale Beleuchtung zu simulieren.
5.2.7
Irradiance Particles
Irradiance Partikel ist die Bezeichnung für die gesammelten Importons, die vor
der Berechnung einer Szene verteilt werden. Sie tragen Informationen über die
Bestrahlungsstärke einer Oberfläche der Szene. Dieses Verfahren stellt eine optimierte Berechnung der indirekten Beleuchtung einer Szene dar. Aus diesem
Grund wird die Funktionalität der Global Illumination bei Aktivierung der Irradiance Particles abgeschaltet und die Photonen (außer denen für die Berechnung
von Kaustiken) durch Importons ersetzt.
5.2.8
Zusammenfassung
In diesem Abschnitt wurden einige gängige Renderverfahren beschrieben, die in
heutigen Bildsyntheseprogrammen eingesetzt werden. Diese werden kontinuierlich modifiziert, um qualitativ hochwertige Ergebnisse in immer kürzerer Zeit zu
berechnen. Außer den Genannten gibt es noch weitere Verfahren, beispielweise Radiosity. Da diese jedoch nicht Bestandteil der hier verglichenen Renderer
sind, sollen sie an dieser Stelle nicht weiter behandelt werden. Das nächste Kapitel widmet sich den zu vergleichenden Renderern in Bezug auf Mermale und
Bedienung.
5.3
Renderer
In diesem Kapitel sollen die Renderer Next Limit Maxwell V2 und Mental
Images Mental Ray vorgestellt werden. Dazu wird eine kurze Einführung in die
Benutzeroberfläche gegeben sowie einige charakteristische Merkmale hervorgehoben. Besonders hervorzuheben ist dabei das Vorhandensein eines globalen
Beleuchtungsmodells, da dies mit der Fähigkeit verbunden ist, Beleuchtung
unter Verwendung eines HDR-I zu realisieren. In der verwendeten Modellierungssoftware Autodesk Maya45 ist ebenfalls eine Rendersoftware enthalten:
Maya Software. Es handelt sich um einen Raytracer, der keine Möglichkeit zur
globalen Beleuchtung bietet. Da der angestrebte Vergleich hauptsächlich unter
diesem Kritikpunkt erfolgt, wird dieser Renderer nicht weiter untersucht.
5.3.1
Maxwell V2
Bei Next Limit Maxwell handelt es sich um einen Brute-Force-Renderer, der
Bilder nach der sogenannten Metropolis Light Transport-Methode [EV97] berechnet. Das Softwarepaket enthält unter anderem den Renderer, einen Materia45
www.autodesk.com
60
leditor und eine Materialbibliothek und kann außerdem durch Plugins aus verschiedener Modellierungssoftware heraus aufgerufen werden. Hier können Objekte mit einer Vielzahl unterschiedlicher Materialien aus der lokalen oder globalen Maxwell-Materialbibliothek bestückt, eigene Materialien erzeugt und der
Renderauftrag gestartet werden. Maxwell sieht die Verwendung des MaxwellMaterials vor. Es ist ein Knotenpunkt, an dem unterschiedliche Materialeigenschaften eingestellt oder über Ebenen hinzugefügt werden können. Die Palette
der Möglichkeiten umfasst unter anderem die Variation der Oberflächenstruktur
(zum Beispiel Rauheit), des Brechungskoeffizienten oder auch der Lichtemission
sowie der Transparenz. Darüber hinaus gibt es eine Bibliothek mit Daten für
die Berechnung komplexer Oberflächenstrukturen, wie sie beispielsweise in der
Beschichtung von optischen Gläsern vorkommen.
Das Starten des Rendervorgangs führt zum automatischen Export der Szene
im Format *.mxs und dem Start einer Maxwell Render-Instanz (s. Abb. 47), in
der aus der Szene ein Bild berechnet wird. Dabei kommt das Verfahren aus Kapitel 5.2.3 zum Einsatz. Es äußert sich für den Nutzer dahingehend, dass nach
jeder Berechnung der Szene ein sogenanntes Sampling Level erreicht ist, dass
durch eine Auffrischung des Bildschirminhalts in Erscheinung tritt. Der Rendervorgang kann jederzeit abgebrochen oder wieder aufgenommen werden. Dabei
kann die Empfindlichkeit der Filmmaterials der virtuellen Kamera sowie deren
Belichtungszeit jederzeit modifiziert werden. Je nach Einstellung (s. Abb. 48
und 49) erhält der Benutzer auch Zugriff auf einen Multilight genannten Lichtmixer. Hier kann jede Lichtquelle in ihrer Intensität und farblichen Anmutung
während und nach dem Rendervorgang gesteuert werden (siehe Abbildung 47).
5.3.2
Mental Ray
Bei Mental Images Mental Ray handelt es sich um einen Renderer, der sowohl
als Softwarepaket (Mental Ray Standalone) als auch als Plugin für diverse Software vertrieben wird. Es ist unter anderem in Autodesk 3dsMax und Autodesk
Maya 2010 enthalten. Mental Ray sieht in Abhängigkeit der Beschaffenheit
des Objekts unterschiedliche Materialien vor, die jeweils durch spezielle Eigenschaften auf ihren Einsatzzweck vorbereitet sind. So gibt es beispielsweise für
die Imitation eines Autolacks ein Material (Mi Car Paint Phenomenon), das
das Erscheinungsbild eines Autolacks durch Parameter wie Größe und Anzahl
der metallischen Partikel steuerbar macht. Da einem solchen Material jedoch
beispielsweise die Möglichkeit der Einstellung des Brechungskoeffizienten fehlt,
ist damit nicht möglich, das Aussehen eines Trinkglases zu simulieren. Für dieses Zweck wäre das dielektrische Material oder das Architektur-Material in
Betracht zu ziehen.
Im Fenster Render Settings finden sich alle Einstellungen, die den Rendervorgang in direkter Weise beeinflussen. Neben der Auswahl verschiedener Renderverfahren, wie beispielsweise Raytracing oder Scanline, werden hier unterschiedliche Optionen zur Bereitstellung globaler Beleuchtung angeboten (s.Abb.50
und 51). Außerdem kann auf die Qualität des Renderings Einfluss genommen
werden, indem beispielsweise die Genauigkeit der Kantenglättung verändert
werden kann (s. Abb. 52). Der Start des Rendervorgangs öffnet das Render61
Abbildung 47: Maxwell Render V2, Multilight: Im Bild oben besteht die Lichtquelle nur aus dem HDR-Panorama, im Bild unten wurde eine Lichtquelle im
Lampenschirm dazugeschaltet und der Hintergrund gedimmt.
62
Abbildung 48: Maxwell Render V2, Einstellungen: Optionen zur Bildqualität,
Bewegungsunschärfe und Atmosphäre
63
Abbildung 49: Maxwell Render V2, Einstellungen: Optionen zur bildbasierten
Beleuchtung, Renderkanäle und Linsensimulation
64
Abbildung 50: Mental Ray: Einstellungen zur Indirekten Beleuchtung über Global Illumination und Importons
65
Abbildung 51: Mental Ray: Einstellungen zur Indirekten Beleuchtung über Final Gathering und Irradiance Particles
66
Abbildung 52: Mental Ray: Globale Qualitätseinstellungen
67
Fenster der Modellierungssoftware und zeigt darin das Ergebnis an. Der Bildaufbau geschieht schrittweise durch Berechnen des Bildinhalts der sogenannten
Buckets (deutsch: Eimer). Diese Pixelblöcke werden vom Programm in einer
Form abgearbeitet, die nach Möglichkeit die redundante Berechnung der Szenendaten vermeiden soll. Nach Abschluss dieses Vorgangs steht das Bild zur
Ansicht und gegebenenfalls zur Zwischenspeicherung zur Verfügung.
5.4
Anforderungsanalyse
In diesem Abschnitt soll neben den rein objektiven Vergleichskriterien, wie
beispielsweise dem Vorhandensein einer bestimmten Simulationsfähigkeit, die
subjektive Anmutung eines computergenerierten Bildes in den Vergleich einbezogen werden. Dazu müssen zunächst einige Überlegungen angestellt werden,
nach welchen Maßstäben ein solcher Vergleich erfolgen kann.
5.4.1
Subjektive Vergleichbarkeit
Grundsätzlich besteht bei einem Vergleich mehrerer Renderer im Bezug auf
die Bildqualität eine gewisse Gefahr der Voreingenommenheit. Dies hängt mit
den persönlichen Erfahrungen und gestalterischen Vorlieben zusammen, die seitens des Betrachters in die Ansicht einfließen. Das gilt vor allem für das subjektive Empfinden von Realismus in Zusammenhang mit Science-Fiction- oder
Phantasy-Szenarien. Die meisten Softwarefirmen, die Rendersoftware anbieten,
bewerben ihr Produkt mit der Aussage, es könne fotorealistische Bilder erzeugen. Diese Behauptung wird meistens mit einem Portfolio aussagekräftiger
Bilder untermauert. Die Nuancen zwischen der Qualität des einen oder anderen
Produkts sind somit sehr subtil. Aus diesem Grund wurden für einen objektiven
Vergleich Gegenstände mit einem hohen Wiedererkennungswert gewählt. Der
Betrachter soll den Vergleich zur eigenen erfahrenen Realität ziehen können,
oder wenigstens keine Schwierigkeiten bei dem Auffinden eines Vergleichsobjekts haben.
5.4.2
Inhaltlicher und räumlicher Kontext
Wie bereits im einleitenden Kapitel angesprochen, hat die Möglichkeit, eine
virtuelle Szene unter Verwendung einer Fotografie zu beleuchten, essenzielle
Bedeutung für die Glaubwürdigkeit ihrer Einbindung in echtes Filmmaterial.
Der technische Vergleich mehrerer Renderer legt deshalb auch die Komposition
einer solchen Szene nahe. Aus diesem Grund erfolgt jeweils eine Erweiterung
der Szene durch einige virtuelle Gegenstände. Dies geschieht auf der Basis der
verwendeten HDR-Panoramen der Bar und der Scheune. Dazu wurden bei der
Produktion der Panoramen einige Backplates angefertigt, auf deren Basis die
erweiterte Szene entsteht. Basierend auf der räumlichen Distanz zwischen der
Kameraposition und dem inhaltlichen Mittelpunkt der Backplate sowie der Orientierung der Kamera, deren Brennweite und dem Fokalpunkt wurden virtuelle
Szenen mit äquivalenter Bemaßung und Ausrichtung erstellt. Im folgenden Abschnitt werden die Szenen vorgestellt, anhand derer die Evaluation der Renderer
erfolgt.
68
5.4.3
Objektive Vergleichbarkeit
In Abschnitt 5.2 wurden die Funktionen von Mental Ray und Maxwell Render
erläutert. Dabei wurde deutlich, dass bei der Konfiguration über die Rendereinstellungen nur ein geringer Teil vergleichbarer Bedienelemente existiert, bespielsweise für Bewegungsunschärfe. Darüber hinaus implementiert Mental Ray
mehrere Möglichkeiten, globale Beleuchtung zu generieren, keine jedoch durch
Brute-Force Rendering. Maxwell hingegen arbeitet ausschließlich mit dieser Methode. Die Darstellung von Lichtstreuung und Fokussierung, Caustics genannt,
wird in Maxwell automatisch berechnet, sobald eine Lichtquelle in die Nähe
eines Licht brechenden Mediums gelangt. In Mental Ray geschieht dies durch
spezielle Photonen, die von einem entsprechenden Emitter ausgesendet werden,
in Kombination mit den Parametern für Caustics in den globalen Rendereinstellungen. Diese Umstände führen dazu, dass ein Vergleich nicht durch sukzessive Gegenüberstellung aller äquivalenten globalen Rendereinstellungen erfolgen
kann. Es muss also ein Umweg gefunden werden, um die Renderer objektiv
aneinander messen zu können. Eine stets aussagekräftige Variable für einen
Vergleich stellt beispielsweise die Zeit dar. Nicht zuletzt ist sie eine wichtige
Größe in der industriellen Erstellung synthetischer Bilder, da sie elementarer
Bestandteil einer jeden Kostenkalkulation ist. Zudem ist sie Grundlage vieler
Bestrebungen, schnell qualitativ hochwertige Render-Ergebnisse über alternative Wege zu erreichen, beispielsweise über das Photon-Mapping. Darüberhinaus
gibt es neben der Zeit noch weitere Kriterien, welche in der folgenden Tabelle
kurz zusammengefasst aufgeführt sind und ebenfalls für den Vergleich herangezogen werden.
Disziplin
Auflösung Panorama
Caustics
Reflexionseigenschaften
Schattenwurf
Kriterium
Zeit, Optik
Zeit, Detailgrad
Mögliche Auflösung , Größe Panorama, Zeit
Richtwirkung
Tabelle: Verschiedene Disziplinen, in denen die Renderer miteinander
verglichen werden
Es werden mehrere Szenen aufgesetzt, die jeweils eine bestimmte Disziplin darstellen, in denen die Renderer verglichen werden sollen. Um die Zielsetzung der
Einzeltests zu erfüllen, wird jeweils ein zweckgebundener Arbeitsablauf ausgewählt. Da beide Renderer für die Beleuchtung einer Szene über ein HDRPanorama unterschiedliche Möglichkeiten bereithalten, werden diese Verfahren
ebenfalls gegenübergestellt. Zudem soll durch Versuchsreihen ermittelt werden, wie sich die Qualitätseinstellungen der verschiedenen Verfahren auf die
benötigte Renderzeit auswirken.
69
5.5
Testszenen
In diesem Abschnitt werden die Testszenen Bar (siehe Abbildungen 53, 54,
55 und 56) und Scheune (siehe Abbildungen 57, 58, 59 und 60) vorgestellt.
Dafür wird jeweils das Gittermodell, die Alpha-Maske, der Hintergrund sowie
das fertig komponierte Bild gezeigt. Der inhaltliche Zentralpunkt der Backplates referenziert die Position des Stativs der HDR-Panoramen, die in Kapitel 4
vorgestellt wurden.
5.5.1
Bar
Für diese Szene (s. Abb. 56) wurde als Basis eine Tischplatte mit Glas-Material
modelliert, die optional mit einer Tischdecke ausgestattet werden kann. Sie ist
deckungsgleich mit der Glasplatte auf der Fotografie ausgerichtet worden und
reflektiert das HDR-Panorama im Hintergrund. Bei der Lampe (rechts) handelt
es sich um eine sogenannte Kommissarleuchte (Modell Kaiser-Idell 6631), die
im Rahmen dieser Diplomarbeit angefertigt wurde. Der Entwurf stammt von
Bauhaus-Designer46 Christian Dell47 . Die Gläser (links) entstanden nach einem
3D-Modell von Pekdemir48 .
5.5.2
Scheune
Bei dieser Szene (s. Abb. 60) wurde ein Stellplatz in einer Scheune um ein virtuelles Automodell erweitert. Dabei handelt es sich um den historischen Rennwagen Auto-Union Typ C von 193649 . Das 3D-Modell wurde während des Berufspraktischen Semesters bei 3D-Maximal50 angefertigt.
5.6
Zusammenfassung
In diesem Kapitel wurden Grundlagen der Bildsynthese vermittelt, die Renderer in ihrer Funktionalität vorgestellt sowie eine qualitative Vergleichbarkeit
der einzelnen Renderer diskutiert. Dazu wurden zwei virtuelle Szenen gezeigt,
die jeweils einen Inhalt haben, der Bestandteil der realen Szene sein könnte.
Auf dieser Basis werden Mental Ray und Maxwell im folgenden Kapitel miteinander verglichen. Alle vorgestellten Einstellungen werden hinsichtlich ihrer
Auswirkung auf das Ergebnis und die Renderzeit hin untersucht.
46
http://www.unesco.de/311.html?&L=0
www.kaiseridell.de
48
http://www.turbosquid.com/Search/Artists/Pekdemir
49
http://de.wikipedia.org/wiki/Auto-Union-Rennwagen
50
www.3dmaximal.com
47
70
Abbildung 53: Bar-Szene: Drahtgittermodell in der perspektivischen Ansicht
(Autodesk Maya)
Abbildung 54: Bar-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht
dem sichtbaren Teil des gerenderten Bildes
71
Abbildung 55: Bar-Szene: Hintergrundbild (Backplate)
Abbildung 56: Bar-Szene: Komposition der Backplate und des gerenderten Bildes (Maxwell Render)
72
Abbildung 57: Scheunen-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya)
Abbildung 58: Scheunen-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes
73
Abbildung 59: Scheunen-Szene: Hintergrundbild (Backplate)
Abbildung 60: Scheunen-Szene: Komposition der Backplate und des gerenderten
Bildes (Mental Ray)
74
6
Ergebnisteil Rendering
In diesem Kapitel werden die Ergebnisse der Renderer Mental Ray und Maxwell
V2 vorgestellt und miteinander verglichen. Zunächst werden die Möglichkeiten
beschrieben, mit denen ein Image Based Lighting System in einer Szene aufgesetzt werden kann. Darin wird unter anderem der Zusammenhang zwischen der
Auflösung des Panoramas und der benötigten Renderzeit untersucht. Weiterhin werden Verfahren zur Simulation von Kaustiken vorgestellt und die Qualität der erzeugten Schatten und Reflexionen bewertet. Für die Bewertung ist
dabei grundsätzlich auch die Zeit von Bedeutung, die für das Erreichen einer
bestimmten Qualitätsstufe benötigt wird.
6.1
Erzeugen einer Image-Based-Lighting-Umgebung
Für das Erzeugen einer bildbasierten Beleuchtung gibt es unterschiedliche Ansätze.
Grundsätzlich wird dabei ein Bild mit hohem Dynamikumfang Bestandteil einer Szene, indem es auf einem geometrischen Objekt als farbgebende Textur
zum Einsatz kommt. Der Renderer interpretiert diesen Aufbau, indem die Objekte der Szene farblich aufeinander abstrahlen und damit globale Beleuchtung
entsteht. Für die Verwendung als Leuchtmittel kommen grundsätzlich immer
diejenigen Objekte in Frage, die mit der Projektionstechnik des verwendeten
HDR-Is harmonieren. Sphärische, kubische oder orthogonale Projektion sind
die gängigen Varianten. Bei Bedarf kann eine Projektionsart auch nachträglich
geändert und daraus die benötigte Variante erzeugt werden. Hierfür kann beispielweise das in Kapitel 2.1.2 vorgestellte Programm HDR-Shop eingesetzt
werden. Im Rahmen der Diplomarbeit wird die Umgebung erzeugt, indem ein
Panorama sphärisch auf eine Kugel projiziert wird. Dieses System wird durch
entsprechende Optionen in den Rendereinstellungen von Maxwell und Mental
Ray automatisch erzeugt, kann aber auch durch manuelles Erstellen einer die
Szene umgebenden Sphäre realisiert werden. Als zusätzliche Lichtquelle wird
durch planare Projektion auf eine Fläche ein sogenannter HDRI-Cookie erzeugt
[Blo08]. Um harten Schatten zu generieren, wird im Zusammenhang mit bildbasierter Beleuchtung oft eine direktionale Lichtquelle eingeführt. Diese wird in
ihrer Position und Ausrichtung der Position der Sonne im Panorama angepasst.
Somit ergibt sich ein Aufbau, der beliebige Veränderungen an der Lichtintensität und Farbe der Sonne zulässt, ohne dabei auf einen hohen Dynamikumfang des Hintergrundpanoramas angewiesen zu sein. Allerdings kann bei einem
entsprechenden Dynamikumfang ein Helligkeitsmaximum innerhalb des HDRPanoramas als Lichtquelle interpretiert werden und im Rendering auch in Form
von hartem Schattenwurf in Erscheinung treten.
6.2
Testbedingungen
Um Vergleichbarkeit zu ermöglichen, werden in diesem Abschnitt die technischen und softwareseitigen Rahmenbedingungen dargestellt.
75
Prozessoren
Taktfrequenz
Hauptspeicher
Kapazität
2x Intel Xeon E5520
8x 2260 Mhz
DDR3-1066
6 x 2 GB
Technische Daten des eingesetzten Testsystems
Software
Autodesk Maya
Maxwell Render V2
Autodesk Maya
Mental Ray
Version
Version 2009
Version 2.01
Version 2010
Version 3.7.53
Eingesetzte Programme und deren Versionen
Als Betriebssystem kam Windows XP Professional x64, Service Pack 2 zum Einsatz. Die Bildkomposition wurde in Adobe Photoshop CS4 durchgeführt. Das
eingesetzte System kann als aktuelle Mittelklasse-Grafikworkstation bezeichnet werden, repräsentiert somit eine industriell weit verbreitete Generation von
Geräten.
6.3
Qualitätseinstellungen
In diesem Abschnitt sollen grundlegende Qualitätseinstellungen der Renderer
vorgestellt werden, um einen Einblick in deren Wirkungsweise zu gewähren.
In Maxwell wird die Bildqualität am Sampling Level gemessen, in Mental Ray
sollen repräsentativ die Einstellungen für Final Gathering in Verbindung mit
Anti-Aliasing vorgestellt werden. Es wird dabei nicht näher auf die Erstellung
einer Beleuchtung mit Global Illumination über Photonen eingegangen. Diese
Möglichkeit ist in Betracht zu ziehen, muss allerdings für eine optimale Funktion
in einem geschlossenen Raum stattfinden, da hier eine optimale Verteilung der
Photonen über die Szene gewährleistet ist. Da keine Wände vorhanden sind, die
die Photonen reflektieren könnten, führt ein Rendering mit Global Illumination
zu einem ungleichmäßigen Ergebnis (siehe Abbildung 61).
6.3.1
Ergebnisse
In Abbildung 62 werden unterschiedliche Sampling Levels in Maxwell miteinander verglichen. Deutlich zu erkennen ist dabei der Rückgang des Bildrauschens
mit steigendem Sampling Level. Generell ist die Geschwindigkeit dieses Vorgangs hauptsächlich von der Anzahl der Lichtquellen sowie Größe und Umfang
der Szene abhängig. Die benötigte Renderzeit steigt in diesem Fall nahezu exponentiell mit jeder Stufe. Eines der von Mental Ray unterstützten globalen Beleuchtungsmodelle ist Final Gathering (siehe Abbildung 63). Es hat sich gezeigt,
76
Abbildung 61: Global Illumination über ein HDR-Panorama mit 2 Mio. Photonen)
dass bei einer hohen Accuracy (nahe 1000) eine ebenfalls hohe Point Interpolation zu unerwünschten hellen Flecken an Kanten führen kann. In diesem Fall
sind diese zwischen Lampenfuß und Tischkante zu erkennen. Wird hingegegen
eine vergleichsweise niedrige Point Interpolation gewählt, treten solche Bereiche
nicht auf. Das Bildrauschen, welches auch in Mental Ray zu beobachten ist, hier
hauptsächlich auf der Tischplatte zu erkennen, kann durch den Parameter AntiAliasing (s. Abb. 64) gemindert werden. Zudem werden Objektkanten gefiltert,
wodurch sie sich weniger von ihrer Umgebung abheben und ein insgesamt homogenes Bild erzeugen. Mit jedem Schritt, den der Parameter angehoben wird,
steigt die Anzahl der Berechnungsstufen exponentiell und ist dadurch mit einer
stark zunehmenden Renderzeit verbunden (siehe auch Abbildung 65.
6.4
Reflexionseigenschaften
In diesem Abschnitt soll die Qualität der Reflexionen beurteilt werden, die als
Spiegelung des Panoramas in virtuellen Gegenständen auftauchen. Dies soll am
Beispiel der Tischplatte der Bar-Szene geschehen. Es wurden dazu mehrere
Panoramen mit unterschiedlichen Auflösungen generiert.
77
Auflösung Panorama
2000 x 1000 px
5000 x 2500 px
7500 x 3750 px
10000 x 5000 px
7500 x 7500 px
8000 x 8000 px
12500 x 6250 px
10000 x 10000 px
15000 x 7500 px
Dateigröße
6 MB
37 MB
83 MB
144 MB
166 MB
188 MB
221 MB
289 MB
318 MB
Dateigröße in Abhängigkeit der Auflösung
Heutige Computersysteme für den 3D-Grafikbereich (siehe Kapitel 2.2) verfügen
über genug Hauptspeicher, um auch großflächige und damit speicherintensive
Panoramen in den Rendervorgang einbinden zu können. Aus diesem Grund
soll anhand mehrerer Testszenen mit verschiedenen Varianten der bildbasierten Beleuchtung untersucht werden, ob und wie die Auflösung der Panoramen
die notwendige Renderzeit affektiert. Dazu wurde die Bar-Szene mit den unterschiedlichen Varianten der bildbasierten Beleuchtung in Mental Ray und
Maxwell ausgeleuchtet. Es wurden jeweils eine totale Perspektive der Tischplatte und eine Detailansicht des Lampenfußes erstellt. Das Panorama wurde
zum Vergleich auf einer Sphäre und als Bestandteil der Rendereinstellungen in
die Szene integriert. Diese Varianten wurden in beiden Renderern berechnet.
Somit kann eine Auswertung der Methoden innerhalb des Renderers sowie ein
Vergleich der Renderer untereinander erfolgen.
6.4.1
Ergebnisse und Diskussion
In diesem Abschnitt sollen die Ergebnisse des Renderns mit unterschiedlichen
Panoramagrößen (siehe Abbildungen 66 bis 73) diskutiert werden. Dazu werden zunächst die Methoden innerhalb der Renderer verglichen. Wie anfangs
erwähnt, ist es bei beiden Renderern möglich, über die Rendereinstellungen
einen primitiven Körper mit einem HDR-Panorama zu erzeugen, der als Lichtquelle einer Szene dienen kann. Bei beiden handelt es sich um einen sphärischen
Körper und damit um die gleiche Form, die auch für ein manuell erstelltes
IBL-Panorama in der Regel bevorzugt wird. Es ist anzunehmen, dass bei einem Vergleich dieser Methoden untereinander ähnliche Ergebnisse zu erwarten
sind. Dies konnte jedoch in keinem der Renderer bestätigt werden. Zunächst
soll näher auf Mental Ray eingegangen werden, insbesondere auf die mögliche
Auflösung. In den Rendereinstellungen lässt sich der IBL-Shape (die automatisch erzeugte Sphäre) mit Panoramen aller verfügbaren Auflösungen (s. Tabelle am Kapitelanfang) bestücken. Die Renderzeit (im Modus Final Gathering)
steigt dabei kontinuierlich mit der Auflösung des Panoramas an, bis sie bei
15000 x 7500 px 42 min. in Anspruch nimmt. Die manuell erzeugte Sphäre
unterstützt hingegen keine Auflösungen über 10000 x 10000 px, produziert jedoch weitgehend gleichbleibende Renderzeiten von etwa 4 min. Darüberhinaus
78
ist der optische Gesamteindruck dieser Variante gegenüber der automatisch
erzeugten deutlich besser. Feine Details wie beispielsweise die Spiegelung der
Gläser der Vitrine im Hintergrund sind deutlich zu erkennen (s. Abb. 69). Die
steigende Auflösung des Panoramas äußert sich in zunehmend schärferen Reflexionen, oberhalb von 7500 x 7500 px sind jedoch kaum Unterschiede zu erkennen. Zu der manuell erzeugten Sphäre ist anzumerken, dass ihre Lichtquelle
nicht von der Rendereinstellung Global Illumination interpretiert werden kann,
da sie keine Photonen emittieren kann. Alle sonstigen Lichtquellen in Mental
Ray verfügen über eine entsprechende Option zur Photonenemission. Bei Maxwell Render sind ebenfalls Unterscheide zwischen der manuell erzeugten Sphäre
und der Einstellung über das Register Environment (siehe Kapitel 5.3.1) zu
bemerken. Auch hier resultieren in Abhängigkeit von der Beleuchtungsvariante unterschiedliche Renderzeiten, die jedoch nicht mit der Auflösung variieren
(automatisch: 6 min, manuell: 30 min) Auffällig ist, dass bei der manuellen
Variante keine Lichtbrechung innerhalb der Flüssigkeit in den Gläsern zu beobachten ist. Bei der Lösung über das Environment fällt auf, dass die Reflexionen
in der Tischplatte vergrößert dargestellt sind (vergl. Abb. 68 und 72). Dies ist
darauf zurückzuführen, dass die Ausdehnung des Hintergrundes in Maxwell in
Abhängigkeit von der Brennweite berechnet wird. Das Hintergrundbild wurde mit einer Mittelformat-Kamera mit 35mm Objektiv fotografiert. Da es sich
dabei um eine Fotografie handelt, deren Bildausschnitt auf Grund des CropFaktors der Kamera der Darstellung einer 22mm Kleinbildkamera entspricht,
entsteht bei der virtuellen Kamera mit 35mm Objektiv eine fehlerhafte Darstellung. Wird die virtuelle Kamera auf 22mm Brennweite gestellt, ist zwar
die Größenordnung wiederhergestellt, jedoch verändert dies auch die Optik der
dargestellten Gegenstände erheblich.
6.5
Caustics
Maxwell und Mental Ray bieten unterschiedliche Möglichkeiten, kaustische Reflexionen zu simulieren. Bei beiden Renderern muss dazu zunächst eine gerichtete Lichtquelle auf einen transparenten Körper scheinen, in dessen Einstellungen
ein Brechungsindex hinterlegt ist. Bei Maxwell müssen darüber hinaus die vier
Flags für Caustics (s. Abb. 49 in Kapitel 5.3.1) in den Rendereinstellungen aktiviert sein. Um diese Effekte in Mental Ray zu erzeugen, muss die Lichtquelle
kaustische Photonen emittieren. Durch Aktivierung von Global Illumination,
Importons oder Irradiance Particles werden die Photonen in die Berechnung
der Szene eingebunden und der Effekt wird durch Projektion des gebrochenen
Lichts auf einer Oberfläche sichtbar. Diese muss, um eine genaue Beurteilung
der Effekte zu ermöglichen, diffus reflektieren. Aus diesem Grund wurde die
Szene um eine Tischdecke ergänzt, deren Material keine eigenen spiegelnden
Reflexionen erzeugt. Die Lichtquelle wurde räumlich innerhalb des Lampenschirms platziert und ist auf ein leeres Cocktailglas gerichtet. Es handelt sich
um ein HDRI-Cookie, bei dem die Belichtungsreihe einer 25 Watt Glühlampe
als Motiv dient.
79
6.5.1
Ergebnisse und Diskussion
Um das Verhalten kaustischer Reflexionen zu simulieren, wurden in Mental Ray
mehrere Verfahren angewandt. Diese sind in Abbildung 74 dargestellt. Die Verwendung eines HDR-I als Teil des Leuchtmittels geschieht dabei unabhängig
vom Arbeitsablauf, der zur Simulation der Kaustiken angewandt wird. Dies
ist darauf zurückzuführen, dass die Leuchtmittel Area-Light, Point-Light und
Spot-Light Photonen zur Berechnung der Kaustiken emittieren. Deren Farbgebung und Intensität wird dabei von eigenen Parametern gesteuert und ist nicht
vom verwendeten HDR-I abhängig zu machen. Dieses kann wiederum zur reinen
Beleuchtung der Umgebung verwendet werden. Da diese Photonen für einen detaillierten Effekt grundsätzlich in großen Mengen zur Anwendung kommen, ist
es nicht sinnvoll, die globale Beleuchtungssphäre Photonen für die Simulation
von Kaustiken emittieren zu lassen. Vielmehr ist es in Erwägung zu ziehen, eine
gerichtete Lichtquelle lokal Photonen aussenden zu lassen. Auf diese Art kann
der Rechenaufwand gering gehalten werden. Für das Umgebungslicht der Szene wurde ein Image-Based-Lighting-System mit Final Gathering realisiert. Ein
Teil der Szenen wurde ohne das HDRI-Cookie gerendert, da es für die Kaustiken nicht erforderlich ist. In Maxwell Render wird ein grundlegend anderes
System für die Erstellung von Kaustiken angewendet. In Maxwell gibt es keine
Objekte, die exklusiv als Lichtquelle dienen. Vielmehr kann jedes Material mit
einem Emitter ausgestattet werden, wodurch dessen Flächen Licht in Richtung
der Flächennormalen abgeben. Im Idealfall wird dafür eine einzelne Fläche verwendet, da komplexere Objekte als Emitter einen höheren Rechenaufwand nach
sich ziehen (siehe Maxwell Handbuch). Ein Material mit einem Emitter kann
nach unterschiedlichen Modellen konfiguriert werden. Beispielsweise kann auch
ein HDR-I die Gestaltung der Lichtform übernehmen. Intensität und Farbe werden dann von der Fotografie bestimmt. In Abbildung 75 ist ein Rendering mit
HDR-I Environment und HDR-Cookie in seine unterschiedlichen Render-Layer
(s. Rendereinstellungen Maxwell) aufgeteilt worden. Deutlich ist dabei die Art
der Reflexionen in Abhängigkeit von der Verfolgungstiefe zu erkennen. Eine
unterschiedliche Detailstufe resultiert, wie in der Abbildung zu sehen, nicht in
einer Zeitersparnis. Es ist daher in diesem Anwendungsfall nicht sinnvoll, einzelne Layer abzuschalten. Eine weitere Konfiguration der Kaustiken ist über
den Renderer nicht möglich. Deren Auflösung wird durch den Betrachtungsabstand und der Detailgrad durch die Anzahl der Sampling Levels bestimmt.
Bei Sampling Level 15 entsteht der Eindruck eines bis auf den Fuß des Glases weitgehend rauschfreien Bildes. Es hat sich herausgestellt, dass auch durch
eine höhere Sampling-Stufe keine Verbesserung eintrat. Der Zusammenhang besteht vielmehr in der Beleuchtung durch den HDR-I Cookie. Sobald dieser im
Multilight abgeschaltet wird, verschwindet das Bildrauschen.
6.5.2
Auswertung
Beide Renderer konnten unter Beweis stellen, dass sie in der Lage sind, hochauflösende Panoramen als Basis für eine bildbasierte Beleuchtung zu verwenden. Maxwell ist in dieser Hinsicht flexibler, weil keine Grenze für die mögliche
80
Auflösung auftrat. Mental Ray liefert auch in der Nahaufnahme scharfe Reflexionen, limitiert allerdings die Verwendung der manuellen Beleuchtung über
HDR-I auf Final Gathering. Bei der Simulation der Kaustiken können ebenfalls
beide überzeugende Ergebnisse liefern. Die Bildberechnung erfolgt in Mental
Ray deutlich schneller, zudem ist es flexibler zu konfigurieren, da die Auflösung
und Details der Kaustiken über die Photonenanzahl bestimmt werden können.
Dennoch wirkt das Ergebnis von Maxwell realistischer, obwohl dafür ein hoher Rechenaufwand in Kauf genommen werden muss. Ein Grund für die realitätsnahe Anmutung der Maxwell Renderings liegt in der hohen Verfügbarkeit
von spezialisierten Materialien. Zudem kann es intuitiv bedient werden, da viele
Materialparameter physikalische Entsprechungen in der Realität aufweisen. So
kann beispielsweise ein Leuchtkörper über eine in Kelvin gemessene Lichttemperatur oder eine Leistungsaufnahme in Watt konfiguriert werden. Die Geschwindigkeit der Berechnung von Bildern in Mental Ray ist in vielen Fällen Maxwell
überlegen. Dieser Umstand ist darauf zurückzuführen, dass eine Vielzahl von
Einzelaufgaben in Mental Ray speziell an eine Szene angepasst wird und dadurch eine individuelle Lösung entstehen kann, die einen Großteil unnötiger
Berechnungen umgeht. Oft ist deshalb bei der Optimierung einer Mental Ray
Szene sehr viel Erfahrung gefragt, weil subtile Details fehlen, die der bewussten Wahrnehmung leicht entgehen. Beispielsweise wird bei der Bildkomposition oft der sogenannte Ambient-Occlusion-Pass (Umgebungsverdeckung, vgl.
Kap. 5.3.2) hinzugefügt, da eine Szene mit globaler Beleuchtung die subtilen dunklen Verläufe in Ecken und zwischen einander zugewandten Objekten
vermissen lässt. Diese Details werden von Maxwell automatisch generiert und
müssen nicht erneut berechnet werden. Zusammenfassend lässt sich sagen, dass
Maxwell eher auf das Rendern eines einzelnen, zusammengefassten Passes ausgelegt ist, während Mental Ray dazu einlädt, die einzelnen Bildbestandteile im
späteren Compositing zu vereinen. Zwar ist eine intensive Einarbeitung in die
Funktionalität des Renderers nötig, allerdings führt die Optimierung einer Szene für Mental Ray zu verhältnismäßig niedrigen Renderzeiten, die es als Lösung
für Animationen prädestiniert. Für Standbilder eignet sich hingegen Maxwell
besser, da sich in kurzer Bearbeitungszeit ein Ergebnis mit hochwertigem Gesamteindruck darstellen lässt, das auch einer längeren Begutachtung standhält.
6.6
Zusammenfassung
In diesem Kapitel wurden unter Verwendung der zuvor erstellten Szenen, Testreihen durchgeführt. Dabei wurden unterschiedliche Techniken beschrieben, mit
denen globale Beleuchtung innerhalb der Renderer erzeugt werden kann. Anhand dessen konnte die Qualität der globalen Beleuchtungsmodelle von Maxwell
und Mental Ray miteinander verglichen werden. Im nachfolgenden Kapitel folgt
die Zusammenfassung aller Ergebnisse dieser Diplomarbeit und ein Ausblick in
die Zukunft des Image-Based-Lighting.
81
Abbildung 62: Das Bildrauschen nimmt mit steigenden Sampling Levels ab
(Maxwell Render)
82
Abbildung 63: Die Einstellung der Qualität des Final Gathering geschieht durch
das Zusammenspiel von Accuracy und Point Interpolation (Mental Ray)
83
Abbildung 64: Die Option Anti-Aliasing bewirkt nicht nur Kantenglättung sondern entfernt auch Bildrauschen auf Flächen (Mental Ray)
84
Abbildung 65: Accuracy: 1024, Point Interpolation: 20, Anti-Anliasing: 6x, t:
1h 51min
85
Abbildung 66: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray)
86
Abbildung 67: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray)
87
Abbildung 68: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray)
88
Abbildung 69: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray)
89
Abbildung 70: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render)
90
Abbildung 71: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render)
91
Abbildung 72: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render)
92
Abbildung 73: Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render)
93
Abbildung 74: Kaustische Reflexionen unter Variation der Umgebungsbeleuchtung (Mental Ray)
94
Abbildung 75: Unterschiedliche Tiefe der Strahlenverfolgung im Zusammenhang
mit Kaustiken (Maxwell Render)
95
7
Zusammenfassung und Ausblick
Zielsetzung dieser Diplomarbeit war es, die globalen Beleuchtungsmodelle unterschiedlicher Bildsyntheseprogramme im Hinblick auf ihre Leistungsfähigkeit
bezüglich der bildbasierten Beleuchtung zu untersuchen und zu vergleichen.
Im Vordergrund stand dabei die Verwendung von Maxwell Render V2, stellvertretend für Brute-Force-Rendersoftware und Mental Ray als repräsentative
Softwaresuite die eine Vielzahl von Methoden für die Erstellung globaler Beleuchtung vereint.
Dazu wurden zunächst die unterschiedlichen Werkzeuge und Methoden der
HDR-Fotografie erklärt. Daraufhin wurden mehrere HDR-Panoramen unter
Verwendung der Segment-Technik erstellt sowie passende Hintergrundbilder
fotografiert. Auf dieser Basis entstanden mehrere Testzenen, die jeweils um
virtuelle Inhalte erweitert wurden. Anhand dieser Szenen entstanden mehrere
Testreihen, in denen die Renderer Maxwell V2 und Mental Ray in unterschiedlichen Disziplinen der bildbasierten Beleuchtung verglichen werden konnten.
Es hat sich herausgestellt, dass die konzeptionellen Unterschiede der Programme
zu unterschiedlichen Stärken und Schwächen führen, die das jeweilige Programm
für einen bestimmten Verwendungszweck prädestiniert erscheinen lassen. Im
Rahmen dieser Diplomarbeit wurden alle produktionsrelevanten Schritte für
unterschiedliche, alternative Arbeitsabläufe durchgeführt und beschrieben. Es
ist ein Leitfaden für die Konzeption und Erstellung einer Szene unter Verwendung einer Image-Based-Lighting-Umgebung entstanden.
Die bildbasierte Beleuchtung virtueller Szenen wird auch künftig ein interessantes Thema bleiben. Mit der kontinuierlichen Leistungssteigerung von Grafikprozessoren werden künftig auch hochauflösende Panoramen Teil von Echtzeitsimulationen sein, beispielsweise in den immer realistischer werdenden Computerspielen. Im Fotografie-Bereich wird es früher oder später auch für die breite
Bevölkerung vollautomatische Lösungen geben, HDR-Aufnahmen zu generieren. Besonders Bildschirmsysteme haben sich in den letzten Jahren stark entwickelt und es ist denkbar, dass es künftig einen Standard für HDR-I fähige
Monitore geben wird, insbesondere in Wechselwirkung mit HDR-Video Medien.
96
Literatur
[AC07] Allen, Damian ; Connor, Brian: Encyclopedia of Visual Effects.
Berkelay, CA : Peachpit Press, 2007. – ISBN 0321303342
[Blo08] Bloch, Christian:
Das HDRI-Handbuch.
Heidelberg,D :
dpunkt.verlag GmbH, 2008. – ISBN 9783898644303
[ER05] Erik Reinhard, Sumanta Pattanaik Paul D. Greg Ward W.
Greg Ward: High Dynamic Range Imaging. 2005. – ISBN 0–12–
585263–0
[EV97] Eric Veach, Leonidas J. G.: SIGGRAPH 97 Proceedings (August
1997). Addison-Wesley, 1997
[Fis09]
Fischer, Martin: Mental Images präsentiert RealityServer 3.0. Hannover,D : Heise Zeitschriften Verlag GmbH&Co.KG, 2009
[GH03] Gerhard Heldmaier, Gerhard N.: Vergleichende Tierphysiologie,
Band 1. Berlin : Springer-Verlag, 2003
[Kaj86] Kajiya, James T.: The rendering equation. In: Proceedings of the 13th
annual conference on Computer graphics and interactive techniques
(SIGGRAPH) 1986. ACM Press, 1986
[M6403] Mamiya 645 AFDII Bedienungsanleitung. 2003
[Opp09] Opper, Mischa: Prozessoptimierte Darstellung von virtuellen Fahrzeugmodellen durch den Einsatz von HDRI und IBL. FriedbergHessen,D : Fachhochschule Gießen Friedberg, 2009
97
Abbildungsverzeichnis
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
c
Ausschnitte aus Herr der Ringe New
Line Pictures, Inc.2 . . .
c
Raumschiff Enterprise 1966 und 2009 Paramount
Pictures 3 . .
Darstellung einer Szene mit Beleuchtung durch ein HDR-Panorama
(Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . . . .
Aufstellung und Sichtweise des Fisheye Objektivs . . . . . . . . .
Zwei Kamerapositionen bei der Mirrorball-Technik . . . . . . . .
Mirrorball-Technik: Auseinanderfalten der Bilder in HDRShop .
Mirrorball-Technik: Überblenden der Bilder mit Photoshop . . .
Mirrorball-Technik: Entfernen der störenden Bildinhalte, hier beispielsweise der Kamera . . . . . . . . . . . . . . . . . . . . . . . .
Fertiges Panorama mit der Mirroballtechnik . . . . . . . . . . . .
Die One Shot Technik von außen und aus der Sicht der Kamera .
Die Segmenttechnik. Die Brennweite und die Segmentgröße sind
umgekehrt proportional . . . . . . . . . . . . . . . . . . . . . . .
Unterschiedliche Kontrastverhältnisse bei 24 bit JPEG (links)
und 8 bit GIF (rechts). Deutlich erkennbare Farbstufen im GIFBild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Canon EOS 5D . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Canon 50 mm Normalobjektiv . . . . . . . . . . . . . . . . . . .
Capture One P45, Mamiya 645 AFDII . . . . . . . . . . . . . . .
Aufbau der Ausrüstung beim Panorama Scheune“ . . . . . . . .
”
Stativkopf Triton PH46 / Einstellschlitten Novoflex Castel -L . .
Objektiv Mamiya 35mm / AF Drahtauslöser Hama / Stativ
Manfrotto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Benutzeroberfläche PTGui . . . . . . . . . . . . . . . . . . . . .
Benutzeroberfläche EXIF Editor . . . . . . . . . . . . . . . . . .
Benutzeroberfläche Photoshop CS3 . . . . . . . . . . . . . . . . .
Logische Problematik der Zusammengehörigkeit von Backplate
und Panorama: In der Reflexion scheint das Glas in der Luft zu
schweben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Nicht kontinuierlicher Schattenwurf zwischen zwei Belichtungsreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
PTGui: Für die CGI Anwendung wichtig: Um eine automatische
Tonwertkompression zu verhindern, ist im Fenster Bracketed Exposures True HDR“ zu wählen . . . . . . . . . . . . . . . . . . .
”
PTGui, Image Parameters, verkürzte Darstellung: Hier befinden
sich neben dem verkleinerten Vorschaubild alle wichtigen EXIFInformationen sowie verschiedene Parameter bezüglich Position
und Verzerrung im Panorama . . . . . . . . . . . . . . . . . . . .
PTGui, Control Points: Manuelles Setzen der Kontrollpunkte.
Dies geschieht durch Bestimmung eines Bildpunkts durch einen
Mausklick auf ein Bild und Festlegen seines Äquivalents im anderen Bild durch einen weiteren Mausklick. . . . . . . . . . . . .
PTGui, Panorama Editor: Hier wird eine ständig aktualisierte
Vorschau auf das Panorama angezeigt . . . . . . . . . . . . . . .
98
1
2
4
6
7
8
8
9
9
10
11
18
21
22
22
23
24
24
25
26
26
28
29
31
32
33
34
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
Links: Die Auswirkung des Belichtungsreglers; Rechts: Tonemapping durch zusammenschneiden der optimal belichteten Bildausschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Das Potential des hohen Dynamikumfangs kann auch für eine
kreative Interpretation des Bildes verwendet werden. Hier wird
durch selektive Belichtungsänderung eine neue Lichtsituation geschaffen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Links: Maskieren und Löschen, Rechts: Details an Früchten und
Tisch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Belichtungsreihen Bar . . . . . . . . . . . . . . . . . . . . . . .
Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Bar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Retusche am Panorama der Bar . . . . . . . . . . . . . . . . .
Panorama Bar, Endergebnis. Automatisches Tonemapping . . .
Belichtungsreihen Scheune . . . . . . . . . . . . . . . . . . . . .
Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Scheune . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Retuschearbeiten am Boden der Scheune. Entfernen des Stativs
durch Überlagern passender Bildinhalte. . . . . . . . . . . . . .
Details des Panoramas der Scheune . . . . . . . . . . . . . . . .
Details des Panoramas der Scheune . . . . . . . . . . . . . . . .
Panorama der Scheune, automatisches Tonemapping . . . . . .
Auszug aus den Belichtungsreihen der Kaiserpfalz . . . . . . .
Belichtungsreihen zur Veranschaulichung des Motivkontrasts der
Kaiserpfalz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Details des fertigen Panoramas . . . . . . . . . . . . . . . . . .
Details des fertigen Panoramas . . . . . . . . . . . . . . . . . .
Retusche des Panoramas der Kaiserpfalz . . . . . . . . . . . . .
Panorama der Kaiserpfalz, automatisches Tonemapping . . . .
Maxwell Render V2, Multilight: Im Bild oben besteht die Lichtquelle nur aus dem HDR-Panorama, im Bild unten wurde eine Lichtquelle im Lampenschirm dazugeschaltet und der Hintergrund gedimmt. . . . . . . . . . . . . . . . . . . . . . . . . . . .
Maxwell Render V2, Einstellungen: Optionen zur Bildqualität,
Bewegungsunschärfe und Atmosphäre . . . . . . . . . . . . . .
Maxwell Render V2, Einstellungen: Optionen zur bildbasierten
Beleuchtung, Renderkanäle und Linsensimulation . . . . . . . .
Mental Ray: Einstellungen zur Indirekten Beleuchtung über Global Illumination und Importons . . . . . . . . . . . . . . . . .
Mental Ray: Einstellungen zur Indirekten Beleuchtung über Final Gathering und Irradiance Particles . . . . . . . . . . . . .
Mental Ray: Globale Qualitätseinstellungen . . . . . . . . . . .
Bar-Szene: Drahtgittermodell in der perspektivischen Ansicht
(Autodesk Maya) . . . . . . . . . . . . . . . . . . . . . . . . . .
Bar-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht
dem sichtbaren Teil des gerenderten Bildes . . . . . . . . . . .
Bar-Szene: Hintergrundbild (Backplate) . . . . . . . . . . . . .
99
. 35
. 36
. 37
. 40
.
.
.
.
41
42
43
45
. 46
.
.
.
.
.
47
48
49
50
52
.
.
.
.
.
53
54
55
56
57
. 62
. 63
. 64
. 65
. 66
. 67
. 71
. 71
. 72
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
Bar-Szene: Komposition der Backplate und des gerenderten Bildes (Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . .
Scheunen-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya) . . . . . . . . . . . . . . . . . . . . . . . .
Scheunen-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes . . . . . . . .
Scheunen-Szene: Hintergrundbild (Backplate) . . . . . . . . . . .
Scheunen-Szene: Komposition der Backplate und des gerenderten
Bildes (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . .
Global Illumination über ein HDR-Panorama mit 2 Mio. Photonen)
Das Bildrauschen nimmt mit steigenden Sampling Levels ab (Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Die Einstellung der Qualität des Final Gathering geschieht durch
das Zusammenspiel von Accuracy und Point Interpolation (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Die Option Anti-Aliasing bewirkt nicht nur Kantenglättung sondern entfernt auch Bildrauschen auf Flächen (Mental Ray) . . . .
Accuracy: 1024, Point Interpolation: 20, Anti-Anliasing: 6x, t: 1h
51min . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render) . . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render) . . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render) . . .
Vergleich der Qualität der Beleuchtung mit einem HDR-I über
Sphäre (links) und Environment (rechts) (Maxwell Render) . . .
Kaustische Reflexionen unter Variation der Umgebungsbeleuchtung (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . . .
Unterschiedliche Tiefe der Strahlenverfolgung im Zusammenhang
mit Kaustiken (Maxwell Render) . . . . . . . . . . . . . . . . . .
100
72
73
73
74
74
77
82
83
84
85
86
87
88
89
90
91
92
93
94
95