Dokument 1
Transcription
Dokument 1
Vergleich globaler Beleuchtungsmodelle für Image Based Lighting über HDR-I Florian Wittwer, Matr.Nr.707659 16. Dezember 2009 Diplomarbeit Fachbereich IEM der Fachhochschule Gießen-Friedberg Referent Korreferent Dipl.-Math. Cornelius Malerczyk Dipl.-Ing. Klaus Schmidt Danksagung Ich möchte mich zunächst bei meinen Betreuern Dipl.-Ing. Klaus Schmidt und Dipl.-Math. Cornelius Malerczyk bedanken, die mir die Möglichkeit gaben, meine Diplomarbeit an der FH Gießen-Friedberg durchzuführen und mir mit Ratschlägen und technischer Ausrüstung zur Seite standen. Bei folgenden Personen möchte ich mich für die Möglichkeit bedanken, die benötigten Fotografien anzufertigen: Lothar und Jadwiga Bugla, Daniela Breidert und Deniz Asuman, sowie den Mitarbeitern des Museums Kaiserpfalz Gelnhausen. Dank gebührt außerdem Hannah Dewies und Martin Trippen für die Erlaubnis, in ihrem Unternehmen angefertigte Modelle in die Diplomarbeit einfließen zu lassen. Nicht zuletzt bedanke ich mich bei Claudia, Astrid, Horst und Michael Herröder für die unschätzbare Unterstützung, Geduld und Fehlerkorrektur. I Eidesstattliche Erklärung Hiermit versichere ich, dass ich die vorliegende Diplomarbeit selbständig verfasst und nur die in der Arbeit angegebenen Hilfsmittel und Literaturstellen verwendet habe. Jossgrund, 15.12.2009, II Florian Wittwer Inhaltsverzeichnis 1 Einleitung 1.1 Motivation . . . . . . . . . . . . . . . . . . . 1.2 Problemstellung und Zielsetzung . . . . . . . 1.3 Organisation der Arbeit . . . . . . . . . . . . 1.4 Zusammenfassung der wichtigsten Ergebnisse 2 State of the Art 2.1 Techniken der Panoramafotografie . 2.1.1 Skydome-Fotografie . . . . . 2.1.2 Mirrorball-Technik . . . . . . 2.1.3 One-Shot-Technik . . . . . . 2.1.4 Segment-Technik . . . . . . . 2.2 Computer–Hardware . . . . . . . . . 2.3 Computer–Software . . . . . . . . . 2.3.1 Überblick . . . . . . . . . . . 2.3.2 Autodesk Maya 2010 . . . . . 2.3.3 Blender . . . . . . . . . . . . R 2.3.4 Mental Images Mental Ray 2.3.5 Next Limit Maxwell V2 . . . 2.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 High Dynamic Range-Imaging 3.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Fotografie . . . . . . . . . . . . . . . . . . . 3.1.2 Der Dynamikbereich . . . . . . . . . . . . . 3.1.3 Zielsetzung HDR-I . . . . . . . . . . . . . . 3.2 Die Ausrüstung . . . . . . . . . . . . . . . . . . . . 3.2.1 Canon EOS 5D (Mark 1) . . . . . . . . . . 3.2.2 Mamiya 645 AFDII, Capture One P45 . . . 3.2.3 Zubehör . . . . . . . . . . . . . . . . . . . . 3.3 Die Software . . . . . . . . . . . . . . . . . . . . . 3.3.1 Capture One DB . . . . . . . . . . . . . . . 3.3.2 PTGui . . . . . . . . . . . . . . . . . . . . . 3.3.3 EXIFeditor . . . . . . . . . . . . . . . . . . 3.3.4 Adobe Photoshop . . . . . . . . . . . . . . 3.4 HDRI-Panaromafotografie mit der Segmenttechnik 3.4.1 Einleitung . . . . . . . . . . . . . . . . . . . 3.4.2 Positionierung und Aufnahme . . . . . . . . 3.4.3 Bildverarbeitung . . . . . . . . . . . . . . . 3.4.4 Bearbeitung der Exif Daten . . . . . . . . . 3.4.5 Erzeugen eines HDR-Panoramas . . . . . . 3.5 Darstellbarkeit . . . . . . . . . . . . . . . . . . . . 3.6 Zusammenfassung . . . . . . . . . . . . . . . . . . III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 3 4 . . . . . . . . . . . . . 5 5 5 6 7 10 11 12 13 14 15 15 15 16 . . . . . . . . . . . . . . . . . . . . . 17 17 17 18 19 20 20 21 23 23 23 25 25 25 26 26 27 30 31 31 34 37 4 Ergebnisteil Fotografie 4.1 Bar . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Bearbeitung und Ergebnisse – Bar . . . . . 4.2 Scheune . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Bearbeitung und Ergebnisse – Scheune . . . 4.3 Kaiserpfalz Gelnhausen . . . . . . . . . . . . . . . 4.3.1 Bearbeitung und Ergebnisse – Kaiserpfalz 4.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 38 38 44 44 51 51 51 5 Rendering 5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Bildsyntheseverfahren und globale Beleuchtungsmodelle 5.2.1 Scanline . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Raytracing . . . . . . . . . . . . . . . . . . . . . 5.2.3 Brute-Force-Rendering . . . . . . . . . . . . . . . 5.2.4 Global Illumination / Photon-Mapping . . . . . 5.2.5 Final Gathering . . . . . . . . . . . . . . . . . . . 5.2.6 Importons . . . . . . . . . . . . . . . . . . . . . . 5.2.7 Irradiance Particles . . . . . . . . . . . . . . . . . 5.2.8 Zusammenfassung . . . . . . . . . . . . . . . . . 5.3 Renderer . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Maxwell V2 . . . . . . . . . . . . . . . . . . . . . 5.3.2 Mental Ray . . . . . . . . . . . . . . . . . . . . . 5.4 Anforderungsanalyse . . . . . . . . . . . . . . . . . . . . 5.4.1 Subjektive Vergleichbarkeit . . . . . . . . . . . . 5.4.2 Inhaltlicher und räumlicher Kontext . . . . . . . 5.4.3 Objektive Vergleichbarkeit . . . . . . . . . . . . . 5.5 Testszenen . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1 Bar . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.2 Scheune . . . . . . . . . . . . . . . . . . . . . . . 5.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 58 58 58 58 59 59 59 59 60 60 60 60 61 68 68 68 69 70 70 70 70 6 Ergebnisteil Rendering 6.1 Erzeugen einer Image-Based-Lighting-Umgebung 6.2 Testbedingungen . . . . . . . . . . . . . . . . . . 6.3 Qualitätseinstellungen . . . . . . . . . . . . . . . 6.3.1 Ergebnisse . . . . . . . . . . . . . . . . . . 6.4 Reflexionseigenschaften . . . . . . . . . . . . . . 6.4.1 Ergebnisse und Diskussion . . . . . . . . . 6.5 Caustics . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Ergebnisse und Diskussion . . . . . . . . . 6.5.2 Auswertung . . . . . . . . . . . . . . . . . 6.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 75 75 76 76 77 78 79 80 80 81 7 Zusammenfassung und Ausblick IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 1 Einleitung 1.1 Motivation Die Produktion von Grafik und Video im Bereich der Werbe- und Filmindustrie hat sich im Verlauf der letzten 25 Jahre drastisch verändert. Dieser Prozess ist auf die Integration von rechnergestützter Bildbearbeitung in analogen Filmschnitt zurückzuführen. Zur Komposition und Überblendung unterschiedlicher analoger Bildquellen ist im Laufe der Zeit ein größer werdender Anteil digital bearbeiteter Bildausschnitte hinzugekommen. Die wachsende Rechenund Speicherkapazität der eingesetzten Computersysteme hat die Möglichkeit geschaffen, komplexe Szenen, Gegenstände, Personen oder Ereignisse virtuell zu erzeugen. Die Grenzen des Darstellbaren haben sich verschoben und sind nun weiterhin abhängig von der Vorstellungskraft der Autoren und Entwickler, nicht aber mehr schlussendlich vom Vorhandensein einer umfangreichen Requisite, Schauspielern oder eines bestimmten Drehortes. Dieser Prozess äußert sich für den Betrachter darin, dass das Angebot an visuellen Medien umfangreicher geworden ist. Ein Beispiel aus der Kinogeschichte der letzten Jahre ist der, nach mehreren erfolglosen Versuchen,1 als nicht verfilmbar geltende Fantasy-Roman Der Herr der Ringe“ von J.R.R. Tolkien. In der von Peter Jackson verfilmten ” Fassung werden einige Hundert computeranimierte Akteure und eine Vielzahl umfangreicher virtueller Szenenbestandteile dargestellt (s. Abb. 1). c Abbildung 1: Ausschnitte aus Herr der Ringe New Line Pictures, Inc.2 Ein weiteres Beispiel ist die Entwicklungsgeschichte der Weltraumsaga Star ” Trek“ von Gene Roddenberry. Während hier zu Beginn Modellbau und Studioaufnahmen zur Visualisierung des zentralen Schausplatzes Enterprise“ ein” gesetzt wurden, ist das im aktuellen Kinofilm Star Trek“ gezeigte Raumschiff ” vollständig am Computer entstanden (s. Abb. 2). Eine solche Entwicklung ist auch in der Werbebranche zu bemerken. Der Einsatz von CAD Systemen hat bezüglich der Visualisierung der Produkte den Bau von Prototypen hinfällig werden lassen. Die Daten aus der Fertigungstechnik lassen sich mit vergleichsweise geringem Aufwand in Modellierungsprogramme übertragen, um daraus Einzelbilder oder Animationssequenzen zu erzeugen. Ein Beispiel ist der Automobilhersteller Opel und sein aktuelles Modell Insignia“, siehe dazu die Di” plomarbeit [Opp09] von Mischa Opper. Für die Werbe- und Filmindustrie gilt hier gleichermaßen der Anspruch, Bilder 1 http://www.herr-der-ringe-film.de/v2/de/filmtrilogie/film-infos.php, 9.11.09, 16:00 Uhr Quelle: http://www.warnerbros.de/movies/herrderringe/ 3 Quelle: http://memory-alpha.org/de/wiki/ 2 1 c Abbildung 2: Raumschiff Enterprise 1966 und 2009 Paramount Pictures 3 zu erzeugen, die nicht vom Betrachter auf den ersten Blick in Frage gestellt werden. Im Compositing (deutsch: Zusammenführen“) der Bilder geht es vor ” allem darum, dass unterschiedliche Bildinhalte zu einem stimmigen Gesamt” bild“ 4 verschmolzen werden. Oft werden virtuelle Gegenstände oder Szenarien mit Realfilm bzw. Fotografie kombiniert. Die unterschiedliche Herkunft der Bildquellen birgt jedoch eine Hürde, die es zu überwinden gilt, wenn das Resultat als eine Einheit erscheinen soll: 3d Elements [...] lack the subtle com” plexity of real-world illumination“ (zu deutsch: 3d Elemente lassen die subtile ” Komplexität der Beleuchtung der wirklichen Welt vermissen“)[AC07, Lighting]. Damit das Gesamtbild die Illusion der Echtheit vermitteln kann, bietet es sich an, eine Kopie“ des Lichts der Wirklichkeit in die Szene zu integrieren. Dies ge” schieht mittels einer Digitalfotografie mit größtmöglichem Farbraum. Um darin die optimale Bandbreite an Informationen unterzubringen wird ein High Dynamic Range-Image (deutsch: Bild mit hohem Dynamikbereich), kurz HDR” I“ erzeugt. Durch diese Technik entsteht ein visueller Informationsgehalt, der in der Regel über das auf Monitoren, Leinwänden und Druckern Darstellbare hinausgeht. Der Inhalt eines solchen Bildes kann zur Simulation von Licht, Lichtbrechung (Refraktion) oder Reflektion eingesetzt werden oder schlicht als Hintergrundbild der virtuellen Szene dienen. Zudem eröffnet der hohe Dynamikbereich wertvollen Spielraum bei der Finalisierung des Endprodukts, der sogenannten Post-Produktion. Nicht immer werden jedoch diese Fotografien extra für eine Szene angefertigt. HDR-Fotografien und -Panoramen werden auf einer Vielzahl von Internetseiten kommerziell vertrieben.5 1.2 Problemstellung und Zielsetzung Die Herstellung einer virtuellen Szene ist ein komplexer Vorgang, dessen erfolgreiche Umsetzung sich schlussendlich im Gesamteindruck des Ergebnisses niederschlägt. Zu Beginn steht dabei immer ein Katalog visueller Kriterien. Neben der passgenauen Positionierung und Orientierung der virtuellen und realen Gegenstände zueinander wird grundsätzlich je nach Verwendungszweck eine bestimmte Auflösung, Farbtiefe oder ein gewisser subjektiver Eindruck verlangt. 4 5 de.wikipedia.org/wiki/Compositing,24.10.2009, 18:09 z.B.: http://hdri-panorama.de , http://www.turbosquid.com/ 2 Das kann beispielsweise das Spiegelbild eines realen Gebäudes im virtuellen Autolack oder auch die intensive rötliche Farbgebung eines Sonnenuntergangs sein, die sich in einer virtuellen Szene wiederfinden soll. Die Imitation solcher komplexer Lichteinflüsse ist zeitintensiv und erfordert umfangreiche Kenntnisse in Bezug auf Lichtsetzung und deren Auswirkung. Um diese Prozesse zu vereinfachen, bedient man sich des Image Based Lighting (deutsch: Bildbasierte Beleuchtung). Bei dieser Technik bindet man reale Vorbilder in Form von Panoramafotografien in den Prozess der Bildsynthese ein, um eine Umgebung zu schaffen, die bereits alle nötigen Informationen für Beleuchtung, Reflexion und Lichtbrechung mitbringt. Dennoch ist die zielgerichtete Erstellung einer solchen Umgebung von der Anfertigung der Fotografie über die Bildverarbeitung, Erstellung eines Panoramas und Einbindung in den Renderer (Bildsyntheseprogramm, zuständig für die Erstellung einer zweidimensionalen Projektion einer dreidimensionalen, virtuellen Szene) eine Aufgabe, die eine Vielzahl von Erfahrungswerten nötig macht. Zudem unterscheiden sich die Renderer in ihrer Funktionsweise, Bedienung und der benötigten Zeit für die Erstellung eines Bildes. Da die Anwendungsgebiete dieser Technik sehr unterschiedlich sein können, soll in dieser Diplomarbeit ein Vergleich zwischen der Funktionalität verschiedener Render-Software an Hand von drei Szenen ausgearbeitet werden. Dazu wird eine Reihe von Kriterien eingeführt, die eine qualitative Beurteilung der Ergebnisse möglich machen. 1.3 Organisation der Arbeit Zu Beginn soll im Kapitel State of the Art“ der technische Standard in Bezug ” auf Kamerasysteme, Computer-Hardware, Bildbearbeitungssoftware, Modeller und Renderer aufgezeigt werden. Dazu werden einige Beispiele aus der Industrie aufgeführt, sowie deren relevante technische Details und Einsatzzwecke dargelegt. Außerdem sollen die wesentlichen Verfahren aufgeführt werden, mit denen Panoramen erzeugt werden können. Im darauffolgenden Kapitel soll die Herstellung von HDR-Panoramafotografien anhand der sogenannten Segmenttechnik veranschaulicht werden. Es folgt eine Einführung der für die Diplomarbeit verwendeten Ausrüstung, sowie der Ablauf der verwendeten Methode im Detail. Danach werden die Ergebnisse vorgestellt und bezüglich der erreichten Qualität diskutiert. Im Kapitel Rendering werden Voraussetzungen für die Verwendung von ImageBased Lighting genannt, sowie die Einbindung in virtuelle Szenen beschrieben. Das Verfahren wird an Hand einiger Szenen veranschaulicht, die jeweils inhaltlich auf das verwendete Panorama abgestimmt sind. Es werden einige Testreihen durchgeführt, bei der die Variation der Rendereinstellungen und deren Auswirkung auf das Ergebnis im Vordergrund steht. Zuletzt sollen die Ergebnisse der Renderer untereinander qualitativ verglichen werden. Im Mittelpunkt der Diskussion soll dabei auch die Gegenüberstellung mit realen Vorbildern stehen. Abschließend werden noch einmal die Ergebnisse der Arbeit zusammengefasst und eine Auswahl qualitativ hervortretender Bilder gezeigt. 3 1.4 Zusammenfassung der wichtigsten Ergebnisse In der Diplomarbeit wird die Funktionsweise unterschiedlicher Konzepte der globalen Lichtsetzung innerhalb dreier Renderer erklärt (Maya Software / Mental Ray / Maxwell Render). Dabei wird jeweils auf die Konfiguration bildbasierter Beleuchtung im jeweiligen Renderer eingegangen. Daraus geht eine Versuchsreihe hervor, die alle Beleuchtungsvarianten untereinander vergleichbar macht. Die Ergebnisse werden in Form von Panoramafotografien, vergleichenden Tabellen und einer Diskussion der Ergebnisse dargereicht. Zusammenfassend läßt sich diese Diplomarbeit als ein Leitfaden zur vollständigen Erstellung einer virtuellen Szene mit bildbasierter Beleuchtung beschreiben. Abbildung 3: Darstellung einer Szene mit Beleuchtung durch ein HDRPanorama (Maxwell Render) 4 2 State of the Art Im einleitenden Kapitel wurde die Relevanz des Image-Based Lighting für die Kino- und Werbeproduktion dargelegt. Aufgrund der immensen Auswahl an Produkten und Unterhaltungsmedien und deren Kurzlebigkeit ist es charakteristisch für diese Branchen, Bildqualität auf höchstem Niveau erzielen zu wollen. Das hängt mit dem Ziel zusammen, in der Fülle der Auswahl positiv auffallen zu wollen. Die ästhetische Wahrnehmung wird oft von jeweiligen Modeerscheinungen wie Trendfarben und üblichem Jargon der Zielgruppe beeinflusst. Technisch gemessen wird diese Qualität an Auflösung, Farbtiefe oder auch Verarbeitungsgeschwindigkeit. Es werden nun die unterschiedlichen Verfahren vorgestellt, die sich für die Erstellung eines Panoramas etabliert haben. Danach wird eine Übersicht der in die Produktion involvierten technischen Geräte folgen. Dazu zählen einige ausgewählte Kameras sowie für Bildproduktion eingesetzte Computersysteme. Abschließend folgt eine Übersicht der jeweils aktuellen Version gängiger Software, die zur Synthese und Bearbeitung von Bildern eingesetzt wird. 2.1 Techniken der Panoramafotografie Je nach Anforderung an Auflösung, Produktionszeit oder Vollständigkeit des Panoramas können unterschiedliche Lösungswege zur Erstellung einer Panoramafotografie beschritten werden. Im Allgemeinen werden Panoramen dort benötigt, wo die Abbildung des visuellen Gesamtkontextes des dargestellten Ortes gewünscht ist. Die Gründe dafür haben unterschiedliche Wurzeln. Beispielsweise kann es im Interesse einer polizeilichen Ermittlung sein, einen Ort ganzheitlich mit all seinen Bestandteilen für einen späteren Zeitpunkt virtuell zugänglich zu machen6 . In der VFX7 Produktion ist es gängige Praxis, dass die Lichtsituation eines Drehorts eingefangen wird, um dem Produktionsteam später ihre Imitation bei der Montage von Fremdmaterial zu erleichtern [AC07]. Ausrüstung und benötigte Zeit für die Erstellung des Panoramas sind davon abhängig, welches Verfahren dafür angewandt wird. 2.1.1 Skydome-Fotografie Um sich die wesentlichen Merkmale eines Skydome zu vergegenwärtigen, ist folgende Vorstellung nützlich: Man stelle sich einen Standpunkt auf einem überdimensionalen, mit einer Glasglocke abgedeckten Speiseteller vor. Die Wahrnehmung der Umgebung sei dabei auf das beschränkt, was durch die Glocke hindurch sichtbar ist. Ein Blick auf die Umgebung unterhalb des Tellers ist nicht möglich und es erstreckt sich ein Horizont in Gestalt des Tellerrandes. Diese Beschränkung des Blickfeldes ist mit der Beschaffenheit des dafür eingesetzten Objektivs verbunden. Ein sogenanntes Fisheye (deutsch: Fischauge) ist ein Objektiv mit einer sehr kurzen Brennweite. Diese führt im Idealfall zu einem 6 7 http://www.spheron.com/en/sceneworks/portfolio/scenecam.html VFX: Visuelle Effekte in Film und Fernsehen 5 Abbildung 4: Aufstellung und Sichtweise des Fisheye Objektivs Bildwinkel von 180◦ und damit zu einem halbkugelförmigen Sichtfeld. Hersteller solcher Objektive ist beispielsweise die Firma Sigma8 , die Objektive mit 4,5 bzw. 8mm für die Panoramafotografie anbietet. Wird die solchermaßen ausgestattete Kamera senkrecht nach oben ausgerichtet (s. Abb.4), kann mit einer einzigen Aufnahme ein Panorama erzeugt werden, das bereits einen Großteil des fotografierten Motivs enthält. Wird von dieser Szene eine Belichtungsreihe erstellt, kann daraus innerhalb kurzer Zeit ein HDR-Panorama generiert werden. Dieses ist allerdings auf die Auflösung der Kamera beschränkt. Panoramen, die auf diese Weise erstellt wurden, können überall dort eingesetzt werden, wo das Vorhandensein der vollständigen Abbildung der Szene verzichtbar ist und die Auflösung der Kamera für das Panorama ausreicht. 2.1.2 Mirrorball-Technik Bei der sogenannten Mirrorball (deutsch: Spiegelkugel )- Technik werden mehrere Fotografien variabler Betrachtungswinkel einer ideal spiegelnden Kugel aus größtmöglicher Entfernung aufgenommen, mit dem Ziel, ein Panorama aus einer geringen Anzahl Belichtungsreihen mit einem Betrachtungswinkel von näherungsweise 180◦ x 360◦ zu erzeugen. Die Position der Spiegelkugel muss so gewählt werden, dass zwei Aufnahmen aus gleichem Abstand erfolgen können, wobei der Winkel der Kamera zur Kugel um 90◦ versetzt wird (siehe Abbildung 5). Da das gesamte Panorama aus der Reflexion in der Kugel gewonnen werden soll, ergänzen die beiden Aufnahmen den Informationsgehalt hinsichtlich kritischer Bildinhalte, sind aber größtenteils redundant. Wie in der Abbildung dargestellt, ist zum einen die Kamera Bestandteil der Spiegelung, zum anderen nehmen Darstellungsqualität und Schärfe in der Spiegelung mit steigendem Blickwinkel ab, was sich beim Entfalten des Panoramas (siehe Abbildung 6) in einer Singularität äußert. Zur Nachbearbeitung der Rohaufnahmen sind mehrere Schritte erforderlich, in denen die Aufnahmen entzerrt, übereinandergelegt und zusammen geschnitten werden (siehe Abbildungen 7,8,9). Wurden zur Erstellung eines HDR-Panoramas Belichtungsreihen erstellt, so sind diese vor dem 8 http://www.sigma-foto.de/ 6 Abbildung 5: Zwei Kamerapositionen bei der Mirrorball-Technik Zusammenschnitt zu HDR-Aufnahmen zu verschmelzen. Das Entzerren kann zum Beispiel mit dem kostenlosen Programm HDRShop V19 erfolgen. Mit Hilfe einer spiegelnden Kugel ein Panorama zu erzeugen ist eine verlustbehaftete Methode. Dies liegt daran, dass nicht nur die Qualität des Objektivs und die Auflösung der Kamera, sondern auch die Beschaffenheit der Spiegelkugel und die Kenntnisse über das verwendete Bildbearbeitungsprogramm auf das Ergebnis Einfluss nehmen. Im Idealfall entspräche das Ergebnis der Qualität einer Einzelaufnahme der Kamera. Dennoch handelt es sich um einen attraktiven Lösungsweg, da weder hohe Kosten noch ausgedehnte Zeitfenster zu veranschlagen sind. 2.1.3 One-Shot-Technik Mit der One-Shot (deutsch: Ein Schuss) Technik wird in der Panoramafotografie die Möglichkeit beschrieben, ein vollständiges Panorama durch einmaliges Auslösen zu erfassen (s.Abb.10). Einen bekanntes Gerät, mit dem dieses Verfahren praktiziert werden kann, wird von der Firma SPHERON-VR AG gefertigt, die SpheroCam HDR“. Dieses Gerät arbeitet vollautomatisch und erzeugt ” ein vollständiges Panorama mit hohem Dynamikbereich (bis zu 26 Blenden). Die Auflösung beträgt für ein sphärisches Panorama 50 Mio. Pixel (5.300 x ” 10.600 Pixel)“ 10 . Eine durch zusätzliche Messinstrumente und ein Satellitenortungssystem ergänzte Variante für den erwähnten kriminologischen Einsatz 9 www.hdrshop.com www.spheron.com/en/intruvision/solutions/spherocam-hdr/technicaldetails.html,28.10.2009,16:12 10 7 Abbildung 6: Mirrorball-Technik: Auseinanderfalten der Bilder in HDRShop Abbildung 7: Mirrorball-Technik: Überblenden der Bilder mit Photoshop 8 Abbildung 8: Mirrorball-Technik: Entfernen der störenden Bildinhalte, hier beispielsweise der Kamera Abbildung 9: Fertiges Panorama mit der Mirroballtechnik 9 Abbildung 10: Die One Shot Technik von außen und aus der Sicht der Kamera wird unter dem Namen SceneCam“ 11 beworben. ” Produkt Panoscan MK-3 Roundshot D3 2.1.4 Hersteller Panoscan Inc. Seitz Phototechnik AG Auflösung Horizontal, Vertikal 65000 , 6000 (9000) Pixel 12 62830 , 7500 Pixel 13 Segment-Technik Als Segmenttechnik bezeichet man ein Verfahren, bei dem das Panorama aus einer Matrix sich überlappender Belichtungssequenzen zusammengesetzt wird. Hierzu wird die Kamera auf einer Vorrichtung montiert, die eine beliebige Wahl des Bildausschnitts aus dem Bereich von 180◦ x 360◦ ermöglicht. Die Belichtungssequenzen werden zu HDR Bildern verschmolzen und mit spezieller Software zu einem Panorama verbunden. Das eingesetzte Verfahren wird in Kapitel 3.4 ausführlich erläutert. Bei der Durchführung dieses Verfahrens ist nicht ausschließlich die Qualität des Objektivs oder das Auflösungsvermögen der eingesetzten Kamera von Bedeutung. Auch die Möglichkeit, das Gerät von einem Rechner aus fern zu steuern und eine schnelle Datentransferrate tragen zum Gelingen bei, da je nach Blickwinkel des eingesetzten Objektivs einige Hundert Bilder anzufertigen sind und die genannten Merkmale einen flüssigen Arbeitsablauf gewährleisten. Das Arbeitsaufkommen der Erstellung einer solchen Menge an Einzelbildern führte zu allerlei Bestrebungen, das Verfahren zu automatisieren. So sind mittlerweile motorisierte Stativköpfe14 erhältlich und Anleitungen für den Selbstbau15 zu finden. Eine aktuelle Kamera des High-End Segments ist die Hasselblad H4D–60. Es handelt sich um eine digitale Spiegelreflex-Kamera, deren Digitalrückteil Bilder mit einer Auflösung von 60 Mio. Pixel einzulesen vermag. Das entspricht einer Bildgröße von 6708 x 8956 Pixel. Die Farbtiefe beträgt 16 bit. Die Bilder werden auf einer Compact Flash Karte gespeichert. Mittels einer Firewire-80011 www.spheron.com/en/sceneworks/portfolio/scenecam.html,28.10.2009,17:03 http://www.marc-kairies.de/mk-panorama-systeme/mk-panomachine/index.html 15 http://www.secondpage.de/tutorials/mindstorms/vr1.html 14 10 Abbildung 11: Die Segmenttechnik. Die Brennweite und die Segmentgröße sind umgekehrt proportional Verbindung kann die Kamera über die Software Phocus“ fern bedient werden, ” und die Bilder direkt auf dem Computer gespeichert werden. Es wird auch eine Version mit 50 Mio. Pixeln unter der Bezeichnung H4D–50 geben. Beide Kameras werden im Januar 2010 erhältlich sein16 . Technik Zeitbedarf Vorteil Nachteil Skydome <1 min. schnell unvollständig Mirrorball-Technik <5 min. One-Shot-Technik >1min. schnell, günstig schnell Segment-Technik >15min. begrenzte Bildqualität hohe Kosten langsam hohe Bildqualität Produktionsbereich Computerspiele Kino, Werbung Kino, Werbung Dokumentation Zusammenfassung der wichtigen Panoramatechniken in Tabellenform 2.2 Computer–Hardware Bildbearbeitungsprogramme und Renderer haben Systemanforderungen, die leistungsstarke Computersysteme voraussetzen. Die Geschwindigkeit der Computer hat sich, gemessen an der Taktfrequenz der verbauten Prozessoren, in den letzten 20 Jahren um den Faktor 1000 erhöht. Dieser Vergleich bezieht sich 16 http://www.heise.de/newsticker/meldung/Schwenken-erlaubt-Hasselblad-H4D-60-mitneuer-Fokustechnik-Update-798145.html 11 auf einen Intel 80286er aus dem Jahre 1988 (12 Mhz)17 der einem aktuellen Vierkernprozessor Intel Core i7 (4 x 3 Ghz)18 gegenübergestellt wird. Die heutige Technologie erlaubt die parallele Berechnung mehrerer Prozesse. Dies wird durch das Vorhandensein mehrerer physikalischer und logischer Recheneinheiten möglich gemacht. Leistungsstarke Workstations (deutsch: Arbeitsrechner) für den Bereich der Visualisierung und Bildbearbeitung verfügen oft über zwei R XeonR Mehrkernprozessoren. Gängige Vertreter sind die aktuellen Intel R Prozessoren der 8000 Prozessoren der W5500 Serie und die AMD-Opteron Serie. Sie verfügen über vier (Intel) bzw. sechs (AMD) Rechenkerne auf einer CPU (Central Processing Unit, deutsch: zentrale Recheneinheit). Betriebsbereite Workstations werden von verschiedenen Firmen angeboten, z.B. Hewlett– Packard19 , Apple20 oder Deltacomputer21 . Rendering ist jedoch nicht mehr ausschließlich von der Leistung der CPU abhängig. Die Leistung der Grafikkarten hat, angetrieben durch die wachsenden Ansprüche der Computerspiele, in den letzten Jahren an Relevanz gewonnen. Zunehmend werden die Ressourcen der Grafikkarte und ihrer Prozessoren (GPUs, sinngemäß: Grafikprozessoren) genutzt, um nicht mehr ausschließlich 3D–Echtzeitberechnungen auszuführen. Es ist ein System auf den Markt gekommen, das beispielweise die Berechnung von physikalischen Wechselwirkungen simulierter Festkörper erlaubt, TM .22 Die Bedeutung solcher Systeme wird auch für fotorealistiR NvidiaPhysX sche Anwendungen zusehends interessanter. Mental Images hat mit Reality Server 3.0 ein System zur GPU-internen Echtzeitberechnung von 3D–Umgebungen herausgebracht. Dieses System macht die Interaktion mit einer auf einem Server abgelegten 3D Szene über ein Netzwerk möglich ohne die Notwendigkeit komplexer Berechnungen auf dem verbundenen Client[Fis09] Zusammenfassend lässt sich sagen, dass die Fertigung einzelner spezialisierter Komponenten den Einsatz von Konzentrierter zentraler Rechenleistung abgelöst hat. 2.3 Computer–Software Hier soll ein Überblick über die übliche 3D-Software vermittelt werden. Man unterscheidet Modeller, Sculpting-Software, Animationsprogramme, Multiagentensysteme, Renderer und Compositing Programme. Bei einem Modeller steht die Erstellung der Oberflächenmodelle virtueller Objekte im Vordergrund. Bei den Animationsprogrammen liegt der Schwerpunkt auf den virtuellen Bewegungsabläufen von Festkörpern oder Charakteren. Eine Besonderheit stellt das Multiagentensystem dar, bei dem spezielle Zielsetzung und Interaktion der einzelnen Agenten neben Bewegung auch Kampf, Flucht, Zusammenkunft oder ähnliche gruppendynamische Aktivitäten umfasst. Im Vordergrund steht dabei die Erstellung einer Vielzahl von Charakteren und deren Animationsablauf , ohne die Notwendigkeit der redundanten Animation einzelner Individuen. 17 http://computermuseum–muenchen.de/computer/compaq/slt286.html http://www.intel.com/Assets/PDF/Prodbrief/xeon–5500.pdf 19 http://h10010.www1.hp.com/wwpc/de/de/sm/WF02d/12454-12454-296719.html 20 http://www.apple.com/de/macpro/ 21 http://www.deltacomputer.de/produkte/cluster/angebot opteron workst.shtml 22 http://www.nvidia.de/object/nvidia physx de.html 18 12 Die Sculpting Software erweitert die wesentliche Funktionalität eines Modellers durch die Möglichkeit der Modellierung feiner Strukturen mit Pinsel, Griffel, Stempel und ähnlichen Werkzeuge aus der Malerei und Bildhauerei. Beim Renderer handelt es sich um die Bildsynthese-Software. Dieses Programm erzeugt unter der Anwendung einer physikbasierten Gleichung aus den Informationen des 3D Programms ein zweidimensionales Bild. 2.3.1 Überblick Die folgende Tabelle23 soll einen Überblick über gängige Modellierer und Rendering Software bieten. Nachfolgend soll noch einmal auf einige ausgewählte Software im Detail eingegangen werden. 23 http://en.wikipedia.org/wiki/3D computer graphics software 13 Produkt 3ds Max AC3D Aladdin4D Blender Carrara Cinema 4D formZ finalrender fryrender Houdini Hypershot LightWave3D LuxRender MASSIVE Maya Modo Mudbox Renderman Silo SketchUp Pro Softimage Swift 3D true Space Vray Vred Vue ZBrush Hersteller Autodesk Inivis Discreetfx Blender Foundation DAZ Productions MAXON AutoDesSys, Inc cebas VISUAL TECHNOLOGY Inc. randomcontrol Side Effects Software Bunkspeed NewTek Open Source Autodesk Luxology Autodesk Pixar Nevercenter Google Autodesk electric Rain Caligari Chaos Software PI-VR GmbH E-on Software Pixologic Schwerpunkt Modellierung, Auto-CAD kompatibel Modellierung Modellierung, Rendering Modellierung, Rendering, Sculpting Modellierung, Rendering Modellierung, Rendering Modellierung Rendering Rendering Multiagentensystem Rendering Modellierung, Animation, Rendering Rendering Character Animation, Multiagentensystem Modellierung, Animation, Rendering, Compositing Modellierung, Sculpting, Rendering Modellierung, Sculpting Rendering Modellierung Modellierung Modellierung, Animation, Rendering Modellierung, Animation, Flash Modellierung, Animation, Rendering Rendering Texturing, Rendering Modellierung von Ökosystemen, Rendering Modellierung, Sculpting Ein Überblick über aktuelle Rendersoftware 2.3.2 Autodesk Maya 2010 Bei Autodesk Maya 2010 handelt es sich um eine 3D-Modellierungssoftware, die mit eigenen Renderern (Maya Software, Hardware, Vector), dem populären Renderer Mental Images Mental Ray, sowie einer Vielzahl von Simulationswerkzeugen ausgeliefert wird. Neben der Modellierung können unter anderem Animationen von Festkörpern und Lebewesen (Skelettanimation) erstellt werden, Bewegung von Muskeln, Behaarung, Stoffen und Flüssigkeiten simuliert werden. Auch sogenannte Partikeleffekte wie Feuer oder Rauch können gestaltet werden. Mit dem mitgelieferten Programm Autodesk Matchmover können auch Kamerafahrten aus Realfilm nachvollzogen werden (Motion Tracking). In der aktuellen Version ist zudem ein Compositing-Werkzeug enthalten, das das 14 Zusammenführen mehrerer Bildquellen ermöglicht.24 2.3.3 Blender Bei Blender handelt es sich um eine Software, die in einem In-House-Projekt eines Animationsstudios entworfen wurde.25 Im Jahre 2002 wurde dieses Projekt unter GPL26 der Öffentlichkeit zur Verfügung gestellt. Seither wird diese Open-Source Software ständig erweitert. Die aktuelle Version ist Blender 2.49. Zum Funktionsumfang zählt unter anderem 3D-Modellierung, 3D-Sculpting (deutsch: Bildhauerei, Verformung), Skelettanimation sowie Partikel- und Flüssigkeitssimulation. Blender verfügt auch über einen eigenen Renderer und es ist möglich mit einer eingebauten Compositing- Software 2D- Effekte zu erzeugen. Eine Besonderheit stellt die Bullet Physics Library dar, eine OpenSource Schnittstelle mit der Physik-Effekte für Computerspiele erzeugt werden können.27 2.3.4 R Mental Images Mental Ray Mental Ray ist eine eigenständige Rendersoftware der Firma Mental Images, die sowohl als Standalone-Variante als auch als integraler Bestandteil verschiedener Modellierungssoftware, wie 3D Studio Max oder Maya vertrieben wird. Mit Mental Ray lassen sich sowohl komplexe, naturalistische als auch stilisierte, comicartige Szenen berechnen. Mit der Software stehen eine Vielzahl unterschiedlicher Lichtsimulationsverfahren zur Verfügung, bei denen Lichtstrahlen oder Photonen in ihrer natürlichen Verhaltensweise simuliert und manipuliert werden können. Mental Ray enthält voreingestellte und in ihrer Wirkung beliebig veränderbare Materialien, die einen Schwerpunkt auf Produkt- und Architekturvisualisierung setzen. Die Vielfalt der Simulationsmöglichkeiten erlaubt dabei die Kreation sowohl natürlicher als auch irreal wirkender Darstellungen und macht Mental Ray zu einer attraktiven Lösung für die Werbe- und Filmindustrie. Die Komplexität der Software und Menge an möglichen Einstellungen macht eine intensive Einarbeitung nötig, für die ein eigener Markt an Tutorien und Seminaren entstanden ist. 2.3.5 Next Limit Maxwell V2 Maxwell V2 ist die aktuelle Version des von der Firma Next Limit entwickelten Brute Force- Renderers. Dieser wird als Eigenständiges Paket aus einem Programm zur Entwicklung von Szenen, einem Materialeditor, einem Renderer und einem Netzwerkmanager ausgeliefert. Die Anbindung an gängige Modellierungssoftware wie Maya wird unter Verwendung eines Plugins realisiert, das die Funktionen des Materialeditors, einer Materialbibliothek und die Ansteuerung der Rendersoftware innerhalb des verwendeten Modellierungsprogramms 24 http://images.autodesk.com/emea dach main germany/files/maya 2010 product brochure a4 de.pdf http://www.blender.org/development/architecture/ 26 http://www.gnu.de 27 http://www.blender.org/features–gallery/features/ 25 15 zugänglich macht. Wird das Rendern eines Bildes in Auftrag gegeben, wird automatisch die vorhandene Szene im Maxwell-Format *.mxs exportiert und im Renderer geladen. Die Qualität des Ergebnisses ist von der Anzahl der Wiederholungen abhängig, mit der das Bild berechnet wird. Damit liegt zunächst ein zufälliges Bildrauschen vor, das mit steigender Anzahl sogenannter SamplingLevel verschwindet und ein zunehmend klareres Bild hervorbringt. Die Firma Next Limit unterhält eine Internetplattform28 , die ein Diskussionsforum, eine Sammlung von Tutorien sowie eine kostenlose Tauschbörse für Material-Dateien bietet. Letztere ist in der aktuellen Version 2.1 aus der Materialbibliothek des Renderers einsehbar und es können Materialien von dort in die eigene Bibliothek eingepflegt werden. Der Zuspruch der Besucher und Wettbewerbe in der Erstellung von speziellen Materialien hat eine Vielzahl von gebrauchsfertigen Materialdateien hervorgebracht, die im Bereich der Architektur- und Produktvisualisierung eingesetzt werden können. 2.4 Zusammenfassung In diesem Kapitel wurden die in der Produktion eingesetzten Techniken sowie Hard- und Software behandelt. Zu Hard- und Software muss erwähnt werden, dass es sich dabei um Produkte handelt, die jeweils in einer bestimmten Disziplin Höchstleistungen erbringen können. Diese Fähigkeit schlägt sich auch in der Preisgestaltung nieder. Grundsätzlich kann das im praktischen Teil der Diplomarbeit eingesetzte Verfahren oder auch z.B. die vorgestellte Mirrorball- Technik auch unter Verwendung günstigerer Produkte aus dem Comsumer-Bereich durchgeführt werden. In der Regel resultiert diese Möglichkeit allerdings in einem höherem Zeitbedarf, der in einer industriellen Produktion jedoch nicht gedeckt werden kann. 28 http://www.maxwellrender.com/ 16 3 High Dynamic Range-Imaging Die Anfertigung eines HDR-I (High Dynamic Range-Image) geschieht mit dem Ziel, die Bandbreite der Bildinformationen eines Motivs zu erfassen, ohne dabei auf die Grenzen der Darstellbarkeit Rücksicht nehmen zu müssen. In diesem Kapitel werden zunächst einige Grundlagen erarbeitet, die die Bedeutung der HDR Technik für die Fotografie veranschaulichen. Es wird die Entstehung eines solchen Bildes im Hinblick auf den Einsatz als Lichtquelle anhand eines Beispiels erklärt. Dazu werden mehrere deckungsgleiche Einzelbilder angefertigt, die später digital zu einem Gesamtbild mit hohem Dynamikumfang verschmolzen werden. Außerdem wird die Optimierung eines HDR-I für die Betrachtung auf Wiedergabemedien mit niedrigem Dynamikbereich erläutert. 3.1 Grundlagen In diesem Abschnitt wird erklärt, welche technischen Vorzüge die HDR-Fotografie gegenüber der konventionellen Technik hat. Dazu werden einige Grundlagen der Fotografie vermittelt und Messgrößen eingeführt, mit denen diese Vorteile beschrieben werden können. 3.1.1 Fotografie Die Aufnahme einer Fotografie ist naturgemäß an Rahmenbedingungen gekoppelt, die von der physikalischen Beschaffenheit des Aufnahmemediums abhängen. In der klassischen analogen Fotografie sind es die kristallinen Partikel auf der Filmoberfläche, in der digitalen Fotografie die Sensoren auf der CCD (chargecoupled device) oder CMOS(complementary metal oxide semiconductor)29 Oberfläche. Durch die Betätigung des Auslösers wird eine Reihe von Mechanismen in Gang gebracht, die dazu führen, dass die Umgebung vor dem Objektiv für eine bestimmte Zeit, sie wird Verschlusszeit genannt, auf eine Fläche im Inneren der Kamera projiziert wird. In dieser Zeit tritt eine Veränderung in den kleinsten Bestandteilen dieser Oberfläche ein, die ein Konservieren des Abbildes zur Folge hat. In jedem Fall liegen diese Vorgänge in physikalischen Grenzen, die für das Abbild in limitiertem farblichem Auflösungsvermögen resultieren. Das ist darauf zurückzuführen, dass die in der Verschlusszeit einfallende Lichtmenge aus unterschiedlichen Teilmengen größerer und kleinerer Lichtintensität besteht. Da die Helligkeit des Ausgabemediums an einer Stelle primär von der Zeit abhängt, die ein bestimmter Bereich der Umgebung auf das Medium projiziert wurde, bedingt die Belichtungsqualität eines Bereichs gleichermaßen die eines beliebigen anderen Bereichs des abgebildeten Motivs. Ist für die Abbildung einer beliebigen hellen Stelle des Motivs gerade ausreichend Zeit vergangen, ist das nicht unmittelbar damit verbunden, dass eine dunkle Stelle des Motivs hinreichend Zeit hatte, um auf dem Medium eine nennenswerte Reaktion zu erwirken. Resultiert dies im verlorenen Detail, spricht man von Unterbelichtung. Umgekehrt verhält es sich ähnlich: Wird eine Dunkle Stelle des Motivs lange genug auf das Medium projiziert um detaillierte Helligkeitsnuancen herauszuarbeiten, 29 http://www.dalsa.com/corp/markets/CCD vs CMOS.aspx 17 Abbildung 12: Unterschiedliche Kontrastverhältnisse bei 24 bit JPEG (links) und 8 bit GIF (rechts). Deutlich erkennbare Farbstufen im GIF-Bild kann das zur Folge haben, dass eine hellere Stelle in der Zwischenzeit einer Lichtmenge ausgesetzt war die zur größten darstellbaren Helligkeit geführt hat. Diesen Fall bezeichnet man als Überbelichtung. Oftmals ist bei der Aufnahme eines Motivs deshalb ein Kompromiss gefragt. Hilfreich ist hier der Belichtungsmesser der Kamera, der im Aufnahmemodus Automatik bereits für eine von der Kamera gesteuerte Auswahl der Blende und Belichtungszeit sorgt. Dennoch resultiert die unterschiedliche Lichtintensität auf den Teilbereichen eines Motivs oft in einer Fotografie mit mangelhafter Belichtung. Sofern dieses Ergebnis nicht beabsichtigtes Resultat eines kreativen Ausdrucks ist, eröffnet sich im darauf folgenden Entwicklungsprozess die Möglichkeit, Dunkelkammertechniken zur Anwendung zu bringen, um Teilbereiche des Bildes heller oder dunkler erscheinen zu lassen. Ein anderer Lösungsansatz besteht darin, eine Anzahl Fotografien unterschiedlicher Belichtung anzufertigen und die Teilbereiche mit den individuell besten Ergebnissen zu einem Gesamtbild zu kombinieren. Diese Techniken finden sowohl in der analogen als auch in der digitalen Fotografie Anwendung. 3.1.2 Der Dynamikbereich Die Menge an unterschiedlichen Farbnuancen, die in einem Motiv vorkommen, wird Motivkontrast genannt. Von dieser Informationsmenge kann nur ein Teil von heutigen analogen und digitalen Medien abgebildet werden. Die Bandbreite unterschiedlicher Helligkeitswerte, die ein Abbild enthält, gibt den Dynamikbereich eines Bildes vor. Das Helligkeitsverhältnis des geringsten von Schwarz verschiedenen Tonwerts und der größtmöglichen darstellbaren Helligkeit wird als Kontrastverhältnis bezeichnet. Enthält ein Bild beispielsweise 10 von schwarz verschiedene Helligkeitswerte, ist sein Kontrastverhältnis mit 10:1 anzugeben. Das Menschliche Auge kann durch einen Anpassungsprozess an die wahrgenomme Lichtsituation Kontrastverhältnisse von 1:1000000 wahrnehmen [Blo08]. Dieser Prozess, bei dem der Dynamikbereich auf verschiedene Hintergrundhelligkeiten verschoben werden kann wird Adaptation genannt [GH03]. In Abbildung 12 ist das Rendering einer diffus reflektierenden Fläche zu sehen, die von einer Seite großflächig beleuchtet wird. Durch die mit steigender Entfernung abfallende Lichtintensität erscheint die Projektion des Leuchtkörpers als ein schwarz-weißer Helligkeitsverlauf auf der Fläche. Dieses Bild wird im JPEG–Format mit einer Farbtiefe von 24 bit, und in einer zweiten Variante im 18 GIF-Format mit einer Farbtiefe von 8 bit abgespeichert. Es ist zu erkennen, dass bei der 8 bit Variante offenbar eine Farbmittelwertbildung durchgeführt wurde, die sich in einer deutlichen Abstufung der Farbnuancen äußert. Daraus kann man schließen, dass der offensichtlich höhere Motivkontrast durch die Kodierung in einen geringeren Farbraum komprimiert wurde und nun ein geringeres Kontrastverhältnis vorliegt als bei der Vergleichsvariante. Der nutzbare Dynamikbereich eines Bildes hängt also in der Digitalfotografie von der zur Verfügung stehenden Farbtiefe ab. Dennoch darf die Farbtiefe einer Bilddatei nicht dazu verwendet werden, um Rückschluss auf den Dynamikbereich einer Abbildung zu ziehen. Die Farbtiefe ist lediglich als ein Farbkasten zu verstehen, in dem eine begrenzte Anzahl Nuancen Platz findet. Ist die gewünschte Farbe nicht auffindbar, wird sie durch eine artverwandte Farbe ersetzt. Ebenso kann es aber auch vorkommen, dass der zur Verfügung stehende Farbraum ungenutzt bleibt. Beispielsweise würde ein Abspeichern der 8 bit Variante in einem Format mit 16 oder 32 bit nicht die verloren gegangenen Kontraste zurückholen. 3.1.3 Zielsetzung HDR-I Heutige Digitalkameras erzeugen Bilder mit Farbtiefen von bis zu 32 bit pro Farbkanal. Wie viel davon tatsächlich genutzt wird, hängt zum Einen von der Qualität des Sensors und der Verarbeitung der Rohdaten durch die Betriebssoftware der Kamera ab, zum Anderen spielt die Art und Weise der Belichtung dafür eine große Rolle. HDR-Bilder werden in der Regel ebenfalls mit einer Farbtiefe von 32 bit pro Farbkanal abgespeichert. Es wäre jedoch nicht sinngemäß, bei jeder 32 bit Datei von einem hohen Dynamikbereich zu sprechen. Der Grund dafür ist, dass es im Verständnis der HDR-I Fotografie liegt, einen vorhandenen Dynamikbereich zu erweitern und bei der Verarbeitung der Daten auf einen größeren Spielraum zurückgreifen zu können als es ein Bild mit niedrigem Dynamikbereich zulassen würde. Wie in Kapitel 3.1.1 angesprochen, führt eine zu lange Belichtungszeit zur Überbelichtung, eine zu kurze Belichtungszeit zur Unterbelichtung. Führt man die vorteilhaft belichteten Partien der Bilder zusammen, kann das Ergebnis einem optimal belichteten Bild gleichkommen und sogar dessen Möglichkeiten übertreffen. Auf dieser Grundlage wird ein HDR-I erstellt. Um ein zielgerichtetes Verfahren beschreiben zu können, bedarf es an dieser Stelle einer weiteren Definition. Es handelt sich um den Lichtwert (abk.: LW oder EV für engl: exposure value). Definitionsgemäß ist 0 LW die Menge Licht, die in 1 s bei Blende 1 in das Kameragehäuse einfällt. Für jede Erhöhung der Blende um einen Schritt oder Halbierung der Belichtungszeit wird 1 LW addiert. Daraus ergibt sich folgende offene Tabelle: 19 Belichtungszeit 4s 2s 1s 0.5s 0.25s 0.125s ... f1 -2 -1 0 1 2 3 ... f1.4 -1 0 1 2 3 4 ... f2 0 1 2 3 4 5 ... f2.8 1 2 3 4 5 6 ... Blende f4 f5.6 2 3 3 4 4 5 5 6 6 7 7 8 ... ... f8 4 5 6 7 8 9 ... f11 5 6 7 8 9 10 ...... f16 6 7 8 9 10 11 ... ... ... ... ... ... ... ... ... Beleuchtungstabelle: Lichtwerte im Zusammenhang mit Blende und Belichtungszeit Der Lichtwert wird in der Praxis meist als relative Angabe verwendet. Viele Kameras geben ihn im manuellen Modus in Form einer Skala an. Die Stellung Null“ gibt dabei die vom Belichtungssensor berechnete optimale Belichtungs” zeit an. Zielt man mit der Kamera auf einen helleren oder dunkleren Bereich, wird die Skala einen von 0 verschiedenen Wert anzeigen. Für die Aufnahme eines HDR-I ist die Aufnahme mit 0 LW der Ausgangspunkt. Je nach Farbtiefe eines Einzelbildes werden weitere Aufnahmen in größeren oder kleineren Lichtwertstufen angefertigt. In den folgenden Abschnitten wird erklärt, welche Ausrüstung dafür benötigt, wie das Ausgangsmaterial angefertigt und zu einem HDR-I verschmolzen wird. 3.2 Die Ausrüstung Im Rahmen der Diplomarbeit wurde die Erstellung der HDR-I Panoramen auf dem Wege der Segmenttechnik durchgeführt. Im folgenden Abschnitt soll beschrieben werden, welche Hilfsmittel und Techniken hierzu verwendet wurden. Zur Auswahl standen zwei unterschiedliche Kamerasysteme. 3.2.1 Canon EOS 5D (Mark 1) Bei der Canon EOS 5D (Mark 1)(s. Abb. 13) handelt es sich um eine digitale Spiegelreflexkamera, die mit einem Vollformat CMOS Sensor in der Grösse 35,8 x 23,9 mm2 und 12,8 Megapixeln ausgestattet ist.30 Dabei sind Empfindlichkeiten von 100 - 1600 ISO möglich. An der Kamera können Verschlusszeiten zwischen 1/8000 s und 30 s eingestellt werden. Optional zur Bedienung an der Kamera kann die Einstellung und Auslösung auch über verschiedene Fernauslöser sowie einen tragbaren Computer mit entsprechender Software (EOS Capture) erfolgen. Die Bilddaten werden roh oder komprimiert auf einer CFSpeicherkarte oder im Falle der Bedienung mit EOS Capture direkt auf dem Rechner abgelegt. 30 www.canon.de 20 Abbildung 13: Canon EOS 5D An der EOS 5D können unterschiedliche Objektive zum Einsatz kommen. Im Rahmen der Diplomarbeit standen ein 100mm Makro-Objektiv sowie ein 50mm Normal-Objektiv(s. Abb. 14) zur Auswahl. 3.2.2 Mamiya 645 AFDII, Capture One P45 Die Mamiya 645 AFDII (s. Abb. 15) ist eine Mittelformat–Spiegelreflexkamera, die mit einer MSCE Standard Schnittstelle für Digitalrückteile [. . .] direkt kompatibel zu den Digitalrückteilen verschiedener Hersteller ist. [M6403]. Die Kamera unterstützt Belichtungszeiten zwischen 1/4000 s und 30 s. Sie kann mit unterschiedlichen Objektiven verwendet werden, in diesem Fall standen ein 35 mm Weitwinkel–Objektiv, ein 80 mm Normal - Objektiv, sowie ein 150 mm Makro - Objektiv zur Auswahl. Als Digitalrückteil kam ein P45 der Firma Phase One31 zum Einsatz. Dieses Digitalrückteil verfügt über einen Vollformat CCD-Sensor im 4:3 Format und einer Auflösung von 39 Megapixeln. Die einstellbare Empfindlichkeit beträgt 50 - 400 ISO. Das Digitalrückteil verfügt über ein Laufwerk für CF Speicherkarten, auf die es die Bilddaten im Rohformat *.IIQ ablegt. Das System aus Kamera und Digitalrückteil kann von einem tragbaren Rechner über die Software Capture One DB ferngesteuert werden, wobei optional die Auslösung und Speicherung der Daten seitens des Rechners erfolgen. 31 http://www.phaseone.com 21 Abbildung 14: Canon 50 mm Normalobjektiv Abbildung 15: Capture One P45, Mamiya 645 AFDII 22 Abbildung 16: Aufbau der Ausrüstung beim Panorama Scheune“ ” 3.2.3 Zubehör Für die Panorama - Aufnahmen wurde eine Reihe von Zubehör benötigt. Unter Anderem kam ein Stativ vom Typ Manfrotto 190DB (s. Abb. ??) zum Einsatz. Es ist ein Dreibeinstativ mit einer Montageplatte für Stativköpfe und wurde mit einem Triton PH46 (s. Abb. 17) bestückt. Dieser Kugelkopf ermöglicht dem Benutzer, die darauf montierte Kamera in einem Bereich von 180◦ x 360◦ Betrachtungswinkel einzusetzen. Ein Novoflex Castel-L-Einstellschlitten (s. Abb. 17) ergänzte den Aufbau. Für die rechnergestützte Fernbedienung der Kameras wurden zwei tragbare Computer eingesetzt. Die EOS Capture Software wurde auf einem Asus EEE Pc 1000H betrieben. Für die Capture One Software wurde ein Apple Macbook Pro eingesetzt. Beide Systeme zeichnen sich durch eine Akkulaufzeit von mehreren Stunden aus, der Apple Rechner verfügt darüber hinaus über einen IEEE 1394 - Anschluss, der für den Betrieb des P45 am Rechner erforderlich ist. 3.3 Die Software Im Folgenden soll die verwendete Software vorgestellt werden, die zur Erstellung und Bearbeitung der Fotografien eingesetzt wurde. 3.3.1 Capture One DB Capture One DB32 ist eine Software zum Entwickeln von Kamerarohdaten des Capture One P45 Digitalrückteils. Hier kann das Raw-Format *.iiq eingelesen 32 http://www.phaseone.com 23 Abbildung 17: Stativkopf Triton PH46 / Einstellschlitten Novoflex Castel -L Abbildung 18: Objektiv Mamiya 35mm / AF Drahtauslöser Hama / Stativ Manfrotto 24 Abbildung 19: Benutzeroberfläche PTGui werden und fotografische Techniken wie Tonwertkorrektur und Weißabgleich durchgeführt werden. Alle Änderungen eines Fotos können auch auf beliebige andere Fotos übertragen und in Form einer Stapelverarbeitung zur Anwendung gebracht und in üblichen Dateiformaten abgespeichert werden. Dazu zählen unter anderem Targa (*.tga), Bitmap (*.bmp), Joint-Picture Experts Group (*.jpg) oder Tagged-Image File Format (*.tiff). Letzteres ermöglicht eine Speicherung der Bilddaten in einer Farbtiefe von bis zu 32 bit pro Farbkanal. 3.3.2 PTGui PTGui33 (s.Abb.19) ist eine kostenpflichtige Distribution verschiedener OpenSource Programme (Panorama Tools), deren Funktionsumfang über eine einheitliche Benutzerschnittstelle (Gui) zugänglich gemacht wird. Mit PTGui ist es möglich, große Mengen Einzelbilder automatisch zu einem Panoramabild anzuordnen und nahtlos aneinander zu fügen. Es unterstützt zudem das Verschmelzen von Belichtungsreihen zu HDR-Aufnahmen, sodass die Erstellung eines HDRI-Panoramas in einem Arbeitsgang durchgeführt werden kann. In der kostenpflichtigen Version PTGui Pro ist die Stapelverarbeitung (Batch Processing) mehrerer Arbeitsaufträge möglich. 3.3.3 EXIFeditor EXIFeditor34 ist ein kostenloses Programm, mit dem die Metadaten (Exif35 Daten, s. Abb.20) von Digitalfotografien als Textdatei exportiert, manipuliert und importiert werden können. Es können beispielsweise einzelne Parameter wie Belichtungszeit, Datum oder Autor bearbeitet werden, oder auch das Vorschaubild (Thumbnail) verändert werden. 3.3.4 Adobe Photoshop Photoshop CS336 (s.Abb.21) ist ein universelles Bildbearbeitungsprogramm, das eine Vielzahl fotografische und gestalterische Hilfsmittel zur Verfügung stellt, 33 www.ptgui.com/ http://www.heise.de/software/download/exifeditor 35 Exchangeable Image File Format 36 www.Adobe.com/Photoshop 34 25 Abbildung 20: Benutzeroberfläche EXIF Editor Abbildung 21: Benutzeroberfläche Photoshop CS3 um eine ganzheitliche Bildbearbeitung durchführen zu können. Der Funktionsumfang reicht von Dunkelkammertechniken über Utensilien aus dem Bereich der Malerei und Grafik hin zu Komposition verschiedener Bildinhalte auf der Basis von Ebenen. Photoshop enthält zudem eine Funktion zur Erstellung von HDR-Bildern und einige Werkzeuge zu deren Manipulation. Auch können dreidimensionale Objekte (aus einem Modellierungsprogramm) in Photoshop importiert werden, um eine Texturierung der Oberfläche zu vereinfachen, indem diese mit herkömmlichen Mitteln der Bildgestaltung bearbeitet wird. Es ermöglicht darüber hinaus das Speichern von Dateien oberhalb der Größe von 2 Gb im proprietären Format *.psb. Die aktuelle Version von Photoshop ist CS4. 3.4 3.4.1 HDRI-Panaromafotografie mit der Segmenttechnik Einleitung Seitens der technischen Ausrüstung sind einige Maßgaben zu beachten, damit die deckungsgleiche Aufnahme der Belichtungssequenz gelingen kann. Um 26 eine unerwünschte Bewegung der Kamera und die resultierende Veränderung des Bildausschnitts auszuschließen, ist die Verwendung eines Dreibeinstativs zu empfehlen. Zudem sollte die Kamera trotz der Montage auf dem Stativ zwischen den einzelnen Aufnahmen nicht mehr berührt werden. Die beiden verwendeten Kameras verfügen über eine Belichtungsreihenautomatik, die drei Einzelbilder mit unterschiedlicher Belichtung automatisch aufnimmt. Sollen jedoch beispielsweise mehr als drei Einzelaufnahmen angefertigt werden, ist die Verwendung einer Fernbedienung empfehlenswert, da eine Berührung der Kamera zwischen den Aufnahmen unerwünschte Blickwinkelunterschiede zwischen den Einzelbildern nach sich ziehen kann. Üblicherweise kommt hier ein tragbarer Rechner zum Einsatz, der über eine entsprechende Software verfügt und mit der Kamera verbunden ist. Die HDRI Fotografie ist jedoch ebenfalls mit Zugeständnissen verbunden. Das Aufnehmen einer deckungsgleichen Bildserie bringt eine Reihe von Rahmenbedingungen mit sich, die es zu beachten gilt. So geschieht das Aufnehmen der Fotos in einer Sequenz und damit in einem Zeitfenster. Zu einer Vielzahl von zeitabhängigen Bestandteilen innerhalb des Motivs, wie zum Beispiel Sonne, Schatten, Wetterlage, Windbewegung in Wasser, Wolken oder Vegetation geschehen noch andere mehr oder weniger vorhersehbare Ereignisse, wie Bewegung von Menschen, Tieren oder Verkehrsmitteln. Oft sind deshalb die unterschiedlichen Belichtungsstufen nicht vollständig deckungsgleich. 3.4.2 Positionierung und Aufnahme Nachdem das gewünschte Motiv festgelegt ist, muss der Standort der Kamera bestimmt werden. Vorzugsweise ist der Ort zu wählen, an dem die Umgebung der Kamera unabhängig von der Wahl des Bildausschnitts gleich scharf erscheint. Ein nahtloses Verschmelzen der Belichtungssequenz (Brackets) ist nur dann möglich, wenn der Fokalpunkt in allen Bildern eine gleich bleibende Entfernung zur Kamera aufweist. Aus diesem Grund ist darauf zu achten, dass die Autofokus-Funktion der Kamera während der gesamten Panoramaaufnahme deaktiviert ist. Einige Testaufnahmen mit unterschiedlichen Blenden im Modus Zeitautomatik helfen, eine geeignete Blende mit ausreichender Tiefenschärfe zu ermitteln. Diese wird im manuellen Betriebsmodus der Kamera für alle Belichtungsreihen der Szene übernommen. Eine Veränderung würde erneut die Tiefenschärfe modifizieren und hätte somit die gleichen Folgen wie eine direkte Änderung des Fokalpunktes. Dennoch darf im Falle der Anwendung als Licht- und Reflexionsquelle eines computergenerierten Bildes (CGI) das Projektionszentrum der Aufnahme keines Falls beliebig gewählt werden. Der visuelle Kontext in der Reflexion der virtuellen Gegenstände macht es deutlich. Somit ist als Standort für das Stativ oder der Spiegelkugel im Idealfall der spätere Mittelpunkt der virtuellen Szene zu wählen. Die Aufnahme des Hintergrundbildes, der sogenannten Backplate“ zu Beginn der Produktion eröffnet ” die Möglichkeit, diesen Punkt zielgerichtet zu wählen. Ist die kugelförmige Projektion des Panoramas bei der Komposition eines computergenerierten Bildes nicht als unmittelbare Umgebung der Backplate zu begreifen, kommt es zu optischen Widersprüchen im Gesamtbild. Es ist zum Beispiel mit einer Verzeichnung der Umgebung in der Spiegelung auf der Oberfläche des virtuellen Gegenstands 27 Abbildung 22: Logische Problematik der Zusammengehörigkeit von Backplate und Panorama: In der Reflexion scheint das Glas in der Luft zu schweben. zu rechnen und der Gegenstand verliert die bei der Betrachtung subjektiv erfahrene Zugehörigkeit zum visuellen Kontext. Abbildung 22 soll erläutern, wie dieser Eindruck zu Stande kommt. Der Mittelpunkt des aufgenommenen Panoramas befindet sich im räumlichen Mittelpunkt der Kapelle. Inhaltlicher Zentralpunkt der Backplate ist jedoch der abgebildete Steinaltar, auf dem die virtuellen Gegenstände angeordnet sind. Das resultiert in einer irreführenden Reflexion auf den Gegenständen. Das Glas bricht die Projektion des scheinbar hinter ihm befindlichen Altars und scheint dabei, erkennbar in der Reflexion der Kugel, in der Luft zu schweben. Ist ein adäquater Zentralpunkt für das Panorama gefunden, kann die Aufnahme vorbereitet werden. Dazu wird zunächst das Stativ im Zentralpunkt aufgebaut und die Montageplatte in eine waagerechte Position gebracht. Als nächstes erfolgt die Ermittlung der Belichtungsreihe. Hier kommt der integrierte Belichtungsmesser der Kamera zum Einsatz. Die Kamera wird auf den hellsten Punkt der Szene ausgerichtet und die Belichtungszeit so gewählt, dass sich für den Lichtwert (EV) ± 0 ergibt. Diese Belichtungszeit wird notiert und das gleiche Verfahren für den dunkelsten Punkt der Szene wiederholt. Die beiden Belichtungszeiten ergeben die Grenzen, in denen die Belichtungsreihe aufgenommen werden soll. Dazwischen wird eine Anzahl weiterer Belichtungszeiten festgelegt, wobei die Schritte so zu wählen sind, dass sich eine resultierende Änderung des Lichtwerts <2 ergibt. Da diese Grenzen den Dynamikumfang des Resultats festlegen, ist an dieser Stelle die Aufnahme einer Testsequenz zu empfehlen. Diese wird dann auf Vorhandensein aller gewünschten Details überprüft und gegebenenfalls durch Ergänzung weiterer Belichtungszeiten in der Sequenz angepasst. Für die Verschmelzung mehrerer Aufnahmen zu einem HDR-I sind mindestens zwei Aufnahmen vonnöten. Die Obergrenze für die Anzahl der Einzelaufnahmen ist dort anzusiedeln, wo der zeitliche Aufwand zur Erstellung des gesamten Rohmaterials in einem merklichen Kontextverlust der aufeinander folgenden Bilder resultiert. Ein Panorama eines Ortes mit rein künstlicher Beleuchtung, ohne Bewegung seiner Bestandteile in ihrer Postition zueinander, 28 Abbildung 23: Nicht kontinuierlicher Schattenwurf zwischen zwei Belichtungsreihen ist von dieser Grenze nicht betroffen. Man stelle sich in diesem Zusammenhang einen U-Bahnhof bei Nacht oder ein Opernhaus ohne Publikum vor. Viele Szenarien enthalten jedoch veränderliche Bildinhalte. Bei einem Motiv unter freiem Himmel ist durch die Erdrotation ein sich ständig veränderndes Schattenspiel zu beobachten. Wenn zwischen den Einzelnen Umrundungen gleicher Höhe zu viel Zeit vergeht, können Abrisse im Schatten auftreten (s. Abb. 23). Es ist möglich, unter Angabe der Brennweite und der Sensorgröße die erwartete Anzahl der Bilder zu berechnen. Voraussetzung dafür ist die strikte Einhaltung der Winkel sowie der Überlappung zwischen den Bildern. Dazu sind Internetseiten mit Kalkulatoren verfügbar, die zum Teil Voreinstellungen für verschiedene Kameratypen und Objektive enthalten, beispielsweise die Seite von Frank van der Pol 37 oder der Kalkulator auf Excel Basis von Matt Nolan38 . Auf Grund der Vielzahl der verschiedenen Kameramodelle und Objektive, die zum Teil Unterschiede zwischen möglicher und tatsächlicher Bildweite aufweisen, sind die entsprechenden Daten beim Hersteller einzuholen und danach eine Tabelle anzufertigen. Dieses Beispiel bezieht sich auf die verwendete Kamera Canon Eos 5D: Brennweite [mm] 80mm 50mm 35mm 16mm HFoV [◦ ] 25,36 39,6 54,43 96,73 Anzahl 19 12 9 5 Auflösung [px] 62000 40000 28000 16000 VFov [◦ ] 17,06 26,9 37,85 73,74 Anzahl 14 9 6 3 Auflösung [px] 31000 20000 14000 8000 Aufl. Pano [Gpx] 1,91 0,77 0,4 0,12 Bilder gesamt 266 108 54 15 Tabelle: Auflösung der Panoramen in Zusammenhang mit der Brennweite. Gerundete Werte für Bildanzahl und Auflösung Auffällig dabei ist, dass mit abnehmender Brennweite auch die Anzahl der nötigen Bilder kleiner wird, was auf das Verhältnis von Brennweite und Bildwin37 38 http://www.frankvanderpol.nl/fov pan calc de.htm http://www.panotools.org/mailarchive/msg/64744 29 kel zurückzuführen ist. In der Kapelle wurde die Aufnahme mit einem 50mm Objektiv durchgeführt. Werden die errechneten Werte für die Aufnahme in der Horizontalen und der Vertikalen multipliziert, ergeben sich 108 Bilder für eine Belichtungsstufe. Multipliziert mit der Anzahl der Bilder, die für eine Verschmelzung zum HDR-I nötig sind (in diesem Fall fünf), beläuft sich die Anzahl für das Panorama der Kapelle auf 540 Bilder. Bei einem mittleren Zeitbedarf von 12s pro Bild ist dafür ein Zeitfenster von etwa 2 Stunden zu kalkulieren. Hinzuzufügen ist hier, das solche Tabellen keinen genauen Rückschluss auf den tatsächlichen Zeitbedarf für den praktischen Einsatz zulassen. Es soll vielmehr vermittelt werden, in welcher Größenordnung sich die Unterschiede in Auflösung und Zeitbedarf, bedingt durch die Brennweite, äußern. Dies soll die Wahl der möglichen Objektive anwendungsgerecht eingrenzen. Der Stativkopf, in diesem Fall eine Kombination aus Kugelkopf und Einstellschlitten, wird so eingestellt, dass bei Drehung der Kamera keine optische Verschiebung zwischen Vorder-, Mittel- und Hintergrund auftritt. Dies ist gewährleistet, wenn sich der sogenannte Nodalpunkt im Zentrum der Drehachse des Objektivs befindet. Der hier verwendete Aufbau macht es nötig, diesen Punkt nach jeder Drehung um die horizontale Achse neu einzustellen. Bei der Belichtung der Aufnahmen ist darauf zu achten, dass zwischen jeder Belichtungssequenz etwa 25% Überlappung des Bildinhalts vorliegt. Dies ist nötig, um ausreichend Spielraum zum Auffinden möglicher Referenzpunkte im Bild zu gewährleisten. (siehe Kapitel 3.4.5) 3.4.3 Bildverarbeitung In diesem Abschnitt soll dargestellt werden, wie aus den Rohdaten ein Panoramabild entsteht. Zunächst liegen die Fotografien in einem Rohformat39 vor. In diesem Fall handelt es sich um *.tiff Dateien. Sie sind im entsprechenden Programm für die Entwicklung (abhängig vom Typ der Kamera) zu öffnen und zunächst auf Vollständigkeit zu überprüfen. Das hat den Vorteil, dass fehlende Belichtungen im Vorfeld bemerkt werden und erspart eine zeitintensive Fehlersuche innerhalb der Panoramasoftware. Wie eine fehlende Belichtung ergänzt werden kann, soll im folgenden Beispiel unter Verwendung der Software EXIFeditor und des Entwicklungsprogramms erläutert werden. Gegeben sei die folgende Belichtungssequenz: 1/15s 1/30s 1/60s 1/125s 1/250s Die Aufnahme mit der Belichtungszeit 1/60 s fehlt. Sie soll ergänzt werden, indem die Kopie einer benachbarten Fotografie nachbelichtet wird. Aus der Tabelle (siehe S.19) wird entnommen, dass bei einer Verdoppelung der Belichtungszeit der Lichtwert (EV) um den Wert 1 abnimmt. Das Entwicklungsprogramm Capture One DB stellt eine Funktion zur Belichtungskorrektur zur Verfügung. Wendet man auf die Aufnahme mit 1/30 s eine Belichtungskorrektur mit +1 39 Das optionale Rohformat (engl.:Raw file) und seine Dateiendung sind vom Kamerahersteller abhängig 30 Abbildung 24: PTGui: Für die CGI Anwendung wichtig: Um eine automatische Tonwertkompression zu verhindern, ist im Fenster Bracketed Exposures True ” HDR“ zu wählen EV an, erhält man ein Ergebnis, das einer Aufnahme mit 1/60 s Belichtungszeit entspricht. Noch fügt sich die manipulierte Aufnahme nicht vollständig in die Belichtungsreihe ein. In den Exif-Daten ist noch der ursprüngliche Wert von 1/30 s abgelegt, dessen Änderung in Kapitel 3.4.4 beschrieben wird. Um den Arbeitsablauf im Entwicklungsprogramm abzuschließen, sind hier zunächst noch alle gewünschten weiteren Einstellungen (z.B. Weißabgleich) vorzunehmen. Die entwickelten Bilder können exportiert und in einem separaten Ordner abgespeichert werden. 3.4.4 Bearbeitung der Exif Daten Im Beispiel aus dem Abschnitt 3.4.3 wurde eine Bilddatei mit korrigierter Belichtung erzeugt. Diese Datei soll nun einen Exif-Datensatz erhalten, der ihrem neuen Belichtungswert (1/60 s) entspricht. Dazu wird eine zweite Datei mit einer tatsächlichen Belichtungszeit von 1/60 s benötigt. Mit dem Programm EXIFeditor wird der Exif-Datensatz dieser Datei extrahiert und in einer *.xml Datei abgelegt. Die Datei mit der korrigierten Belichtung wird nun in den EXIFeditor geladen, mit dem Datensatz aus der *.xml Datei versehen und gespeichert. 3.4.5 Erzeugen eines HDR-Panoramas Die vorhandenen Bilder sollen nun zu einem Panorama vernäht werden, ein Vorgang der als Stitching“ (to stitch: nähen) bezeichnet wird. Im Programm ” PTGui wird nun ein neues Projekt angelegt und die entwickelten Bilder dort hineingeladen. Hier ist darauf zu achten, dass das Programm die Brennweite des Objektivs und den Crop-Faktor (Verkürzungsfaktor des Bildausschnitts bedingt durch die Sensorgröße) korrekt anzeigt (s. Abb. 24). Aus Gründen der Übersicht soll der Vorgang hier an zwei Belichtungsreihen veranschaulicht werden. Wenn sich im Quellordner ausschließlich Bilder dieses Panoramas befinden und 31 Abbildung 25: PTGui, Image Parameters, verkürzte Darstellung: Hier befinden sich neben dem verkleinerten Vorschaubild alle wichtigen EXIF-Informationen sowie verschiedene Parameter bezüglich Position und Verzerrung im Panorama die Belichtungssequenzen vollständig sind, fasst PTGui die Sequenzen zu sogenannten HDR-Brackets zusammen, (s. Fenster in Abb. 24). Diese Funktion erleichtert dem Programm die räumliche Zuordnung der Panoramabestandteile, da es für jede Sequenz nur eine Parameterliste erstellen muss, und beschleunigt den Prozess des Stitching. Voraussetzung dafür ist die deckungsgleiche Aufnahme der Belichtungssequenzen. Sollte das Programm die Belichtungssequenzen nicht erkennen, bietet es im Advanced- Modus (s. Abb. 19) die Möglichkeit im Reiter Image Parameters“ (s. Abb. 25 die Sequenzen auf Vollständigkeit zu ” überprüfen. Hier wird jedes geladene Bild mit allen Exif-Informationen angezeigt. Der Haken in der Spalte Link“ deutet auf die Zuordnung zu dem ersten Bild der ” Sequenz hin. In der Spalte Exposure“ ist die Belichtungszeit angegeben. Soll” te die Belichtungsreihe unvollständig sein, ist das Verfahren aus Kapitel 3.4.3 anzuwenden. Durch Drücken der Taste Align Images“ beginnt das Programm ” mit der Ausrichtung der Bilder. Der Erfolg dieses Arbeitsschrittes hängt davon ab, ob das Programm innerhalb eines Bildes Strukturen der angrenzenden Bilder ermitteln kann. Jede Referenz auf ein Nachbarbild erhält automatisch einen Kontrollpunkt, der eine eindeutige Zuordnung der Bilder untereinander zulässt. Das Programm verlangt mindestens vier Kontrollpunkte, um zuverlässig arbeiten zu können. Große Flächen mit wiederkehrenden Mustern, wie zum Beispiel Stabparkett, Fliesen oder Strukturtapete weisen eine Vielzahl möglicher Referenzpunkte auf und erfordern deshalb oft ein manuelles Setzen der Kontrollpunkte. Ebenso verhält es sich mit großen strukturlosen Flächen, wie beispielsweise glatt verputzte Wände oder wolkenloser Himmel. Im Idealfall ist in einem solchen Bild im Randbereich noch ein Referenzpunkt zu finden, der die eindeutige Zuord32 Abbildung 26: PTGui, Control Points: Manuelles Setzen der Kontrollpunkte. Dies geschieht durch Bestimmung eines Bildpunkts durch einen Mausklick auf ein Bild und Festlegen seines Äquivalents im anderen Bild durch einen weiteren Mausklick. nung ermöglicht. Ist dies nicht der Fall, muss das Bild manuell an seine Position geschoben werden. Dies geschieht im Fenster Panorama Editor (s.Abb.27. Hier wird eine Vorschau auf das fertige Panorama dargestellt. Der Inhalt dieses Fensters wird ständig aktualisiert und reagiert somit auf jeden gesetzten Kontrollpunkt. Im Reiter Create Panorama wird die Größe und das Format des Panoramas festgelegt. Wird dafür vorausgesetzt[Blo08], dass, für den Transport aller nötigen Bildinformationen, in der Virtuellen Realität ein 360◦ Panorama mit zum Bildwinkel proportionaler Auflösung benötigt wird, so ergibt sich dafür die Formel: Auf lösungP anorama = 360◦ BildwinkelHorizontal · Auf lösungBildwinkel Der Übersicht halber soll dafür lediglich die horizontale Auflösung betrachtet werden. Für die Bildwinkel der Objektive der Canon 5D ergibt sich folgende Tabelle: Auflösung Horizontal [px] Brennweite Bildwinkel 640 1024 1280 1920 2000 4000 ◦ 35mm 54,43 4233 6773 8466 12699 13228 26456 50mm 39,6◦ 5818 9309 11636 17455 18182 36364 80mm 25,36◦ 9085 14536 18170 27256 28391 56782 Tabelle: Auflösung der Panoramen bezüglich üblicher Brennweiten / 33 Abbildung 27: PTGui, Panorama Editor: Hier wird eine ständig aktualisierte Vorschau auf das Panorama angezeigt Bildweiten Vergleicht man diese Ergebnisse mit denen aus der Auflösungstabelle in Kapitel 3.4.2 so ist zu erkennen, dass unter Anwendung der Segmenttechnik durchaus möglich ist, Panoramen dieser Größe zu erstellen. Es sei jedoch angemerkt, dass dies für den eingesetzten Computer ein äußerst rechenintensives Unterfangen darstellen kann. Die hierzu benötigte Menge an Auslagerungsplatz kann in PTGui über Project, Calculate temporary disc space im vornherein berechnet werden. Im Rahmen der Diplomarbeit wurden Panoramen mit einer Auflösung von bis zu 18000 x 9000 px erzeugt. Die benötigte Zeit lag dafür etwa bei zwei Tagen. Der berechnete Auslagerungsplatz lag bei 37 GB. Abschließend wird unter Create Panorama mit Druck auf die Schaltfläche Create Panorama“ oder ” Save and send to Batch Stitcher“ die Erstellung des Panoramabildes gestartet. ” Das Stitching nimmt einen Zeitraum zwischen einigen Minuten und einigen Tagen in Anspruch, je nach gewählter Auflösung und in Abhängigkeit der Leistung des eingesetzten Rechners. 3.5 Darstellbarkeit Das vorliegende Panorama kann nun in einem Viewer (deutsch:Betrachtungsprogramm) oder einem Fotobearbeitungsprogramm, wie beispielsweise Photoshop angezeigt werden. Photoshop blendet bei der Betrachtung eines 32-bitFormats automatisch einen Regler ein, der eine Echzeit-Belichtungskorrektur auf den angezeigten Bildausschnitt zur Anwendung bringt. Es handelt sich dabei um eine Möglichkeit, einen Abschnitt des Dynamikbereichs des Bildes sequenziell zu betrachten, ohne dabei permanente Veränderungen an der Farbtiefe des Bildes durchführen zu müssen. Es entsteht dabei der visuelle Eindruck, als würde der Dimmer einer Lampe betätigt werden. Gleichzeitig fällt dabei auf, dass die hellen und dunklen Grenzbereiche im Bild bei unterschiedlichen Positionen des Reglers verschieden gut belichtet sind (siehe Abbildung 28). Die visuelle Information innerhalb dieser Bereiche ist vorhanden, jedoch mit diesen Möglichkeiten noch nicht ganzheitlich überschaubar. Als 34 Abbildung 28: Links: Die Auswirkung des Belichtungsreglers; Rechts: Tonemapping durch zusammenschneiden der optimal belichteten Bildausschnitte Lichtquelle einer 3D Szene wäre das Bild nun einsatzbereit. An dieser Stelle sollen jedoch noch einige Techniken behandelt werden, die einen möglichst umfangreichen Eindruck des Informationsgehalts des Bildes offenbaren. Es handelt sich um das Tonemapping (deutsch:Tonwertkompression). Der wesentliche Aspekt der Technik hinter dem Tonemapping ist es, unterschiedliche Bildbereiche einer selektiven Belichtungskorrektur zu unterziehen, um die größtmögliche Menge an Details für den Betrachter auf einem Medium mit niedrigem Dynamikbereich sichtbar zu machen. In Abbildung 28 ist eine Schwingtür mit Fenstern zu sehen, hinter der sich ein Pavillon mit weiteren Fenstern befindet. Für ein selektives Tonemapping lässt sich das Motiv in drei logische Bereiche unterschiedlicher Belichtung unterteilen: Innenbereich, Pavillon, Außenbereich. Beispielsweise durch Maskieren oder das Anlegen unterschiedlicher Ebenen, läßt sich jeder Bereich eingrenzen und darauf individuell Einstellungen mit dem Werkzeug Exposure Value (deutsch: Belichtungswert) anwenden. Es gibt zudem eine Vielzahl von automatisch operierenden Tonemapping-Algorithmen[ER05]. Diese werden unter anderem auf der Internetseite von Bernhard Vogl40 miteinander verglichen. Die Technik des Tonemapping ermöglicht nicht nur eine auf niedrigen Dynamikbereich optimierte Darstellung des hohen Dynamikbereichs. Sie eröffnet zudem auch gewissen kreativen Spielraum. Zu Beginn dieses Kapitels wurde der Vergleich der Belichtungskorrektur mit einem Dimmer angebracht. Anhand des Beispiels in Abbildung 29 soll dieser Vergleich untermauert werden. Diese Tonemapping- Variante enthält als Quelle lediglich ein HDR-I, dem durch Maskieren und selektiver Belichtungsänderung die Anmutung einer nächtlichen Szene verliehen wurde. Nachfolgend soll das eingesetzte Verfahren noch einmal veranschaulicht werden (siehe Abbildung 30). Dieses Verfahren beruht auf der Verwendung von mehreren Ebenen: ein heller 40 www.dativ.at 35 Abbildung 29: Das Potential des hohen Dynamikumfangs kann auch für eine kreative Interpretation des Bildes verwendet werden. Hier wird durch selektive Belichtungsänderung eine neue Lichtsituation geschaffen. 36 Abbildung 30: Links: Maskieren und Löschen, Rechts: Details an Früchten und Tisch Hintergrund, der von einer dunklen Ebene verdeckt ist. Indem einzelne Bereiche der obersten Ebene maskiert und gelöscht (z.B. Lampenfuß), oder mit dem Löschpinsel entfernt werden (z.B. Lampenschirm), wird die darunter liegende, helle Ebene sichtbar. 3.6 Zusammenfassung In diesem Kapitel wurden die Grenzen der Fotografie aufgezeigt und die Bedeutung der HDR–Technik als Erweiterung ihrer Möglichkeiten herausgestellt. Es wurden die theoretischen und praktischen Grundlagen vermittelt, um ein solches Bild zu erstellen. Es wurde eine Auswahl der möglichen Ausrüstung bezüglich Hard- und Software vorgestellt sowie deren Handhabung und Funktionsweise bei der Erstellung eines HDR- Panoramas veranschaulicht. Daraufhin wurden Techniken zum Anzeigen und Bearbeiten eines HDR-I vorgestellt. Abschließend wurde auf das Verfahren der Tonwertkompression eingegangen. Das folgende Kapitel stellt den Ergebnisteil der HDR-Panoramafotografie dar. Darin werden die erarbeiteten Ergebnisse und deren technische Details vorgestellt. 37 4 Ergebnisteil Fotografie In diesem Kapitel werden die praktischen Ergebnisse der Panoramafotografie vorgestellt. Es wurden insgesamt drei Panoramen angefertigt, die jeweils individuelle Besonderheiten bei der Bearbeitung mit sich brachten. Zunächst mussten jeweils alle Fotografien sortiert und auf Vollständigkeit überprüft werden. Nach dem Ausrichten der Bilder und setzen der Referenzpunkte in PTGui wurde an jedem Panorama jeweils eine Retusche in Photoshop durchgeführt. Im Vordergrund stand dabei das Entfernen des Stativs sowie die Korrektur einiger Ungenauigkeiten und Geisterbilder. Abschließend wurden die Panoramen in unterschiedlichen Bildgrößen exportiert und ein Tonemapping durchgeführt. Nachfolgend sollen die Ergebnisse dieses Arbeitsablaufs vorgestellt werden. Auf Grund der Vielzahl der Bilder, die als Rohmaterial in diesen Prozess eingeflossen sind, werden die Belichtungsreihen an dieser Stelle nur in Auszügen gezeigt. 4.1 Bar Bei dieser Szene handelt es sich um den Bar-Bereich eines Restaurants, das zu einem Golf-Club gehört. Hier mischen sich indirekt von außen einfallendes Sonnenlicht und verschiedene direkte und indirekte Lichtquellen an Wänden und im Bereich der Regale der Bar. Die Uhrzeit der Aufnahme lag zwischen 9 und 12 Uhr. Zu dieser Tageszeit wirft die Sonne kein direktes Licht in den Raum. Das sorgt in diesem Fall für günstige Aufnahmebedingungen, da so nicht mit harten, wandernden Schatten zu rechnen ist. Für die Aufnahme der Belichtungsreihen stand ein Zeitfenster von etwa drei Stunden zur Verfügung, das durch die Öffnungszeit und vermehrtes Eintreffen der Gäste eingegrenzt wurde. 4.1.1 Bearbeitung und Ergebnisse – Bar Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Bar vorgestellt werden. Dazu werden die Belichtungsreihen gezeigt und der Motivkontrast an einem ausgewählten Beispiel veranschaulicht. Da das Panorama der Bar aufwendig retuschiert werden musste, werden einige Details herausgestellt, in denen das Bild nachbearbeitet wurde. Abschließend wird das Endergebnis in Form des fertigen Panoramas gezeigt. 38 Kamera Objektiv Blende Belichtungsreihe Einzelbilder Auflösung Einzelbild Dateigröße Gesamtgröße Rohmaterial Mögliche Gesamtgröße Panorama Tatsächliche Größe Panorama Benötigter Auslagerungsplatz Mamiya 645 AFD II, Phase One P45 35 mm AF F/12 13 s / 3 s / 0,8 s / 0,2 s / 0,05s 165 7216 x 5412 15-28 MB 3,2 GB 33096 x 16548 15000 x 7500 37 GB Tabelle: Technische Daten des Panoramas der Bar Bei diesem Beispiel ist, wie in Abbildung 33 zu sehen, eine Nachbearbeitung unumgänglich. Bei den auftretenden Verzerrungen und Rissen an räumlich hintereinander befindlichen Objekten handelt es sich um Parallaxenfehler. Diese entstehen durch eine Blickwinkeländerung und sind durch die in Kapitel 3.4.2 erläuterte Einstellung der Drehachse um den Nodalpunkt des Objektivs zu vermeiden. Wenn dieses Verfahren nicht mit entsprechender Sorgfalt durchgeführt wird oder der Stativkopf zwischen den Belichtungsreihen verstellt wird, ist die Software nicht mehr in Lage, den auftretenden Fehler zu korrigieren und es entsteht die Notwendigkeit aufwändiger Nachbearbeitung. Die Retusche für das gesamte Panorama nahm ungefähr zwei Tage in Anspruch. In einem solchen Fall wäre die Neuanfertigung des Ausgangsmaterials in Erwägung zu ziehen, da dies inklusive des Stitching ein ähnliches Zeitfenster beansprucht und eine Retusche immer mit einem Qualitätsverlust verbunden ist. 39 Abbildung 31: Belichtungsreihen Bar 40 Abbildung 32: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Bar 41 Abbildung 33: Retusche am Panorama der Bar 42 43 Abbildung 34: Panorama Bar, Endergebnis. Automatisches Tonemapping 4.2 Scheune Dieses Panorama wurde in einer alten Scheune aufgenommen. Da kein künstliches Licht in der Szene vorhanden ist, besteht die Lichtquelle aus dem Sonnenlicht, das durch eine offene Tür, ein Fenster und die Rippen eines Scheunentores dringt. Es fällt dabei hauptsächlich auf den Boden, aber auch auf einige an der Wand lehnende Gegenstände, sowie ein Auto, das in der Ecke steht. Da hier Licht und Schatten in ständiger Bewegung sind, musste die Aufnahme der Belichtungsreihen so schnell wie möglich erfolgen. Günstig für die Aufnahmebedingungen war, dass es sich bei der Scheune nicht um einen öffentlich zugänglichen Raum handelt. Insgesamt wurden für die Aufnahmen zwei Stunden benötigt. 4.2.1 Bearbeitung und Ergebnisse – Scheune Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Scheune vorgestellt werden. Dazu wird ein Auszug der Belichtungsreihen gezeigt und der Motivkontrast anhand eines Beispiels dargestellt. Abschließend wird das Endergebnis in Form des fertigen Panoramas und einiger Detailausschnitte gezeigt. Kamera Objektiv Blende Belichtungsreihe Einzelbilder Auflösung Einzelbild Dateigröße Gesamtgröße Rohmaterial Mögliche Gesamtgröße Panorama Tatsächliche Größe Panorama Benötigter Auslagerungsplatz Canon EOS 5D 50 mm AF F/9,1 4 s / 2 s / 1 s / 0,5 s / 0,25s 665 4368 x 2912 2-7 MB 2,41 GB 38816 x 19408 15000 x 7500 38 GB Tabelle: Technische Daten des Panoramas der Scheune 44 Abbildung 35: Belichtungsreihen Scheune 45 Abbildung 36: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Scheune 46 Abbildung 37: Retuschearbeiten am Boden der Scheune. Entfernen des Stativs durch Überlagern passender Bildinhalte. 47 Abbildung 38: Details des Panoramas der Scheune 48 Abbildung 39: Details des Panoramas der Scheune 49 50 Abbildung 40: Panorama der Scheune, automatisches Tonemapping 4.3 Kaiserpfalz Gelnhausen In dieser Szene wurde die Kapelle der Kaiserpfalz Gelnhausen fotografiert. Dies ist ein historischer Gebäudekomplex, der von Kaiser Friedrich I. Barbarossa im Jahre 1170 41 gegründet wurde. Da die Mauern der Kapelle nicht vollständig vorhanden sind und kein Dach existiert, besteht die Lichtquelle im einfallenden Sonnenlicht. Bedingt durch die Jahreszeit fällt das Licht direkt in die Szene (Sommer) oder wird hauptsächlich von einer Wand reflektiert, was zu einer indirekten Beleuchtung der Szene führt (Winter). Hier sind Licht und Schatten in ständiger Bewegung und somit eine schnellstmögliche Aufnahme der Belichtungsreihen anzustreben. Da die Kaiserpfalz durch ein Museum zugänglich ist, liefen während den Aufnahmen gelegentlich Besucher durch die Szene. Zudem sind im Hintergrund der Szene einige große Bäume zu sehen, die in Abhängigkeit von der herrschenden Windgeschwindigkeit mehr oder weniger in Bewegung waren. 4.3.1 Bearbeitung und Ergebnisse – Kaiserpfalz Im folgenden Abschnitt soll das Rohmaterial des Panoramas der Kaiserpfalz vorgestellt werden. Dazu werden einige Belichtungsreihen gezeigt sowie einige ausgewählte Beispiele genannt, in denen der Motivkontrast der Szene zum Ausdruck kommen soll. Abschließend wird das Endergebnis in Form des fertigen Panoramas und einiger Detailausschnitte gezeigt. Kamera Objektiv Blende Belichtungsreihe Einzelbilder Auflösung Einzelbild Dateigröße Gesamtgröße Rohmaterial Mögliche Gesamtgröße Panorama Tatsächliche Größe Panorama Benötigter Auslagerungsplatz Mamiya 645 AFD II, Phase One P45 35 mm AF F/11 1/8 s / 1/20 s / 1/50 s / 1/125 s / 1/320s 170 7216 x 5412 8-34 MB 3,7 GB 38816 x 19408 15000 x 7500 38 GB Tabelle: Technische Daten des Panoramas der Kaiserpfalz 4.4 Zusammenfassung In diesem Kapitel wurden die Ergebnisse der HDR–Panoramafotografie mit der Segmenttechnik gezeigt. 41 http://www.schloesser-hessen.de/schloesser/gelnhausen/gelnhausen.htm 51 Abbildung 41: Auszug aus den Belichtungsreihen der Kaiserpfalz 52 Abbildung 42: Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Kaiserpfalz 53 Abbildung 43: Details des fertigen Panoramas 54 Abbildung 44: Details des fertigen Panoramas 55 Abbildung 45: Retusche des Panoramas der Kaiserpfalz 56 57 Abbildung 46: Panorama der Kaiserpfalz, automatisches Tonemapping 5 Rendering 5.1 Einleitung In den vorangegangenen Kapiteln wurde die Relevanz des Image Based Lighting für die Computergrafik erläutert, die Merkmale von HDR-Bildern herausgestellt sowie Panoramen mit hohem Dynamikumfang erzeugt. In diesem Kapitel werden verschiedene Renderer vorgestellt, in denen die zuvor erzeugten Panoramen als Lichtquelle zum Einsatz kommen sollen. Es wird die Handhabung des jeweiligen Benutzerinterfaces dargestellt und verschiedene Parameter festgelegt, an Hand derer eine Qualitätsbewertung der Renderer erfolgen soll. Dabei soll die qualitative Vergleichbarkeit der Renderer diskutiert werden. 5.2 Bildsyntheseverfahren und globale Beleuchtungsmodelle Im folgenden Abschnitt sollen wichtige Verfahren der Bildsynthese erklärt werden, die sich im Laufe der Zeit etabliert haben, in Abhängigkeit der verwendeten Rendersoftware in Erscheinung treten sowie in einzelnen Fälle miteinander kombiniert werden können. Besonderes Merkmal einiger Verfahren ist dabei, die sogenannte global illumination (deutsch: globale Beleuchtung) zu erzeugen. Die Verfahren können als Lösungswege der Rendergleichung [Kaj86] verstanden werden, da sie jeweils eine Methode zur näherungsweisen Berechnung implementieren. L(x, x ) = g(x, x ) · (Le (x, x ) + s b(x, x , x )L(x , x )dx ) Rendergleichung nach James T. Kajiya 5.2.1 Scanline Das Scanline-Verfahren ordnet vor dem eigentlichen Rendervorgang die in der Szene befindlichen Objekte nach ihrer Sichtbarkeit.42 Danach erfolgt eine zeilenförmige Abtastung der Szene, bei dem die Materialeigenschaften der Objekte in das resultierende Bild einfließen. Da dieses Verfahren keine realistische Lichtbrechung und Reflexion simuliert, wird es zur Berechnung dieser sogenannten secondary effects (deutsch: sekundäre Effekte) oft mit dem nachfolgend beschriebenen Raytracing-Verfahren kombiniert. 5.2.2 Raytracing Bei Raytracing handelt es sich um einen Render-Algorithmus, der die Simulation des in der Szene befindlichen Lichts von der Lichtquelle bis zum Bildausschnitt durchführt. Die simulierten Lichtstrahlen haben dabei ihren Ursprung in der Betrachtungsebene und werden von dort aus zu ihrer Lichtquelle verfolgt. Das Auftreffen auf ein bestimmtes Material bewirkt eine Fortbewegung 42 http://download.autodesk.com/us/maya/2009help/index.html — Raytracing Concepts 58 des Strahls unter Berücksichtigung der materialspezifischen Eigenschaften. So kann es beispielsweise zu einer Streuung, Reflexion oder Brechung kommen, woraus eine entsprechende optische Anmutung resultiert. Die Anzahl der vollzogenen Ereignisse auf dem Weg des Strahls wird vom Nutzer durch einen Parameter in den Eigenschaften des Renderers vorgegeben und beeinflusst die Bildqualität des Ergebnisses. Durch Kombination mit einem schnelleren Verfahren, beispielsweise Scanline, können einfachere Berechnungen (zum Beispiel: Sichtbarkeit eines Objektes) ausgelagert und dadurch beschleunigt werden43 . 5.2.3 Brute-Force-Rendering Brute-Force-Renderer wenden eine Variante der Monte-Carlo-Methode zur wiederholten, näherungsweisen Lösung der Rendergleichung an. Bei diesem Verfahren wird die Verfolgung der Lichtstrahlen ähnlich dem Raytracing-Verfahren angewandt, jedoch wird das Ergebnis durch Neuberechnung unter Voraussetzung einer gewissen Variation sukzessiv verfeinert. Da diese Berechnung naturgemäß unendlich fortgesetzt werden könnte, wird die gewünschte Qualität durch den Nutzer bestimmt, indem die Anzahl der Wiederholungen festgelegt wird. 5.2.4 Global Illumination / Photon-Mapping Eine Möglichkeit der globalen Beleuchtung bietet das Photon-Mapping. Bevor eine Szene durch den Renderer abgetastet und sichtbar gemacht wird, werden große Mengen Energieträger, Photonen genannt, aus einer Lichtquelle geschossen und in der Szene verteilt. Diese hinterlassen dort Spuren, indem sie von Objekten abprallen und dabei das jeweils vorangegangene Objekt farblich referenzieren. Benachbarte Objekte der Szene färben“ dadurch aufeinander ab, ein ” Phänomen, das auch in der Realität zu beobachten ist. Im Bereich der computergenerierten Bilder ist dies elementarer Bestandteil der sogenannten globalen Beleuchtung. Der Begriff des Photons ist dabei nicht mit der quantenphysikalischen Interpretation des Lichts als Teilchen gleichzusetzen, da es sich, bezogen auf den Renderer, lediglich um eine abstrahierte Größe handelt. 5.2.5 Final Gathering Durch Final Gathering wird die punktuelle Helligkeit beleuchteter Flächen interpoliert, um ein homogenes Gesamtbild zu erreichen. Dazu wird die Helligkeit im freien Raum über der Fläche herangezogen, indem von dort aus neue Strahlen (Final Gather Rays) in die Umgebung abgegeben werden. Auf diese Weise wird globale Beleuchtung zeitlich effizient simuliert. 5.2.6 Importons Importons sind virtuelle Partikel, die vor der eigentlichen Berechnung von der Kamera aus in der Szene verteilt werden44 . Sie sind nicht wie die Photonen (siehe Abschnitt 5.2.4) Energieträger, sondern sammeln Informationen über die 43 44 http://download.autodesk.com/us/maya/2009help/index.html — Raytracing Concepts http://download.autodesk.com/us/maya/2009help/index.html — Importons 59 Priorität, mit der die Prozessorlast für die nachfolgende Berechnung verteilt werden muss. Das Entscheidungskriterium dafür ist die Genauigkeit, mit der eine Lichtmenge an einem bestimmten Punkt nachzuvollziehen ist. Diese Auswertung kann zur optimierten Berechnung der Photon-Map sowie der Irradiance Particles verwendet werden und stellt somit eine Ressourcen schonende Art und Weise dar, globale Beleuchtung zu simulieren. 5.2.7 Irradiance Particles Irradiance Partikel ist die Bezeichnung für die gesammelten Importons, die vor der Berechnung einer Szene verteilt werden. Sie tragen Informationen über die Bestrahlungsstärke einer Oberfläche der Szene. Dieses Verfahren stellt eine optimierte Berechnung der indirekten Beleuchtung einer Szene dar. Aus diesem Grund wird die Funktionalität der Global Illumination bei Aktivierung der Irradiance Particles abgeschaltet und die Photonen (außer denen für die Berechnung von Kaustiken) durch Importons ersetzt. 5.2.8 Zusammenfassung In diesem Abschnitt wurden einige gängige Renderverfahren beschrieben, die in heutigen Bildsyntheseprogrammen eingesetzt werden. Diese werden kontinuierlich modifiziert, um qualitativ hochwertige Ergebnisse in immer kürzerer Zeit zu berechnen. Außer den Genannten gibt es noch weitere Verfahren, beispielweise Radiosity. Da diese jedoch nicht Bestandteil der hier verglichenen Renderer sind, sollen sie an dieser Stelle nicht weiter behandelt werden. Das nächste Kapitel widmet sich den zu vergleichenden Renderern in Bezug auf Mermale und Bedienung. 5.3 Renderer In diesem Kapitel sollen die Renderer Next Limit Maxwell V2 und Mental Images Mental Ray vorgestellt werden. Dazu wird eine kurze Einführung in die Benutzeroberfläche gegeben sowie einige charakteristische Merkmale hervorgehoben. Besonders hervorzuheben ist dabei das Vorhandensein eines globalen Beleuchtungsmodells, da dies mit der Fähigkeit verbunden ist, Beleuchtung unter Verwendung eines HDR-I zu realisieren. In der verwendeten Modellierungssoftware Autodesk Maya45 ist ebenfalls eine Rendersoftware enthalten: Maya Software. Es handelt sich um einen Raytracer, der keine Möglichkeit zur globalen Beleuchtung bietet. Da der angestrebte Vergleich hauptsächlich unter diesem Kritikpunkt erfolgt, wird dieser Renderer nicht weiter untersucht. 5.3.1 Maxwell V2 Bei Next Limit Maxwell handelt es sich um einen Brute-Force-Renderer, der Bilder nach der sogenannten Metropolis Light Transport-Methode [EV97] berechnet. Das Softwarepaket enthält unter anderem den Renderer, einen Materia45 www.autodesk.com 60 leditor und eine Materialbibliothek und kann außerdem durch Plugins aus verschiedener Modellierungssoftware heraus aufgerufen werden. Hier können Objekte mit einer Vielzahl unterschiedlicher Materialien aus der lokalen oder globalen Maxwell-Materialbibliothek bestückt, eigene Materialien erzeugt und der Renderauftrag gestartet werden. Maxwell sieht die Verwendung des MaxwellMaterials vor. Es ist ein Knotenpunkt, an dem unterschiedliche Materialeigenschaften eingestellt oder über Ebenen hinzugefügt werden können. Die Palette der Möglichkeiten umfasst unter anderem die Variation der Oberflächenstruktur (zum Beispiel Rauheit), des Brechungskoeffizienten oder auch der Lichtemission sowie der Transparenz. Darüber hinaus gibt es eine Bibliothek mit Daten für die Berechnung komplexer Oberflächenstrukturen, wie sie beispielsweise in der Beschichtung von optischen Gläsern vorkommen. Das Starten des Rendervorgangs führt zum automatischen Export der Szene im Format *.mxs und dem Start einer Maxwell Render-Instanz (s. Abb. 47), in der aus der Szene ein Bild berechnet wird. Dabei kommt das Verfahren aus Kapitel 5.2.3 zum Einsatz. Es äußert sich für den Nutzer dahingehend, dass nach jeder Berechnung der Szene ein sogenanntes Sampling Level erreicht ist, dass durch eine Auffrischung des Bildschirminhalts in Erscheinung tritt. Der Rendervorgang kann jederzeit abgebrochen oder wieder aufgenommen werden. Dabei kann die Empfindlichkeit der Filmmaterials der virtuellen Kamera sowie deren Belichtungszeit jederzeit modifiziert werden. Je nach Einstellung (s. Abb. 48 und 49) erhält der Benutzer auch Zugriff auf einen Multilight genannten Lichtmixer. Hier kann jede Lichtquelle in ihrer Intensität und farblichen Anmutung während und nach dem Rendervorgang gesteuert werden (siehe Abbildung 47). 5.3.2 Mental Ray Bei Mental Images Mental Ray handelt es sich um einen Renderer, der sowohl als Softwarepaket (Mental Ray Standalone) als auch als Plugin für diverse Software vertrieben wird. Es ist unter anderem in Autodesk 3dsMax und Autodesk Maya 2010 enthalten. Mental Ray sieht in Abhängigkeit der Beschaffenheit des Objekts unterschiedliche Materialien vor, die jeweils durch spezielle Eigenschaften auf ihren Einsatzzweck vorbereitet sind. So gibt es beispielsweise für die Imitation eines Autolacks ein Material (Mi Car Paint Phenomenon), das das Erscheinungsbild eines Autolacks durch Parameter wie Größe und Anzahl der metallischen Partikel steuerbar macht. Da einem solchen Material jedoch beispielsweise die Möglichkeit der Einstellung des Brechungskoeffizienten fehlt, ist damit nicht möglich, das Aussehen eines Trinkglases zu simulieren. Für dieses Zweck wäre das dielektrische Material oder das Architektur-Material in Betracht zu ziehen. Im Fenster Render Settings finden sich alle Einstellungen, die den Rendervorgang in direkter Weise beeinflussen. Neben der Auswahl verschiedener Renderverfahren, wie beispielsweise Raytracing oder Scanline, werden hier unterschiedliche Optionen zur Bereitstellung globaler Beleuchtung angeboten (s.Abb.50 und 51). Außerdem kann auf die Qualität des Renderings Einfluss genommen werden, indem beispielsweise die Genauigkeit der Kantenglättung verändert werden kann (s. Abb. 52). Der Start des Rendervorgangs öffnet das Render61 Abbildung 47: Maxwell Render V2, Multilight: Im Bild oben besteht die Lichtquelle nur aus dem HDR-Panorama, im Bild unten wurde eine Lichtquelle im Lampenschirm dazugeschaltet und der Hintergrund gedimmt. 62 Abbildung 48: Maxwell Render V2, Einstellungen: Optionen zur Bildqualität, Bewegungsunschärfe und Atmosphäre 63 Abbildung 49: Maxwell Render V2, Einstellungen: Optionen zur bildbasierten Beleuchtung, Renderkanäle und Linsensimulation 64 Abbildung 50: Mental Ray: Einstellungen zur Indirekten Beleuchtung über Global Illumination und Importons 65 Abbildung 51: Mental Ray: Einstellungen zur Indirekten Beleuchtung über Final Gathering und Irradiance Particles 66 Abbildung 52: Mental Ray: Globale Qualitätseinstellungen 67 Fenster der Modellierungssoftware und zeigt darin das Ergebnis an. Der Bildaufbau geschieht schrittweise durch Berechnen des Bildinhalts der sogenannten Buckets (deutsch: Eimer). Diese Pixelblöcke werden vom Programm in einer Form abgearbeitet, die nach Möglichkeit die redundante Berechnung der Szenendaten vermeiden soll. Nach Abschluss dieses Vorgangs steht das Bild zur Ansicht und gegebenenfalls zur Zwischenspeicherung zur Verfügung. 5.4 Anforderungsanalyse In diesem Abschnitt soll neben den rein objektiven Vergleichskriterien, wie beispielsweise dem Vorhandensein einer bestimmten Simulationsfähigkeit, die subjektive Anmutung eines computergenerierten Bildes in den Vergleich einbezogen werden. Dazu müssen zunächst einige Überlegungen angestellt werden, nach welchen Maßstäben ein solcher Vergleich erfolgen kann. 5.4.1 Subjektive Vergleichbarkeit Grundsätzlich besteht bei einem Vergleich mehrerer Renderer im Bezug auf die Bildqualität eine gewisse Gefahr der Voreingenommenheit. Dies hängt mit den persönlichen Erfahrungen und gestalterischen Vorlieben zusammen, die seitens des Betrachters in die Ansicht einfließen. Das gilt vor allem für das subjektive Empfinden von Realismus in Zusammenhang mit Science-Fiction- oder Phantasy-Szenarien. Die meisten Softwarefirmen, die Rendersoftware anbieten, bewerben ihr Produkt mit der Aussage, es könne fotorealistische Bilder erzeugen. Diese Behauptung wird meistens mit einem Portfolio aussagekräftiger Bilder untermauert. Die Nuancen zwischen der Qualität des einen oder anderen Produkts sind somit sehr subtil. Aus diesem Grund wurden für einen objektiven Vergleich Gegenstände mit einem hohen Wiedererkennungswert gewählt. Der Betrachter soll den Vergleich zur eigenen erfahrenen Realität ziehen können, oder wenigstens keine Schwierigkeiten bei dem Auffinden eines Vergleichsobjekts haben. 5.4.2 Inhaltlicher und räumlicher Kontext Wie bereits im einleitenden Kapitel angesprochen, hat die Möglichkeit, eine virtuelle Szene unter Verwendung einer Fotografie zu beleuchten, essenzielle Bedeutung für die Glaubwürdigkeit ihrer Einbindung in echtes Filmmaterial. Der technische Vergleich mehrerer Renderer legt deshalb auch die Komposition einer solchen Szene nahe. Aus diesem Grund erfolgt jeweils eine Erweiterung der Szene durch einige virtuelle Gegenstände. Dies geschieht auf der Basis der verwendeten HDR-Panoramen der Bar und der Scheune. Dazu wurden bei der Produktion der Panoramen einige Backplates angefertigt, auf deren Basis die erweiterte Szene entsteht. Basierend auf der räumlichen Distanz zwischen der Kameraposition und dem inhaltlichen Mittelpunkt der Backplate sowie der Orientierung der Kamera, deren Brennweite und dem Fokalpunkt wurden virtuelle Szenen mit äquivalenter Bemaßung und Ausrichtung erstellt. Im folgenden Abschnitt werden die Szenen vorgestellt, anhand derer die Evaluation der Renderer erfolgt. 68 5.4.3 Objektive Vergleichbarkeit In Abschnitt 5.2 wurden die Funktionen von Mental Ray und Maxwell Render erläutert. Dabei wurde deutlich, dass bei der Konfiguration über die Rendereinstellungen nur ein geringer Teil vergleichbarer Bedienelemente existiert, bespielsweise für Bewegungsunschärfe. Darüber hinaus implementiert Mental Ray mehrere Möglichkeiten, globale Beleuchtung zu generieren, keine jedoch durch Brute-Force Rendering. Maxwell hingegen arbeitet ausschließlich mit dieser Methode. Die Darstellung von Lichtstreuung und Fokussierung, Caustics genannt, wird in Maxwell automatisch berechnet, sobald eine Lichtquelle in die Nähe eines Licht brechenden Mediums gelangt. In Mental Ray geschieht dies durch spezielle Photonen, die von einem entsprechenden Emitter ausgesendet werden, in Kombination mit den Parametern für Caustics in den globalen Rendereinstellungen. Diese Umstände führen dazu, dass ein Vergleich nicht durch sukzessive Gegenüberstellung aller äquivalenten globalen Rendereinstellungen erfolgen kann. Es muss also ein Umweg gefunden werden, um die Renderer objektiv aneinander messen zu können. Eine stets aussagekräftige Variable für einen Vergleich stellt beispielsweise die Zeit dar. Nicht zuletzt ist sie eine wichtige Größe in der industriellen Erstellung synthetischer Bilder, da sie elementarer Bestandteil einer jeden Kostenkalkulation ist. Zudem ist sie Grundlage vieler Bestrebungen, schnell qualitativ hochwertige Render-Ergebnisse über alternative Wege zu erreichen, beispielsweise über das Photon-Mapping. Darüberhinaus gibt es neben der Zeit noch weitere Kriterien, welche in der folgenden Tabelle kurz zusammengefasst aufgeführt sind und ebenfalls für den Vergleich herangezogen werden. Disziplin Auflösung Panorama Caustics Reflexionseigenschaften Schattenwurf Kriterium Zeit, Optik Zeit, Detailgrad Mögliche Auflösung , Größe Panorama, Zeit Richtwirkung Tabelle: Verschiedene Disziplinen, in denen die Renderer miteinander verglichen werden Es werden mehrere Szenen aufgesetzt, die jeweils eine bestimmte Disziplin darstellen, in denen die Renderer verglichen werden sollen. Um die Zielsetzung der Einzeltests zu erfüllen, wird jeweils ein zweckgebundener Arbeitsablauf ausgewählt. Da beide Renderer für die Beleuchtung einer Szene über ein HDRPanorama unterschiedliche Möglichkeiten bereithalten, werden diese Verfahren ebenfalls gegenübergestellt. Zudem soll durch Versuchsreihen ermittelt werden, wie sich die Qualitätseinstellungen der verschiedenen Verfahren auf die benötigte Renderzeit auswirken. 69 5.5 Testszenen In diesem Abschnitt werden die Testszenen Bar (siehe Abbildungen 53, 54, 55 und 56) und Scheune (siehe Abbildungen 57, 58, 59 und 60) vorgestellt. Dafür wird jeweils das Gittermodell, die Alpha-Maske, der Hintergrund sowie das fertig komponierte Bild gezeigt. Der inhaltliche Zentralpunkt der Backplates referenziert die Position des Stativs der HDR-Panoramen, die in Kapitel 4 vorgestellt wurden. 5.5.1 Bar Für diese Szene (s. Abb. 56) wurde als Basis eine Tischplatte mit Glas-Material modelliert, die optional mit einer Tischdecke ausgestattet werden kann. Sie ist deckungsgleich mit der Glasplatte auf der Fotografie ausgerichtet worden und reflektiert das HDR-Panorama im Hintergrund. Bei der Lampe (rechts) handelt es sich um eine sogenannte Kommissarleuchte (Modell Kaiser-Idell 6631), die im Rahmen dieser Diplomarbeit angefertigt wurde. Der Entwurf stammt von Bauhaus-Designer46 Christian Dell47 . Die Gläser (links) entstanden nach einem 3D-Modell von Pekdemir48 . 5.5.2 Scheune Bei dieser Szene (s. Abb. 60) wurde ein Stellplatz in einer Scheune um ein virtuelles Automodell erweitert. Dabei handelt es sich um den historischen Rennwagen Auto-Union Typ C von 193649 . Das 3D-Modell wurde während des Berufspraktischen Semesters bei 3D-Maximal50 angefertigt. 5.6 Zusammenfassung In diesem Kapitel wurden Grundlagen der Bildsynthese vermittelt, die Renderer in ihrer Funktionalität vorgestellt sowie eine qualitative Vergleichbarkeit der einzelnen Renderer diskutiert. Dazu wurden zwei virtuelle Szenen gezeigt, die jeweils einen Inhalt haben, der Bestandteil der realen Szene sein könnte. Auf dieser Basis werden Mental Ray und Maxwell im folgenden Kapitel miteinander verglichen. Alle vorgestellten Einstellungen werden hinsichtlich ihrer Auswirkung auf das Ergebnis und die Renderzeit hin untersucht. 46 http://www.unesco.de/311.html?&L=0 www.kaiseridell.de 48 http://www.turbosquid.com/Search/Artists/Pekdemir 49 http://de.wikipedia.org/wiki/Auto-Union-Rennwagen 50 www.3dmaximal.com 47 70 Abbildung 53: Bar-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya) Abbildung 54: Bar-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes 71 Abbildung 55: Bar-Szene: Hintergrundbild (Backplate) Abbildung 56: Bar-Szene: Komposition der Backplate und des gerenderten Bildes (Maxwell Render) 72 Abbildung 57: Scheunen-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya) Abbildung 58: Scheunen-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes 73 Abbildung 59: Scheunen-Szene: Hintergrundbild (Backplate) Abbildung 60: Scheunen-Szene: Komposition der Backplate und des gerenderten Bildes (Mental Ray) 74 6 Ergebnisteil Rendering In diesem Kapitel werden die Ergebnisse der Renderer Mental Ray und Maxwell V2 vorgestellt und miteinander verglichen. Zunächst werden die Möglichkeiten beschrieben, mit denen ein Image Based Lighting System in einer Szene aufgesetzt werden kann. Darin wird unter anderem der Zusammenhang zwischen der Auflösung des Panoramas und der benötigten Renderzeit untersucht. Weiterhin werden Verfahren zur Simulation von Kaustiken vorgestellt und die Qualität der erzeugten Schatten und Reflexionen bewertet. Für die Bewertung ist dabei grundsätzlich auch die Zeit von Bedeutung, die für das Erreichen einer bestimmten Qualitätsstufe benötigt wird. 6.1 Erzeugen einer Image-Based-Lighting-Umgebung Für das Erzeugen einer bildbasierten Beleuchtung gibt es unterschiedliche Ansätze. Grundsätzlich wird dabei ein Bild mit hohem Dynamikumfang Bestandteil einer Szene, indem es auf einem geometrischen Objekt als farbgebende Textur zum Einsatz kommt. Der Renderer interpretiert diesen Aufbau, indem die Objekte der Szene farblich aufeinander abstrahlen und damit globale Beleuchtung entsteht. Für die Verwendung als Leuchtmittel kommen grundsätzlich immer diejenigen Objekte in Frage, die mit der Projektionstechnik des verwendeten HDR-Is harmonieren. Sphärische, kubische oder orthogonale Projektion sind die gängigen Varianten. Bei Bedarf kann eine Projektionsart auch nachträglich geändert und daraus die benötigte Variante erzeugt werden. Hierfür kann beispielweise das in Kapitel 2.1.2 vorgestellte Programm HDR-Shop eingesetzt werden. Im Rahmen der Diplomarbeit wird die Umgebung erzeugt, indem ein Panorama sphärisch auf eine Kugel projiziert wird. Dieses System wird durch entsprechende Optionen in den Rendereinstellungen von Maxwell und Mental Ray automatisch erzeugt, kann aber auch durch manuelles Erstellen einer die Szene umgebenden Sphäre realisiert werden. Als zusätzliche Lichtquelle wird durch planare Projektion auf eine Fläche ein sogenannter HDRI-Cookie erzeugt [Blo08]. Um harten Schatten zu generieren, wird im Zusammenhang mit bildbasierter Beleuchtung oft eine direktionale Lichtquelle eingeführt. Diese wird in ihrer Position und Ausrichtung der Position der Sonne im Panorama angepasst. Somit ergibt sich ein Aufbau, der beliebige Veränderungen an der Lichtintensität und Farbe der Sonne zulässt, ohne dabei auf einen hohen Dynamikumfang des Hintergrundpanoramas angewiesen zu sein. Allerdings kann bei einem entsprechenden Dynamikumfang ein Helligkeitsmaximum innerhalb des HDRPanoramas als Lichtquelle interpretiert werden und im Rendering auch in Form von hartem Schattenwurf in Erscheinung treten. 6.2 Testbedingungen Um Vergleichbarkeit zu ermöglichen, werden in diesem Abschnitt die technischen und softwareseitigen Rahmenbedingungen dargestellt. 75 Prozessoren Taktfrequenz Hauptspeicher Kapazität 2x Intel Xeon E5520 8x 2260 Mhz DDR3-1066 6 x 2 GB Technische Daten des eingesetzten Testsystems Software Autodesk Maya Maxwell Render V2 Autodesk Maya Mental Ray Version Version 2009 Version 2.01 Version 2010 Version 3.7.53 Eingesetzte Programme und deren Versionen Als Betriebssystem kam Windows XP Professional x64, Service Pack 2 zum Einsatz. Die Bildkomposition wurde in Adobe Photoshop CS4 durchgeführt. Das eingesetzte System kann als aktuelle Mittelklasse-Grafikworkstation bezeichnet werden, repräsentiert somit eine industriell weit verbreitete Generation von Geräten. 6.3 Qualitätseinstellungen In diesem Abschnitt sollen grundlegende Qualitätseinstellungen der Renderer vorgestellt werden, um einen Einblick in deren Wirkungsweise zu gewähren. In Maxwell wird die Bildqualität am Sampling Level gemessen, in Mental Ray sollen repräsentativ die Einstellungen für Final Gathering in Verbindung mit Anti-Aliasing vorgestellt werden. Es wird dabei nicht näher auf die Erstellung einer Beleuchtung mit Global Illumination über Photonen eingegangen. Diese Möglichkeit ist in Betracht zu ziehen, muss allerdings für eine optimale Funktion in einem geschlossenen Raum stattfinden, da hier eine optimale Verteilung der Photonen über die Szene gewährleistet ist. Da keine Wände vorhanden sind, die die Photonen reflektieren könnten, führt ein Rendering mit Global Illumination zu einem ungleichmäßigen Ergebnis (siehe Abbildung 61). 6.3.1 Ergebnisse In Abbildung 62 werden unterschiedliche Sampling Levels in Maxwell miteinander verglichen. Deutlich zu erkennen ist dabei der Rückgang des Bildrauschens mit steigendem Sampling Level. Generell ist die Geschwindigkeit dieses Vorgangs hauptsächlich von der Anzahl der Lichtquellen sowie Größe und Umfang der Szene abhängig. Die benötigte Renderzeit steigt in diesem Fall nahezu exponentiell mit jeder Stufe. Eines der von Mental Ray unterstützten globalen Beleuchtungsmodelle ist Final Gathering (siehe Abbildung 63). Es hat sich gezeigt, 76 Abbildung 61: Global Illumination über ein HDR-Panorama mit 2 Mio. Photonen) dass bei einer hohen Accuracy (nahe 1000) eine ebenfalls hohe Point Interpolation zu unerwünschten hellen Flecken an Kanten führen kann. In diesem Fall sind diese zwischen Lampenfuß und Tischkante zu erkennen. Wird hingegegen eine vergleichsweise niedrige Point Interpolation gewählt, treten solche Bereiche nicht auf. Das Bildrauschen, welches auch in Mental Ray zu beobachten ist, hier hauptsächlich auf der Tischplatte zu erkennen, kann durch den Parameter AntiAliasing (s. Abb. 64) gemindert werden. Zudem werden Objektkanten gefiltert, wodurch sie sich weniger von ihrer Umgebung abheben und ein insgesamt homogenes Bild erzeugen. Mit jedem Schritt, den der Parameter angehoben wird, steigt die Anzahl der Berechnungsstufen exponentiell und ist dadurch mit einer stark zunehmenden Renderzeit verbunden (siehe auch Abbildung 65. 6.4 Reflexionseigenschaften In diesem Abschnitt soll die Qualität der Reflexionen beurteilt werden, die als Spiegelung des Panoramas in virtuellen Gegenständen auftauchen. Dies soll am Beispiel der Tischplatte der Bar-Szene geschehen. Es wurden dazu mehrere Panoramen mit unterschiedlichen Auflösungen generiert. 77 Auflösung Panorama 2000 x 1000 px 5000 x 2500 px 7500 x 3750 px 10000 x 5000 px 7500 x 7500 px 8000 x 8000 px 12500 x 6250 px 10000 x 10000 px 15000 x 7500 px Dateigröße 6 MB 37 MB 83 MB 144 MB 166 MB 188 MB 221 MB 289 MB 318 MB Dateigröße in Abhängigkeit der Auflösung Heutige Computersysteme für den 3D-Grafikbereich (siehe Kapitel 2.2) verfügen über genug Hauptspeicher, um auch großflächige und damit speicherintensive Panoramen in den Rendervorgang einbinden zu können. Aus diesem Grund soll anhand mehrerer Testszenen mit verschiedenen Varianten der bildbasierten Beleuchtung untersucht werden, ob und wie die Auflösung der Panoramen die notwendige Renderzeit affektiert. Dazu wurde die Bar-Szene mit den unterschiedlichen Varianten der bildbasierten Beleuchtung in Mental Ray und Maxwell ausgeleuchtet. Es wurden jeweils eine totale Perspektive der Tischplatte und eine Detailansicht des Lampenfußes erstellt. Das Panorama wurde zum Vergleich auf einer Sphäre und als Bestandteil der Rendereinstellungen in die Szene integriert. Diese Varianten wurden in beiden Renderern berechnet. Somit kann eine Auswertung der Methoden innerhalb des Renderers sowie ein Vergleich der Renderer untereinander erfolgen. 6.4.1 Ergebnisse und Diskussion In diesem Abschnitt sollen die Ergebnisse des Renderns mit unterschiedlichen Panoramagrößen (siehe Abbildungen 66 bis 73) diskutiert werden. Dazu werden zunächst die Methoden innerhalb der Renderer verglichen. Wie anfangs erwähnt, ist es bei beiden Renderern möglich, über die Rendereinstellungen einen primitiven Körper mit einem HDR-Panorama zu erzeugen, der als Lichtquelle einer Szene dienen kann. Bei beiden handelt es sich um einen sphärischen Körper und damit um die gleiche Form, die auch für ein manuell erstelltes IBL-Panorama in der Regel bevorzugt wird. Es ist anzunehmen, dass bei einem Vergleich dieser Methoden untereinander ähnliche Ergebnisse zu erwarten sind. Dies konnte jedoch in keinem der Renderer bestätigt werden. Zunächst soll näher auf Mental Ray eingegangen werden, insbesondere auf die mögliche Auflösung. In den Rendereinstellungen lässt sich der IBL-Shape (die automatisch erzeugte Sphäre) mit Panoramen aller verfügbaren Auflösungen (s. Tabelle am Kapitelanfang) bestücken. Die Renderzeit (im Modus Final Gathering) steigt dabei kontinuierlich mit der Auflösung des Panoramas an, bis sie bei 15000 x 7500 px 42 min. in Anspruch nimmt. Die manuell erzeugte Sphäre unterstützt hingegen keine Auflösungen über 10000 x 10000 px, produziert jedoch weitgehend gleichbleibende Renderzeiten von etwa 4 min. Darüberhinaus 78 ist der optische Gesamteindruck dieser Variante gegenüber der automatisch erzeugten deutlich besser. Feine Details wie beispielsweise die Spiegelung der Gläser der Vitrine im Hintergrund sind deutlich zu erkennen (s. Abb. 69). Die steigende Auflösung des Panoramas äußert sich in zunehmend schärferen Reflexionen, oberhalb von 7500 x 7500 px sind jedoch kaum Unterschiede zu erkennen. Zu der manuell erzeugten Sphäre ist anzumerken, dass ihre Lichtquelle nicht von der Rendereinstellung Global Illumination interpretiert werden kann, da sie keine Photonen emittieren kann. Alle sonstigen Lichtquellen in Mental Ray verfügen über eine entsprechende Option zur Photonenemission. Bei Maxwell Render sind ebenfalls Unterscheide zwischen der manuell erzeugten Sphäre und der Einstellung über das Register Environment (siehe Kapitel 5.3.1) zu bemerken. Auch hier resultieren in Abhängigkeit von der Beleuchtungsvariante unterschiedliche Renderzeiten, die jedoch nicht mit der Auflösung variieren (automatisch: 6 min, manuell: 30 min) Auffällig ist, dass bei der manuellen Variante keine Lichtbrechung innerhalb der Flüssigkeit in den Gläsern zu beobachten ist. Bei der Lösung über das Environment fällt auf, dass die Reflexionen in der Tischplatte vergrößert dargestellt sind (vergl. Abb. 68 und 72). Dies ist darauf zurückzuführen, dass die Ausdehnung des Hintergrundes in Maxwell in Abhängigkeit von der Brennweite berechnet wird. Das Hintergrundbild wurde mit einer Mittelformat-Kamera mit 35mm Objektiv fotografiert. Da es sich dabei um eine Fotografie handelt, deren Bildausschnitt auf Grund des CropFaktors der Kamera der Darstellung einer 22mm Kleinbildkamera entspricht, entsteht bei der virtuellen Kamera mit 35mm Objektiv eine fehlerhafte Darstellung. Wird die virtuelle Kamera auf 22mm Brennweite gestellt, ist zwar die Größenordnung wiederhergestellt, jedoch verändert dies auch die Optik der dargestellten Gegenstände erheblich. 6.5 Caustics Maxwell und Mental Ray bieten unterschiedliche Möglichkeiten, kaustische Reflexionen zu simulieren. Bei beiden Renderern muss dazu zunächst eine gerichtete Lichtquelle auf einen transparenten Körper scheinen, in dessen Einstellungen ein Brechungsindex hinterlegt ist. Bei Maxwell müssen darüber hinaus die vier Flags für Caustics (s. Abb. 49 in Kapitel 5.3.1) in den Rendereinstellungen aktiviert sein. Um diese Effekte in Mental Ray zu erzeugen, muss die Lichtquelle kaustische Photonen emittieren. Durch Aktivierung von Global Illumination, Importons oder Irradiance Particles werden die Photonen in die Berechnung der Szene eingebunden und der Effekt wird durch Projektion des gebrochenen Lichts auf einer Oberfläche sichtbar. Diese muss, um eine genaue Beurteilung der Effekte zu ermöglichen, diffus reflektieren. Aus diesem Grund wurde die Szene um eine Tischdecke ergänzt, deren Material keine eigenen spiegelnden Reflexionen erzeugt. Die Lichtquelle wurde räumlich innerhalb des Lampenschirms platziert und ist auf ein leeres Cocktailglas gerichtet. Es handelt sich um ein HDRI-Cookie, bei dem die Belichtungsreihe einer 25 Watt Glühlampe als Motiv dient. 79 6.5.1 Ergebnisse und Diskussion Um das Verhalten kaustischer Reflexionen zu simulieren, wurden in Mental Ray mehrere Verfahren angewandt. Diese sind in Abbildung 74 dargestellt. Die Verwendung eines HDR-I als Teil des Leuchtmittels geschieht dabei unabhängig vom Arbeitsablauf, der zur Simulation der Kaustiken angewandt wird. Dies ist darauf zurückzuführen, dass die Leuchtmittel Area-Light, Point-Light und Spot-Light Photonen zur Berechnung der Kaustiken emittieren. Deren Farbgebung und Intensität wird dabei von eigenen Parametern gesteuert und ist nicht vom verwendeten HDR-I abhängig zu machen. Dieses kann wiederum zur reinen Beleuchtung der Umgebung verwendet werden. Da diese Photonen für einen detaillierten Effekt grundsätzlich in großen Mengen zur Anwendung kommen, ist es nicht sinnvoll, die globale Beleuchtungssphäre Photonen für die Simulation von Kaustiken emittieren zu lassen. Vielmehr ist es in Erwägung zu ziehen, eine gerichtete Lichtquelle lokal Photonen aussenden zu lassen. Auf diese Art kann der Rechenaufwand gering gehalten werden. Für das Umgebungslicht der Szene wurde ein Image-Based-Lighting-System mit Final Gathering realisiert. Ein Teil der Szenen wurde ohne das HDRI-Cookie gerendert, da es für die Kaustiken nicht erforderlich ist. In Maxwell Render wird ein grundlegend anderes System für die Erstellung von Kaustiken angewendet. In Maxwell gibt es keine Objekte, die exklusiv als Lichtquelle dienen. Vielmehr kann jedes Material mit einem Emitter ausgestattet werden, wodurch dessen Flächen Licht in Richtung der Flächennormalen abgeben. Im Idealfall wird dafür eine einzelne Fläche verwendet, da komplexere Objekte als Emitter einen höheren Rechenaufwand nach sich ziehen (siehe Maxwell Handbuch). Ein Material mit einem Emitter kann nach unterschiedlichen Modellen konfiguriert werden. Beispielsweise kann auch ein HDR-I die Gestaltung der Lichtform übernehmen. Intensität und Farbe werden dann von der Fotografie bestimmt. In Abbildung 75 ist ein Rendering mit HDR-I Environment und HDR-Cookie in seine unterschiedlichen Render-Layer (s. Rendereinstellungen Maxwell) aufgeteilt worden. Deutlich ist dabei die Art der Reflexionen in Abhängigkeit von der Verfolgungstiefe zu erkennen. Eine unterschiedliche Detailstufe resultiert, wie in der Abbildung zu sehen, nicht in einer Zeitersparnis. Es ist daher in diesem Anwendungsfall nicht sinnvoll, einzelne Layer abzuschalten. Eine weitere Konfiguration der Kaustiken ist über den Renderer nicht möglich. Deren Auflösung wird durch den Betrachtungsabstand und der Detailgrad durch die Anzahl der Sampling Levels bestimmt. Bei Sampling Level 15 entsteht der Eindruck eines bis auf den Fuß des Glases weitgehend rauschfreien Bildes. Es hat sich herausgestellt, dass auch durch eine höhere Sampling-Stufe keine Verbesserung eintrat. Der Zusammenhang besteht vielmehr in der Beleuchtung durch den HDR-I Cookie. Sobald dieser im Multilight abgeschaltet wird, verschwindet das Bildrauschen. 6.5.2 Auswertung Beide Renderer konnten unter Beweis stellen, dass sie in der Lage sind, hochauflösende Panoramen als Basis für eine bildbasierte Beleuchtung zu verwenden. Maxwell ist in dieser Hinsicht flexibler, weil keine Grenze für die mögliche 80 Auflösung auftrat. Mental Ray liefert auch in der Nahaufnahme scharfe Reflexionen, limitiert allerdings die Verwendung der manuellen Beleuchtung über HDR-I auf Final Gathering. Bei der Simulation der Kaustiken können ebenfalls beide überzeugende Ergebnisse liefern. Die Bildberechnung erfolgt in Mental Ray deutlich schneller, zudem ist es flexibler zu konfigurieren, da die Auflösung und Details der Kaustiken über die Photonenanzahl bestimmt werden können. Dennoch wirkt das Ergebnis von Maxwell realistischer, obwohl dafür ein hoher Rechenaufwand in Kauf genommen werden muss. Ein Grund für die realitätsnahe Anmutung der Maxwell Renderings liegt in der hohen Verfügbarkeit von spezialisierten Materialien. Zudem kann es intuitiv bedient werden, da viele Materialparameter physikalische Entsprechungen in der Realität aufweisen. So kann beispielsweise ein Leuchtkörper über eine in Kelvin gemessene Lichttemperatur oder eine Leistungsaufnahme in Watt konfiguriert werden. Die Geschwindigkeit der Berechnung von Bildern in Mental Ray ist in vielen Fällen Maxwell überlegen. Dieser Umstand ist darauf zurückzuführen, dass eine Vielzahl von Einzelaufgaben in Mental Ray speziell an eine Szene angepasst wird und dadurch eine individuelle Lösung entstehen kann, die einen Großteil unnötiger Berechnungen umgeht. Oft ist deshalb bei der Optimierung einer Mental Ray Szene sehr viel Erfahrung gefragt, weil subtile Details fehlen, die der bewussten Wahrnehmung leicht entgehen. Beispielsweise wird bei der Bildkomposition oft der sogenannte Ambient-Occlusion-Pass (Umgebungsverdeckung, vgl. Kap. 5.3.2) hinzugefügt, da eine Szene mit globaler Beleuchtung die subtilen dunklen Verläufe in Ecken und zwischen einander zugewandten Objekten vermissen lässt. Diese Details werden von Maxwell automatisch generiert und müssen nicht erneut berechnet werden. Zusammenfassend lässt sich sagen, dass Maxwell eher auf das Rendern eines einzelnen, zusammengefassten Passes ausgelegt ist, während Mental Ray dazu einlädt, die einzelnen Bildbestandteile im späteren Compositing zu vereinen. Zwar ist eine intensive Einarbeitung in die Funktionalität des Renderers nötig, allerdings führt die Optimierung einer Szene für Mental Ray zu verhältnismäßig niedrigen Renderzeiten, die es als Lösung für Animationen prädestiniert. Für Standbilder eignet sich hingegen Maxwell besser, da sich in kurzer Bearbeitungszeit ein Ergebnis mit hochwertigem Gesamteindruck darstellen lässt, das auch einer längeren Begutachtung standhält. 6.6 Zusammenfassung In diesem Kapitel wurden unter Verwendung der zuvor erstellten Szenen, Testreihen durchgeführt. Dabei wurden unterschiedliche Techniken beschrieben, mit denen globale Beleuchtung innerhalb der Renderer erzeugt werden kann. Anhand dessen konnte die Qualität der globalen Beleuchtungsmodelle von Maxwell und Mental Ray miteinander verglichen werden. Im nachfolgenden Kapitel folgt die Zusammenfassung aller Ergebnisse dieser Diplomarbeit und ein Ausblick in die Zukunft des Image-Based-Lighting. 81 Abbildung 62: Das Bildrauschen nimmt mit steigenden Sampling Levels ab (Maxwell Render) 82 Abbildung 63: Die Einstellung der Qualität des Final Gathering geschieht durch das Zusammenspiel von Accuracy und Point Interpolation (Mental Ray) 83 Abbildung 64: Die Option Anti-Aliasing bewirkt nicht nur Kantenglättung sondern entfernt auch Bildrauschen auf Flächen (Mental Ray) 84 Abbildung 65: Accuracy: 1024, Point Interpolation: 20, Anti-Anliasing: 6x, t: 1h 51min 85 Abbildung 66: Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) 86 Abbildung 67: Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) 87 Abbildung 68: Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) 88 Abbildung 69: Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) 89 Abbildung 70: Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) 90 Abbildung 71: Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) 91 Abbildung 72: Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) 92 Abbildung 73: Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) 93 Abbildung 74: Kaustische Reflexionen unter Variation der Umgebungsbeleuchtung (Mental Ray) 94 Abbildung 75: Unterschiedliche Tiefe der Strahlenverfolgung im Zusammenhang mit Kaustiken (Maxwell Render) 95 7 Zusammenfassung und Ausblick Zielsetzung dieser Diplomarbeit war es, die globalen Beleuchtungsmodelle unterschiedlicher Bildsyntheseprogramme im Hinblick auf ihre Leistungsfähigkeit bezüglich der bildbasierten Beleuchtung zu untersuchen und zu vergleichen. Im Vordergrund stand dabei die Verwendung von Maxwell Render V2, stellvertretend für Brute-Force-Rendersoftware und Mental Ray als repräsentative Softwaresuite die eine Vielzahl von Methoden für die Erstellung globaler Beleuchtung vereint. Dazu wurden zunächst die unterschiedlichen Werkzeuge und Methoden der HDR-Fotografie erklärt. Daraufhin wurden mehrere HDR-Panoramen unter Verwendung der Segment-Technik erstellt sowie passende Hintergrundbilder fotografiert. Auf dieser Basis entstanden mehrere Testzenen, die jeweils um virtuelle Inhalte erweitert wurden. Anhand dieser Szenen entstanden mehrere Testreihen, in denen die Renderer Maxwell V2 und Mental Ray in unterschiedlichen Disziplinen der bildbasierten Beleuchtung verglichen werden konnten. Es hat sich herausgestellt, dass die konzeptionellen Unterschiede der Programme zu unterschiedlichen Stärken und Schwächen führen, die das jeweilige Programm für einen bestimmten Verwendungszweck prädestiniert erscheinen lassen. Im Rahmen dieser Diplomarbeit wurden alle produktionsrelevanten Schritte für unterschiedliche, alternative Arbeitsabläufe durchgeführt und beschrieben. Es ist ein Leitfaden für die Konzeption und Erstellung einer Szene unter Verwendung einer Image-Based-Lighting-Umgebung entstanden. Die bildbasierte Beleuchtung virtueller Szenen wird auch künftig ein interessantes Thema bleiben. Mit der kontinuierlichen Leistungssteigerung von Grafikprozessoren werden künftig auch hochauflösende Panoramen Teil von Echtzeitsimulationen sein, beispielsweise in den immer realistischer werdenden Computerspielen. Im Fotografie-Bereich wird es früher oder später auch für die breite Bevölkerung vollautomatische Lösungen geben, HDR-Aufnahmen zu generieren. Besonders Bildschirmsysteme haben sich in den letzten Jahren stark entwickelt und es ist denkbar, dass es künftig einen Standard für HDR-I fähige Monitore geben wird, insbesondere in Wechselwirkung mit HDR-Video Medien. 96 Literatur [AC07] Allen, Damian ; Connor, Brian: Encyclopedia of Visual Effects. Berkelay, CA : Peachpit Press, 2007. – ISBN 0321303342 [Blo08] Bloch, Christian: Das HDRI-Handbuch. Heidelberg,D : dpunkt.verlag GmbH, 2008. – ISBN 9783898644303 [ER05] Erik Reinhard, Sumanta Pattanaik Paul D. Greg Ward W. Greg Ward: High Dynamic Range Imaging. 2005. – ISBN 0–12– 585263–0 [EV97] Eric Veach, Leonidas J. G.: SIGGRAPH 97 Proceedings (August 1997). Addison-Wesley, 1997 [Fis09] Fischer, Martin: Mental Images präsentiert RealityServer 3.0. Hannover,D : Heise Zeitschriften Verlag GmbH&Co.KG, 2009 [GH03] Gerhard Heldmaier, Gerhard N.: Vergleichende Tierphysiologie, Band 1. Berlin : Springer-Verlag, 2003 [Kaj86] Kajiya, James T.: The rendering equation. In: Proceedings of the 13th annual conference on Computer graphics and interactive techniques (SIGGRAPH) 1986. ACM Press, 1986 [M6403] Mamiya 645 AFDII Bedienungsanleitung. 2003 [Opp09] Opper, Mischa: Prozessoptimierte Darstellung von virtuellen Fahrzeugmodellen durch den Einsatz von HDRI und IBL. FriedbergHessen,D : Fachhochschule Gießen Friedberg, 2009 97 Abbildungsverzeichnis 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 c Ausschnitte aus Herr der Ringe New Line Pictures, Inc.2 . . . c Raumschiff Enterprise 1966 und 2009 Paramount Pictures 3 . . Darstellung einer Szene mit Beleuchtung durch ein HDR-Panorama (Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . . . . Aufstellung und Sichtweise des Fisheye Objektivs . . . . . . . . . Zwei Kamerapositionen bei der Mirrorball-Technik . . . . . . . . Mirrorball-Technik: Auseinanderfalten der Bilder in HDRShop . Mirrorball-Technik: Überblenden der Bilder mit Photoshop . . . Mirrorball-Technik: Entfernen der störenden Bildinhalte, hier beispielsweise der Kamera . . . . . . . . . . . . . . . . . . . . . . . . Fertiges Panorama mit der Mirroballtechnik . . . . . . . . . . . . Die One Shot Technik von außen und aus der Sicht der Kamera . Die Segmenttechnik. Die Brennweite und die Segmentgröße sind umgekehrt proportional . . . . . . . . . . . . . . . . . . . . . . . Unterschiedliche Kontrastverhältnisse bei 24 bit JPEG (links) und 8 bit GIF (rechts). Deutlich erkennbare Farbstufen im GIFBild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Canon EOS 5D . . . . . . . . . . . . . . . . . . . . . . . . . . . . Canon 50 mm Normalobjektiv . . . . . . . . . . . . . . . . . . . Capture One P45, Mamiya 645 AFDII . . . . . . . . . . . . . . . Aufbau der Ausrüstung beim Panorama Scheune“ . . . . . . . . ” Stativkopf Triton PH46 / Einstellschlitten Novoflex Castel -L . . Objektiv Mamiya 35mm / AF Drahtauslöser Hama / Stativ Manfrotto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Benutzeroberfläche PTGui . . . . . . . . . . . . . . . . . . . . . Benutzeroberfläche EXIF Editor . . . . . . . . . . . . . . . . . . Benutzeroberfläche Photoshop CS3 . . . . . . . . . . . . . . . . . Logische Problematik der Zusammengehörigkeit von Backplate und Panorama: In der Reflexion scheint das Glas in der Luft zu schweben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Nicht kontinuierlicher Schattenwurf zwischen zwei Belichtungsreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . PTGui: Für die CGI Anwendung wichtig: Um eine automatische Tonwertkompression zu verhindern, ist im Fenster Bracketed Exposures True HDR“ zu wählen . . . . . . . . . . . . . . . . . . . ” PTGui, Image Parameters, verkürzte Darstellung: Hier befinden sich neben dem verkleinerten Vorschaubild alle wichtigen EXIFInformationen sowie verschiedene Parameter bezüglich Position und Verzerrung im Panorama . . . . . . . . . . . . . . . . . . . . PTGui, Control Points: Manuelles Setzen der Kontrollpunkte. Dies geschieht durch Bestimmung eines Bildpunkts durch einen Mausklick auf ein Bild und Festlegen seines Äquivalents im anderen Bild durch einen weiteren Mausklick. . . . . . . . . . . . . PTGui, Panorama Editor: Hier wird eine ständig aktualisierte Vorschau auf das Panorama angezeigt . . . . . . . . . . . . . . . 98 1 2 4 6 7 8 8 9 9 10 11 18 21 22 22 23 24 24 25 26 26 28 29 31 32 33 34 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 Links: Die Auswirkung des Belichtungsreglers; Rechts: Tonemapping durch zusammenschneiden der optimal belichteten Bildausschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das Potential des hohen Dynamikumfangs kann auch für eine kreative Interpretation des Bildes verwendet werden. Hier wird durch selektive Belichtungsänderung eine neue Lichtsituation geschaffen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Links: Maskieren und Löschen, Rechts: Details an Früchten und Tisch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Belichtungsreihen Bar . . . . . . . . . . . . . . . . . . . . . . . Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Bar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Retusche am Panorama der Bar . . . . . . . . . . . . . . . . . Panorama Bar, Endergebnis. Automatisches Tonemapping . . . Belichtungsreihen Scheune . . . . . . . . . . . . . . . . . . . . . Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Scheune . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Retuschearbeiten am Boden der Scheune. Entfernen des Stativs durch Überlagern passender Bildinhalte. . . . . . . . . . . . . . Details des Panoramas der Scheune . . . . . . . . . . . . . . . . Details des Panoramas der Scheune . . . . . . . . . . . . . . . . Panorama der Scheune, automatisches Tonemapping . . . . . . Auszug aus den Belichtungsreihen der Kaiserpfalz . . . . . . . Belichtungsreihen zur Veranschaulichung des Motivkontrasts der Kaiserpfalz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Details des fertigen Panoramas . . . . . . . . . . . . . . . . . . Details des fertigen Panoramas . . . . . . . . . . . . . . . . . . Retusche des Panoramas der Kaiserpfalz . . . . . . . . . . . . . Panorama der Kaiserpfalz, automatisches Tonemapping . . . . Maxwell Render V2, Multilight: Im Bild oben besteht die Lichtquelle nur aus dem HDR-Panorama, im Bild unten wurde eine Lichtquelle im Lampenschirm dazugeschaltet und der Hintergrund gedimmt. . . . . . . . . . . . . . . . . . . . . . . . . . . . Maxwell Render V2, Einstellungen: Optionen zur Bildqualität, Bewegungsunschärfe und Atmosphäre . . . . . . . . . . . . . . Maxwell Render V2, Einstellungen: Optionen zur bildbasierten Beleuchtung, Renderkanäle und Linsensimulation . . . . . . . . Mental Ray: Einstellungen zur Indirekten Beleuchtung über Global Illumination und Importons . . . . . . . . . . . . . . . . . Mental Ray: Einstellungen zur Indirekten Beleuchtung über Final Gathering und Irradiance Particles . . . . . . . . . . . . . Mental Ray: Globale Qualitätseinstellungen . . . . . . . . . . . Bar-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya) . . . . . . . . . . . . . . . . . . . . . . . . . . Bar-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes . . . . . . . . . . . Bar-Szene: Hintergrundbild (Backplate) . . . . . . . . . . . . . 99 . 35 . 36 . 37 . 40 . . . . 41 42 43 45 . 46 . . . . . 47 48 49 50 52 . . . . . 53 54 55 56 57 . 62 . 63 . 64 . 65 . 66 . 67 . 71 . 71 . 72 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 Bar-Szene: Komposition der Backplate und des gerenderten Bildes (Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . . Scheunen-Szene: Drahtgittermodell in der perspektivischen Ansicht (Autodesk Maya) . . . . . . . . . . . . . . . . . . . . . . . . Scheunen-Szene: Alpha-Kanal der Szene. Die weiße Fläche entspricht dem sichtbaren Teil des gerenderten Bildes . . . . . . . . Scheunen-Szene: Hintergrundbild (Backplate) . . . . . . . . . . . Scheunen-Szene: Komposition der Backplate und des gerenderten Bildes (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . . Global Illumination über ein HDR-Panorama mit 2 Mio. Photonen) Das Bildrauschen nimmt mit steigenden Sampling Levels ab (Maxwell Render) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Einstellung der Qualität des Final Gathering geschieht durch das Zusammenspiel von Accuracy und Point Interpolation (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Option Anti-Aliasing bewirkt nicht nur Kantenglättung sondern entfernt auch Bildrauschen auf Flächen (Mental Ray) . . . . Accuracy: 1024, Point Interpolation: 20, Anti-Anliasing: 6x, t: 1h 51min . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über eine Sphäre (links) und den IBL-Shape (rechts) (Mental Ray) . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) . . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) . . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) . . . Vergleich der Qualität der Beleuchtung mit einem HDR-I über Sphäre (links) und Environment (rechts) (Maxwell Render) . . . Kaustische Reflexionen unter Variation der Umgebungsbeleuchtung (Mental Ray) . . . . . . . . . . . . . . . . . . . . . . . . . . Unterschiedliche Tiefe der Strahlenverfolgung im Zusammenhang mit Kaustiken (Maxwell Render) . . . . . . . . . . . . . . . . . . 100 72 73 73 74 74 77 82 83 84 85 86 87 88 89 90 91 92 93 94 95