Diplomarbeit als PDF
Transcription
Diplomarbeit als PDF
TECHNISCHE UNIVERSITÄT DRESDEN FAKULTÄT INFORMATIK INSTITUT FÜR SOFTWARE- UND MULTIMEDIATECHNIK LEHRSTUHL FÜR MEDIENGESTALTUNG PROF. DR. RAINER GROH Diplomarbeit zur Erlangung des akademischen Grades Diplom-Medieninformatiker Animation von Menschen und Optimierung der Objektdarstellung im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden vorgelegt von Gordon Lemme Dresden 2008 ii Inhaltsverzeichnis Aufgabenstellung ix Eidesstattliche Erklärung xv Danksagung xvii 1 Einleitung 1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Zielstellung . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Gliederung . . . . . . . . . . . . . . . . . . . . . . . . . 2 Grundlagen 2.1 Wahrnehmung . . . . . . . . . . 2.1.1 Aufbau und Funktion des 2.1.2 Farben . . . . . . . . . . 2.1.3 Die Augenbewegung . . . 2.2 Wahrnehmungsprozess . . . . . 2.2.1 Bottom-up . . . . . . . . 2.2.2 Top-down . . . . . . . . 2.3 Field of View . . . . . . . . . . 2.3.1 Frustum . . . . . . . . . 2.3.2 Hüllobjekte . . . . . . . 2.3.3 Culling . . . . . . . . . . 1 1 2 3 . . . . . . . . . . . 7 7 7 9 11 12 13 14 16 18 18 19 3 Fußgänger 3.1 Animation . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Definition . . . . . . . . . . . . . . . . . . . . . 3.1.2 Animationsmöglichkeiten . . . . . . . . . . . . . 21 21 21 21 . . . . Auges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii Inhaltsverzeichnis 3.1.3 Animation vs. Simulation 3.1.4 Creator-Animation . . . 3.2 Verhaltensanalyse . . . . . . . . 3.2.1 Fallunterscheidungen . . 3.2.2 Verhaltensmodelle . . . . 3.2.3 Konflikt . . . . . . . . . 3.2.4 Merkmalsdetektion . . . 3.2.5 Auswertung . . . . . . . 3.2.6 Schlussfolgerung . . . . . Inhaltsverzeichnis . . . . . . . . . . . . . . . . . . 22 23 25 27 29 33 33 35 37 . . . . . . . . . . . . . . . . . . . 41 41 41 42 42 42 47 49 53 54 54 54 57 59 59 60 64 64 64 66 5 Verkehrszeichen 5.1 Erkennbarkeit . . . . . . . . . . . . . . . . . . . . . . . 5.2 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Lesbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . 69 70 70 72 4 Farbe 4.1 Farbe . . . . . . . . . . . . . . . . 4.1.1 Der Farbraum . . . . . . . 4.1.2 menschliche Wahrnehmung 4.2 RGB-Farbraum . . . . . . . . . . 4.2.1 RGB-Kodierung . . . . . . 4.2.2 RGB in xyY-Konvertierung 4.2.3 xyY in RGB-Konvertierung 4.2.4 Rechenhilfe . . . . . . . . . 4.3 Farbtemperatur . . . . . . . . . . 4.4 Farben im Creator . . . . . . . . . 4.4.1 Farbraumdefinition . . . . 4.4.2 Farbpalette . . . . . . . . . 4.5 Farben im Fahrsimulator . . . . . 4.5.1 Experiment . . . . . . . . 4.5.2 Ergebnis . . . . . . . . . . 4.6 Licht, Schatten und Material . . . 4.6.1 Das Licht . . . . . . . . . . 4.6.2 Der Schatten . . . . . . . . 4.6.3 Das Material . . . . . . . . iv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inhaltsverzeichnis 5.4 Aufsichtfarbe Diplomarbeit Gordon Lemme . . . . . . . . . . . . . . . . . . . . . . . 6 Textur 6.1 Definition . . . . . . . . . . . . . . 6.2 Generisch vs. Einzigartig . . . . . . 6.3 Texturaufbau . . . . . . . . . . . . 6.4 Texturfilter . . . . . . . . . . . . . . 6.4.1 Minificationfilter . . . . . . . 6.4.2 Magnificationfilter . . . . . . 6.4.3 Filterermittlung . . . . . . . 6.4.4 Texture Environment Filter . 6.4.5 Filteroptionen . . . . . . . . 6.5 Creator . . . . . . . . . . . . . . . . 6.5.1 Internal-Dateiformat . . . . 6.5.2 Filterstandard . . . . . . . . 6.5.3 Filtereinstellung . . . . . . . 6.6 Berechnungsvorschriften . . . . . . . 6.6.1 Speichergröße der Textur . . 6.6.2 Speichergröße Creator intern 6.6.3 Texturgröße . . . . . . . . . 6.7 Texturerstellung . . . . . . . . . . . TM R 6.7.1 Adobe Photoshop CS2 . TM R 6.7.2 Jasc Paint Shop Pro 8 . 7 Level of Detail 7.1 Definition . . . . . . . . . . . . 7.2 Funktionsweise . . . . . . . . . . 7.3 Significant Size . . . . . . . . . 7.4 Berechnungsvorschriften . . . . . 7.4.1 Pixelgröße auf Leinwand 7.4.2 Objektentfernung . . . . 7.4.3 reale Objektgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 . . . . . . . . . . . . . . . . . . . . 77 77 78 81 81 82 82 84 84 84 88 88 88 88 90 90 91 92 94 94 95 . . . . . . . 97 97 98 99 100 100 100 102 8 Hardware 103 8.1 Grafikkarte . . . . . . . . . . . . . . . . . . . . . . . . . 103 v Inhaltsverzeichnis Inhaltsverzeichnis 8.1.1 Anisotrope Filterung . . . 8.1.2 Anti-Aliasing Filterung . . 8.2 Projektor . . . . . . . . . . . . . . 8.2.1 Technik . . . . . . . . . . . 8.2.2 Perspektivische Verzerrung 9 Optimierung 9.1 Texturverkleinerung . . . 9.2 Texturfilter . . . . . . . . 9.3 Moiré-Effekt . . . . . . . 9.4 Texturaufbau . . . . . . 9.5 Farbe vs. Textur . . . . . 9.6 Szenengraphoptimierung 9.7 LOD . . . . . . . . . . . 9.8 Hardware . . . . . . . . . 9.8.1 Treiber . . . . . . 9.8.2 Verschleißteile . . 9.8.3 Auflösung . . . . 9.9 Material . . . . . . . . . 9.10 Licht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 106 107 107 108 . . . . . . . . . . . . . 111 111 115 115 118 118 120 122 122 122 123 124 124 125 10 Zusammenfassung 127 10.1 Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 10.2 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 A Hardware A.1 Grafikkarte . . . A.2 Prozessor . . . . A.3 Motherboard . . A.4 Arbeitsspeicher A.5 North Bridge . . A.6 Betriebssystem . A.7 Projektoren . . B DIN 1450 vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 131 132 132 133 134 134 135 137 Inhaltsverzeichnis Diplomarbeit Gordon Lemme C Creator to Fahrsimulator Checkliste C.1 Szenengraphaufbau . . . . . . . . C.2 Fahrspurdaten . . . . . . . . . . . C.3 FLT zu PFB Konvertierung . . . . C.4 Konfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 139 139 140 140 Literaturverzeichnis 143 Internetquellen 145 Glossar 152 Abbildungsverzeichnis 167 Tabellenverzeichnis 171 Personenverzeichnis 173 Index 175 vii Inhaltsverzeichnis viii Inhaltsverzeichnis Diplomarbeit Gordon Lemme Aufgabenstellung Animation von Menschen und Optimierung der Objektdarstellung im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden Im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme (IVI) in Dresden wurde ein Fahrsimulator aufgebaut, der insbesondere für Untersuchungen neuartiger Fahrerassistenzsysteme sowie für die Beurteilung alternativer Straßenentwürfe konzipiert ist (Abbildung 0.1). Die gesamte 3D-Welt der Simulation ist in einer Visualisierungs-Datenbasis abgelegt, die effizient variier- und erweiterbar ist. Die Qualität der modellierten 3D-Welt ist dabei von wesentlicher Bedeutung für die empfundene Realitätsnähe im Simulator. Die Modellierung der Objekte erfolgt mit dem im IVI vorhandenen 3D-Werkzeug MultiGen Creator der Firma MultiGen-Paradigm (Quelle: MultiGen 26.04.2008). Die anschließende Darstellung im Fahrsimulator sowie die Animation (Bewegen, Blinken, Bremsen) der Simulationsfahrzeuge erfolgt mit Hilfe des OpenGL Performers (SGI) v3.0. Die visuelle Umgebung wird nach vorne durch drei DLP-Projektoren auf eine sphärische Leinwand mit einem Sichtbereich von 170◦ x 50◦ projiziert. Zur Sicht nach hinten werden zwei Kanäle des 3D-Modells auf zwei TFTDisplays ausgegeben, die an den Positionen der Rückspiegel angebracht sind. Im ersten Teil der Arbeit soll die Möglichkeit der Animation eines Fußgängers mit den vorhandenen Werkzeugen ix 0. Aufgabenstellung geprüft und umgesetzt werden. Dabei ist zu beschreiben, welchen optischen Veränderungen, bedingt durch die perspektivische Verzerrung, die Darstellungsform eines Menschen unterliegt. Weiterhin sollen verschiedene Ansätze zum Analysieren des Verhaltens eines Fußgängers und die Möglichkeit der Vorhersage seiner nächsten Handlung untersucht werden. Im zweiten Teil der Arbeit soll die Optimierung der Objektdarstellung im Fahrsimulator untersucht werden. Dabei werden die Schwerpunkte auf die folgenden Themen gelegt: • Es sind gewisse Abweichungen bei der Farbdarstellung, Helligkeit und Kontrast während der Modellierung im Creator und der anschließenden Darstellung im Fahrsimulator zu beobachten. Ziel der Arbeit ist es, das Zusammenspiel der Komponenten zu analysieren sowie die Einstellungsmöglichkeiten der Projektoren, zum Beispiel bezüglich der Überlappung der einzelnen Bilder, Helligkeit und Kontrast, zu untersuchen, um ein optimales Wiedergabeergebnis zu erzielen. Dabei soll eine Farbpalette R für die Verwendung im MultiGen-Paradigm CreaTM tor 3.3 und im Fahrsimulator definiert werden. • Einfluss auf die Darstellungsqualität im Fahrsimulator haben weiterhin die Einstellungen der Texturattribute. Ein weiteres Ziel der Arbeit ist es, diese Einstellungsmöglichkeiten zu beschreiben (siehe Creator-Hilfe, Internetrecherchen) und anhand verschiedener Beispielobjekte (Straßenmarkierung in Kurven, in Geraden, Verkehrszeichen, Dach- und Fassadentextur für Häuser usw.) die Parameter optimal zu belegen. Dabei soll untersucht werden, ob dadurch das Flimmern bei der Darstellung von kleix Diplomarbeit Gordon Lemme nen Mustern (Dachflächen, Sperrflächen, Pflasterwegen) im Simulator behoben werden kann. • Beim Aufrufen von Objekten mit großem Datenvolumen während der Simulation kommt es gelegentlich zu Verzögerungen in der Darstellung. Es ist daher zu überprüfen, inwieweit durch geeignete Maßnahmen derartige Verzögerungen vermindert beziehungsweise gänzlich verhindert werden können. Hierzu ist neben Experimenten zur Verringerung des Datenvolumens einzelner Objekte zu untersuchen, ob durch die Zerlegung großer Objekte in Teilobjekte und deren zeitlich versetztes Aufrufen das Problem behoben werden kann. Anhand der gewonnenen Erkenntnisse sollen vorhandene Objekte aus der Umsetzung der Bundesstraße B6 optimiert werden. Bei der Optimierung ist auf einen geeigneten Mechanismus bzw. Richtlinien zur Bestimmung der LOD-Entfernungen zum Laden von Objekten in großen Terrains zu achten. Die Ergebnisse der Arbeit sollen in einem Bericht dokumentiert und bei einer Ergebnispräsentation vorgestellt werden. xi 0. Aufgabenstellung Abbildung 0.1: Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden xii Diplomarbeit Gordon Lemme Bearbeitungsbeginn: 1. November 2007 Bearbeitungsdauer: 6 Monate Hochschullehrer: Fakultät: Telefon: Betreuung im IVI: Telefon: E-Mail: Prof. Dr.-Ing. habil. Rainer Groh Informatik Institut für Software- und Multimediatechnik Lehrstuhl für Mediengestaltung Technische Universität Dresden Nöthnitzer Straße 46 01187 Dresden (0351) 46339178 Dipl.-Inf. Marina Voigtländer Fraunhofer-Institut für Verkehrsund Infrastruktursysteme (IVI) Zeunerstraße 38 01069 Dresden (0351) 4640657 [email protected] xiii 0. Aufgabenstellung xiv Diplomarbeit Gordon Lemme Eidesstattliche Erklärung Ich erkläre hiermit an Eides Statt, dass ich die vorliegende Diplomarbeit selbstständig angefertigt habe. Die aus fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht. Die Arbeit wurde bisher weder in gleicher noch in ähnlicher Form einer anderen Prüfungsbehörde vorgelegt und auch noch nicht veröffentlicht. Dresden, 30. April 2008 Gordon Lemme xv 0. Eidesstattliche Erklärung xvi Diplomarbeit Gordon Lemme Danksagung Zu Beginn möchte ich Herrn Prof. Dr. R. Groh von der TU-Dresden für die Ermöglichung einer externen Diplomarbeit danken. In diesem Zusammenhang gilt ein ganz besonderer Dank Herrn Dr. T. Knote, der mir eine Diplomandenstelle am Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden zur Verfügung stellte. Des Weiteren möchte ich mich bei meiner Betreuerin Frau Marina Voigtländer für die kontinuierliche und intensive Betreuung meiner Arbeit bedanken. Ihre zahlreichen Hinweise, Anregungen und die konstruktiven Diskussionsrunden am Fahrsimulator haben diese Arbeit in großem Maße geprägt. Durch ihre unermüdliche Art und ihre kreativen Einfälle hat sie mich während meiner Arbeit unterstützt und in meiner Arbeitsweise vorangebracht. Für die Unterstützung in Hardware-Fragen möchte ich mich bei Herrn Dr. G. Nirschl und Patrick Peternell vom Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden bedanken, die meine Anfragen schnellstmöglich beantworteten. Weiterhin möchte ich mich bei Herrn Prof. Dr. B. Schlag, Herrn Christoph Schulze und Jan Rickmeyer von der TUDresden bedanken, die mich in verkehrspsychologischen Fragen betreuten und so diesen Teil der Arbeit bereicherten. xvii 0. Danksagung Bei der Recherche und für die Beschaffung von Fachliteratur möchte ich den beiden Bibliothekarinnen G. Holler und S. Huste recht herzlich danken. In diesem Zusammenhang ist das ganze Kollegium des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden zu erwähnen, in dem eine sehr angenehme Arbeitsatmosphäre vorherrscht. Für die Unterstützung während meines gesamten Studiums möchte ich mich an dieser Stelle bei meiner Familie und meiner Freundin Diana bedanken. Sie haben mir in schweren Zeiten den Rücken freigehalten und mich mit neuen Überlegungsansätzen bei dieser Arbeit motiviert. Schließlich möchte ich noch den Personen Dank aussprechen, die zum Gelingen dieser Arbeit beitrugen und nicht namentlich erwähnt wurden. xviii Diplomarbeit Gordon Lemme 1 Einleitung Der erste Teil dieses Abschnittes befasst sich mit der Motivation zur Bearbeitung des Diplomarbeitsthemas. Im Anschluss werden die allgemeinen Ziele und die speziellen Aufgaben dieser Arbeit vorgestellt. Das Kapitel wird durch eine inhaltliche Gliederung der Diplomarbeit abgeschlossen. 1.1 Motivation In einem Fahrsimulator sind die Echtzeitfähigkeit und Realitätsnähe essenziell. Nur wenn diese beiden Eigenschaften gegeben sind, lassen sich die erfassten Verhaltensmuster von Fahrzeugführern repräsentativ für den realen Straßenverkehr auswerten. Dabei kommt es auf ein Gleichgewicht zwischen den beiden Merkmalen an, da bei begrenzten Rechenzeiten und Rechenkapazitäten die Echtzeitfähigkeit nicht beeinflusst werden darf. Demgegenüber steht die zu erzeugende Realitätsnähe, um wesentliche Verhaltensschemata für den Straßenverkehr ableiten zu können. Im Zuge des APROSYS-Projektes am Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden und der damit verbundenen Unfallverhütung, ist es notwendig die Realitätsnähe der vorhandenen Datenbank zu verbessern. Dabei soll die Studie des DaimlerChrysler-Fahrsimulators in Berlin untermauert werden. In der Studie soll die Nutzung des Fahrsimulators, unter Berücksichtigung der tech1 1. Einleitung Zielstellung nischen Komplexität, abgeschätzt werden. Kernpunkt der Studie ist die Untersuchung der Fahrzeugführerreaktion auf ein so genanntes Pedestrian Protection System. Hierbei sollen verschiedene Szenarien untersucht werden. 1.2 Zielstellung Aus den in Abschnitt 1.1 gegebenen Anforderungen soll im Zuge dieser Arbeit die Echtzeitfähigkeit des Fahrsimulators vom Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden hergestellt werden. Dabei sollen die in der vorhandenen Datenbank befindlichen 3DObjekte optimiert werden, ohne dabei an Realitätsnähe zu verlieren. In diesem Zusammenhang ist die Darstellungsfähigkeit der Datenbank durch die einzelnen Instanzen zu analysieren. Ziel dieser Analyse ist eine einheitliche Farbdarstellung durch eine vordefinierte Farbpalette. Weiterhin soll auf den Einsatz von Filtermöglichkeiten eingegangen werden, um die Darstellung von Objekten an ihre jeweilige Entfernung anpassen zu können. Hierbei spielt die Sichtbarkeit von Verkehrszeichen eine primäre Rolle, da diese für das Verkehrsverhalten von Simulatornutzern essenziell ist. Zusätzlich ist das Flimmern von Texturen zu untersuchen und gegebenenfalls ein Lösungsvorschlag zur Situationsverbesserung zu unterbreiten. Die vorhandene Datenbank soll um eine Fußgängeranimation ergänzt werden. Zudem soll die perspektivische Analyse von Fußgängern in der 3D-Umgebung einen Unterpunkt der Diplomarbeit bilden. Im Weiteren ist die theoretische Erarbeitung der Verhaltensmerkmale von Fußgängern am Fahrbahnrand ein Ziel dieser Arbeit. 2 Gliederung Diplomarbeit Gordon Lemme 1.3 Gliederung Diese Arbeit beinhaltet verschiedene Themengebiete. Die Kapitel sind nachstehend kurz erläutert, um einen Überblick über die Diplomarbeit zu geben. Das Kapitel 2 setzt sich mit grundlegenden Elementen der Wahrnehmung auseinander. Dabei wird auf die menschliche Wahrnehmung sowie dem damit verbundenen Wahrnehmungsprozess eingegangen. Die Betrachtungsgrundlagen in der Computergrafik werden in diesem Kapitel abschließend betrachtet. Das Kapitel 3 ist in zwei Bereiche geteilt. Der erste Abschnitt beschäftigt sich mit der Animation von 3D-Objekten. Dabei wird auf die Flipbook Animation (Bild-für-Bild Animation) am Beispiel eines Fußgängers eingegangen. Der zweite Teil dieses Kapitels ist der Verhaltensanalyse von Fußgängern gewidmet. Hierbei werden die verschiedenen Erkennungsmerkmale bei der Fahrbahnüberquerung analysiert. Das Kapitel 4 beschäftigt sich mit dem Thema Farbe. Es wird sowohl die Entstehung von Farben, als auch ihre Anwendung beschrieben. Hierbei steht der RGB-Farbraum im Mittelpunkt der Betrachtung. Des Weiteren wird auf die Beeinflussung der Farbe im Fahrsimulator eingegangen. Im Kapitel 5 werden die Grundlagen zur Betrachtung von Verkehrszeichen gelegt. Es werden die verschiedenen gesetzlich geregelten Normen abgehandelt. Abgeschlossen wird dieses Kapitel durch die erhaltene Schnittmenge aus der Aufsichtfarbe und dem Fahrsimulatorgamut. Das Kapitel 6 beschäftigt sich mit der Verwendung von Texturen. Dabei werden zu Beginn die Grundlagen vorge3 1. Einleitung Gliederung stellt. Im weiteren Verlauf wird auf mögliche Texturfilter sowie verschiedene Berechnungsvorschriften eingegangen. Abgeschlossen wird das Kapitel durch zwei Texturerstellungstutorials. Im Kapitel 7 wird mit der Einführung des Levels of Detail eine Möglichkeit der Optimierung von 3D-Landschaften aufgezeigt. Hierbei wird auf die Funktionsweise und verschiedene Parameter eingegangen. Das Kapitel 8 beschäftigt sich mit der Hardware, die an der Simulation beteiligt ist. Dabei werden im ersten Abschnitt die Optimierungsmöglichkeiten durch die Grafikkarte analysiert. Hierbei sei auf die beiden Filtereinstellungen (Anisotrope Filterung und Anti-Aliasing Filterung) hingewiesen. Sowohl die Projektionstechnik als auch die perspektivische Verzerrung werden im zweiten Teil erläutert. Im Kapitel 9 werden die, auf Grundlage dieser Arbeit ermittelten, Optimierungsschritte beschrieben. Dabei wird die Anwendung im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden berücksichtigt. Das Kapitel 10 beinhaltet die Zusammenfassung dieser Arbeit und geht kurz auf Anwendungsgebiete eines Fahrsimulators ein. Im Anhang dieser Arbeit befindet sich eine Hardwareübersicht des Simulationssystems. Darüber hinaus ist die Tabelle der Leserlichkeit aus DIN 1450 aufgelistet. Zusätzlich ist die Vorgehensweise für die Einbindung von TM R MultiGen-Paradigm Creator 3.3 -Dateien in die Simulationsumgebung exemplarisch beschrieben. Weiterhin befindet sich im Anhang ein Literatur- sowie Internetquellenverzeichnis. Darüber hinaus gibt es ein Glossar, in wel- 4 Gliederung Diplomarbeit Gordon Lemme chem die wichtigsten Begriffe dieser Arbeit kurz erläutert werden. Anschließend werden Abbildungen, Tabellen und Personen in den gleichnamigen Verzeichnissen aufgeführt. Abgeschlossen wird diese Diplomarbeit durch ein Indexverzeichnis. 5 1. Einleitung 6 Gliederung Diplomarbeit Gordon Lemme 2 Grundlagen Um die Objektdarstellung im Fahrsimluator optimieren zu können, bedarf es einer Analyse des menschlichen Sehapparates. Aus dem Analyseergebnis lassen sich dann Rückschlüsse auf die Optimierungsmöglichkeiten ziehen. „Wir müssen nur unsere Au- 2.1 Wahrnehmung Das Auge des Menschen bildet für Sehende die primäre Orientierungshilfe und ist als solche nur schwer wegzudenken. Es ist aus verschiedenen Teilen aufgebaut, die ihrerseits spezielle Aufgaben zu erfüllen haben. Um eine Optimierung an einer 3D-Umgebung durchführen zu können, muss verstanden werden, wie sich der Mensch in seiner realen Umwelt orientiert. Durch die daraus gewonnenen Erkenntnisse ist es dann möglich in der 3D-Gestaltung, der Texturierung und der Darstellung solcher 3D-Welten Einfluss auf die Optimierung zu nehmen. gen öffnen, so liegt eine reich gedeckte Tafel voller Farben, Formen und Texturen vor uns, ein optischer Festschmaus von Objekten aller Art, auf wunderbare Weise eingefangen in zwei winzigen, verzerrten, auf dem Kopf stehenden Lichtmustern in den Augen“ Gregory, Richard L. 2.1.1 Aufbau und Funktion des Auges Das menschliche Auge ist aus verschiedenen Bestandteilen aufgebaut, welche im Folgenden erläutert werden. Diese Ausführung erhebt keinen Anspruch auf Vollständigkeit, da nur die für diese Arbeit bedeutungsträchtigen Teile untersucht werden. Der interessierte Leser findet weitergehende Informationen im Internet und einschlägiger Literatur. 7 2. Grundlagen Wahrnehmung Der Augapfel eines erwachsenen Menschen besitzt einen Durchmesser von 22-25 mm und ein Gewicht von 7,5 g. Er besteht aus der Hornhaut, der Linse, dem Kammerwasser und der Iris. Der Augapfel wird durch sechs Augenmuskeln in seiner runden Form von außen stabilisiert. Der Glaskörper besteht aus einer gallertartigen, durchsichtigen Masse und liegt in einem Fettgewebe in der Augenhöhle. Er dient zur Aufrechterhaltung der Kugelform des Auges. Die Hornhaut ist vom restlichen Augenkörper durch das Kammerwasser getrennt, durch welches sie auch mit NährAbbildung 2.1: stoffen versorgt wird. An der Hornhautvorderfläche wird Augenhöhle mit Augenmus- das in das Auge fallende Licht am meisten gebrochen. keln (Quelle: Michelson 26.04.2008a) Das menschliche Auge: • 120 Mio. Stäbchen • 7 Mio. Zapfen Die Linse des Menschen ist für die Akkommodation zuständig. Der Krümmungsradius der Linse wird durch Muskelkraft verändert, wodurch betrachtete Objekte deutlich zu erkennen sind. Das Kammerwasser ist eine klare Flüssigkeit, welche aus Eiweiß, Kochsalz, Natrium, Kalium und Glukose besteht. Sie wird vom Epithel des Ziliarkörpers gebildet (Quelle: Michelson 26.04.2008b). Das menschliche Auge erzeugt etwa 2 mm3 Kammerwasser in der Minute. Dadurch erneuert sich das Kammerwasser eines erwachsenen Menschen mit einem Augapfelvolumen von 6,5 cm3 etwa jeden zweiten Tag vollständig. Ein weiterer Muskel ist die Regenbogenhaut oder auch Iris genannt, welche die Pupille umschließt. Durch die Kontraktion des Irismuskels wird die auf die Linse fallende Lichtmenge reguliert. Jedoch sei dies nach Richard L. Gregory nicht die primäre Aufgabe, da sich die Fläche lediglich in einem Verhältnis von 16:1 verändern könne, das Auge allerdings einen Helligkeitsbereich von 100.000:1 ab- 8 Wahrnehmung Diplomarbeit Gordon Lemme deckt (vgl. Quelle: Gregory 1966, Seite 40). Als Retina oder auch Netzhaut, wird der Teil des Auges bezeichnet, der aus einer dünnen Schicht miteinander verbundener Nervenzellen besteht. Die Aufgabe der Nervenzellen besteht darin das auf sie fallende Licht mit Hilfe der Zapfen und Stäbchen, welche dort angesiedelt sind, in elektrische Impulse umzuwandeln. „Das Auge ist ein geometrischer Punkt, der Lichtstrahlen aussendet, um Objekte zu berühren.“ Euklid von Alexandria 2.1.2 Farben Für das Farbsehen oder auch Tagessehen sind die so genannten Zapfen verantwortlich. Diese Fotorezeptoren werden in drei Kategorien eingeteilt. Man unterscheidet zwischen L-Zapfen (Rotrezeptor, Absorptionsmaximum circa 563 nm), M-Zapfen (Grünrezeptor, Absorptionsmaximum circa 534 nm) und S-Zapfen (Blaurezeptor, Absorptionsmaximum circa 420 nm). Das von Objekten reflektierte Licht, die gesehene Farbe, setzt sich aus verschiedenen Wellenlängen zusammen. Die Farbrezeptoren reagieren auf diese unterschiedlichen Wellenlängen und werden in Erregung versetzt. Es kommt im Gehirn zu einer additiven Farbmischung, ähnlich des RGB-Farbmodells. Dabei werden die verschiedenen Wellenlängen additiv verknüpft und aus rotem und grünem wird beispielsweise gelbes Licht. Die Anzahl der Zapfen nimmt mit zunehmender Entfernung von der Fovea centralis (Sehgrube) ab, es ist nicht möglich an der Peripherie der Retina Farben zu unterscheiden. Die dort vermehrt vorkommenden Stäbchen (Absorptionsmaximum circa 500 nm) sind für das Sehen in der Dämmerung zuständig (Quelle: Wagner 26.04.2008). Sie können keinerlei Farben erkennen, sind dafür aber lichtempfindlicher. Bewegungen von Objekten, die sich am Rand der Retina abspielen, werden nicht wahrgenommen. Sie lösen lediglich einen Reflex aus, 9 2. Grundlagen Wahrnehmung der die Augen auf das sich bewegende Objekt ausrichtet. Dadurch rückt das Objekt näher an die Fovea und kann untersucht werden. Im Abbildung 2.2 befinden sich die drei Frequenzkurven, welche für das Farbsehen relevant sind. Zusätzlich ist ein vierter Kurvenverlauf eingetragen, welcher den Frequenzverlauf der Stäbchen beschreibt (Quelle: p2pforum 26.04.2008). Die Pupille ist der Teil des Auges, durch den das Licht auf Abbildung 2.2: Die spektralen Absorptionskurven (vgl. Quelle: Wikimedia 2008) die Netzhaut fällt. Es handelt sich dabei um eine Öffnung der Iris, welche durch Muskelkontraktionen die Öffnungsgröße und somit die Lichtmenge der Pupille beeinflussen kann. Das durch sie einfallende Licht gelangt durch die Linse auf die Retina. 10 Wahrnehmung Diplomarbeit Gordon Lemme 2.1.3 Die Augenbewegung Der Punkt des schärfsten Sehens ist im menschlichen Auge die Sehgrube (Fovea centralis). Um Objekte deutlich fokussieren zu können, sind permanente Augenbewegungen nötig. Diese Sakkaden werden durch das Gehirn gesteuert und unterliegen dem menschlichen Unterbewusstsein. Somit entsteht ein Regelkreislauf, der die menschliche Wahrnehmung beeinflusst. Das Gehirn steuert die Augenbewegung, wodurch die Augen neue visuelle Reize aufnehmen. Diese wiederum werden im Gehirn verarbeitet und führen zu neuen sukzessiven Fixationen. Dabei werden bestimmte Bereiche und Merkmale eines betrachteten Objektes bevorzugt abgetastet. Ohne diese Augenbewegungen würde der Mensch einen betrachteten Bildbereich nur sehr kurz wahrnehmen, da sich die Rezeptoren (Stäbchen und Zapfen) an diesem Reiz adaptieren und somit keine weiteren Signale an das Gehirn senden. „... Wenn wir ein weißes Blatt Papier betrachten, werden die Bildränder des Papiers auf der Retina hin und her verschoben und die Reizeffekte dadurch erneuert. Im Abbildung 2.3: Zentrum des Bildes haben diese kleinen Bewegungen je- 3D-Augabbildung doch keinen Effekt. Denn hier werden lediglich Flächen gleicher Helligkeit ausgetauscht. Eine Änderung der Reizsituation durch die willkürliche Augenbewegung erfolgt also hier nicht. Das läßt annehmen, daß Ränder und Umrisse für die Wahrnehmung sehr wichtig und Signale von einem großen Gebiet gleicher Helligkeit weniger interessant sind. Der visuelle Apparat extrapoliert und füllt offenbar selbstständig Strukturgrenzen aus.“ (Quelle: Gregory 1966, Seite 44) Dieser Mechanismus wird als laterale Hemmung bezeichnet, der durch eine Kontrastverschärfung zu einer Bildverschärfung führt. Dabei werden die Nachbarrezeptoren 11 2. Grundlagen Wahrnehmungsprozess von angeregten Rezeptoren gehemmt Signale zum Gehirn zu schicken. Objektgrenzen werden stärker herausgebildet beziehungsweise wahrgenommen. Aufgrund der Bedeutung von Objektgrenzen können Begrenzungen entstehen, die als solche gar nicht vorhanden sind. Eine solche optische Täuschung ist auch als das Mach-Phänomen bekannt. 2.2 Wahrnehmungsprozess Die Grundlage aller psychischen Prozesse bildet die Wahrnehmung. Durch die Wahrnehmung werden Informationen über die Umwelt und den eigenen Körper gewonnen. Von entscheidendem Einfluss sind dabei die distalen, wie auch die proximalen Sinnesempfindungen. Mit Hilfe des Vergleiches zwischen den Eigenschaften des distalen Reizes und der bereits gemachten Erfahrungen, kommt es zu einem bewussten Wahrnehmungsprozess. Die undifferenzierte neuronale Impulskodierung wird durch die physikalische Energie (distaler Reiz, zum Beispiel Lichtwellen) Gehirndaten: hervorgerufen. Dabei richtet sich der elektrische Impuls eines Reizes, der zur Reizleitung verwendet wird, nach der • Gewicht: ca. 1,5 kg Intensität der Stimulanz und nicht nach Art und Ursprung • Verbrauch: ca. 20% des Reizes. Johannes Müller sprach von der spezifischen der Körperenergie Nervenenergie, das heißt, dass Nervenzellen nur die ih• Nervenzellen: 100 nen entsprechenden Empfindungen hervorbringen, wenn Mrd. (Neuronen) sie gereizt werden. Dies sei unabhängig von der physika• Synapsen: 10.000 pro lischen Natur des Reizes. Es wird immer mit einer opNeuron tischen Empfindung reagiert, wenn der Sehnerv gereizt (Quelle: Kneisel wird, auch wenn die Stimulanz mechanische oder chemische Ursachen hat. Auf der Stufe der Organisation der 26.04.2008) Wahrnehmung werden die Informationen verarbeitet (perzeptuelle Organisation). Diese stellen die Repräsentation der Umwelt, also ein inneres Abbild der äußeren Umwelt, 12 Wahrnehmungsprozess Diplomarbeit Gordon Lemme dar. Beim Identifizieren und Einordnen wird dem Wahrgenommenen eine Bedeutung zugeordnet und es wird in den eigenen Erfahrungsbereich eingebaut. Der Empfindungs- Abbildung 2.4: Schematische Darstellung des Wahrnehmungsprozesses (modifiziert nach Michel, Novak, 1991) (Quelle: Richter 2002, Seite 16) prozess wird in zwei Klassen eingeteilt. Man unterscheidet den reizgeleiteten Bottom-up und den konzeptgesteuerten Top-down Prozess. Diese werden in den nachstehenden Abschnitten 2.2.1 und 2.2.2 beschrieben. 2.2.1 Bottom-up Die Bottom-up Verarbeitung (datengesteuerte Verarbeitung) ist eine Form der Wahrnehmungsanalyse. Der Pro13 2. Grundlagen Wahrnehmungsprozess zess ist dadurch gekennzeichnet, dass die sensorischen Informationen, welche durch die Rezeptoren aufgenommen wurden, an das Gehirn geleitet werden. Die Daten werden so transformiert, dass sie in abstrakter Form im Gehirn verarbeitet werden können. Dort werden sie analysiert und relevante Informationen des Wahrnehmungsobjektes selektiert. Abbildung 2.5: Teilbild der Vase (Quelle: Kneisel 26.04.2008) 2.2.2 Top-down Abbildung 2.6: Teilbild der ter (Quelle: 26.04.2008) GesichKneisel „Nichts ist im Verstand, was nicht zuvor in der Wahrnehmung wäre.“ 14 Die Top-down Verarbeitung (konzeptgesteuerte Verarbeitung), welche höhere mentale Prozesse zur Objektidentifikation heranzieht, arbeitet komplementär zum Bottomup Prozess. Durch die im Gehirn gespeicherten Erfahrungswerte, Motive und Wissen, wird eine Erwartungshaltung generiert, welche sich auf die Analyse und Selektion auswirkt. Der Vorteil des Top-down Prozesses besteht darin, bekannte Reize schneller verarbeiten zu können und diese in einen bekannten Kontext einzuordnen. In der Abbildung 2.8 ist eine Wahrnehmungstäuschung dargestellt. Die Teilbilder 2.5 und 2.6 lassen sich leicht erkennen und vom menschlichen Gehirn einordnen. Im „Gesamtbild“ (Abbildung 2.8) ist es dem Menschen nicht möglich beide Abbildungen gleichzeitig zu erkennen. Das Gehirn erlaubt nur eine Darstellung und wechselt zwischen den beiden bekannten Objekten, Vase und Gesicht, hin und her. Wenn ein solches Bild aus einem bekannten und einem unbekannten Objekt bestehen würde, wäre es dem Menschen nicht möglich, das unbekannte Objekt zu erkennen. In einem solchen Fall selektiert das Gehirn das bekannte Objekt und das Bild erhält eine Eindeutigkeit. Wahrnehmungsprozess Diplomarbeit Gordon Lemme Abbildung 2.7: Einfluss auf die Wahrnehmung (Quelle: Gregory 2001, Seite 253) 15 2. Grundlagen Field of View Abbildung 2.8: Wahrnehmungstäuschung: Gesichter oder Vase? (Quelle: Kneisel 26.04.2008) 2.3 Field of View Field of View (kurz: FOV ) beschreibt das Sichtfeld ausgehend vom Viewpoint. Die Größe des Sichtfensters ist durch die nachstehende Gleichung beschrieben. Dabei gilt sie sowohl für den horizontalen, als auch für den vertikalen Field of View. Die erforderlichen Parameter sind die Entfernung des Betrachters zur Betrachtungsebene, sowie der mögliche Sichtwinkel, welcher horizontal und vertikal variieren kann. Sichtwinkel F OV = 2 ∗ Entf ernung ∗ tan 2 16 Field of View Diplomarbeit Gordon Lemme Das daraus resultierende Seitenverhältnis lässt sich durch die folgende vereinfachte Gleichung errechnen. Seitenverhältnis = = H öhe Breite tan tan vertikaler F OV 2 horizontaler F OV 2 (Quelle: George Eckel 2002, Abschnitt 4) Die durch den Viewpoint und die Sehstrahlen entstehende Pyramide wird auch als Viewing-Volume bezeichnet und ist in Abbildung 2.9 dargestellt. Abbildung 2.9: Darstellung der Clipping Planes. 17 2. Grundlagen Field of View 2.3.1 Frustum In der Computergrafik besteht diese Pyramide aus verschiedenen Teilen, die kurz erläutert werden sollen. Der Boden der Pyramide wird als Far Clipping Plane bezeichnet und bildet den Abschluss des Viewing-Volumes. Abbildung 2.10: Frustum Zusätzlich gibt es eine Ebene, die als Near Clipping Plane bezeichnet wird. Sie bildet zusammen mit der Far Clipping Plane das so genannte Frustum (engl. Pyramidenstumpf). 3D-Objekte, die sich innerhalb dieses Pyramidenstumpfes befinden, werden abgebildet. Objekte außerhalb dieses Bereiches, werden nicht gerendert, da sie nicht im Sichtbereich liegen und somit unnötige Rechenressourcen benötigen. 2.3.2 Hüllobjekte Um zu überprüfen, ob ein Objekt innerhalb oder außerhalb des Frustums liegt, gibt es verschiedenste Algorithmen. An dieser Stelle sei nur eine Vorgehensweise kurz erläutert. Um nicht jedes Pixel eines 3D-Objektes überprüfen zu müssen, erfolgt der Test mit einem so genannten Hüllobjekt (engl. bounding volume). Dieses Hüllobjekt umschließt das 3D-Objekt vollständig mit Hilfe eines einfaAbbildung 2.11: chen geometrischen Primitives (zum Beispiel Kugel oder Hüllobjekt Auto (Quelle: Quader). George Eckel 2002) Im Folgenden wird eine Kollisionsabfrage zwischen dem Hüllobjekt und dem Frustum durchgeführt. Ergibt sich aus dieser Abfrage eine leere Schnittmenge, so liegt das 3D-Objekt vollständig außerhalb des Pyramidenstumpfes, das heißt, es wird nicht gerendert und ist nicht auf dem Bildschirm sichtbar (Würfel). Für den Fall, dass das 18 Field of View Diplomarbeit Gordon Lemme Bounding-Volume nur teilweise im Frustum liegt, ist das Objekt auch nur teilweise sichtbar und muss in Teilobjekte zur Überprüfung zerlegt werden (Auto). Ist das Hüllobjekt vollständig innerhalb des Frustums, so wird es komplett abgebildet und es bedarf keiner weiteren Kontrolle der Teilobjekte (Zug). Abbildung 2.12: Frustum mit verschiedenen Hüllobjekten (Quelle: George Eckel 2002) 2.3.3 Culling Eine weitere, bereits implementierte, Optimierungsmethode ist das Culling. Dabei werden Flächen innerhalb des 19 2. Grundlagen Field of View Frustums auf Sichtbarkeit überprüft. Eine Fläche innerhalb des Pyramidenstumpfes ist immer dann für den Betrachter sichtbar, wenn der Winkel zwischen der Sichtlinie und dem Normalenvektor der Fläche kleiner, maximal gleich, 90◦ ist. Für einen Winkel größer 90◦ , handelt es sich um eine vom Betrachter abgewandte Fläche. Diese findet keine weitere Betrachtung und wird nicht gerendert. Die Abbildung 2.13 zeigt dies anhand eines Würfelmodells. Abbildung 2.13: Culling eines Würfels (Quelle: Unger 26.04.2008) 20 Diplomarbeit Gordon Lemme 3 Fußgänger 3.1 Animation Das Bestreben nach Realitätsnähe verlangt danach, die im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden vorhandenen 3D-Objekte um eine Fußgängeranimation zu erweitern. Eine solche Einführung von menschlichen 3D-Objekten in die Datenbank bietet neue Verkehrssituationen, welche bezogen auf das Fahrerverhalten analysiert werden können. 3.1.1 Definition Das Wort Animation leitet sich aus dem lateinischen animare ab und bedeutet beleben. Durch eine Animation wird dem Betrachter der Eindruck einer kontinuierlichen Bewegung vermittelt, bei der es sich lediglich um eine Abfolge von Einzelbildern handelt. Eine Animation wird als flüssig bezeichnet, wenn sie mit mindestens 24 Bildern pro Sekunde abgespielt wird. Eine andauernde Bewegung entsteht durch die Veränderung des animierten Objektes. Diese kann die Lage, aber auch die Form und Farbe des Objektes betreffen. 3.1.2 Animationsmöglichkeiten Zur Erzeugung einer Computeranimation gibt es verschiedene Ansätze. Man unterscheidet die Bild-für-Bild Ani21 3. Fußgänger Animation mation und die Keyframe Animation. Um mit der Bild-für-Bild Technik eine Animation zu erzeugen, wird das Objekt in jedem Frame leicht verändert. Bei dieser Methode handelt es sich um die klassische Trickfilmtechnik, die auch in Daumenkinos zur Anwendung kommt. Diese Technik ist durch die Erstellung jedes einzelnen Bildes sehr zeitaufwendig und ressourcenintensiv. Bei der Keyframe Animation werden ausschließlich so genannte Schlüsselbilder (Keyframes) festgelegt. Eine Bewegung kommt durch die Interpolation zwischen den einzelnen Bildern zustande. Diese Technik hat die Vorteile, dass sie weniger speicherintensiv und weniger zeitaufwendig bei der Animationserstellung ist. Das lässt sich daraus schließen, dass lediglich die Keyframes gespeichert werden müssen und die fehlenden Bilder berechnet werden. 3.1.3 Animation vs. Simulation Die Unterschiede zwischen der Animation und einer Simulation liegen auf der Hand. Während es bei der Präsentation keine Einflussmöglichkeit auf die Animationssequenz gibt, besitzt der Nutzer einer Simulation einen aktiven Part. Sobald eine Animationssequenz gestartet wurde, befindet sich der Nutzer diesbezüglich in einer Betrachterrolle. In einer Simulation ist der Nutzer der agierende Teil, der durch seine Handlung seine virtuelle Umwelt beeinflussen kann. Daraus ergibt sich, dass eine Simulation in Echtzeit arbeiten sollte, wobei dies bei einer Animation nicht der Fall sein muss, da diese nicht zur Laufzeit, sondern bei der Erstellung gerendert wird. Ein Beispiel für eine Animation im weiteren Sinne ist der oscarprämierte Film Cars, wel22 Animation Diplomarbeit Gordon Lemme chen die Walt Disney Company in Zusammenarbeit mit PIXAR produziert hat. Dieser ausschließlich am Computer produzierte Film beinhaltet Frames, die zwanzig Stunden an Renderzeit beanspruchten (Quelle: Sullivan 26.04.2008, Seite 21). Es wäre also derzeit völlig unmöglich dieses Datenvolumen in Echtzeit zu simulieren und in einem solchen Cars-Auto durch die Filmlandschaft zu fahren. Durch die unterschiedlichen Anforderungen gibt es SoftTM R ware, wie den MultiGen-Paradigm Creator 3.3 , die auf die Simulation oder vielmehr Modellierung von Simulationsobjekten spezialisiert ist. Dadurch ist der Funktionsumfang zur Erstellung von Animationen beim Multi- Abbildung 3.1: TM R Gen-Paradigm Creator 3.3 auf die Bild-für-Bild Me- Bones-Animation thode begrenzt. In einem Animationsprogramm, wie zum R Beispiel Autodesk Maya , stehen dem Nutzer neben der Bild-für-Bild und Keyframe Animation auch Bones (Knochen, die zu einer leichteren Bewegungskoordination beitragen) zur Verfügung. Im nachfolgenden Abschnitt wird R die Animation mit Hilfe des MultiGen-Paradigm CreaTM tors 3.3 beschrieben. 3.1.4 Creator-Animation Wie bereits im Abschnitt 3.1.2 beschrieben, ist der MultiTM R Gen-Paradigm Creator 3.3 auf die Bild-für-Bild Animation beschränkt. Dabei ist im Szenengraph ein Animationsknoten zu erstellen. Alle an der Animation beteiligten Gruppen- und Objektknoten sind unterhalb des Animationsknoten zu platzieren. Diese erste Untergruppe bildet das erste Bild der Animationssequenz. Um eine Sequenz mit 25 Frames pro Sekunde zu erstellen, bedarf es ebenso vieler verschiedener Knoten unterhalb des Animationsknotens. Im Fenster Group Attributes des Ober23 3. Fußgänger Animation knotens lässt sich unter Flipbook Animation der Knoten als Animationsknoten definieren. Dabei steht der forward und backward Type zur Auswahl. Der forward Type erzeugt die Sequenz durch das nacheinander Abspielen der Unterknoten. Mit der backward-Option werden die Unterknoten in umgekehrter Reihenfolge wiedergegeben. Unter der Einstellung Loop Count kann die Anzahl der Durchläufe festgelegt werden. Der Wert 0 steht dabei für eine kontinuierliche Wiederholung der Animationssequenz. Die Loop Duration gibt die Gesamtlänge eines Animationsdurchlaufes an. Bei der Animation von 25 verschiedenen Bildern in einer Sekunde beträgt die Dauer 25 Sekunden. Unter Last Frame Duration kann die Anzeigedauer des letzten Frames verlängert werden. Das Abbildung 3.2: Screenshot des Flipbook-Animationsfensters in den Abbildungen 3.3 - 3.8 dargstellte 3D-Modell wurR R de in Autodesk Maya modelliert. Dabei wurde das Modell anhand von Grafikvorlagen gefertigt. Auf diesen Grafiken ist die zu modellierende Figur in der Front-, Rück- und Seitenansicht abgebildet. Die Umrisse wurden 24 Verhaltensanalyse Diplomarbeit Gordon Lemme R R in Autodesk Maya mit Hilfe von polygonalen Flächen nachempfunden. Auf diese Weise entsteht die dreidimensionale Hülle des Modells. Diese wurde im Anschluss mit einem Bone-Skelett versehen, um die Bewegungsanimation zu erleichtern. Die folgende Bildersequenz (Abbildungen 3.3 - 3.8) zeigt sechs der 25 Modellposen, die zur Animation verwendet wurden. Dabei ist das Modell mit jeder Körperhaltung exportiert worden, um später in der R Flipbook-Animation des MultiGen-Paradigm Creators TM 3.3 eingegliedert zu werden. Die so entstandene Fußgängeranimation ist im anschließenden Screenshot (Abbildung 3.9) festgehalten. Abbildung 3.3: 1. Schritt Abbildung 3.4: 3. Schritt Abbildung 3.5: 5. Schritt 3.2 Verhaltensanalyse In der im Zuge des APROSYS-Projektes (Quelle: APROSYS 2008, Seite 12) erstellten Unfallstatistik ist ersichtlich, dass fast 59% der Unfälle auf gerader, gut einsehbarer Straße stattfinden und zu einer MAIS 2+ (Maximum Abbreviated Injury Scale) Verletzung führen. 25 3. Fußgänger Verhaltensanalyse Abbildung 3.6: 7. Schritt Abbildung 3.7: 9. Schritt Abbildung 3.8: 11. Schritt Abbildung 3.9: Screenshot der Fußgängeranimation 26 Verhaltensanalyse Diplomarbeit Gordon Lemme Es stellt sich auch im Verlauf der Diplomarbeit die Frage, ob es Anzeichen für die plötzliche Fahrbahnüberquerung durch Fußgänger gibt. Nach intensiver Literaturrecherche und Rücksprache mit dem Verkehrspsychologen Prof. Dr. Bernhard Schlag von der TU-Dresden, lassen sich keinerlei eindeutige Merkmale bestimmen. Der Grund für dieses regellose Verhalten ist der Mensch, da jeder einzigartig ist und unterschiedliche Verhaltensmuster an den Tag legt. Dennoch soll in den folgenden Abschnitten die FußgängerFahrzeuglenker-Kommunikation untersucht und mögliche Ansatzpunkte für die Konfliktbewältigung gegeben werden. 3.2.1 Fallunterscheidungen Es sollte eine Fallunterscheidung der Situation in Betracht gezogen werden. Diese Unterscheidung beruht auf verkehrsjuristischen Gesichtspunkten, da der Fußgänger an Fußgängerüberwegen nach § 26 StVO das Recht hat, vor dem Fahrzeug die Straße zu überqueren. Definition 1 (Fußgängerüberwege) (1) An Fußgängerüberwegen haben Fahrzeuge mit Ausnahme von Schienenfahrzeugen den Fußgängern sowie Fahrern von Krankenfahrstühlen oder Rollstühlen, welche den Überweg erkennbar benutzen wollen, das Überqueren der Fahrbahn zu ermöglichen. Dann dürfen sie nur mit mäßiger Geschwindigkeit heranfahren; wenn nötig müssen sie warten. (Quelle: Grunert 26.04.2008a) Damit wird der Fahrzeugführer in die Problemlage versetzt, das Verhalten oder die Absicht des Fußgängers richtig zu antizipieren und einzuschätzen. Dieses Verhalten 27 3. Fußgänger Verhaltensanalyse bedarf laut Gesetzestext einer „erkennbaren“ Nutzungsabsicht des Fußgängers, welche nicht weiter definiert ist. Für Bereiche außerhalb des Fußgängerüberweges ist § 25 StVO heranzuziehen. Demnach hat der Fußgänger sein Verhalten am Fahrzeugverkehr auszurichten. „Ein Fußgänger ist ein glücklicher Autofahrer, der einen Parkplatz gefunden hat.“ Fuchsberger, Joachim Definition 2 (Fußgänger) (1) Fußgänger müssen die Gehwege benutzen. Auf der Fahrbahn dürfen sie nur gehen, wenn die Straße weder einen Gehweg noch einen Seitenstreifen hat. Benutzen sie [Fußgänger, g.d.V.] die Fahrbahn, so müssen sie innerhalb geschlossener Ortschaften am rechten oder linken Fahrbahnrand gehen; ... (3) Fußgänger haben Fahrbahnen unter Beachtung des Fahrzeugverkehrs zügig auf dem kürzesten Weg quer zur Fahrtrichtung zu überschreiten, und zwar, wenn die Verkehrslage es erfordert nur an Kreuzungen oder Einmündungen, an Lichtzeichenanlagen innerhalb von Markierungen oder auf Fußgängerüberwegen (Zeichen 293). . . . (Quelle: Grunert 26.04.2008b) Damit ergeben sich mit Einschränkungen zwei mögliche Konstellationen, in denen ein Fußgänger plötzlich auf die Fahrbahn tritt, so dass es zu einer unfallkritischen Situation kommen kann. Die erste Situation entsteht aus der Unachtsamkeit oder Hektik des Fußgängers heraus und ist schwierig an Prädikaten festzustellen. In der zweiten Situation wird sich der Fußgänger eine Fahrbahnüberquerung erzwingen wollen und in vollem Bewusstsein darüber auch handeln. In einem solchen Fall wird sich der Fußgänger als schwächster Verkehrsteilnehmer dahingehend absichern, dass er von den Fahrzeugführern zur Kenntnis genommen wird. Dies kann beispiels- 28 Verhaltensanalyse Diplomarbeit Gordon Lemme weise durch gegenseitigen Blickkontakt (FahrzeugführerFußgänger) erfolgen. 3.2.2 Verhaltensmodelle Der Fußgänger bildet im Straßenverkehr das schwächste Glied, da er über keinerlei Aufprallschutz und technische Schutzmechanismen verfügt. Zur Verbesserung der Sicherheit von Fußgängern gehören verschiedene technische Maßnahmen. Dazu zählen Lichtsignalanlagen, Unterund Überführungen, öffentliche Beleuchtung sowie Markierungen. Im Folgenden wird auf das Verhalten von Fußgängern und Fahrzeuglenkern im öffentlichen Straßenverkehr eingegangen. Dabei wird zur besseren Fußgängeranalyse der Fußgängerüberweg herangezogen, da dort repräsentative, wiederholbare Szenarien dargestellt werden können. Wie im Abschnitt 3.2.1 erläutert, ist das Überqueren von Fahrbahnen nur an dafür vorgesehenen Stellen erlaubt. Hierbei sind die technischen Maßnahmen, die der Gesetzgeber zur Verfügung stellt, zu nutzen. Aus diesem Grund wird im Weiteren der Fußgängerüberweg für die Betrachtung der Interaktion zwischen Fußgänger und Fahrzeuglenker herangezogen. Zu Beginn der Analyse wird auf ein Modell für das Idealverhalten von Fußgängern und Fahrzeugführern eingegangen (Quelle: Scherer 1983, Seite 86-88). Dieses Idealverhalten am Fußgängerüberweg lässt sich in die nachstehenden Schritte untergliedern. 1. Fußgängerüberweg entdecken, identifizieren 2. Fußgängerüberweg zielbewußt aufsuchen 3. Verhalten vor dem Erreichen des Gehsteigrandes: • visuelle und auditive Exploration (Wahrnehmen von Fahrzeugen aus allen für die Überquerung relevanten Richtungen) 29 3. Fußgänger Verhaltensanalyse • Antizipation möglicher Ereignisse (Abschätzen von Distanzen, Geschwindigkeiten herannahender Fahrzeuge; Voraussehen des Verlaufes von Bewegungen von Fahrzeugen und anderen Fußgängern) • Entschluß über das Verhalten am Gehsteigrand (anhalten, um günstigeren Zeitpunkt abzuwarten oder um jetzt mit Exploration zu beginnen; Straße ohne Anhalten betreten, da Exploration und Antizipation ein Anhalten als nicht notwendig erscheinen lassen oder da durch mangelnde Exploration und Antizipation keine adäquate Einschätzung der Situation erfolgte) 4. Verhalten am Gehsteigrand: • visuelle und auditive Exploration, soweit diese nicht unter Punkt 3 erfolgt ist oder weiterhin erforderlich scheint • Antizipation möglicher Ereignisse, soweit diese unter Punkt 3 nicht erfolgt ist oder weiterhin erforderlich scheint • allenfalls Kontaktnahme mit Fahrzeuglenker (feststellen, ob dieser die Absicht des Fußgängers erkennt) • Entschluß über weiteres Verhalten: – Überqueren beginnen, da Exploration und Antizipation vor oder bei Erreichen des Gehsteigrandes oder eine allfällige Reaktion des Fahrzeuglenkers den Moment als günstig erscheinen lassen weil wegen fehlender Exploration und Antizipation keine Gefahr erkannt wird; 30 Verhaltensanalyse Diplomarbeit Gordon Lemme – warten, da die Exploration und Antizipation vor dem Erreichen des Gehsteigrandes oder am Rand das Abwarten eines günstigeren Moments naheliegen 5. Verhalten während der Überquerung: • visuelle und auditive Exploration fortsetzen, sofern Exploration und Antizipation unter Punkt 4 dies als notwendig erscheinen lassen • Antizipation möglicher Ereignisse fortsetzen, sofern Exploration und Antizipation unter Punkt 4 dies als notwendig erscheinen lassen • motorisches Verhalten (Gehverhalten, Zeichen geben) ist bestimmt durch Antizipation und Interpretation des Verhaltens allfällig vorhandener anderer Verkehrsteilnehmer Durch technische Maßnahmen seitens des Gesetzgebers wird die Überquerung der Fahrbahn im Allgemeinen erleichtert. Zu diesen Maßnahmen gehört zum Beispiel eine Lichtsignalanlage. Dennoch kommt auch hier die Anwendung des Modells zum Einsatz, wobei sich das Explorationsverhalten lediglich dahingehend ändert, dass nach Lichtsignalanlagen gesucht wird. Scherer verweist darauf, dass je nach Verkehrssituation zu beurteilen ist, ob alle Verhaltensschritte eingehalten werden müssen (Quelle: Scherer 1983, (Seite 86)). Er geht davon aus, dass bei vollständiger Anwendung seines Modells, ein Fußgänger die Straße ohne Gefährdung überqueren kann. „Die größte Gefahr im Straßenverkehr sind Autos, die schneller fahren, als ihr Fahrer denken kann.“ Lembke, Robert Nach Scherer gibt es auch ein Modell, welches das Idealverhalten von Fahrzeuglenkern beschreibt, wenn ein Fußgänger die Fahrbahn überqueren will. Bei vollständiger Anwendung dieses Modells soll ebenfalls jeglicher Konflikt 31 3. Fußgänger Verhaltensanalyse zwischen Fußgänger und Fahrzeugführer ausgeschlossen werden können. Scherer bezieht seine Betrachtung wiederum auf den Fußgängerüberweg und hat das folgende Modell (Quelle: Scherer 1983, Seite 87) entwickelt. 1. • allfälliges Erkennen der Signale „Fußgängerstreifen“ oder „Fußgänger“, die auf einen Streifen hinweisen • Wahrnehmen des Streifens 2. • Erkennen von Fußgängern im Bereich des Streifens, welche die Absicht haben (könnten), die Fahrbahn zu überqueren • Antizipation möglicher Bewegungen von Fußgängern (Schätzen von Distanzen, Gehgeschwindigkeiten, Zeiten) 3. • Entschluß über das eigene Verhalten (Bremsbereitschaft, bremsen, anhalten, mit konstanter Geschwindigkeit durchfahren, beschleunigen, ausweichen) • allenfalls mit Fußgänger Kontakt nehmen Auch in dem Fahrermodell bleiben die Schritte bei Lichtsignalanlagen erhalten. Dennoch muss zwischen Geradeausfahrt und Abbiegevorgang unterschieden werden. Bei der Geradeausfahrt unterstützt die Lichtsignalanlage den Fahrzeugführer, dabei sind die Punkte 1 und 2 nur im Sinne einer Kontrolle zu verstehen. Der dritte Punkt spielt auch nur eine untergeordnete Rolle, da laut Abschnitt 2 das Überqueren gesetzlich untersagt ist. Bei einem Abbiegevorgang mit Freigabe des Fußgängerverkehrs kommt das Modell von Scherer wiederum zum vollen Einsatz und die Punkte 1-3 müssen seitens des Fahrers überprüft werden. 32 Verhaltensanalyse Diplomarbeit Gordon Lemme 3.2.3 Konflikt Definition 3 (Konflikt) Unter der Voraussetzung, daß sich die Wege eines Fußgängers und eines Fahrzeuges derart kreuzen, daß es zu einer Kollision kommt, falls die beiden Beteiligten ihre Geschwindigkeit und Bewegungsrichtung konstant beibehalten, liegt dann ein Konflikt vor, wenn aus dem beobachtbaren Verhalten geschlossen werden kann, daß mindestens einer der beiden in einem bestimmten Moment über das unmittelbar bevorstehende Verhalten des anderen im Ungewissen ist oder zu einem bestimmten Zeitpunkt erkennt, daß sich der andere nicht wie erwartet verhält. (Quelle: Scherer 1983, Seite 87) 3.2.4 Merkmalsdetektion In einer Studie der Stadtpolizei Zürich (Quelle: J. Camenzind 1978, Seite 16) wurde untersucht, inwieweit sich das Anhalteverhalten von Fahrzeugführern am Fußgängerüberweg ändert beziehungsweise durch Fußgängergesten beeinflussen lässt. In dieser Studie entstanden fünf verschiedene Szenarien, die jeweils reproduzierbar und repräsentativ waren. Im ersten Teil der Studie wurde ein Mann mittleren Alters als Fußgängerrepräsentant herangezogen. „Der Ursprung aller Konflikte zwischen mir und meinen Mitmenschen ist, daß ich nicht sage, was ich meine, und daß ich nicht tue, was ich sage.“ Buber, Martin In einem ersten Szenario ging der Fußgänger bis zum Gehsteigrand, blieb dort stehen und wandte, durch eine Kopfbewegung, seinen Blick in Richtung der herannahenden Autos. In der Auswertung zeigte sich, dass der Fahrzeugführer den Fußgänger wahr nahm, sein blicken allerdings als eine Suche nach einer Lücke im Verkehrsstrom interpretierte. 33 3. Fußgänger Verhaltensanalyse Im zweiten Szenario blieb der Fußgänger abermals am Gehsteigrand stehen, jedoch ohne Blickkontakt mit dem Fahrzeugführer aufzunehmen. In diesem Fall war sein Blick in Gehrichtung gerichtet, durch eine Handbewegung zeigte er seine Absicht, die Fahrbahn zu überqueren, an. Als Ergebnis ließ sich feststellen, dass der nicht zugewandte Blick des Fußgängers eine Verunsicherung bei den Fahrzeuglenkern hervorrief. Dabei erkannten die Fahrzeugführer die Absicht des Fußgängers durch das Handzeichen, waren aber im gleichen Zug, aufgrund des fehlenden Blickkontaktes, über die Entschlossenheit unsicher. Das dritte Szenario veranlasste den Fußgänger einen Fuß auf die Fahrbahn zu setzen und Blickkontakt mit dem Fahrzeugführer aufzunehmen. Mit dem Fuß auf der Straße vermittelte der Fußgänger dem Fahrzeuglenker eine dynamische Haltung und unterstrich somit seine Absicht der Fahrbahnüberquerung. Es kam zu einer Verlangsamung der Fahrzeuge, jedoch zu keinem Anhalten, da die mögliche Gefährdung dann doch nicht eintrat. In den letzten beiden Szenarien erhöhte sich die Anhaltebereitschaft der Fahrzeugführer, da hier wirksame komAbbildung 3.10: munikative Elemente kombiniert wurden. Szenario 4 (Quelle: J. Ca- Das vierte Szenario kombiniert die beiden ersten Fallmenzind 1978) betrachtungen. Dabei ging der Fußgänger bis zum Gehwegrand, blieb dort stehen und gab sein Handzeichen, während er Blickkontakt mit dem Fahrzeugführer suchte. Durch diese Merkmalskombination konnte der Fußgänger sowohl seine Absicht, als auch seine Entschlossenheit gegenüber dem Fahrzeugführer verständlich machen. Im letzten Szenario ging der Fußgänger bis zum Gehwegrand, setzte einen Fuß auf die Straße und gab dem Fahrzeugführer ein Handzeichen, während er den Blickkontakt zu ihm suchte. In diesem Fall wurde die Fahrbahnüber34 Verhaltensanalyse Diplomarbeit Gordon Lemme querungsabsicht durch das Handzeichen und den Blickkontakt ausgedrückt. Dabei wurde sie durch die Dynamik des Fußabsetzens unterstrichen und für den Fahrzeugführer sichtlich verstärkt. Die Handlung des Fahrzeuglenkers wurde in diesem Szenario durch zwei Aspekte geprägt. Zum Einen durch die sichtbare Absicht des Fußgängers die Straße zu überqueren und zum Anderen durch den Moment der Gefährdung (der Fußgänger tritt auf die Fahrbahn). Im weiteren Verlauf der Studie wurde der Mann mittleren Alters durch eine ältere Frau ersetzt. Dabei kam es nur noch zur Anwendung des vierten Szenarios, um die Anhaltebereitschaft der Kraftfahrer gegenüber Menschen unterschiedlichen Alters zu untersuchen. Als Ergebnis lies sich festhalten, dass ältere Fußgänger im Straßenverkehr benachteiligt sind. Anhand der ausgewerteten Daten wurde deutlich, dass bei dem Mann mittleren Alters durchschnittlich jeder fünfte Fahrzeuglenker anhielt, um ihm eine Straßenüberquerung zu ermöglichen. Der älteren Frau räumte nur durchschnittlich jeder achte Kraftfahrer die Überquerungsmöglichkeit ein. Die Anhaltebereitschaft wird also auch von dem Mobilitätsgrad des Fußgängers beeinflusst, wobei ältere Menschen im Allgemeinen als weniger mobil eingeschätzt werden. Ein weiterer Grund kann die Voreingenommenheit gegenüber älteren Menschen sein, da diese im Allgemeinen mehr Zeit haben. 3.2.5 Auswertung In der von Scherer (Quelle: Scherer 1983, Seite 87) verfassten Auswertung wird deutlich, dass die Konflikterzeugung nicht in Zusammenhang mit der ausgeführten Kopfbewegung steht. Anhand dieser Erkenntnis lässt sich ableiten, dass dies kein Indiz für die eindeutige Absicht der 35 3. Fußgänger Verhaltensanalyse Straßenüberquerung sein kann. Das Gehverhalten des Fußgängers spielt bei auftretenden Konflikten eine bedeutende Rolle. Ein erhöhtes Konfliktpotenzial erzeugen dabei Fußgänger, die eine der nachstehenden Eigenschaften erfüllten (Quelle: Scherer 1983, Seite 87). • Verzögerung oder Beschleunigung des Schrittes bei der Überquerung • Abstoppen vor der Überquerung • Anhalten in der Straßenmitte • Beginn der Straßenüberquerung, während sich ein Fahrzeug nähert, welches vor ihnen durchfahren wird Hervorgehoben wird auch, dass durch längeres Warten Konflikte seitens des Fußgängers vermieden werden können. Dabei handelt es sich lediglich um einen Zeitraum von wenigen Sekunden. In der Studie von Scherer wurde zusätzlich auf die Zeit eingegangen, die ein Fußgänger vor dem Betreten der Fahrbahn am Gehsteigrand wartete. Daraus schloss Scherer folgendes: „Aus der Tatsache, daß ein Fußgänger am Gehsteigrand nicht anhält, kann allein nicht geschlossen werden, ob er sich den Forderungen des Idealverhaltens entsprechend verhält oder nicht. Wenn er sich vorher genügend abgesichert hat und die Situation es nicht erfordert, kann er auf einen Halt verzichten.“ (Quelle: Scherer 1983, Seite 87) Dem gegenüber steht die Auswertung, dass Fußgänger, 36 Verhaltensanalyse Diplomarbeit Gordon Lemme die länger am Gehsteigrand warten als andere, ein erhöhtes Konfliktpotenzial haben. Die Studie belegt, dass bei einer Wartezeit von durchschnittlich 11,8 Sekunden mehr Konflikte entstehen, als bei einer Wartezeit von durchschnittlich nur 8,8 Sekunden. „Dies läßt vermuten, daß Fußgänger bei längerer Wartezeit häufiger als bei kurzer veranlaßt werden, trotz herannahender Fahrzeuge, die vor ihnen durchfahren, den Streifen zu betreten.“ (Quelle: Scherer 1983, Seite 87) 3.2.6 Schlussfolgerung Aus den vorangegangenen Abschnitten lässt sich folgern, wie schwer es ein Fahrzeuglenker hat, die Absicht eines Fußgängers zu erkennen. Dabei wurde von fast idealen Umgebungseinflüssen (zum Beispiel Wetter oder Tageslicht) ausgegangen, doch für den Fahrzeugführer können neben dem eigentlichen Erkennen und Wahrnehmen, wie es im Abschnitt 2.2 beschrieben ist, noch erschwerende äußere Einflüsse hinzukommen. Zudem kann im Straßenverkehr nicht auf das Idealverhalten von Fußgängern und Fahrzeuglenkern, wie es im Abschnitt 3.2.2 dargestellt ist, zurückgegriffen werden. Deshalb ist die Beachtung der Straßenverkehrsordnung §1 StVO ein wichtiger Grundsatz für alle Verkehrsteilnehmer, um Konfliktsituationen zu vermeiden. Die nachstehenden Abschnitte beschäftigen sich mit der Konfliktbewältigung zwischen Fußgängern und Fahrzeuglenkern. Gefahrenantizipation Um Konflikte zwischen Fußgängern und Fahrzeuglenkern zu vermeiden, ist es wichtig, dass beide Parteien sich dem 37 3. Fußgänger Verhaltensanalyse Straßenverkehr angemessen verhalten. Dazu gehört sowohl die Gefahrenkognition, welche das Wahrnehmen, Verstehen und Bewerten von Gefahrensituationen beschreibt, als auch die Gefahrenantizipation, die die geistige Vorwegnahme der Entwicklung gefährlicher Situationen beschreibt (vgl. Quelle: Musahl 1997 ). Durch das frühzeitige Erkennen und richtige Bewerten der Situation, seitens des Fahrzeugführers, ist es unter Mithilfe des Fußgängers möglich, dessen Fahrbahnüberquerungsabsichten zu erkennen. Mögliche Merkmale sind in Abschnitt 3.2.4 inklusive der jeweiligen Bewertung aufgeführt. Diese Merkmale und die Entschlossenheit des Fußgängers führen im Allgemeinen zu einer konfliktfreien Fahrbahnüberquerung. Wie in Abschnitt 3.2.4 beschrieben, kommt es nicht nur auf die vom Fußgänger ausgehenden Absichtsmerkmale an, sondern insbesondere auf dessen Entschlossenheit. Dies ist im Abschnitt 3.2.5 deutlich geworden, da es bei Unentschlossenheit, wie sie sich durch die angegebenen Merkmale 3.2.5 auszeichnen, vermehrt zu Konflikten kommt. Verkehrserziehung Ein wichtiger Punkt ist die vorschulische und schulische Verkehrserziehung. Durch Verkehrsunterricht kann die Gewandtheit und damit Sicherheit im Straßenverkehr beeinflusst werden. Ebenso ist die Verkehrserziehung zur Persönlichkeitsformung von großer Bedeutung für die Ausbildung des Verkehrssinnes. An dieser Stelle sei auch der lernpsychologische Effekt erwähnt, der sich einstellt, wenn ein vortrittgewährender Fahrzeugführer eine Dankesgeste des Fußgängers erhält. Diese positive Geste wird vom Fahrzeugführer als Erfolg angesehen und in einer späteren Situation wird er dementsprechend sein Handlungsmuster wiederholen. 38 Verhaltensanalyse Diplomarbeit Gordon Lemme Verkehrstechnische Schutzmaßnahmen Um das Konfliktpotenzial zwischen Fußgängern und Fahrzeuglenkern weiter zu minimieren, können durch den Gesetzgeber verschiedenste Maßnahmen ergriffen werden. Dazu zählen zum Einen die Installation von Lichtsignalanlagen und gut sichtbaren Fußgängerüberwegen und zum Anderen ist es denkbar die Fußgänger vollständig von abweichenden Verkehrsarten zu trennen. Dies kann durch eine geschlossene Fußgängerzone oder eine zeitliche Trennung der Verkehrsarten erfolgen. Hinzu kommt die Möglichkeit der räumlichen Trennung, wobei die Fußgängerüberführungen beziehungsweise Fußgängerunterführungen den Komfortansprüchen der Fußgänger genügen sollten. Fahrzeugentwicklung Für den Fall, dass es trotz der bereits erwähnten Schutzmaßnahmen dennoch zu einem Konflikt kommt, sind die Fahrzeughersteller derzeit bestrebt die Verletzungen des Fußgängers zu minimieren. Dabei entwickeln die unterschiedlichen Hersteller so genannte Pedestrian Protection Systems, welche bei einem Verkehrsunfall mit einem Fußgänger zum Einsatz kommen sollen. Das grundlegende Prinzip basiert darauf, dass sich ein Teil der Motorhaube hebt, um so die Wucht des auftreffenden Fußgängerkörpers zu dämpfen. 39 3. Fußgänger Verhaltensanalyse Abbildung 3.11: Pedestrian Protection System (Quelle: APROSYS 2008) Abbildung 3.12: Pedestrian Protection System im Einsatz (Quelle: APROSYS 2008) 40 Diplomarbeit Gordon Lemme 4 Farbe 4.1 Farbe Der Begriff Farbe wird in der DIN 5033 von 1979 wie folgt definiert. „Ohne Farbe keine Form.“ Definition 4 (Farbe) Die Farbe ist diejenige Gesichtsempfindung eines dem Auge des Menschen strukturlos erscheinenden Teiles des Gesichtsfeldes, durch die sich dieser Teil bei einäugiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann. Maison, Rudolf (Quelle: DIN 5033) Das Licht, welches das Auge erreicht (siehe Abschnitt 2.1.2), wird Farbreiz genannt. Ein solcher Farbreiz ist durch die Farbreizfunktion (=spektrale Verteilfunktion) definiert (Abbildung 2.2). Diese Funktion stellt den jeweiligen Lichtanteil der verschiedenen Wellenlängen dar (Quelle: Zawischa 26.04.2008a). 4.1.1 Der Farbraum Um eine einheitliche Wahrnehmung von Farbe zu schaffen, wurden Farbräume definiert. Diese beinhalten verschiedene Farben, welche auf unterschiedlichen mathematischen Hintergründen beruhen und maximal alle vom Menschen wahrnehmbaren Farbreize enthalten. In technischer Hinsicht werden Farbräume definiert, um unabhängig vom 41 4. Farbe RGB-Farbraum Ausgabegerät stets den selben Farbeindruck zu erzeugen. Dies ist nötig, da es derzeit nicht möglich ist, alle vom Menschen wahrnehmbaren Farben durch ein darstellendes Gerät (zum Beispiel Monitor) wiederzugeben. 4.1.2 menschliche Wahrnehmung Im nachfolgenden Bild (Abbildung 4.1) wird der für das menschliche Auge sichtbare Bereich und somit die vom Menschen gesehenen Farben definiert. Bei der unten abgebildeten Darstellung handelt es sich um das von der CIE (Commission internationale de l’éclairage) 1931 entwickelte Normvalenzsystem. Es basiert auf einem Sichtfeld von 2◦ , was in etwa der Betrachtung einer Euromünze aus 30 cm Abstand entspricht. In diesem Field of View besitzt die menschliche Farbwahrnehmung ihr Maximum. In der Computergrafik ist dieses Normvalenzsystem das meist verwendete. Auf Grundlage dieses Farbmodells gibt es einen so genannten Gamut. Dieser gibt die Menge aller darstellbaren Farben an, die ein Gerät wiedergeben kann. In der folgenden Abbildung 4.2 ist der Gamut für ein Dell-RGB-Wiedergabegerät angegeben. 4.2 RGB-Farbraum Der RGB-Farbraum oder vielmehr das RGB-Farbmodell spannt mit Hilfe der R, G und B Werte einen dreidimensionalen Raum auf. 4.2.1 RGB-Kodierung Die RGB-Kodierung beruht auf der additiven Farbmischung. Durch die drei Grundfarben rot (R), grün (G) und blau (B) wird ein dreidimensionaler Raum, wie er in 42 RGB-Farbraum Diplomarbeit Gordon Lemme Abbildung 4.1: Der RGB-Farbraum definiert die für einen Menschen sichtbaren Farben. 43 4. Farbe RGB-Farbraum Abbildung 4.2: Der Gamut gibt die darstellbaren Farben eines Gerätes an. 44 RGB-Farbraum Diplomarbeit Gordon Lemme Abbildung 4.3 (Quelle: Bunks 26.04.2008) dargestellt ist, aufgespannt. Entlang der Koordinatenachsen sind die drei Primärfarben angeordnet. Durch diese Darstellung wird deutlich, dass mittels der RGB-Kodierung alle im Würfel befindlichen Farben darstellbar sind. Durch die Mischung von zwei Primärfarben entsteht eine dritte Farbe, die als Sekundärfarbe bezeichnet wird. Die sich daraus ergebenden Eckpunkte des RGB-Würfels bilden die Farben cyan (blau-grün-Mischung), magenta (rot-blau-Mischung) und yellow (rot-grün-Mischung). Bei der additiven Mischung aller drei Primärfarben entsteht weiß. Hierbei wird das Licht vollständig von einer betrachteten Oberfläche zum Auge reflektiert. Der letzte Punkt liegt im Koordinatenursprung und beschreibt den schwarzen Farbwert. Der RGB-Farbraum wird bevorzugt für die Bildschirmdarstellung genutzt, da er ohne Umrechnung auf Monitoren und durch Projektoren abgebildet werden kann. Die jeweiligen Intensitäten der einzelnen R, G und B Werte bilden ein numerisches Tripel, welches die Farbe eindeutig bestimmt. Die X, Y und Z Werte sind die drei Imaginärvalenzen, welche von der CIE gewählt wurden und auf dem Rand des Spektralzuges liegen. Die Eckpunkte des Spektralzuges wurden durch die CIE wie in der Tabelle 4.1 (Quelle: Häßler 26.04.2008a) definiert. Jeder Farbeindruck kann mit genau drei Grundgrößen vollständig beschrieben werden. 1. Graßmannsche Gesetz Graßmann, Hermann Günther CIE-Farbe Wellenlänge x y z Spektral-Rot 700,0nm 0,73467 0,26533 0,0 Spektral-Grün 546,1nm 0,27367 0,71741 0,00892 Spektral-Blau 435,8nm 0,16658 0,00886 0,82456 Tabelle 4.1: Primärvalenzwerte nach CIE 45 4. Farbe RGB-Farbraum Abbildung 4.3: Darstellung des RGB-Würfels (Quelle: Bunks 26.04.2008) 46 RGB-Farbraum Diplomarbeit Gordon Lemme RGBA In diesem Fall wird das RGB-Farbmodell durch einen Alphakanal erweitert. Diese Erweiterung bietet die Möglichkeit, die Transparenz von Pixeln zu bestimmen. Der Wertebereich dieses Kanals erstreckt sich zwischen null und eins. Dabei steht Eins für Lichtundurchlässigkeit und Null für völlige Transparenz (Abschnitt 6.3). 4.2.2 RGB in xyY-Konvertierung Zur Überprüfung, ob ein RGB-Wert innerhalb oder außerhalb des Fahrsimulatorgamuts liegt, müssen diese Werte in die xyY-Koordinaten umgewandelt werden. Bei dieser Konvertierung werden die Primärvalenzen (R, G und B ) in Imaginärvalenzen (=virtuelle Primärvalenzen) umgewandelt. Anschließend können diese Imaginärvalenzen (X, Y und Z ) in die Koordinaten x und y umgerechnet werden. Abbildung 4.4: 3D-xyY-Gamut (Quelle: Lindbloom 2004-2007) Legende RGB-Würfel • B - blau RGB-Umwandlung • C - cyan Zu Beginn der Konvertierung werden die 8 Bit Integer RGB-Werte in nichtlineare Fließkommawerte umgerechnet. • G - grün R1 = R8 Bit 255 G8 Bit G1 = 255 B1 = • M - magenta • R - rot • W - weiß • Y - gelb B8 Bit 255 47 4. Farbe RGB-Farbraum Konvertierung von R1 G1 B1 nach R2 G2 B2 für R1 ≤ 0, 04045 R1 ∗ 12, 92 R2 = 2,4 (R1 +0,055) für R1 > 0, 04045 1,055 für G1 ≤ 0, 04045 G1 ∗ 12, 92 G2 = 2,4 (G1 +0,055) für G1 > 0, 04045 1,055 für B1 ≤ 0, 04045 B1 ∗ 12, 92 B2 = 2,4 (B1 +0,055) für B1 > 0, 04045 1,055 Konvertierung von R2 G2 B2 nach XYZ An dieser Stelle werden die linearen Primärvalenzen (R2 , G2 , B2 ) in die Imaginärvalenzen (X, Y, Z) konvertiert. Dazu werden die Primärvalenzen mit einer von der CIE standardisierten Matrix multipliziert. X 0, 4124 0, 3576 0, 1805 R2 Y = 0, 2126 0, 7152 0, 0722 ∗ G2 Z B2 0, 0193 0, 1192 0, 9505 48 RGB-Farbraum Diplomarbeit Gordon Lemme Umrechnung von XYZ nach xyY Abschließend erfolgt die Umrechnung der Imaginärvalenzen in die Koordinaten x und y. Der Luminanzwert Y ist gleich der Imaginärvalenz Y und muss somit nicht mehr berechnet werden. x= X X +Y +Z y= Y X +Y +Z z= Z X +Y +Z Auf der Grundlage von 1 = x + y + z lässt sich der z-Wert auch durch die Gleichung z = y − (x + y) berechnen. 4.2.3 xyY in RGB-Konvertierung Zur Umwandlung der Koordinatenpaare x und y, sowie des Luminanzwertes Y in die Primärvalenzen (R, G und B ) sind die nachstehenden Berechnungsschritte notwendig. xyY in XYZ Die Umrechnung der Parameter in die Imaginärvalenzen ist nachstehend dokumentiert. Dabei bleibt der Luminanz49 4. Farbe RGB-Farbraum wert Y als Imaginärvalenz erhalten. X= x∗Y y Y =Y Z= (1 − x − y) ∗ Y y XYZ in sRGB An dieser Stelle erfolgt die Grundlage zur Umrechnung von xyY-Werten in RGB-Werte. Der sRGB-Farbraum wurCIE Farbraum mit Imagide von der Electrotechnical Commission (IEC) standardinärvalenzen (Quelle: Zawisiert. Er beruht auf der Charakteristik eines Monitors, scha 26.04.2008b) wie dieser in schwach beleuchteten Büroumgebungen vorzufinden ist. Da es sich hierbei nur um leichte Abweichungen zum eigentlichen RGB-Farbraum handelt, können diese beiden Farbräume als äquivalent bezeichnet werden. Das s in der sRGB Notation steht für das englische standard und soll diesen Farbraum eindeutig identifizieren. Aufgrund der minimalen Unterschiede zwischen dem sRGB-Farbraum und dem RGB-Farbraum wird folgend ausschließlich mit der RGB-Notation gearbeitet. Neben dem sRGB-Farbraum gibt es weitere RGB -Farbräume, wozu der Adobe RGB -, Apple RGB-, Best RGB- und SMPTE-C RGB-Farbraum zählen, um an dieser Stelle nur einige zu nennen. Auf diese Farbräume wird im Zuge dieser Arbeit nicht näher eingegangen. Abbildung 4.5: Im Folgenden wird auf die Beziehung zwischen den D65Tristimulus-Werten und den RGB-Werten eingegangen. Die abgebildete Matrix bildet die Umrechnungsgrundlage zur Berechnung der vorläufigen RGB-Werte (Quelle: 50 RGB-Farbraum Diplomarbeit Gordon Lemme Häßler 26.04.2008b). X 3, 2406 −1, 5372 −0, 4986 R G = −0, 9689 1, 8758 0, 0415 ∗ Y Z 0, 0557 −0, 2040 1, 0570 B Wertebereich Nachfolgend soll gelten, dass Werte die größer als Eins und kleiner als Null sind an diesen Stellen abgeschnitten werden. Durch dieses Verfahren wird der Wertebereich auf 0 ≤ R ≤ 1, 0 ≤ G ≤ 1 und 0 ≤ B ≤ 1 eingegrenzt. 1 für R ≥ 1 R1 = 0 für R ≤ 0 R sonst 1 für G ≥ 1 G1 = 0 für G ≤ 0 G sonst 1 B1 = 0 B für B ≥ 1 für B ≤ 0 sonst 51 4. Farbe RGB-Farbraum Konvertierung R1 G1 B1 nach R2 G2 B2 Im weiteren Verlauf werden die vorläufigen R1 G1 B1 -Werte in nichtlineare R2 G2 B2 -Werte umgewandelt. R1 ∗ 12, 92 für R1 ≤ 0, 0031308 R2 = ( 125 ) R1 ∗ 1, 055 − 0, 055 für R1 > 0, 0031308 G2 = G1 ∗ 12, 92 B2 = ( 5 für G1 ≤ 0, 0031308 ) G112 ∗ 1, 055 − 0, 055 für G1 > 0, 0031308 B1 ∗ 12, 92 für B1 ≤ 0, 0031308 ( 125 ) B1 ∗ 1, 055 − 0, 055 für B1 > 0, 0031308 Konvertierung R2 G2 B2 nach 8 Bit R8 Bit G8 Bit B8 Bit Integer Abschließend werden zum Erhalt der endgültigen RGBDaten die R2 G2 B2 -Werte in 8 Bit Integer Werte konvertiert. Die so erhaltenen Werte R, G und B werden als Primärvalenzen bezeichnet. Der Farbanteil der einzelnen Grundfarben bildet die jeweilige Farbvalenz (Quelle: Marc Janott 26.04.2008 ). R8 Bit = round(255 ∗ R2 ) G8 Bit = round(255 ∗ G2 ) B8 Bit = round(255 ∗ B2 ) 52 RGB-Farbraum Diplomarbeit Gordon Lemme 4.2.4 Rechenhilfe Im Zuge dieser Arbeit wurde eine Excel-Tabelle entworfen, welche die Konvertierung der Farbwerte selbstständig vornimmt. In Abbildung 4.6 ist ein exemplarischer Screenshot dieser Arbeitsmappe zu sehen. Dabei ist durch die verschiedenen Reiter verdeutlichen hierbei die Art der Konvertierung. In den rot unterlegten Zellen erfolgt die Eingabe der umzurechnenden Werte. Anschließend werden anhand der abgebildeten Transformationsmatrix die gesuchten Werte automatisch errechnet. Folglich kommt es zur Bildung aller daraus resultierender Zwischenwerte. Abbildung 4.6: Excel-Umrechnungstabelle 53 4. Farbe Farbtemperatur 4.3 Farbtemperatur Farbe ist eine Empfindung, die ausgestrahlte beziehungsweise reflektierte Energie hervorruft. Diese Energie wird von Auge und Gehirn in Farbeindrücke verarbeitet. Um eine solche Empfindung reproduzieren zu können, bedarf es einer standardisierten Umgebung und Lichtquelle. Die Farbtemperatur ist eine standardisierte Lichtquellenangabe. Zum Beispiel handelt es sich bei D65 um ein typisches Umgebungslicht für einen Monitor, dies entspricht 6500 Kelvin. Ein solcher Farbeindruck entsteht, wenn man einen schwarzen Körper erhitzt, bis er selber Licht dieser Farbe abgibt. Für den Fall, dass der schwarze Körper typisches Umgebungslicht emittiert, müsste er auf eine Temperatur von circa 6500 Kelvin (6226,85◦ C) erhitzt werden. Dann hinterlässt das abgestrahlte Licht den gleichen Farbeindruck. 4.4 Farben im Creator TM R Im MultiGen-Paradigm Creator 3.3 ist es möglich, zwischen zwei Farbmodellen zu wählen. Dabei handelt es sich um den HLS-Farbraum und den RGB-Farbraum. R Das Standardfarbmodell im MultiGen-Paradigm CreaTM tor 3.3 ist der HLS-Farbraum. Dieser entspricht einer doppelten sechseckigen Pyramide und ist in Abbildung 4.7 dargestellt. Abbildung 4.7: HLS-Farbraum (Quelle: Klagenfurt 26.04.2008) 54 4.4.1 Farbraumdefinition R Die Farbraumanpassung im MultiGen-Paradigm CreaTM tor 3.3 erfolgt durch die Auswahl des Datenbankknotens db in der Szenengraphansicht. In Abbildung 4.8 ist Farben im Creator Diplomarbeit Gordon Lemme R Abbildung 4.8: Screenshot des MultiGen-Paradigm TM Creator 3.3 Header Attributes: db Fenster das sich öffnende Optionsfenster unter dem Reiter Preferences dargestellt. Im rechten Bereich ist es durch eine Checkbox möglich, unter Database Preferences, den RGB-Mode zu aktivieren und gegebenenfalls wieder zu deaktivieren. Durch diese Auswahl wird im Programm die Farbauswahl beziehungsweise Farbpalette auf den jeweiligen Farbumfang begrenzt. Mit der RGB-Einstellung kann man beispielsweise nur noch die R, G und B Werte im Face Attributes-Fenster (Abbildung 4.9) eintragen. Die für den HLS-Farbraum spezifischen Felder (Index, Name und Intensity) sind blind und können nicht mehr verwendet werden. R CreaDer Standardfarbraum des MultiGen-Paradigm TM tor 3.3 ist der HLS-Farbraum. HLS steht für Hue (Farbton), Lightness (Helligkeit) und Saturation (Sättigung). Der HLS-Farbraum beinhaltet weitaus weniger Farben als der RGB-Farbraum. Er stellt sich als ein Doppel-Kegel dar, indem die Längsachse die Helligkeit abbildet. Der Ra- 55 4. Farbe Farben im Creator R Abbildung 4.9: Screenshot des MultiGen-Paradigm TM Creator 3.3 Face Attribute-Fenster dius repräsentiert die Sättigung einer Farbe und die Position auf einem kreisförmigen Kegelschnitt gibt den Farbton wieder. Das HLS-Farbsystem wurde 1931 von Textronix zum ersten Mal implementiert (Quelle: Schnabel 26.04.2008). Um dies an einem Beispiel zu verdeutlichen, werden im Folgenden die maximal darstellbaren Farben des jeweiligen Farbraumes berechnet. HLSmax bezeichnet die Menge aller darstellbaren Farben im HLS-Farbraum. HLSmax = Indizes ∗ Intensität HLSmax = 1024 ∗ 128 HLSmax = 131.072 Der HLS-Farbraum umfasst 131.072 Farben. Im Vergleich dazu wird nun berechnet, wieviel Farben der RGB-Farb56 Farben im Creator Diplomarbeit Gordon Lemme raum beinhaltet. RGBmax = Rotmax ∗ Grünmax ∗ Blaumax RGBmax = 256 ∗ 256 ∗ 256 RGBmax = 16.777.216 Im Vergleich der beiden Werte wird deutlich, dass der RGB-Farbraum um ein Vielfaches größer ist als der HLSFarbraum. Um eine möglichst realistische Darstellung der Farben zu erhalten wird im Fahrsimulator des FraunhoferInstituts für Verkehrs- und Infrastruktursysteme Dresden auf den RGB-Farbraum zurückgegriffen. Aufgrund dieser Vorgabe, die soweit auch von der Hardware unterstützt R wird, muss die Einstellung im MultiGen-Paradigm CreaTM tor 3.3 geändert werden. Diese Umstellung erfolgt im Szenengraphen der Datenbank. Durch einen Doppelklick auf das db Symbol öffnen sich die Header Attributes:db, in denen unter Database Preferences das Optionsfeld RGBMode aktiviert werden muss. 4.4.2 Farbpalette TM R In der MultiGen-Paradigm Creator 3.3 Farbpalette (Color Palette) sind in einer 32 x 32 Matrix alle HLSFarbtöne vordefiniert, welche durch die Intensitätsanpassung (Intensity) die Menge der Farben des Farbraums ergeben (Abschnitt 4.4.1). Für die Auswahl mittels RGBKoordinaten lässt sich die Farbe im Color -Fenster definieren. In Abbildung 4.10 handelt es sich um einen ScreensR hot der Color Palette des MultiGen-Paradigm Creator TM 3.3 . 57 4. Farbe Farben im Creator R Abbildung 4.10: Screenshot der MultiGen-Paradigm TM Creator 3.3 Color Palette 58 Farben im Fahrsimulator Diplomarbeit Gordon Lemme 4.5 Farben im Fahrsimulator 4.5.1 Experiment Das im Folgenden beschriebene Experiment soll zeigen, inwieweit die Farbdarstellung des Monitors mit der Farbdarstellung des Projektors übereinstimmt. Als Ergebnis dieses Experimentes soll eine Farbpalette erstellt werden, die es dem Anwendungsersteller ermöglicht, dem Benutzer des Fahrsimulators ein reelles, farbechtes Bild präsentieren zu können. Um verschiedene Eindrücke der Farben zu erhalten, wurde mit verschiedenen Standbildern gearbeitet. Es handelt sich dabei um standardisierte Testbilder der Firma Burosch (Abbildung 4.11, Quelle: Burosch 26.04.2008). Als Entscheidungskriterium wurde an dieser Stelle der Durchschnittswert an subjektiven Wahrnehmungseindrücken herangezogen. Abbildung 4.11: Burosch Testbild 59 4. Farbe Farben im Fahrsimulator 4.5.2 Ergebnis Infolge des durchgeführten Experimentes wurde für den Fahrsimulator ein eigener Gamut erstellt. Der Fahrsimulatorgamut befindet sich innerhalb des RGB-Gamuts und deckt die gesättigten Farben ab. Die Sättigung der Farbe nimmt mit zunehmender Entfernung zum Weißpunkt zu, wodurch in der Mitte des Gamuts ein schlecht darstellbarer Bereich entsteht. Diese Abweichung zum Monitor hängt mit der Helligkeit der Projektorlampe, der Oberflächenbeschaffenheit der Projektionswand sowie der Umgebungsbeleuchtung im Fahrsimulator zusammen. In der Tabelle 4.2 werden die Eckpunkte des inneren, schlecht darstellbaren Bereichs, als RGB-Werte angegeben. AnName Rot Grün Blau x 0,50722 0,30379 0,19333 y 0,32866 0,52751 0,13226 R 255 100 99 G 99 255 100 B 100 99 255 Tabelle 4.2: Eckpunkte der Darstellungsgrenze hand dieser Angaben aus Tabelle 4.2 ist es möglich, Texturen so zu manipulieren, dass sie für den Benutzer des Fahrsimulators eindeutig und gut sichtbar erscheinen. Hinzu kommt die Beeinflussungsmöglichkeit der Parameter bei der Wahl von Farbwerten (Farben). Diese Manipulationen sind immer mit einem Realitätsverlust behaftet, optimieren jedoch das wahrgenommene Leinwandbild und sorgen für farbechte Eindrücke der Umgebung. Auf Grundlage der im Abschnitt 4.2.2 hergeleiteten Umrechnung und den durch das Experiment bestimmten Eckpunktkoordinaten, lässt sich mit Hilfe der Ebenengleichung 4.5.2 und dem daraus resultierenden linearen Gleichungssystem bestimmen, ob ein RGB-Wert innerhalb oder außerhalb des gut darstellbaren Bereiches liegt. 60 Farben im Fahrsimulator Diplomarbeit Gordon Lemme Abbildung 4.12: Der Fahrsimulatorgamut definiert die im Fahrsimulator gut darstellbaren Farben. 61 4. Farbe Farben im Fahrsimulator Ebenengleichung Der zu untersuchende Punkt P befindet sich im darstellbaren Bereich, wenn er innerhalb des Dell-Gamuts und außerhalb des vom Projektor nicht darstellbaren Bereiches liegt. Mit Hilfe der Ebenengleichung lässt sich bestimmen, ob ein Punkt innerhalb, außerhalb oder auf dem Rand der durch die Formel bestimmten Fläche befindet. Zur Vereinfachung wird von einem 2D-Raum, dem CIE-Farbraum, unter Vernachlässigung des Luminanzwertes Y, ausgegangen. Damit wird der Raum, in welchem der Gamut liegt, vollständig durch die beiden Koordinaten x und y aufgespannt. Die Parameter der Ebenengleichung, s und r genannt, sind ausschlaggebend für die Lagebeurteilung des Punktes. Um eine Ebene durch Vektoren darstellen zu können, benötigt man drei Punkte. Die Punkte A, B und C, welche in der Tabelle 4.2 festgelegt wurden, bilden die Eckpunkte eines Dreieckes. Nachstehend ist die Ebenengleichung in Parameterschreibweise angegeben. ~ + AB ~ ∗ r + AC ~ ∗ s s, r ∈ < E : ~x = 0A ~ werden zwei verschiedene RichtunVom Stützvektor 0A ~ und AC ~ vorgegeben. gen durch die Spannvektoren AB Im gegebenen Beispiel sei P ein beliebiger, zu untersuchender Punkt. Für diesen ist zu überprüfen, ob er innerhalb, außerhalb oder auf dem Rand der Ebene liegt. Der Punkt P ist eindeutig durch seinen Ortsvektor P~ bestimmt. Dieser ist bei der Lagebestimmung für den Vektor ~x einzusetzen. Durch diesen Ersetzungsschritt gilt im 62 Farben im Fahrsimulator Diplomarbeit Gordon Lemme Weiteren die folgende Gleichung. ~ = AB ~ ∗ r + AC ~ ∗s AP Das durch die Ersetzung entstandene Gleichungssystem ~ =0, 50722 − 0, 19333∗r+0, 30379 − 0, 19333∗s AP 0, 32866 − 0, 13226 0, 52751 − 0, 13226 muss nach den Parametern r und s aufgelöst werden. Dabei müssen die nachstehenden Bedingungen erfüllt sein. • 0≤r≤1 • 0≤s≤1 • 0 ≤ (r + s) ≤ 1 Der Punkt befindet sich außerhalb der betrachteten Fläche, wenn die Summe der beiden Parameter größer als eins ist (1 < (r + s)). Liegt die Summe zwischen eins und null (0 < (r + s) < 1), befindet sich der Punkt innerhalb. In dem Fall, dass der Wert genau eins beträgt ((r + s) = 1), liegt der Punkt auf dem äußeren Rand der Fläche. Aus diesen mathematischen Grundlagen lässt sich ableiten, dass eine Farbe gut darstellbar ist, wenn der sie bestimmende Punkt innerhalb des Dell-Gamuts und außerhalb des schlecht darstellbaren Projektorgamuts liegt. Sollte der Fall eintreten, dass (r + s) < 1 ist, wäre der Punkt schlecht darstellbar, da er innerhalb dieser Fläche liegt. Damit muss die generelle Darstellbarkeit (Dell-Gamut) nicht weiter überprüft werden, ist der Wert (r + s) > 1 muss untersucht werden, ob sich der Farbwert überhaupt im darstellbaren Bereich für Geräte befindet. Dazu muss erneut die Ebenengleichung angewendet werden, um zu 63 4. Farbe Licht, Schatten und Material prüfen, ob der Punkt P im Dell-Gamut liegt. Dabei gelten für die Parameter die selben Bedingungen. Nach Aus 0, 640074 − 0, 150016∗r0 +0, 28 − 0, 150016∗s0 0, 329970 − 0, 060006 0, 6 − 0, 060006 A~0 P = wertung von r’ und s’ lässt sich eine Einschätzung über die richtige Darstellung der gewählten Farbe (gewählten Punkt) treffen. 4.6 Licht, Schatten und Material „I’m so fast that last night I turned off the light switch in my hotel room and was in bed before the room was dark.“ Ali, Muhammad 4.6.1 Das Licht Um Objekte wahrnehmen zu können, bedarf es Licht. Dieses steht dem Menschen in Form der Sonne als natürliche, sowie durch Leuchtkörper als künstliche, Lichtquelle zur Verfügung. Das Licht selber besitzt sowohl Teilchen-, als auch Wellencharakter und breitet sich mit einer Geschwindigkeit von 300.000 km in der Sekunde aus. Aufgrund dieser endlichen Geschwindigkeit und der vorhandenen Verzögerung beim Sehvorgang mit den Augen sowie dem Sehen als Wahrnehmungsprozess im Gehirn, sieht der Mensch immer die Vergangenheit (vgl. Gregory 1966, Seite 15). 4.6.2 Der Schatten Alle blickdichten (engl. opaque) Objekte, die von einer Lichtquelle angestrahlt werden, erzeugen einen Schatten. In der Optik wird der dunkle Raum hinter einem undurchsichtigen, beleuchteten Objekt als Schatten bezeichnet. In der Computergrafik ist die Berechnung des Schattens sehr 64 Licht, Schatten und Material Diplomarbeit Gordon Lemme ressourcenintensiv und wird an dieser Stelle nicht weiter betrachtet. Im Weiteren werden die Schattierungsarten TM R des MultiGen-Paradigm Creator 3.3 kurz vorgestellt. Flat Shading Beim so genannten Flat Shading wird eine Fläche nicht schattiert, sondern gibt den eingegebenen Polygonfarbwert unabhängig vom Betrachtungswinkel wieder. Der beschriebene Modus ist sehr ressourcensparend, da keine Farbwertberechnungen zur Schattierung durchgeführt werden müssen. Lit Shading Das Lit Shading berechnet aus der Vertex-Normalen, dem der Oberfläche zugewiesenen Material und der Lichtquelle den Schatten. Zur Berechnung der Vertex-Normalen TM R kann im MultiGen-Paradigm Creator 3.3 die Calculate Shading-Funktion verwendet werden. Gouraud Shading Abbildung 4.13: Gouraud Shading Das so genannte Gouraud Shading berechnet die Farbwerte durch Interpolation. Dabei wird die Knotennormale eines Eckpunktes durch die Mittelwertbildung der anliegenden Flächennormalen berechnet. Im Folgenden wird die Beleuchtungsintensität in diesem Punkt bestimmt. Diese Vorgehensweise wird mit allen Eckpunkten einer Fläche vollzogen. Die auf diese Weise erhaltenen Eckpunkte ergeben durch Interpolation die Kantenpunkte, die zwei Eckpunkte miteinander verbinden. Damit beinhalten alle Polygonkantenpunkte eine Beleuchtungsintensität, welche nun die Grundlage für die Interpolation des inneren Bereiches des Polygons bildet. 65 4. Farbe Licht, Schatten und Material Lit Gouraud Shading Das Lit Gouraud Shading kombiniert bei der Darstellung von Flächen das Lit Shading und das Gouraud Shading. 4.6.3 Das Material In der Computergrafik wird einem Objekt ein bestimmtes Material zugewiesen. Dadurch erhält das Objekt die Fähigkeit einfallendes Licht unterschiedlich reflektieren zu können. Man unterscheidet dabei die folgenden echtzeitfähigen Materialien. Ambient In diesem Fall erfährt das Objekt eine indirekte Beleuchtung durch das Umfeld. Das Material hat die Eigenschaft das auftreffende Streulicht zu reflektieren. Diese Eigenart ist der realen Welt nachempfunden. Diffuse Das auf ein Objekt auftreffende Licht wird in alle Richtungen gleichermaßen reflektiert. Die entstehende Farbe wird durch die Entfernung und den Einfallswinkel des Lichtes beeinflusst und ist unabhängig vom Standpunkt des Betrachters. Specular Mit diesem Material lässt sich die Stärke des erzeugten Glanzlichtes, welches bei der Reflektion eines Lichtstrahles auf eine Oberfläche entsteht, beeinflussen. 66 Licht, Schatten und Material Diplomarbeit Gordon Lemme Emissive Bei Verwendung dieser Materialeigenschaft ist das Objekt selbstleuchtend, kann dadurch aber keine anderen Objekte beleuchten. 67 4. Farbe 68 Licht, Schatten und Material Diplomarbeit Gordon Lemme 5 Verkehrszeichen Für Sicherheit und einen geregelten Ablauf im Straßenverkehr wurden vom Gesetzgeber Verkehrszeichen erlassen. Um im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden Realitätsnähe zu simulieren, wurden auch hier Verkehrszeichen, auf Grundlage der realen Verkehrsbeschilderung, in die Simulationsdatenbank aufgenommen. Solche Verkehrsschilder sind für die Analyse des Fahrverhaltens von großer Bedeutung, da sie den Fahrer auf verschiedene Verkehrssituationen vorbereiten. Diese Situationen können dann im Nachhinein ausgewertet werden und liefern Erkenntnisse über das Fahrverhalten in den simulierten Situationen. Die Beschilderung im Straßenverkehr unterliegt nach (DIN 1450, Absatz 3.1) den folgenden Einflüssen. „Der größte Aberglaube ist • Schreibweise • Betrachtungswinkel der Glaube an die Vorfahrt.“ Tati,Jacques • Kontrast • Relativbewegung vom Betrachter Eine Übersicht für die Normmaße von Verkehrszeichen ist im Anhang unter B.1 zu finden. Im realen Straßenverkehr bedarf es dieser Normen, die eine einheitliche Verwendung von Formen, Schriften und Farben gewährleisten. In der DIN 1450 werden Festlegungen bezüglich der Textinformationen auf Verkehrszeichen getroffen. Dabei müssen die 69 5. Verkehrszeichen Erkennbarkeit Informationen „unter verkehrsüblichen Bedingungen“ leserlich sein (Quelle: DIN 1450, Seite 1). Um diese Leserlichkeit einheitlich zu definieren, wurden die nachstehenden Termini festgelegt. 5.1 Erkennbarkeit Definition 5 Erkennbarkeit ist die Eigenschaft von Einzelzeichen, die es ermöglicht, eine Information unter definierten Darbietungsbedingungen zu erfassen. (Quelle: DIN 1450, Seite 1) 5.2 Leserlichkeit Definition 6 Leserlichkeit ist die Eigenschaft einer Folge erkennbarer Zeichen, die es ermöglicht, diese Zeichen im Zusammenhang zu erfassen. (Quelle: DIN 1450, Seite 1) Die Darstellung 5.1 aus (DIN 1450, Absatz 5) zeigt einen Kreis mit einem Durchmesser E[m], der eine gleichbleibende Leserlichkeit darstellt. Die Sehlinie E’[m] beschreibt eine nicht senkrechte Betrachtung des Informationsträgers und ist durch die nachstehende Formel definiert. E 0 = E ∗ cos α Der Winkel α steht dabei für die horizontale beziehungsweise vertikale Verschiebung des Betrachters zur senkrechten Ausgangssituation. Weiterhin ist eine Mindestleseentfernung zum betrachteten Objekt notwendig. Diese wird im Schema mit e bezeichnet und repräsentiert den Durchmesser des kleinen Lesekreises. Eine weitere Variable ist 70 Leserlichkeit Diplomarbeit Gordon Lemme Abbildung 5.1: Leserlichkeitsschema (Quelle: DIN 1450) die Schriftgröße h[mm], welche durch die Schrifthöhe des Buchstabens H festgelegt ist. Die Bestimmungsgröße für die maximale Leseentfernung ist der so genannte Sehweitenfaktor f. Dabei definiert f=0,3 gute, f=0,23 ausreichende und f=0,12 ungünstige Lesebedingungen. Die Leseentfernung berechnet sich durch die folgende Gleichung. E = h ∗ f ∗ 1000 1. vertikaler Lesekreis 2. horizontaler Lesekreis 3. Sehlinie E 4. Sehlinie E’ 5. Informationsträger Zur Bestimmung des Sehweitenfaktors wird die sich anschließende Formel herangezogen. f= E h Dabei bedeuten größere f-Werte eine bessere Lesebedingung. 71 5. Verkehrszeichen Lesbarkeit 5.3 Lesbarkeit Definition 7 Lesbarkeit ist die Eigenschaft erkennbarer Zeichen und leserlich angeordneter Zeichenfolgen, die es ermöglicht, die Informationen zweifelsfrei zu verstehen. (Quelle: DIN 1450, Seite 1) 5.4 Aufsichtfarbe Die Aufsichtfarbe von Verkehrszeichen ist die Körperfarbe, die in DIN 5033-1 definiert ist. Dabei entsteht der Farbeindruck durch das reflektierte Licht des Informationsträgers. In DIN 6171-1, Absatz 4, Anmerkung 2 ist die Auswahl von Farben für den Straßenverkehr definiert. „Die Anzahl der in einem Farbsystem zur Signalisierung verwendeten Farbbereiche sollte so klein wie möglich und der Abstand zwischen den Farben so groß wie möglich sein, um Verwechselungen benachbarter Farben zu vermeiden.. . . “ Die Aufsichtfarben sind in DIN 6171-1, (Tabelle 2) mit den nachfolgenden Eckpunktkoordinaten definiert (Tabelle 5.2). 72 Leuchtdichtefaktor β ≥0,75 Aufsichtfarbe ≥0,45 ≥0,20 ≥0,07 ≥0,05 ≥0,10 0, 04 ≤ β ≤ 0, 15 0, 16 ≤ β ≤ 0, 24 ≤0,03 ≥0,05 73 Tabelle 5.2: Farbbereiche für nicht retroreflektierende Materialien im Neuzustand Diplomarbeit Gordon Lemme Aufsichtfarbe Normfarbwertanteil Eckpunktkoordinaten der Farbbereiche 1 2 3 4 Weiß x 0,305 0,335 0,325 0,295 y 0,315 0,345 0,355 0,325 Gelb x 0,494 0,470 0,493 0,522 y 0,505 0,480 0,457 0,477 Orange x 0,610 0,535 0,506 0,570 y 0,390 0,375 0,404 0,429 Rot x 0,735 0,700 0,610 0,660 y 0,265 0,250 0,340 0,340 Blau x 0,140 0,160 0,160 0,140 y 0,140 0,140 0,160 0,160 Grün x 0,230 0,260 0,260 0,230 y 0,440 0,440 0,470 0,470 Braun x 0,467 0,447 0,447 0,467 y 0,386 0,386 0,366 0,366 Grau x 0,305 0,335 0,325 0,295 y 0,315 0,345 0,355 0,325 Schwarz x 0,385 0,300 0,260 0,345 y 0,355 0,270 0,310 0,395 Purpur x 0,457 0,374 0,308 0,302 y 0,136 0,247 0,203 0,064 5. Verkehrszeichen Aufsichtfarbe Abbildung 5.2: Farbbereich für nicht retroreflektierende Materialien In Abbildung 5.2 ist die Normfarbtafel (für 2◦ -Normalbeobachter) nach DIN 5033-3 mit den Aufsichtfarben für nicht retroreflektierende Materialen dargestellt (Quelle: DIN 6171-1, Bild 1). Unter retroreflektierenden Materialien versteht man solche, die auf einem optischen System basieren, welches das auftreffende Licht genau zur Quelle zurücklenkt. Da diese Eigenschaft im Fahrsimulator derzeit nicht realisiert werden kann, wird auf nicht retroreflektierende Eigenschaften von Verkehrszeichen zurückgegriffen. In Abbildung 5.3 ist die Schnittmenge zwischen 74 Aufsichtfarbe Diplomarbeit Gordon Lemme dem Fahrsimulatorgamut und den Farbkoordinaten für Verkehrszeichen dargestellt. Abbildung 5.3: Schnittmenge zwischen Fahrsimulatorgamut und Verkehrszeichenaufsichtfarbe 75 5. Verkehrszeichen 76 Aufsichtfarbe Diplomarbeit Gordon Lemme 6 Textur 6.1 Definition Definition 8 (Textur) Textur ist ein Begriff aus dem Lateinischen (textura = Gewebe) und beschreibt die Beschaffenheit, die Struktur oder die Zusammensetzung von Dingen (Quelle: Mullkubel 26.04.2008). In der Computergrafik werden Texturen dazu verwendet, photorealistische Darstellungen von Objekten zu erstellen, ohne die Polygonanzahl dieser zu erhöhen (Quelle: Creator 2007b). Bei dem Vorgang des Texturierens wird ein Bild, zum Beispiel ein Foto, auf ein modelliertes 3DObjekt aufgetragen. Findet eine solche Abbildung von einem Bild auf die Fläche eines 3D-Objektes Anwendung, spricht man vom Texture Mapping. Ein Texel (Tex ture El ement) bezeichnet, äquivalent wie ein Pixel zu einem Bild, die kleinste Einheit der Textur. Mit zunehmender Rechengeschwindigkeit und günstigen Speichermöglichkeiten werden die synthetischen Texturen durch große, realitätsnahe und speicherintensive Texturen abgelöst. Durch diese Texturen ist es dem Visualisierer möglich, dem Anwender eine vertraute Darstellung seiner Umwelt zu generieren. Weiterhin bieten Texturen den Vorteil, kleinere Details nicht vollständig ausmodellieren zu müssen. 77 6. Textur Generisch vs. Einzigartig 6.2 Generisch vs. Einzigartig Generische (engl. gerneric) Texturen haben die Eigenschaften, dass sie wiederverwendbar und zumeist kachelbar sind. Weiterhin weisen sie in Abhängigkeit von ihrer Art die selbe Größe auf (Quelle: Creator 2007c, Abschnitt 11-6). Ein Beispiel für generische Texturen ist in den Abbildungen 6.2 und 6.3 dargestellt. Zu sehen sind zwei generische Texturen, welche, wie gefordert, jeweils eine Größe von Abbildung 6.1: 128 x 128 Pixel aufweisen. Durch dieses Merkmal ist es 3D-Objekt Kirche (Quelle: möglich, die Texturen ohne viel Aufwand gegeneinander Creator 2007b) auszutauschen. Die Texturen sind auf verschiedene 3DObjekte anwendbar, das heißt, die Steintextur kann zum Beispiel an mehreren Gebäuden Anwendung finden, sie ist in diesem Sinne nicht einzigartig. Die Kachelbarkeit ist eine zusätzliche Eigenschaft der Textur. Sie ist gegeben, wenn man die Textur mehrfach aneinander legen kann, ohne Nahtstellen zu erzeugen. Mit Hilfe der Steintextur aus Abbildung 6.2 wurde in Abbildung 6.4 eine Textur der Größe 256 x 128 Pixel erstellt. Durch diese Art der Texturverwendung kann Grafikspeicher eingespart werden, da diese 128 x 128 Pixeltextur nur einmal in den Speicher geladen werden muss, um dann mehrfach verwendet werden zu können. Den generischen Texturen stehen die einzigartigen (engl. unique) Texturen gegenüber. Sie zeichnen sich dadurch aus, dass sie weder kachelbar, noch wiederverwendbar sind. Das bedeutet, dass eine solche Textur einem 3D-Objekt seine Einzigartigkeit verleiht. Diese Art der Textur eignet sich im Wesentlichen für Objekte, bei denen es auf Details Abbildung 6.5: ankommt. Eine unique Textur ist vollständig auf das eine, 3D-Objekt Spitfire (Quelle: zu texturierende, Objekt abgestimmt. Das in Abbildung Creator 2007b) 6.6 gezeigte Beispiel stammt aus der Texturengalerie des TM R MultiGen-Paradigm Creator 3.3 . 78 Generisch vs. Einzigartig Abbildung 6.2: Steintextur (Quelle: Creator 2007b) Diplomarbeit Gordon Lemme Abbildung 6.3: Wandverkleidung (Quelle: Creator 2007b) Abbildung 6.4: Kachelung der Steintextur Creator 2007b) (Quelle: 79 6. Textur Generisch vs. Einzigartig Abbildung 6.6: Textur der Beispieldatei Spitfire (Quelle: Creator 2007b) 80 Texturaufbau Diplomarbeit Gordon Lemme 6.3 Texturaufbau Das verwendete RGB-Dateiformat wurde von Silicon Graphics entwickelt und ist ein Rasterbildformat. Das digitale Bild ist so codiert, dass jedes Pixel durch ein Tripel, bestehend aus jeweils einem Wert für den Rot-, den Grün- und den Blauanteil, repräsentiert wird. Dabei unterliegen die Werte keiner Kodierung (zum Beispiel RunTM LengthCoding), um für den OpenGL Performer lesbar zu bleiben. In Anlehnung an das menschliche Wahrnehmungssystem, wird ein Farbwert beziehungsweise ein Farbton, durch eine additive Farbmischung erzeugt. Um im Fahrsimulator Anwendung zu finden, muss die Textur einer 2er-Potenz genügen. Dies ist darin begründet, dass TM der OpenGL Performer als Engine auf OpenGL (Open Graphics Library) basiert. Auf dieser Grundlage bildet TM der OpenGL Performer die Basis für den Fahrsimulator im Fraunhofer-Institut für Verkehrs- und InfrastrukturTM systeme Dresden. Der OpenGL Performer unterstützt Texturdateien bis zu einer Farbtiefe von 16 oder 32 Bit pro Texel, Bereiche dazwischen sind ausgeschlossen. Eine RGB-Datei (8 Bit pro Farbkanal) wird auf 32 Bit erhöht. Abbildung 6.7: Dies entspricht der gleichen Größe einer RGBA-Datei. Die RGBA-Dateiaufbau Quelle: Creator 2007e maximale Größe einer Textur ist auf 8096 x 8096 Pixel TM R limitiert. Im MultiGen-Paradigm Creator 3.3 ist es grundsätzlich möglich, auch andere Texturgrößen zu verwenden. 6.4 Texturfilter Ein Pixel ist die kleinstmögliche Auflösungseinheit auf einem Bildschirm. Beim Rendern einer Textur wird jedem Pixel des Bildschirmes ein Farbwert aus der Textur zugeordnet. Man unterscheidet die folgenden Möglichkeiten: 81 6. Textur Texturfilter full size - jedem Pixel wird genau ein Texturpunkt zugeordnet, minified - mehrere Texel werden zu einem Bildschirmpixel zusammengefasst und magnified - einem Texel werden mehrere Bildschirmpixel zugeordnet. Die Kontrolle des Texturmappings obliegt der Minificationund Magnificationeinstellungen. 6.4.1 Minificationfilter Bei der Texturierung von Objekten kann es passieren, dass die spätere Darstellung des Objektes kleiner ist, als die Darstellung während des Texturierens. Ein Beispiel hierfür wäre ein Verkehrszeichen am Straßenrand im Fahrsimulator. In der Entfernung ist das Schild sehr klein und das System muss die Textur auf das verkleinert dargestellte Schild mappen. Dieser Vorgang muss stetig, mit zunehmender Annäherung des Fahrzeuges an das Schild, wiederholt werden, bis es die modellierte beziehungsweise texturierte Größe erreicht hat. In einem solchen Fall, muss das System die Textur verkleinern und somit bei konstanter Auflösung Texel zusammenfassen. Für diese Art von Filter gibt es weitere Optionen, um auf die Art der Zusammenfassung von Texeln durch das System Einfluss nehmen zu können. 6.4.2 Magnificationfilter Der Magnificationfilter behandelt den entgegengesetzen Fall zum Minificationfilter. Bei stark vergrößerten Objekten, kann der Fall eintreten, dass die Auflösung der Darstellung größer als die der Textur ist. In einer solchen Si82 Texturfilter Diplomarbeit Gordon Lemme Abbildung 6.8: Funktionsprinzip des Minificationfilters tuation muss das System mit einem Texel mehrere Voxel (Volume El ement) texturieren. Das heißt, ein Farbwert einer Textur wird auf mehrere dargestellte Pixel verteilt. Für diesen Filter gibt es weitere Optionen, um auf die zusätzlich erzeugten Farbwerte Einfluss nehmen zu können. Abbildung 6.9: Funktionsprinzip des Magnificationfilters 83 6. Textur Texturfilter 6.4.3 Filterermittlung Um bestimmen zu können, ob eine Textur minified oder magnified ist, gilt die folgende Berechnungsvorschrift. gerenderte Texelanzahl T extur = log2 Texelanzahl Für den Fall, dass die Textur gleich null ist, stehen die beiden Bilder im Verhältnis 1:1. Ergibt sich ein negativer Textur-Wert, ist die Anzahl der Texel größer als die auf der gerenderten Fläche. Dann ist die Textur minified und die unter Abschnitt 6.4 angegebenen Minificationsfilter finden Anwendung. Ist der Textur-Wert positiv, ist die Anzahl der dargestellten Pixel größer als die der Textur. Für diesen Fall ist sie magnified und die Magnificationfilter (Abschnitt 6.4.2) werden angewandt. (Quelle: Creator 2007b, Seite 811) 6.4.4 Texture Environment Filter Das Texture Environment kontrolliert den Algorithmus, der für die Überblendung von Textur und Polygonfarbe zuständig ist. Auch für diesen Algorithmus gibt es weitere Optionen, um die Überblendung beeinflussen zu können. Die Texture Environment-Einstellungen können im Texture Attributes-Fenster für jede Textur festgelegt werden. 6.4.5 Filteroptionen Mit Hilfe der Filteroptionen lassen sich die Filter spezifizieren und können an verschiedene Bedürfnisse angepasst R werden. Im Folgenden sind die im MultiGen-Paradigm TM Creator 3.3 vorhandenen Filteroptionen kurz erläutert. 84 Texturfilter Diplomarbeit Gordon Lemme Point Berechnet die Farbe des dargestellten Pixels durch die Auswahl des Farbwertes, der diesem Pixel am nächsten liegenden korrespondierenden Texels (Abbildung 6.10). Abbildung 6.10: schematische Darstellungen eines PointFilters Bilinear Berechnet die Farbe des dargestellten Pixels durch die Bildung des Durchschnittswertes der vier nächsten Texel (4er-Nachbarschaft) des korrespondierenden Pixels (siehe Abbildung 6.11). Bicubic Berechnet den Farbwert des dargestellten Pixels durch die Bildung des Durchschnittswertes der acht benachbarten Texel (8er-Nachbarschaft) des korrespondierenden Pixels (siehe Abbildung 6.12). 85 6. Textur 86 Texturfilter Abbildung 6.11: schematische Darstellungen Bilinear-Filters eines Abbildung 6.12: schematische Bicubic-Filters eines Darstellungen Texturfilter Diplomarbeit Gordon Lemme MipMap Das Mipmapping ist eine Methode, mit derer Objekte in unterschiedlicher Entfernung mit unterschiedlich detaillierten Texturen belegt werden. Um eine Folge von MipMaps erzeugen zu können, muss die gewählte Textur den Dimensionen einer 2er-Potenz genügen. Aus dieser Textur werden dann viele Texturen verschiedener Auflösung erstellt. Mit Hilfe der LOD- Berechnungsvorschrift 7.4 wird bestimmt, welche Textur zum Einsatz kommt. Die Speicherauslastung bei der Wahl von MipMap-Filtern ist um 1 3 höher gegenüber der Standardtexturierung. Sharpen Aus den beiden größten MipMap-Karten wird jeweils der Durchschnittswert aus der 4er-Nachbarschaft des Texels gebildet. Diese beiden Werte werden zu einem Farbwert extrapoliert. Add Detail Die Textur wird durch eine größere detailreichere Textur ersetzt. Modulate Detail Die Textur wird mit einer detailreicheren Textur überblendet. None In der None-Einstellung wird der Farbwert eines jeden Pixels mit Hilfe der Default-Einstellungen des Systems berechnet (Bilinear). 87 6. Textur Creator 6.5 Creator 6.5.1 Internal-Dateiformat TM R Der MultiGen-Paradigm Creator 3.3 verarbeitet die Texturen (RGB-Dateien), indem er diese in ein internes Abbildung 6.13: Format umwandelt. Bei dieser Umwandlung können durch Texture Attribute Editor– verschiedene Einstellungen Informationen verloren gehen. Ausschnitt R In der Standardeinstellung des MultiGen-Paradigm CreaTM tors 3.3 werden RGB-Dateien in TX_RGB_5 Dateien umgewandelt. Diese Umwandlung komprimiert die 24 Bit Bilder in 16 Bit Dateien. Dabei erfahren der Rot- und Blaukanal eine 5 Bit und der Grünkanal eine 6 Bit Abtastung. Diese Einstellung steigert die Performance, wobei durch die fehlenden 8 Bit eine leichte Bildverschlechterung zu erwarten ist. 6.5.2 Filterstandard Die Standardeinstellungen der Texturen lassen sich im TM R MultiGen-Paradigm Creator 3.3 : Preferences Optionsfenster verändern. Hier lassen sich die Minification / Magnification Optionsfelder anwählen. Mit diesen Filtereinstellungen werden grundsätzlich alle Texturen behandelt. Es ist jedoch möglich für jede Textur eine manuelle Änderung der Optionen vorzunehmen. Die Vorgehensweise zur Änderung sind in Abschnitt 6.5.3 beschrieben. 6.5.3 Filtereinstellung TM R Der MultiGen-Paradigm Creator 3.3 arbeitet mit einer übersichtlichen Texture Palette, in welche ein zusätzlicher Bildeditor integriert ist. Dabei handelt es sich um ein einfaches Grafikwerkzeug, um einzelne Texturen nachzubearbeiten. Durch das Doppelklicken auf eine ausgewählte 88 Creator Diplomarbeit Gordon Lemme Textur, öffnet sich der Texture Attribute Editor, in dem der Nutzer verschiedene Einstellungsmöglichkeiten vorfindet. In der Abbildung 6.14 ist das Texture AttributesFenster abgebildet. Im Feld Minification/Magnification lassen sich die in Abschnitt 6.4.5 erläuterten Filtereinstellungen auswählen. TM R Abbildung 6.14: MultiGen-Paradigm Creator 3.3 tribute Editor At- 89 6. Textur Berechnungsvorschriften 6.6 Berechnungsvorschriften An dieser Stelle werden die Berechnungsvorschriften vorgestellt, welche für die Texturverarbeitung wichtig sind. Diese Gleichungen unterliegen grundlegender mathematischer Gesetzmäßigkeiten. Dabei werden innerhalb der Berechnungen keine Kompressionsalgotithmen berücksichtigt. In den folgenden Abschnitten wird auf die Speichergröße, die interne Speichergröße und die Texturgröße eingegangen. Dabei unterscheidet sich die interne MultiGenTM R Paradigm Creator 3.3 -Speichergröße deutlich von der konventionellen Größe. 6.6.1 Speichergröße der Textur Die allgemeine Berechnungsvorschrift zur Ermittlung der Speicherplatzgröße ist in der nachfolgenden Gleichung dargestellt. Es wird unterstellt, dass keinerlei Kodierung (zum Beispiel RunLengthCoding) vorgenommen wurde. Bilddimension = Bildhöhe[px] ∗ Bildbreite[px] F arbtief e[Bit] = Kanäle ∗ Farbtiefe [Bit] [Kanal] Speicherplatz[Bit] = Bilddimension ∗ Farbtiefe[Bit] Speicherplatz[Byte] = Speicherplatz[KB] = Speicherplatz[Bit] 8 Speicherplatz[Byte] 1024 An einem Zahlenbeispiel verdeutlicht heißt das für eine 32 x 32 Pixel-Textur, dass sich der Speicherplatzbedarf wie 90 Berechnungsvorschriften Diplomarbeit Gordon Lemme folgt berechnet. Bilddimension = 32[px] ∗ 32[px] = 1024 F arbtief e[Bit] = 3 ∗ 8[Bit] = 24 Speicherplatz[Bit] = 1024 ∗ 24[Bit] Speicherplatz[Byte] = 24576[Bit] 8 Speicherplatz[KB] = 3072[Byte] 1024 = 3, 072[KB] 6.6.2 Speichergröße Creator intern An einem Beispiel soll gezeigt werden, wie sich die Speicherauslastung durch die Defaulteinstellung im Texture Attributes Editor ändert. In der folgenden Gleichung wird die Farbtiefe auf Grundlage der in Abschnitt 6.5.1 beschriebenen Änderungen neu berechnet. Die ersten beiden Brüche stehen für den jeweiligen roten beziehungsweise blauen Farbanteil und der Letzte gehört zum Grünanteil. F arbtief e[Byte] = 5 5 6 + + 8 8 8 Aus dieser Farbtiefenreduzierung ergibt sich dann für die interne Verarbeitung der Textur die folgende Gleichung. 91 6. Textur Berechnungsvorschriften Zu beachten ist, dass die Farbtiefe statt 24 Bit nur noch 16 Bit beträgt. Der Speicherplatzbedarf reduziert sich bei einer 24 Bit Textur um den Faktor 13 . Bilddimension = Bildhöhe[px] ∗ Bildbreite[px] = 32[px] ∗ 32[px] = 1024 Speicherplatz[KB] = Bilddimension ∗ Farbtiefe[Byte] = 1024 ∗ 2[Byte] = 2, 048[KB] 6.6.3 Texturgröße Eine Textur sollte immer in Abhängigkeit zu der Größe des zu texturierenden Objektes und dessen Beobachtungsentfernung stehen. Daraus ergibt sich die Gleichung zur Berechnung der Texturauflösung und wird durch ein nachstehendes Beispiel verdeutlicht. Das zu texturierende Objekt hat eine Breite von 0,90 m und die Textur eine Größe von 32 x 32 Texel. Auf lösung = Weltgröße Texelanzahl der Achse Auf lösung = 0, 90[m] 32[T exel] = 0, 028125[m pro T exel] 92 Berechnungsvorschriften Diplomarbeit Gordon Lemme Die optimale Texturgröße für ein 0,9 m breites Objekt lässt sich durch die folgende Gleichung berechnen. P ixelgröße = horizontaler FOV horizontale Auflösung 70[◦ ] = 1280[px] = 0, 0546875[◦ pro px] Radiant = Bogenmaß(Auflösung) = Bogenmaß(0, 0546875[◦ pro px]) = 0, 00095448[px] Auf lösung = Viewpointabstand ∗ Radiant = 25[m] ∗ 0, 00095448[px] = 0, 023862[m pro px] T exturgröße = Weltgröße[m] Auflösung[m pro px] = 0, 9[m] 0, 023862[m pro px] = 37, 7168[px] Wenn der Abstand vom Fahrer des Fahrsimulators zum betrachteten Objekt 25 Meter beträgt, ergibt sich bei einer Auflösung von 1280 Pixel und einem Field of View von 70◦ , eine Texturbreite von etwa 37 Pixel. Da es sich bei dieser Texturbreite um keine 2er-Potenz handelt, besteht die Möglichkeit die Textur mit einer kleineren Texturbrei93 6. Textur Texturerstellung te von 32 Pixel zu erstellen und Informationsverluste zu akzeptieren. Für einen vollständigen Informationsgehalt muss die Textur auf eine Größe von 64 Pixel vergrößert werden. Eine zusätzliche Option besteht in der Kachelung einer Textur, sofern es sich bei dieser um eine generic Textur handelt. Durch dieses Verfahren, welches in Abschnitt 6.2 beschrieben ist, wird Rechenkapazität eingespart und es kann zur Performancesteigerung genutzt werden. 6.7 Texturerstellung Texturen werden mit Hilfe von Grafikprogrammen erstellt, bearbeitet und im gewünschten Grafikformat abgespeichert. Zum Vereinfachen der Arbeitsschritte zur Modelltexturierung sollte ein einheitliches Dateiaustauschformat gefunden werden. Um eine konsistente Farbdarstellung zu erhalten, ist es notwendig, dass sich das gesamte Produktionssystem dem kleinsten darstellbaren Farbraum unterwirft. Bei Farben, die außerhalb dieser definierten Farbpalette liegen, werden die Farbwerte verfälscht und die Farbe falsch wiedergegeben. R 6.7.1 Adobe Photoshop CS2 TM Um Dateien im RGB-Format bearbeiten zu können, beTM R darf es im Adobe Photoshop CS2 einem zusätzlichen Filter. Dieser Filter (SGIFormat.8BI (Quelle: SGIFilter 26.04.2008)) muss im Programmverzeichnis (.../Adobe Photoshop CS2/Zusatzmodule/Dateiformat) abgelegt werden. Der Filter wird bei jedem Programmaufruf autoTM R matisch von Adobe Photoshop CS2 geladen und es ist R möglich RGB-, sowie RGBA-Dateien in Adobe PhotoTM shop CS2 zu öffnen, zu bearbeiten und zu speichern. 94 Texturerstellung Diplomarbeit Gordon Lemme Um einen Alphakanal zu erzeugen, muss dieser im Kanalfenster angelegt werden. In ihm werden die schwarz dargestellten Flächen transparent und die weißen Flächen sichtbar. Der erzeugte Alphakanal kann mit den zur Verfügung stehenden Werkzeugen bearbeitet werden. Die erstellte Datei muss die Erweiterung RGBA erhalten, um den zusätzlichen Kanal einbinden zu können. TM R Abbildung 6.15: Adobe Photoshop CS2 erstellung Alphakanal- TM R 6.7.2 Jasc Paint Shop Pro 8 R Die Verarbeitung von Texturen im Jasc Paint Shop Pro TM TM R 8 basieren, wie im Adobe Photoshop CS2 auf den grundlegenden Werkzeugen der Grafikverarbeitung. Im UnTM R terschied zum Adobe Photoshop CS2 wird der AlphaTM R kanal im Jasc Paint Shop Pro 8 über die Menüleiste 95 6. Textur Texturerstellung der RGBA-Datei hinzugefügt. Dazu werden die darzustellenden Flächen des Bildes ausgewählt und mit dem Menüpunkt Auswahl in Alphakanal speichern... in der Bilddatei abgelegt. Dieser Unterpunkt ist unter Auswahl→ Auswahl laden/speichern zu finden. TM R Abbildung 6.16: Jasc Paint Shop Pro 8 erstellung 96 Alphakanal- Diplomarbeit Gordon Lemme 7 Level of Detail In vielen Visualisierungen hat das verarbeitende System große Datenmengen zu rendern. Dies liegt zum Einen an der Größe und Detailgenauigkeit der Texturen, am polygonintensiven Modellieren und nicht zuletzt an der Größe der gesamten Datenbank. Um in einer Echtzeitanwendung, wie es ein Fahrsimulator ohne Zweifel ist, die Daten zeitnah präsentieren zu können, gibt es verschiedene Vorgehensweisen den Flaschenhals der beschränkten Rechenzeit zu umgehen. Eine Variante ist die grundlegende Verkleinerung des Datenvolumens, wobei dies zumeist eine fehlende Realitätsnähe nach sich zieht. Eine andere Vorgehensweise ist die Nutzung von Levels of Detail, welche im Folgenden allgemein beschrieben wird. 7.1 Definition Definition 9 (Level of Detail) Das Level of Detail (kurz: LOD) ist eine Methode zur Verringerung des zu berechnenden Datenvolumens. Diese Verkleinerung erfolgt auf Grundlage der Festlegung verschiedener Spezifizierungsgrade von 3D-Modellen und nutzt dabei die menschliche Wahrnehmungsschwäche sowie die geringere Darstellungsauflösung. 97 7. Level of Detail Funktionsweise 7.2 Funktionsweise Wie der Name, Level of Detail, schon sagt, werden verschiedene Detailstufen für ein 3D-Objekt festgelegt. Diese Detaillierungsgrade werden so gewählt, dass Objekte, welche sich im Fokus des Betrachters befinden, mit vielen Einzelheiten dargestellt werden. Dies kann durch eine erhöhte Polygonanzahl sowie durch eine alle Einzelheiten umfassende Textur geschehen. Bei Objekten, die sich nicht im Fokus befinden, weil sie entfernter liegen, wird eine gröbere Darstellung gewählt. Diese wiederum beinhaltet weniger Polygonflächen beziehungsweise eine detailärmere Textur. Die verschiedenen Level werden dann, je nach Bedarf, respektive Nutzereinstellungen, geladen und ermöglichen somit eine realitätsnahe, kontinuierliche Präsentation. Abbildung 7.1: Aufteilung des Frustums in LODs (Quelle: Creator 2007a) 98 Significant Size Diplomarbeit Gordon Lemme 7.3 Significant Size Im Szenengraphen wird für die unterschiedlichen Levels of Detail jeweils ein LOD-Knoten angelegt. Die darunter befindlichen Knoten (Gruppen, Objekte, Faces) werden, den Entfernungseinstellungen entsprechend, ein- beziehungsweise ausgeblendet. Durch die reine Distanzangabe wird das Objekt eingeblendet, wenn sich der Betrachter innerhalb dieser Entfernung befindet. Demnach ist die Darstellung nur von der Entfernung des Betrachters zum LODCenter abhängig. Die Darstellungsmöglichkeiten (Anzahl der darstellbaren Pixel, Pixelgröße auf dem Ausgabemedium oder Field of View) der verschiedenen Ausgabegeräte (Monitor, Projektor, usw.) werden nicht berücksichtigt. Mit Hilfe der Significant Size ist es möglich anzugeben, wie groß ein Objekt, in Abhängigkeit der Pixelgröße sein muss, um dargestellt zu werden. Anhand eines Beispiels soll der Einsatz verdeutlicht werden. Bei einem modellierten Würfel beträgt die Seitenlänge einen Meter. Wenn nun die Entfernung zum Objekt durch Herauszoomen soweit vergrößert wird, dass der Würfel genau einen Pixel groß ist, entspricht ein Pixel genau einem Meter. Dies stellt im Weiteren die Significant Size dar. Für den Fall, dass der Würfel durch vier Pixel (zwei horizontal sowie vertikal) dargestellt wird, entspricht die Größe eines Pixels 0,5 Meter. Durch das Significant SizeAttribut ist es möglich, den Würfel erst dann einzublenden, wenn die Ausmaße eines Pixels kleiner oder gleich einem Meter entsprechen. Erst dann ist es möglich den Würfel abzubilden. In Abschnitt 7.4.1 wird die Berechnung der Pixelgröße auf einer Leinwand angegeben. 99 7. Level of Detail Berechnungsvorschriften 7.4 Berechnungsvorschriften 7.4.1 Pixelgröße auf Leinwand Zur Berechnung der Pixelgröße auf einer Leinwand werden die Auflösung, das Field of View sowie die Entfernung des Projektors zur Projektionsfläche (d) benötigt. Die im Beispiel aufgeführten Werte entsprechen denen im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden. [m] ) 2 ∗ ((d) ∗ tan F OV 2 P ixelgröße = Auf lösung[px] ◦ 2 ∗ ((4[m]) ∗ tan 702 ) = 1280[px] = 3, 790517763[m] 1280[px] = 0, 002961342 = 0, 2961342 [m] [px] [cm] [px] Mit den gewählten Parametern beträgt die Größe eines Pixels auf der Leinwand circa 0,3 cm. 7.4.2 Objektentfernung Zur Berechnung der Objektentfernung werden die horizontalen Parameter, Objektbreite in der realen Welt, Objektbreite auf der Leinwand und horizontale Auflösung benötigt. In dem folgenden Gleichungssystem wird die Entfernung eines 0,9 Meter breiten Verkehrsschildes be100 Berechnungsvorschriften Diplomarbeit Gordon Lemme rechnet, welches bei einer Auflösung von 1280 Pixel eine Leinwandgröße von etwa 40 Pixel besitzt. Entf ernung[m] = (Auflösung[px] ∗ reale Objektgröße[m]) 2 ∗ Leinwandobjekt[px] ∗ tan FOV 2 Entf ernung[m] = 1280[px] ∗ 0, 9[m] 2 ∗ 40[px] ∗ tan 70 2 = 1152[px][m] 37, 9051776[px] = 30, 39162[m] Das bedeutet, dass sich ein solches Objekt etwa 30,39 m vom Beobachter entfernt befindet. (Quelle: Creator 2007d, Abschnitt 14-5) 101 7. Level of Detail Berechnungsvorschriften 7.4.3 reale Objektgröße Um angeben zu können, wie groß ein Objekt auf der Leinwand in einer bestimmten Entfernung abgebildet wird, kann man mit der folgenden Formel arbeiten. Das Zahlenbeispiel beruht auf den unter 7.4.2 angegebenen Werten. Größe[px] = = = Objektgröße in der Realität[m] FOV 2 2 ∗ Entfernung zum Objekt[m] ∗ tan Auflösung 0, 9[m] 70 2 2 ∗ 25[m] ∗ tan 1280[px] 0, 9[m] [m] 0, 018508387 [px] = 48, 626[px] Ein Objekt mit diesen Ausmaßen und einer solchen Entfernung ist auf der Leinwand etwa 48,626 px groß. (Quelle: Creator 2007d, Abschnitt 14-6) 102 Diplomarbeit Gordon Lemme 8 Hardware Die Hardware ist ein elementarer Bestandteil einer Simulationsumgebung und bezeichnet die maschinentechnischen Teile eines Systems. Im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden wird derzeit auf die in Abschnitt A aufgeführten Bauteile zurückgegriffen. Das Betriebssystem bildet die Schnittstelle zwischen Hard- und Software und wird deshalb in diesem Kapitel mit seinen Parametern kurz dokumentiert. 8.1 Grafikkarte Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden wurden fünf Grafikkarten der Firma Gainward mit einem nVidia Chipsatz verbaut. Dabei handelt es sich um die Gainward GeForce4 PowerPack! Ultra/750, deren Spezifikation im Anhang A.1 zu finden ist. Die Grafikkarte ist wesentlich für die Bilddarstellung und besteht unter anderem aus den folgenden Bestandteilen. Der Grafikspeicher enthält Daten, die zur Berechnung an den Grafikprozessor geleitet werden. Weiterhin zählen bereits berechnete Daten dazu, die zu einem späteren Zeitpunkt wiedergegeben werden. Der Grafikprozessor verrechnet die aus dem Grafikspeicher kommenden Daten zu einem Bild und legt diese wie103 8. Hardware Grafikkarte der im Grafikspeicher ab. Die Grafikkarte ihrerseits besitzt bereits Optionen, um die Darstellung von Objekten anzupassen. Zwei dieser für die 3D-Darstellung wichtigen Einstellungen sind nachstehend kurz erläutert. 8.1.1 Anisotrope Filterung Abbildung 8.1: Anisotrope Filterung 104 Der anisotrope Filter kommt bei Flächen zum Einsatz, die aus einem flachen Betrachtungswinkel gesehen werden. Die darzustellenden Texel sind nicht mehr quadratisch und müssen angepasst werden. Bei der Anpassung durch die Filtereinstellung lässt sich die Anzahl der zu betrachtenden Nachbarpixel auswählen, welche zur Generierung des Pixels herangezogen werden. In der Abbildung 8.2 wird die Anwendung der anisotropen Filterung erkennbar. Der Nutzer des Fahrsimulators hat auf die dargestellte Straße einen flachen Betrachtungswinkel. Dadurch wird die Straße perspektivisch verzerrt. Deutlich wird dies anhand des y und y’ Wertes, wobei die Strecke y kürzer als die Strecke y’ ist. Dies muss bei der Berechnung der Texturen durch das System berücksichtigt werden, da auf einem Pixel der Leinwand im Fall y mehr Informationen zusammengerechnet werden müssen, um den Farbwert zu bilden, als dies für y’ der Fall ist. Die Art und Weise der Berechnung durch die Grafikkarte wird durch die anisotrope Filtereinstellung festgelegt. Der Filterfaktor gibt die Anzahl der maximal betrachteten Texel an. Dabei ist diese vom Neigungswinkel des Polygons abhängig. Der anisotrope Filter arbeitet additiv und belastet durch diese Berechnungen die Grafikkarte zusätzlich. Grafikkarte Diplomarbeit Gordon Lemme Abbildung 8.2: Anisotrope Filterung am Beispiel einer Straße 105 8. Hardware Grafikkarte 8.1.2 Anti-Aliasing Filterung Das Aliasing wird auch als Treppeneffekt bezeichnet, der durch eine zu geringe Auflösung des Bildes an Schrägen, Rundungen und Farbübergängen entsteht. Mit Hilfe einer Anti-Aliasing Filterung wird eine so genannte Kantenglättung durchgeführt. Das bedeutet, dass die Objekte an Schärfe verlieren, aber weicher ineinander überblenden. Die Vorteile dieser Technik liegen auf der Hand. Scharfe Übergänge werden weicher und das Pixelflimmern bei sehr kleinen Flächen kann reduziert werden. Dennoch hat diese Technik auch beträchtliche Nachteile, was die Echtzeitfähigkeit anbelangt. Durch die Glättung entstehen zusätzliche Zwischenwerte, die sowohl berechnet, als auch gespeichert werden müssen (Quelle: Seifert 26.04.2008). Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden stellt die Erkennbarkeit von Verkehrszeichen ein grundlegendes Problem dar. Dabei führen 1-Pixel-Übergänge zu Flimmern. Die Anwendung der Anti-Aliasing Filterung würde dieses Problem grundsätzlich lösen, allerdings kommt es dadurch zu einer unscharfen Darstellung der Zeichen. Dieses wiederum erschwert das Erkennen und Wahrnehmen des Verkehrszeichens. Berechnung Um die Glättung eines Pixels vorzunehmen, werden Nachbarpixel betrachtet, wobei die Art der Auswahl verschiedenen Algorithmen unterliegt, welche an dieser Stelle nicht weiter ausgeführt werden. Es sei nur soviel festgehalten, dass die Anzahl „2x“, “4x“,... in der Grafikkarteneinstellung die Anzahl der betrachteten Pixel definiert. Je größer die Anzahl, desto mehr Rechen- und Speicheraufwand ist von der Grafikkarte für die Berechnung zu leisten. 106 Projektor Abbildung 8.3: Verkehrszeichen mit Anti-Aliasing Filterung (Quelle: Creator 2007b) Diplomarbeit Gordon Lemme Abbildung 8.4: Verkehrszeichen ohne Anti-Aliasing Filterung (Quelle: Creator 2007b) 8.2 Projektor 8.2.1 Technik Die Digital Light Processing-Technik (DLP-Technik) basiert auf der Reflektion von Licht. Dabei können die auf dem Digital Mirror Device (DMD) platzierten Spiegel einzeln gesteuert werden. Die verwendeten Projektoren im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden besitzen jeweils 1.310.720 kleine Spiegel. Diese Spiegel besitzen zwei Positionen, in welche sie gekippt werden können. Die Positionen beeinflussen die Lichtreflektion und geben an, ob Licht auf die Leinwand reflektiert wird oder nicht. Durch diese Vorgehensweise lassen sich schwarz-weiß Bilder erzeugen. Mit Hilfe einer Manipulation können auch Graubilder erzeugt werden. Dazu wird die Trägheit des menschlichen Auges (Abschnitt 4.6) ausgenutzt. Die Spiegel werden in schneller Abfolge hin und her geschalten, wodurch der Eindruck eines Graubil107 8. Hardware Projektor des entsteht. Um bei einem 1-Chip-DLP Projektor Farben erzeugen zu können, muss zwischen der Lichtquelle und den Spiegeln ein Farbrad installiert werden. Auf dem Farbrad befinden sich die drei Grundfarben (RGB), welche durch Rotation des Rades jeweils ein rotes, grünes und blaues Bild erzeugen. Da sich das Farbrad mit großer Geschwindigkeit dreht und das menschliche Auge diesbezüglich eine träge Wahrnehmung hat, wird der Mensch nur ein buntes Bild sehen. Abbildung 8.5: Aufbau eines 1-Chip-DLP Projektors (Quelle: Serck 26.04.2008) 8.2.2 Perspektivische Verzerrung Diese Verzerrung ist kein Abbildungsfehler, es handelt sich vielmehr um eine perspektivische Darstellung der Grö108 Projektor Diplomarbeit Gordon Lemme ßenverhältnisse. Die Verzerrung entsteht durch den unterschiedlich langen Weg der Lichtstrahlen zur Projektionsebene. Bei der Betrachtung einer ebenen Projektionsfläche werden Lichtstrahlen zum Projektionsmittelpunkt einen kürzeren Weg zurücklegen, als Strahlen zum Projektionsrand. Begründung findet dieser Umstand im Satz von Pythagoras, welche aussagt, dass die Hypotenuse immer länger als die Kathete sein muss. Dabei wird die perspektivische Verzerrung durch die zwei nachstehenden Indikatoren bestimmt. Zum Einen beeinflusst der Projektionswinkel die Stärke der Verzerrung. Die Winkelgröße und die Hypotenusenlänge stehen in einem proportionalen Verhältnis. Folglich nimmt die Verzerrung mit größer werdendem Winkel zu. Zum Anderen kommt es durch den Projektionsabstand zu einer direkten Beeinflussung. Mit zunehmender Projektionsentfernung verstärkt sich die Verzerrung. Ein bekanntes Beispiel für perspektivische Verzerrung sind die stürzenden Linien. Dabei verlaufen senkrechte Linien nicht parallel nach oben, sondern nach der Gesetzmäßigkeit der Zentralperspektive in einem Fluchtpunkt zusammen. Um das Problem der perspektivischen Verzerrung und der vermeintlich ungenauen Abbildung zu beschreiben, wird im Folgenden aus Gregory 2001, Seite 213 zitiert. „Es gibt also ein Problem: Warum wird eine streng geometrische Perspektive ziemlich selten verwirklicht? Schließlich hat das Netzhautbild eine geometrische Perspektive (jedes Merkmal schrumpft mit einer Verdopplung der Entfernung auf die Hälfte seiner Größe), warum also reproduziert der Maler so selten das Bild des Auges, um auf seinem Gemälde eine Tiefenwirkung zu erzielen? 109 8. Hardware Projektor Wir können sofort sehen, dass es dabei eine sehr reale Schwierigkeit gibt. Zwar ist das Netzhautbild wie eine Fotografie streng perspektivisch, doch so sehen wir die Welt nicht, denn unser Bild wird durch perzeptorische Skalierungsmechanismen modifiziert.“ (siehe Abschnitt 2.2) Um im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden derartige perspektivische Verzerrungen zu vermeiden, wird die 3D-Umgebung auf eine sphärische Leinwand projiziert. Dabei übernimmt die UTMSoftware der Firma 3D-Perception die Berechnung der Darstellung. Die Software ist auf die geometrisch korrekte Präsentation von Bildern auf gewölbte Leinwände ausgerichtet. Zudem bietet sie die Möglichkeit, mehrere Projektoren zur Darstellung zu benutzen und die Projektionsübergänge anzupassen. Abbildung 8.6: UTM-Software-Screenshot 110 Diplomarbeit Gordon Lemme 9 Optimierung In diesem Abschnitt werden die Optimierungsschritte zur Performanceverbesserung aufgeführt und eine Begründung für die gewählten Parameter gegeben. Diese Parameter basieren auf den gewonnenen Erkenntnissen der vorangegangenen Abschnitte. 9.1 Texturverkleinerung Die bestehenden Häusertexturen, welche eine Größe von mindestens 512 x 512 Pixel aufwiesen, wurden auf der Grundlage von Abschnitt 6.6.3 verkleinert. Weiterhin wurden aus diesen Texturen die, unter Umständen vorhandenen, redundanten Informationen entfernt. Für den Fall der Häusertexturierung ist somit eine Zerlegung der uniquen Texturen in generische Texturen (Abschnitt 6.2) erfolgt. Diese Maßnahme zieht eine Vervielfachung der verwendeten Texturen nach sich, wodurch eine Überarbeitung der vorhandenen Modelle nötig wurde. Die 3D-Modelle sind entsprechend der Texturaufsplittung zu zerlegen. Dabei erhöht sich die Anzahl der Polygone. Der aufmerksame Leser erkennt an dieser Stelle die Problematik, dass durch die Verkleinerung der Texturen Rechenkapazität eingespart wird. Die daraus resultierende Erhöhung der Polygonanzahl nimmt zusätzliche Berechnungszeit in Anspruch. In der nachstehenden Tabelle 9.2 wird die Veränderung TM R der MultiGen-Paradigm Creator 3.3 Statistik für ein ausgewähltes 3D-Objekt (9.3 und 9.4) angeführt, wobei Abbildung 9.1: Eine nicht optimierte Textur mit Redundanz Abbildung 9.2: Eine optimierte Textur ohne Redundanz 111 9. Optimierung Texturverkleinerung die bereits genannten Veränderungen ablesbar sind. Zusätzlich sind die bei der Konvertierung (flt-Dateiformat in pfb-Dateiformat) dieses 3D-Objektes entstehenden Daten in der Tabelle angegeben. Bei den zu untersuchenden Ver- Statistik optimiertes Objekt Abbildung 9.4 Gruppenknoten 4 Objekte 3 3-seitige Poly- 150 gone 4-seitige Poly- 126 gone Faces 276 Dreiecke 402 Vertices 954 Texturanzahl 12 Texturgröße 210[KB] Größe FLT 84,34[KB] Größe PFB 35,41[KB] nicht optimiertes Objekt Abbildung 9.3 3 3 3 8 11 19 41 3 6147[KB] 18,02[KB] 2,28[KB] Tabelle 9.2: Statistiktabelle für Beispielhaus kehrszeichen wurde die Texturgröße drastisch reduziert. Das Ausgangsmaterial, welches eine Größe von 512 x 512 Pixel besaß, ist auf 64 x 64 Pixel verkleinert wurden. Diese Reduzierung ist in Abschnitt 6.6.3 begründet. Die dort verwendeten Daten (FOV=70◦ , Auflösung=(1280 x 1024 Pixel), Schildergröße=0,9 m) sind entsprechend der Simulatordaten gewählt. 112 Texturverkleinerung Diplomarbeit Gordon Lemme R Abbildung 9.3: MultiGen-Paradigm Creator 3.3 spielhaus - nicht optimiert TM Bei- 113 9. Optimierung Texturverkleinerung R Abbildung 9.4: MultiGen-Paradigm Creator 3.3 spielhaus - optimiert 114 TM Bei- Texturfilter Diplomarbeit Gordon Lemme 9.2 Texturfilter Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden kommt lediglich die Nutzung des Minification Filters (Abschnitt 6.4.1) in betracht, da die Auflösung des 3D-Objektes nie größer als die der Textur wird (Magnificationfilter Abschnitt 6.4.2). In diesem Zusammenhang wurden verschiedene Experimente zur Nutzung von unterschiedlichen Minificationfilter getestet. Das Ziel dieser Experimente war die Auswahl des idealen Filters. Da die Nutzung eines Filters zusätzlichen Rechenaufwand nach sich zieht, wurde aufgrund bisheriger Erkenntnisse auf die Anwendung eines Filter verzichtet. Dies begründet sich in der zusätzlich benötigten Rechenleistung gegenüber einer kaum beziehungsweise gar nicht sichtbaren Bildverbesserung. Zudem wurde durch die automatische Kantenglättung die Lesbarkeit (Abschnitt 5.3) verschlechtert. Die mögliche Bildverbesserung wurde anhand von subjektiven Wahrnehmungseindrücken gemessen. Dabei erfuhr der Fahrer des Fahrsimulators keine merkliche Erkennbarkeitsverbesserung der Verkehrszeichen. Um Rechenleistung einzusparen wird auf die Nutzung der Magnificationfilter, wie auch der Minificationfilter, bei Verkehrszeichen verzichtet. 9.3 Moiré-Effekt Der zu beobachtende Moiré-Effekt entsteht, wenn periodische Strukturen unterabgetastet werden. Dabei ist die Abtastfrequenz niedriger als die doppelte Frequenz der Struktur und es bildet sich ein nicht vorhandenes Muster (Quelle: Hischer 2004). Zur Behebung dieses Effektes ist die Verwendung eines Anti-Aliasing Filters notwendig (Abschnitt 8.1.2). Diese Filteroption lässt sich mit Hil115 9. Optimierung Moiré-Effekt fe der Einstellungsassistenten von Grafikkarte justieren. Im Bild 9.5 ist ein Screenshot einer solchen Einstellungsoption abgebildet. Bei Erhöhung der zu betrachtenden Pixel, steigt die Auslastung der Grafikkarte proportional an. Mit diesem Hintergrund sollten die Einstellungen für den Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden mit den Standardwerten verwendet werden, da es keine sichtbare Verbesserung gab und die Grafikkarte zusätzlichen Rechenaufwand zu bewältigen hat. Um Moiré-Effekte zu verhindern ist bei der Texturerstellung auf die Vermeidung von periodischen Strukturen zu achten. Diese werden durch starke hell-dunkel Kontraste verstärkt. In Abbildung 9.6 ist der Effekt deutlich an dem Zaun und der Dachfläche zu beobachten. Abbildung 9.5: Screenshot der Nvidia Grafikkarteneinstellungen 116 Moiré-Effekt Diplomarbeit Gordon Lemme Abbildung 9.6: Auftretender Moiré-Effekt an Zaun- und Dachfläche 117 9. Optimierung Texturaufbau 9.4 Texturaufbau TM Der OpenGL Performer unterstützt ausschließlich den Einsatz von RGB-, RGBA-, INT- und INTA-Dateien in Form von 2er-Potenzen. Diese sind für das Mipmapping notwendig, da dadurch eine interne ganzzahlige Halbierung der Texturgröße vollzogen werden kann. Texturen die nicht dieser 2er-Potenzanforderung genügen werden TM R im MultiGen-Paradigm Creator 3.3 fehlerfrei dargeTM stellt, produzieren aber in der OpenGL Performer Engine weiße untexturierte Flächen. Darüber hinaus kommt es bei der Verwendung von RGBund RGBA-Dateien zu Z-buffer-fightings, wenn sich auf gleicher Ebene eine zusätzliche Hintergrundtextur befindet. Solche Z-buffer-fightings ergeben in der Simulation flackernde Texturflächen und sind nur durch die Objektzerlegung zu beheben. Ein Beispiel für ein solches Szenario bildet die Texturierung einer Hauswand eines 3DObjektes, wie sie in Abbildung 9.7 zu sehen ist. Die auf der Wand befindlichen Fenstertexturen liegen in der selben Ebene, wie die Wandtextur (siehe Szenengraph). Bei der Visualisierung kann nicht mehr unterschieden werden, welche Textur dem Betrachter näher ist und welche dahinter liegt. Durch diesen Umstand ist die Abbildung nicht eindeutig beschrieben und das System versucht beide Flächen abzubilden, es kommt zum Flackern. 9.5 Farbe vs. Textur Bei der Möglichkeit Farbe anstatt einer Textur zu verwenden, sollte diese Alternative in betracht gezogen werden. Dabei ist der eventuelle Realitätsverlust zu berücksichtigen. Jedoch entlastet die Wahl von Farbe die benötigten Systemressourcen. Die erforderliche Textur muss in den 118 Farbe vs. Textur Diplomarbeit Gordon Lemme Abbildung 9.7: Screenshot Z-Buffer 119 9. Optimierung Szenengraphoptimierung Speicher geladen werden und verursacht so zusätzliche Ladezeit. In der nachstehenden Tabelle 9.3 ist der Vergleich der Perfly-Statistik aufgeführt. Zusätzlich wird der SpeiArt Triangles Loading time Loading rate Farbe 2 0,025 sek 80,167 prim/sek Textur 2 0,053 sek 37,809 prim/sek Tabelle 9.3: Perfly-Statistik für ein Quadrat cher, durch die Textur, mit folgenden Werten belastet. Dabei handelt es sich um eine 512 x 512 Pixel Farbtextur. Download time Download rate Texture use 1985,772 ms 0,252 MB/sek 0,500 MB 9.6 Szenengraphoptimierung Durch die Szenengraphoptimierung lässt sich zusätzliche Rechenzeit einsparen. Dabei gibt es verschiedene Ansätze auf die in diesem Abschnitt eingegangen wird. Der TM OpenGL Performer arbeitet den Szenengraphen von vorne nach hinten durch und prüft, inwieweit ein Objekt gerendert werden muss oder nicht. Dabei sind nur Objekte oder Gruppen von Objekten interessant, die nicht außerhalb des Frustums (Abschnitt 2.3.1) liegen. Da Objekte als Bounding-Volume betrachtet werden, wird vom TM OpenGL Performer eine Kollision mit dem Frustum überprüft. Wenn das Bounding-Volume eine Objektgruppe außerhalb des Frustums liegt, müssen alle darin enthaltenen Objekte nicht weiter betrachtet werden. Diese Objekte befinden sich dann auch außerhalb des Sichtfeldes. 120 Szenengraphoptimierung Diplomarbeit Gordon Lemme Durch diese Objektgruppierung kann eine Performancesteigerung erreicht werden. Für den Fall, dass eine solche Gruppierung zu groß gewählt wurde, muss jede einzelne Untergruppen beziehungsweise jedes einzelne Objekt dieser Gruppe auf Kollision getestet werden. Eine weitere Möglichkeit der Gruppierung besteht darin, Objekt nach ihrer Farbe oder vielmehr ihrer Textur zu organisieren (Abbildung 9.9). Dieses Vorgehen hat den VorAbbildung 9.8: teil, dass eine Textur, die auf mehrere Objekte gemapped Szenengraph wurde, nur einmal in den Speicher gelesen werden muss, um diese Objekte zu texturieren. Durch diese Vorgehensweise wird der interne Grafiktransfer stark reduziert. Dar- Abbildung 9.9: Szenengraph Textur- beziehungsweise Farboptimierung (Quelle: Creator 2007a, Abschnitt 6-1) über hinaus gibt es noch weitere Szenengraphoptimierungen, welche in George Eckel 2002, (Seite 94) beschrie121 9. Optimierung LOD ben sind. Da diese keine Anwendung im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden finden, soll auf ihre Betrachtung verzichtet werden. 9.7 LOD Mit Hilfe der Levels of Detail lassen sich 3D-Objekt in Abhängigkeit der Entfernung zum Betrachter während der Laufzeit laden. Dabei wird das Objekt in unterschiedlicher Darstellungsqualität gezeigt. Diese Unterschiede können zum Einen durch die Verringerung der Polygonanzahl oder durch die Texturierung des Objektes mit kleineren Texturen erreicht werden. Die Kombination aus beiden Verfahren ist natürlich auch denkbar und durchaus praktikabel. Durch dieses Hilfsmittel ist es möglich eine Datenbank vollständig zu generieren und die detailreichen Segmente nur dann einzublenden, wenn dies nötig ist (siehe Berechnung LOD 7.4). Nötig bedeutet in diesem Zusammenhang, dass sich der Benutzer nah an dem texturierten Objekt befindet, um dessen exakte Darstellung wiederzuerkennen. Da die Wiedererkennbarkeit eines Objektes auf der menschlichen Erfahrung basiert (Abschnitt 2.2), sollte eine Abbildung im Simulator nicht oder nur kaum von der Realität zu unterscheiden sein (zum Beispiel Abbildung 10.1 und 10.2). 9.8 Hardware 9.8.1 Treiber Die Aktualisierung von Treibersoftware spielt eine wichtige Rolle in der Optimierung des Fahrsimulators. Ein Trei122 Hardware Diplomarbeit Gordon Lemme ber bildet die Schnittstelle zwischen einem Hardwarebestandteil und dem Betriebssystem. Im vorliegenden Fall wurden die Treiber der Grafikkarte (Spezifikation A.1) aktualisiert. Dieser informiert das Betriebssystem (Abschnitt A.6) über die Anzahl der darstellbaren Farben, die Auflösung, der Aktualisierungsfrequenz und vielem mehr. Nach der Aktualisierung stehen neue und/oder verbesserte Funktionen zur Verfügung. Durch das Installieren von aktuellen Grafiktreibern, welche der Hersteller zur Verfügung stellt, konnte die Bildwiederholrate von etwa 50 Frames in der Sekunde auf knapp 60 Frames die Sekunde R R gesteigert werden. Der von Microsoft Windows installierte Treiber erkannte die Grafikkarte (Referenz A.1) mit einer PCI-Schnittstelle und der Funktionsumfang war begrenzt. Durch die Installation des vom Hersteller bereitgestellten Treibers, wurden alle Funktionen unterstützt. Darüber hinaus wurde die Grafikkarte am richtigen Port (AGP) erkannt. 9.8.2 Verschleißteile Die zur Bilderzeugung verwendeten Projektoren erzeugen die Bilder, wie in Abschnitt 8.2.1 beschrieben, mit Hilfe eines Leuchtkörpers. Mit zunehmender Betriebsdauer eines solchen Leuchtmittels nimmt die Lichtleistung ab. Dies hat eine Verdunkelung des projizierten Bildes zur folge. Die Lebensdauer der Projektorlampen im FraunhoferInstitut für Verkehrs- und Infrastruktursysteme Dresden beträgt circa 2000 Stunden. Dabei sollte darauf geachtet werden, dass alle drei an der Simulation beteiligten Projektoren die gleiche Einsatzzeit besitzen. Bei unterschiedlichen Gebrauchszeiten kann es zu einer unterscheidbaren Verschlechterung der Bildwiedergabe kommen. Dabei heben sich die von der UTM-Software berechneten Projek123 9. Optimierung Material tionsübergänge voneinander ab. Es entstehen sichtbaren Übergangsstreifen. 9.8.3 Auflösung Mit der Erhöhung der Auflösung würde die dargestellte Pixelgröße kleiner werden. Dadurch wäre es möglich, feinere Farbwertabtastungen vorzunehmen und zu projizieren. Diese Auflösungserhöhung unterliegt jedoch technischen Grenzen und ist deshalb beschränkt. Dennoch hat die Firma projectiondesign den weltweit ersten 1-ChipDLP Projektor, mit einer Auflösung von 1920 x 1200 Pixeln, auf den Markt gebracht (Quelle: projectiondesign 26.04.2008). Dadurch würde die Pixelgröße auf der [cm] Leinwand von circa 0, 29 [cm] [px] auf 0, 19 [px] ändern (siehe Abschnitt 7.4). 9.9 Material Da der Fahrsimulator nur eine globale Lichtquelle besitzt, wird auf den Einsatz unterschiedlicher Materialien weitestgehend verzichtet. Eine Ausnahme bilden Verkehrszeichen, die aufgrund der fehlenden Helligkeit ein Material mit Emissive-Eigenschaften (Abschnitt 4.6.3) zugewiesen bekommen. Durch diese Eigenschaft werden sie heller, wodurch sich die Lesbarkeit (Abschnitt 5.3) für den Fahrsimulatornutzer erheblich verbessert. Durch die Verwendung des Standardmaterials werden aufwendige Lichtstrahlenberechnungen vermieden. Für nicht selbstleuchtende Objekte (zum Beispiel Häuser) kann die Helligkeit der Polygonfläche durch die explizite MaterialzuweiTM R sung im MultiGen-Paradigm Creator 3.3 erhöht werden. Dadurch wird die Echtheit des Farbeindruckes in der R Simulation verstärkt. Der MultiGen-Paradigm Creator 124 Licht Diplomarbeit Gordon Lemme TM 3.3 -Materialstandardwert beträgt (-1) und besitzt in TM der Laufzeitumgebung (OpenGL Performer ) einen größeren Absorptionswert. Dies ist bei der Benutzung der Programme zu berücksichtigen. In den Abbildungen 9.10 und 9.11 ist dies verdeutlicht. Die beiden Bilder zeigen die selbe polygonale Fläche. In dem linken Screenshot sind die oberen beiden Flächen heller, als die darunter. Der rechte Screenshot zeigt ein umgekehrtes Bild, hier sind die oberen Flächen dunkler. Dabei wird deutlich, dass durch die Zuweisung des Standardmaterialwertes 0 im MultiGenTM R Paradigm Creator 3.3 eine Helligkeitsverbesserung im Fahrsimulator erzielt werden kann. Abbildung 9.10: Screenshot des Fahrsimulatormaterials Abbildung 9.11: Screenshot des Creatormaterials 9.10 Licht „Wo viel Licht ist, ist auch viel Schatten.“ Goethe, Johann Wolfgang von Die zu untersuchenden Farbunterschiede lassen sich zum Teil auf die unterschiedliche Beleuchtung der Systeme zurückführen. Der Standort der infiniten Lichtquelle unterscheidet sich wie in den Abbildungen 9.12 und 9.13 deutlich. Dabei handelt es sich im Bild 9.12 um die OpenGL TM Performer -Lichtquelle. Es wird deutlich, dass sich die 125 9. Optimierung Licht Lichtquelle im Azimut befindet. Deshalb werden Objekte mit dazu nahzu oder vollständig parallel verlaufenden Flächen weniger dunkel abgebildet (zum Beispiel Häuserdachflächen). Abbildung 9.12: Lichtquellenstandort im OpenGL TM Performer 126 Abbildung 9.13: Lichtquellenstandort im MultiGenR Paradigm TM Creator 3.3 10 Zusammenfassung Abschließend wird an dieser Stelle ein zusammenfassendes Resümee über die Schwerpunkte dieser Arbeit gezogen. Abschnitt 10.1 gibt einen kurzen inhaltlichen Überblick dieser Diplomarbeit wieder. Dabei wird auf die gewonnenen Erkenntnisse eingegangen. Ein Fazit der Arbeit wird in Abschnitt 10.2 wiedergegeben. 10.1 Inhalt Im Zuge dieser Arbeit wurden, auf Grundlage der physischen Gegebenheiten, die Optimierungsmöglichkeiten analysiert. Dabei sind die menschlichen Wahrnehmungsschwächen und das technische Know-How untersucht worden. Durch die gewonnenen Erkenntnisse wurden Optimierungsansätze formuliert, die zum Teil im Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden umgesetzt werden konnten. Das Datenvolumen ließ sich erheblich reduziert und die Simulation gewann an Echtzeitfähigkeit. In diesem Zusammenhang ist die Möglichkeit einer 3D-Animationserstellung erläutert worden. Diese Animation fließt in das APROSYS-Projekt ein und bildet eine weitere Komponente zum Erhalt von Straßenverkehrsrealismus. Im Zuge der Fußgängeranimation wurde das Verhalten von Passanten im Straßenverkehr untersucht. Dabei wurden Anzeichen und Merkmale für eine Fahrbahnüberquerung ergründet. 127 10. Zusammenfassung Fazit 10.2 Fazit Nach Moores Law wächst die zur Verfügung stehende Rechenkapazität unaufhaltsam. Damit ergeben sich immer neuere und größere Projektmöglichkeiten. Doch auch anhand kleinerer Veränderungen und Optimierungsschritte lässt sich die Rechenleistung idealer ausnutzen. Dies wurde anhand der Performancesteigerung des im Jahr 2002 installierten Fahrsimulatorsystems des FraunhoferInstituts für Verkehrs- und Infrastruktursysteme Dresden bewiesen. Die Framerate konnte auf circa 60 Bilder pro Sekunde gesteigert und das Datenvolumen halbiert werden. Im Zuge dieser Arbeit wurde trotz der Optimierung auf die Realitätsnähe geachtet. Neben dem Versuch diese beizubehalten, konnte sie vereinzelt gesteigert werden. Durch die Verkleinerung der Texturen wurde es notwendig, einige Objekte vollständig zu modellieren, wodurch diese eine noch größere Realitätsnähe gewannen. In den folgenden Grafiken ist ein Ausschnitt der Bundesstraße B6 zu erkennen. In der ersten Grafik (Abbildung 10.1) handelt es sich um einen Screenshot aus dem Fahrsimulator. Demgegenüber steht eine ursprüngliche Fotografie des gleichen Ausschnittes (Abbildung10.2). Die fortschreitende Realitätsnähe in Simulatoren bietet neue Forschungsansätze. Dabei ist es zunehmend möglich die gewonnenen Simulatordaten eins zu eins in den realen Straßenverkehr zu übertragen. Durch diese Art der Verhaltens, Unfall- und Reaktionsanalyse ist es praktikabel, eine große Anzahl von wiederholbaren Testszenarien zu durchlaufen. Durch die Reproduzierbarkeit von Szenarien liegt die Wirtschaftlichkeit eines solchen Systems auf der Hand. Das zu untersuchende Verhalten lässt sich präzise eingrenzen und die zusätzlichen Einflüsse können nach Bedarf minimiert oder auch maximiert werden. Dabei kann das 128 Fazit Diplomarbeit Gordon Lemme Abbildung 10.1: Screenshot vom Simulator Abbildung 10.2: Fotografie der Szene 129 10. Zusammenfassung Verhalten der Fahrzeugführer gegenüber einer sich verändernden 3D-Umgebung, wie auch bezüglich Fahrassistenzsystemen gegenüber, analysiert werden. Ein Beispiel ist das in dieser Arbeit oft zitierte APROSYS-Projekt, in dem ein Pedestrian Protection System getestet wird. Dabei soll der Fußgänger in einer Unfallsituation mit Hilfe eines so genannten Hook-Ups, beim Aufprall des Körpers auf die Motorhaube, geschützt werden (Abbildung: 3.2.6). An dieser Stelle wird ein weiteres Szenario betrachtet, bei dem das Hook-Up fehlerhaft auslöst. Zukünftig bleibt die Hypothese zu untersuchen, dass sich in einer solchen Situation das Verhaltensmuster der Probanden im öffentlichen Straßenverkehr ändern würde. Daraus wären Rückschlüsse für die Entwicklung eines derartigen Systems für den realen Straßenverkehr zu ziehen. 130 Fazit Diplomarbeit Gordon Lemme A Hardware A.1 Grafikkarte Eigenschaft Wert Grafikkarte GPU Codename Transistoren BIOS Version Chiptyp DAC Typ Installierter Treiber Speichergröße Bustyp GPU Takt RAMDAC Takt Pixel Pipelines Textureinheiten Vertex Shader Pixel Shader DirectX Unterstützung Pixel Fillrate Texel Fillrate Chip Takt Speichertakt Speicherbandbreite Speichergröße Gainward GeForce4 Ti 4600 NV25 63 Millionen 4.25.00.28.00 GeForce4 Ti 4600 Integrated RAMDAC nVidia ForceWare 93.71 128 MB AGP 4x 300 MHz 350 MHz 4 2 2 4 DirectX v8.1 1200 MPixel/sek 2400 MTexel/sek 300 MHz 650 MHz 10,4 GB/sek 128 MB Tabelle A.1: GeForce4 Ti 4600 Spezifikation (Quelle: Everest-AnalyseTool) 131 A. Hardware Prozessor A.2 Prozessor Eigenschaft CPU Typ CPU Bezeichnung CPU stepping Befehlssatz Vorgesehene Taktung Min / Max CPU Multiplikator L1 Cache L2 Cache Transistoren Core Spannung I/O Spannung Maximale Leistung Wert Intel Pentium 4, 2433 MHz (18x135) Northwood C1 x86, MMX, SSE, SSE2 2400 MHz 18x /18x 8 KB 512 KB 55 Millionen 1,475 - 1,55 V 1,475 - 1,55 V 49 - 109 W Tabelle A.2: CPU Spezifikation (Quelle: Everest-Analyse-Tool) A.3 Motherboard Eigenschaft Motherboard ID Motherboard Name CPU Sockel Erweiterungssteckplätze RAM Bauform Wert 09/27/2002-I845E/ICH4/IT8708-P4B533-E Asus P4B533-E 1 6 PCI, 1 AGP (4x) 3 DIMM ATX Tabelle A.3: Motherboard Spezifikation (Quelle: Everest-Analyse-Tool) 132 Arbeitsspeicher Diplomarbeit Gordon Lemme A.4 Arbeitsspeicher Eigenschaft Modulname Seriennummer Modulgröße Modulart Speicherart Speichergeschwindigkeit Modulbreite Speicher Timings (142 MHz) (133 MHz) Physikalischer Speicher Auslagerungsdatei Virtueller Speicher Wert Infineon HYS64D64020GU-7 039B5010h (273718019) 031B585Fh (1599609603) 512 MB unbuffered DDR SDRAM PC2100 (133 MHz) 64 bit 2.5-3-3-7 (CL-RCD-RP-RAS) 2.0-3-3-6 (CL-RCD-RP-RAS) 1023 MB 1950 MB 2974 MB Tabelle A.4: Speicher Spezifikation (Quelle: Everest-Analyse-Tool) 133 A. Hardware North Bridge A.5 North Bridge Eigenschaft North Bridge FSB Geschwindigkeiten Gehäusetyp Core Spannung CAS Latency (CL) RAS to CAS Delay (tRCD) RAS Precharge (tRP) RAS Active Time (tRAS) Refresh Period (tREF) Wert Intel Brookdale i845E FSB400, FSB533 593 Pin FC-BGA 1,5 V 2T 3T 3T 6T 7,8 ms Tabelle A.5: North Bridge Spezifikation (Quelle: Everest-Analyse-Tool) A.6 Betriebssystem Eigenschaft Betriebssystem (OS) OS Version OS Service Pack DirectX OpenGL Wert R R Microsoft Windows 2000 Professional 5.0.2195 (Win2000 Retail) Service Pack 3 4.07.00.0700 (DirectX 7.0) 5.00.2195.4709 Tabelle A.6: Betriebssystem Spezifikation (Quelle: Everest-AnalyseTool) 134 Projektoren Diplomarbeit Gordon Lemme A.7 Projektoren Display Technologie Konzept Auflösung Helligkeit Kontrast (ein/aus) Bildseitenverhältnis darstellbare Farben Kompatibilität Bildverarbeitungslatenz Computer Kompatibilität Horizontaler Scan Vertikaler Scan Videokompatibilität Bandbreite single Chip DLPTM Technologie, DDR - Double Data Rate DMDTM R von Texas Instruments abgeschlossenes prismenfreies optisches Design ganz aus Glas 1280 x 1024 Pixel 3000 ANSI-Lumen (max) 1000 : 1 5:4 (4:3 und 16:9 kompatibel) 16,8 Millionen Farben simultan anzeigbar ≈1 Frame am Grafikport UXGA, SXGA+, SXGA, XGA, SVGA, VGA Auflösung 1920 x 1080 - 640 x 480 Pixel mögliche Formate RGBHV, RGBS, RGsB 15 - 150 kHz (auflösungsabhängig) 48 - 190 Hz (auflösungsabhängig) HDTV (1080i/720p) EDTV (576p, 480p) SDTV (576i, 480i) NTSC, PAL, SECAM 205 MHz bei analogem RGB 165 MHz bei digitalem RGB über DVI Tabelle A.7: Projektoren Spezifikation Teil 1 (F1 SXGA der Firma projectiondesign)(Quelle: projectiondesign 26.04.2008) 135 A. Hardware Optik Projektoren Standardlinsen Projektionsverhältnis (Entfernung : Breite) Bildgröße (Diagonale) Linsen-Offset Fokussierdistanz Zoom-Verhältnis Lampentyp Lampen-Lebensdauer Weitwinkellinse Eingänge & Ausgänge Computereingänge Videoeingänge Audioeingänge Steuerung und Kommunikation Allgemeines Computerausgänge Audioausgäng Betriebsgeräusche (Typ) Abmessungen Gewicht Stromanschluss Betriebstemperatur Betriebsfeuchtigkeit f=31, 1 -39, 2 mm, F/2,8-3,0 1,75 - 2,25 :1 0,9 - 7,3 m +5 % 1,5 - 10 m 1,3x 250W UHPTM 2000 Stunden (max) volle Leistung unterstellt f=17,9 mm, F/2,8, 1:1 Projektionsverhältnis 1x DVI 2x VGA DVI-D YPbPr S-Video Composite Video 4 x 3,5 mm Stereo Minibuchse Audio 1 x RS232 9-Pin DSUB (Steuerung) 1 x USB (Maussteuerung und Firmware-Upgrade) 1 x 15pin HDDSUB (analog) 1 x 3,5 mm Stereo Minibuchse 28 dB(A) bei 20◦ C, Meereshöhe 244 x 278 x 88 mm (TxBxH) 3,0 Kg 100 - 240 V Wechselstrom, 50/60 Hz Stromverbrauch 350 W 0-40◦ C, 0-1500 m 0-35◦ C, 1500 - 3000 m 20-90 % RH Tabelle A.8: Projektoren Spezifikation Teil 2 (F1 SXGA der Firma projectiondesign) (Quelle: projectiondesign 26.04.2008) 136 B DIN 1450 137 Nr. 1 Einflüsse Kontrast Anforderung Verhältnis von Zeichenleuchtdichte zu Zeichenträgerleuchtdichte 1:3 bis 1:10 (schwarze Zeichen auf weißem oder hellbuntem Grund) 1 ∗ h bis 18 ∗ h 7 ≈ 3:2 (Mittelschrift) 2 3 4 Linienbreite der Zeichen Verhältnis von Bildhöhe zu Bildbreite Zeichenabstand 5 6 Schreibweise Sehschärfe gemischt Visus 0,7 7 8 9 10 11 Schriftart Wortabstand Zeichenabstand Zeilenlänge Randabstand z.B. DIN 1451 Teil 2 und Teil 3 ≥ 73 ∗ h ≈ 11 ∗h 7 bis zu 65 Zeichen je Zeile ≥ 77 ∗ h 12 Leuchtdichte des Zeichenträgers bis 100 mcd2 13 14 Sehwinkel Qualität des Zeichenträgers ≈ 150 z.B. Papier DIN 6723-90 ≈ 1 7 ∗h Bemerkung Bei weißem Zeichen auf schwarzem Grund ist die Schriftgröße h um ≈ 25% zu vergrößern. Eine angepaßte Abstandsgestaltung für jede Schrift wird empfohlen (Beispiel siehe DIN 1451 Teil 2). Es wird davon ausgegangen, dass [g.d.V.] etwa 90% der Bevölkerung den Visus 0,7 erreichen. siehe auch Bemerkung zu Nr. 4 Ein freier Rand neben der Beschriftungsfläche verbessert das Erfassen der Information. Bei höheren Leuchtdichten (bis 500 mcd2 ) steigt zwar die Leserlichkeit noch um 5 bis 10%, dafür nimmt aber vor allem bei größeren Flächen die Blendung zu, was zu vorzeitiger Ermüdung führt. Tabelle B.1: Einflüsse auf die Leserlichkeit von Verkehrszeichen C Creator to Fahrsimulator Checkliste C.1 Szenengraphaufbau Um eine Kachel der Standardgröße 2000 x 2000 Meter in den Fahrsimulator laden zu können, muss der Szenengraph dem nachstenden Aufbau genügen. R Alle vorhandenen Straßenelemente, die mit dem MultiGen-Paradigm TM Creator 3.3 Road-Tool erstellt wurden, müssen unter einem Knoten abgelegt werden. Diesem Knoten ist der Name ROAD zuzuweisen. Die restlichen 3D-Objekte sind in dem Knoten mit der Bezeichnung GROUND abzulegen. Dabei kann es sich sowohl um modellierte 3DObjekte, als auch um externe Referenzen handeln. C.2 Fahrspurdaten Zum Benutzen der Fahrspurdaten ist es notwendig eine externe Datei zu erzeugen. An dieser Fahrspur werden in der Simulation so genannte Player Cars ausgerichtet. Diese bilden in der Simulation den Fahrzeugverkehr. Die Fahrspurdatei muss zusätzlich in ein fahrsimulatortaugliches Format konvertiert werden. Im folgenden Abschnitt sind diese Schritte im einzelnen aufgeführt. Zum Erzeugen der Path-Information wird der Straßenknoten (R.Nummer) TM R im Szenengraphen des MultiGen-Paradigm Creators 3.3 angewählt. Danach wird im Mennüpunkt Road der Unterpunkt Write Path . . . 139 C. Creator to Fahrsimulator Checkliste FLT zu PFB Konvertierung ausgewählt. Der Speicherort der ∗ .path-Datei ist im folgenden Fenster anzugeben. Um diese Datei in ein fahrsimulatorfähiges Dateiformat umzuwandeln, muss es mit der road2dat.exe in zwei ∗ .dat-Dateien konvertiert werden. Die entstandenen Dateien (name_00.dat und name_00_rev.dat) enthalten die Koordinaten beziehungsweise Stützpunkte der Straße. Dabei sind in der name_00_rev.dat die selben Koordinaten wie in name_00.dat gespeichert, jedoch in umgekehrter Reihenfolge. Diese Datei beschreibt den Pfad des Gegenverkehrs. Die beiden Dateien sind im nachstehenden Ordner abzulegen. d:/Programme/VRFlexDrive/data/vis/numeric/numeric_ DiplomLemme/ C.3 FLT zu PFB Konvertierung TM R Die im MultiGen-Paradigm Creator 3.3 erzeugte flt-Datei muss in TM das für den OpenGL Performer lesbare pfb-Dateiformat umgewandelt werden. Dazu wird die pfconv.exe mit den Parametern Ausgangsdatei.flt und Zieldatei.pfb aufgerufen. Die so entstandene pfb-Datei ist in einem Ordner des nachfolgenden Verzeichnisses abzulegen. d:/3dModelsRun/DiplomLemme/ In diesem Ordner, im Weiteren mit Terrains bezeichnet, sind neben der pfb-Datei auch die verwendeten Texturdateien abzulegen. C.4 Konfiguration Im abschließenden Teil sind die Fahrsimulatorkonfigurationsdateien im unten genannten Verzeichnis anzupassen. d:/Programme/VRFlexDrive/cfg/cfg_DiplomLemme/ 140 Konfiguration Diplomarbeit Gordon Lemme Dazu muss in den aufgelisteten Dateien die absolute Pfadangabe hinzugefügt werde. • DiplomLemme_car.cfg CarDef. . . model3D ducati.pfb car2 . . . • DiplomLemme_path.cfg PathDef. . . Verzeichnisse inklusive Unterordner (zum Beispiel Terrains) hinzufügen • DiplomLemme_terrains.cfg TerrainDef. . . File „road_00.pfb“ GROUND ROAD . . . TerrainOrderDef 0 1 0 definiert dabei die erste Kachel 1 definiert, sofern vorhanden, die folgende Kachel Nun müssen die im Verzeichnis d:/Programme/VRFlexDrivecfg/cfgIVI/cfgIVI_DiplomLemme/ parts/ befindlichen Dateien angeglichen werden. Dazu wird in der sim.cfg der Terrainpfad und der Playerpfad angepasst. Der Ordner, der die Datei mit den Straßenkoordinaten enthält, ist in der tiles.cfg nach folgendem Schema zu adaptieren. Road01=PathSegfile=...//data//vis//numeric_DiplomLemme/ /road_00.dat Zum Einbinden mehrerer Terrainflächen ist der Kachelübergang anzugeben. Dabei geht die erste Kachel (tile00 ) in den Abschnitt tile01 über. {tile00=Tile{ pathes={ {"Road01",{"tile01",0} "Road01_r",("tile01",1}}... 141 C. Creator to Fahrsimulator Checkliste 142 Konfiguration Literaturverzeichnis APROSYS (2008). APROSYS SP 1 . Detailes draft test scenarios for a specific pre-crash saftey system. Creator (2007a). Creator Modeling Guide. Paradigm, Edition 3.4 Aufl. Creator (2007b). Creator Users Guide. Paradigm, Edition 3.0 Aufl. Creator, P. M. (2007c). Applying Textures to Geometry. Creator, P. M. (2007d). Levels of Detail and Switching. Creator, P. M. (2007e). Wizards & Auto Texturing. DIN (1450). Leserlichkeit. Technischer Bericht DIN 1450, Deutsches Institut für Normung e.V. DIN (5033). Farbe. Technischer Bericht DIN 5033, Deutsches Institut für Normung e.V. DIN (6171-1). Aufsichtfarben für Verkehrszeichen und Verkehrseinrichtungen. Technischer Bericht DIN6171-1, Deutsches Institut für Normung e.V. TM George Eckel, K. J. (2002). OpenGL Performer Programmer’s Guide. Gregory, R. L. (1966). Auge und Gehirn. München: Kindler. Zur Psychophysiologie des Sehens. Gregory, R. L. (2001). Auge und Gehirn. Reinbek: Rowohlt. Psychologie des Sehens. 143 Literaturverzeichnis Literaturverzeichnis Hischer, H. (2004). Abtast-Moiré-Phänomene als Aliasing. PrePrint, Universität des Saarlandes. J. Camenzind, F.W.Hürlimann, B. (1978). Konfliktstelle Fußgängerstreifen. Zeitschrift für Verkehrssicherheit, 1, 14–20. Musahl, H.-P. (1997). Gefahrenkognition: Roland Asanger Verlag Heidelberg. Theoretische Annäherungen, empirische Befunde und Anwendungsbezüge zur subjektiven Gefahrenkenntnis. Richter, S. (2002). Einstellungen und Verhalten beim Fahren im Nebel : Shaker Verlag. Eine psychologische Studie. Scherer, C. (1983). Konflikte zwischen Fußgängern und Fahrzeuglenkern. Zeitschrift für Verkehrssicherheit, 2, 86–88. 144 Internetquellen Antwerpes, D. F. (26.04.2008). Sakkade. flexikon.doccheck.com/Sakkade. Website. http:// Boonekamp (26.04.2008). CIE-Normvalenzsystem. Website. http: //de.wikipedia.org/wiki/CIE-Normvalenzsystem. Bunks, C. (26.04.2008). Der RGB-Farbraum. Website. http://www.verwaltung.uni-mainz.de/edv/projekte/ doku/gimp/grokking/node50.html. Burosch, K. (26.04.2008). Display Tuning. Website. http://www. burosch.de/shop/shop_content.php?coID=123&. Funke, P. D. J. (26.04.2008). 7.3 Perzeptuelle Organisation. Website. http://www.psychologie.uni-heidelberg.de/ae/ allg/lehre/wct/w/w7_form/w730_organisation.htm. Grunert, G. (26.04.2008a). Straßenverkehrs-Ordnung (StVO). Technischer Bericht, Grunert + Tjardes verkehrsportal.de GbR. http: //verkehrsportal.de/stvo/stvo_26.php. Grunert, G. (26.04.2008b). Straßenverkehrs-Ordnung (StVO). Technischer Bericht, Grunert + Tjardes verkehrsportal.de GbR. http: //verkehrsportal.de/stvo/stvo_25.php. Hartl, S. H. (26.04.2008). copyshop-tips.de. Website. http://www. copyshop-tips.de/index.php. Hiller, U. (26.04.2008). Begriffserklärungen Spieleentwicklung. Website. http://www.orgapedia.de/knowmore/index.php/ Begriffserkl%C3%A4rungen_Spieleentwicklung. 145 Internetquellen Internetquellen Häßler, U. (26.04.2008a). Vorlesung Farbraumtransformationen für die digitale Farbreproduktion. Website. http://farbe.wisotop. de/vomLichtZumXYZ.shtml. Häßler, U. (26.04.2008b). Vorlesung Farbraumtransformationen für die digitale Farbreproduktion. Website. http://farbe.wisotop. de/vonXYZnachRGB.shtml. Häßler, U. (26.04.2008c). Vorlesung Farbraumtransformationen für die digitale Farbreproduktion. Website. http://farbe.wisotop. de/vonOrdnungZumModell.shtml. Janssen, W. (26.04.2008). Rasterbild . Website. http://www.atmix.de/rasterbild.htm. Kühn, S. (26.04.2008). Level of Detail . Website. http://de. wikipedia.org/wiki/Level_of_Detail. Klagenfurt (26.04.2008). Wahrnehmungsorientierte Farbmodelle. Website. http://melville.uni-klu.ac.at:8080/ greybox/m01/206_PC_2.html. Kneisel, P. D. P. (26.04.2008). Datenverarbeitung im menschlichen Gehirn. Website. http://homepages.fh-giessen.de/ ~hg10013/Lehre/MMS/SS04/ruehl/. Lindbloom, B. J. (2004-2007). Using the Chromaticity Diagram for Color Gamut Evaluation. Website. http://www. brucelindbloom.com/index.html?ColorCalcHelp.html. Lipinski, D.-I. K. (26.04.2008a). Chipsatz . Website. http: //www.itwissen.info/definition/lexikon/Chipsatzchipset.html. Lipinski, D.-I. K. (26.04.2008b). international electronical commission. Website. http://www.itwissen.info/ definition/lexikon/international-electronical146 Internetquellen Diplomarbeit Gordon Lemme commission-IEC-Internationale-elektronischeKommission.html. Lipinski, D.-I. K. (26.04.2008c). Interpolation. Website. http://www.itwissen.info/definition/lexikon/ Interpolation-interpolation.html. Marc Janott, M. G. (26.04.2008). Das CIE-Farbmodell . Website. http://www.marc-janott.de/marc/uni/ bildkommunikation_ss00/cie.html. Matthias, A. (26.04.2008). Laterale Hemmung. Website. http:// de.wikipedia.org/wiki/Laterale_Hemmung. Meyer-Wagenfeld (26.04.2008). Sehgrube. Website. http://p5965. typo3server.info/index.php?id=2&uid=311. Meyers (26.04.2008). Auge. Website. http://lexikon.meyers. de/meyers/Auge. Michelson, P. D. G. (26.04.2008a). rund um’s Auge. Website. http: //www.onjoph.com/patinfo/funktion/anatomie.html. Michelson, P. D. G. (26.04.2008b). rund um’s Auge. Website. http: //www.onjoph.com/patinfo/funktion/zahlen.html. Mullkubel (26.04.2008). Textur . wikipedia.org/wiki/Textur. Website. http://de. MultiGen, W. (26.04.2008). Website. http://www.multigenparadigm.com, http://www.presagis.com. Netzoptiker.de (26.04.2008). optik)lexikon. Website. http: //www.optiklexikon.de/kontaktlinsen-brillenglossar/akkomodation.html. p2pforum (26.04.2008). Forumseintrag. Website. http://immagini.p2pforum.it/out.php/i78208_ Coneresponse.png. 147 Internetquellen Internetquellen Patzer, K.-H. (26.04.2008). M.-Phänomen. Website. http://www.aerztlichepraxis.de/rw_4_Lexikon_ HoleEintrag_35063_Eintrag.htm. projectiondesign (26.04.2008). F30 series professional grade DLP projector . Website. http://www.projectiondesign.com/ Default.asp?CatID=1533. med. Rainer Wiltfang, D. (26.04.2008a). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_I.html. med. Rainer Wiltfang, D. (26.04.2008b). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_N.html. med. Rainer Wiltfang, D. (26.04.2008c). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_P.html. med. Rainer Wiltfang, D. (26.04.2008d). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_S.html. med. Rainer Wiltfang, D. (26.04.2008e). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_S.html. med. Rainer Wiltfang, D. (26.04.2008f). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_XYZ.html. med. Rainer Wiltfang, D. (26.04.2008g). Wichtige Begriffe zum Thema Auge und refraktive Chirurgie.. Website. http://www.smileyes. de/augenlexikon/Auge_XYZ.html. 148 Internetquellen Diplomarbeit Gordon Lemme Richter, P. D. M. (26.04.2008). Methodik der Unfallforschung der Medizinischen Hochschule Hannover . Website. http://www. martinusrichter.de/de/forsch_unfall_iframe.htm. Schnabel, G. (26.04.2008). Farb(t)räume. Website. http: //www.hrz.uni-dortmund.de/computerPostille/ September1999/00.html. Seifert, A. (26.04.2008). Anti-Aliasing im Detail . Website. http://www.3dcenter.de/artikel/anti-aliasing/ index03.php. Serck, K. (26.04.2008). DLP & LCD: Video-Projektionstechnik im Vergleich. Website. http://www.hifi-regler.de/special/ dlp-lcd-videoprojektionstechnik.php. SGIFilter (26.04.2008). Free plugins for Photoshop & Illustrator...and other software. Website. http://www.telegraphics.com.au/ sw/. Sullivan, L. (26.04.2008). Website. http://www. informationweek.com/hardware/personaltech/ 189501146. ThomasSD (26.04.2008a). Distaler Reiz . Website. http://de. wikipedia.org/wiki/Distaler_Reiz. ThomasSD (26.04.2008b). Proximaler Reiz . Website. http://de. wikipedia.org/wiki/Proximaler_Reiz. Unger, J. (26.04.2008). Programmdokumentation zur vektororientierten Darstellung. Website. http://www.yoki.de/lscape_vec/. virtualcolourmuseum (26.04.2008). CIE-1931-System. Website. http://www.colorsystem.com/projekte/dt/!37CIED. HTM. 149 Internetquellen Internetquellen Wagner, M. (26.04.2008). Farben und Farbwahrnehmung. Website. http://www.medien.ifi.lmu.de/fileadmin/ mimuc/mmi_ws0405/uebung/essays/maria.wagner/ colouressay.html. Wikimedia (2008). Image:Cone-response.png. Website. http://commons.wikimedia.org/wiki/index.html? curid=214182. Wikipedia (26.04.2008a). POV . Website. http://de.wikipedia. org/wiki/POV. Wikipedia (26.04.2008b). Sichtfeld . Website. wikipedia.org/wiki/Sichtfeld. http://de. Wikipedia (26.04.2008c). Texture Mapping. Website. http://de. wikipedia.org/wiki/Texture_Mapping. Zawischa, P. D. D. (26.04.2008a). Farbmetrik und die CIEDiagramme. Website. http://www.itp.uni-hannover.de/ ~zawischa/ITP/farbeinf.html. Zawischa, P. D. D. (26.04.2008b). Farbmetrik und die CIEDiagramme. Vorlesungsfolie. http://www.itp.uni-hannover. de/~zawischa/ITP/fmetr.pdf. 150 151 Glossar Glossar Glossar Akkommodation Bone-Animation 152 ‘Fähigkeit des Auges, sich auf verschiedene Entfernungen durch Brechkraftzuwachs oder Brechkraftabnahme der Augenlinse einzustellen. Brechkraftzuwachs erfolgt durch Anspannen des Zilliarmuskels und daraus folgendes Entspannen der Zilliarbänder; durch die Eigenelastizität begibt sich die Linse annähernd in Kugelform.’(Quelle: Netzoptiker.de 26.04.2008) ‘Es gibt zwei hauptsächliche Methoden zum Animieren eines Modells: Vertex- und BonesAnimation. Bei der Vertex-Animation ist jeder Frame ein ’Schnappschuss’ einer bestimmten Pose des Modells. Die Engine erzeugt eine stufenlose Animation durch Berechnen von Zwischenschritten zwischen den einzelnen Frames. Bei der Bones-Animation erhält jedes Modell ein ’Skelett’, bestehend aus zusammenhängenden ’Knochen’ (Bones). Das Modell wird animiert, indem die Position, Länge oder Orientierung von Knochen verändert wird. BonesAnimation erfordert mehr Prozessorleistung als Vertex-Animation, bietet aber viele Vorteile. Sie ist einfacher und schneller zu erstellen. Verschiedene Bones-Animationen können kombiniert werden - zum Beispiel kann ein Model gleichzeitig den Kopf drehen, schiessen und laufen.’(Quelle: Hiller 26.04.2008) Glossar Chipsatz Diplomarbeit Gordon Lemme ‘Der Chipsatz besteht aus einem oder mehreren Prozessoren, die die Leistungsfähigkeit des Rechners steigern. Chipsätze legen wichtige Board-Eigenschaften fest, denn sie verknüpfen den Prozessor, die Grafikkarte, interne Bussysteme, externe Schnittstellen, Festplatten, optische Laufwerke und meistens auch den Arbeitsspeicher untereinander. Sie übernehmen vielfältige Steuerfunktionen von internen und externen Komponenten wie der Echtzeituhr oder der Tastatur, steuern die Interrupt-Kontrolle und die Funktionen zwischen CPU und Arbeitsspeicher.’(Quelle: Lipinski 26.04.2008a) ‘Das CIE-Normvalenzsystem oder CIECIE Normvalenz- Normfarbsystem wurde von der Internationalen system Beleuchtungskommission (CIE - Commission internationale de l’éclairage) definiert, um eine Relation zwischen der menschlichen Farbwahrnehmung (Farbe) und den physikalischen Ursachen des Farbreizes (Farbvalenz) herzustellen. Es erfasst die Gesamtheit wahrnehmbarer Farben.’(Quelle: Boonekamp 26.04.2008) 153 Glossar D65 Glossar ‘Die Normlichtart D65 repräsentiert eine bestimmte Phase des Tageslichtes mit einer Farbtemperatur von 6500 Kelvin. Dieses soll ein ‘mittleres Nordhimmelslicht’ darstellen. Diese Lichtart existiert nur theoretisch, kann jedoch angenähert werde. Sie stellt für die Farbmessung die wichtigste Lichtart dar, wird jedoch zunehmend durch D50 abgelöst. ’ (Quelle: Hartl 26.04.2008) ‘Ein distaler Reiz (auch distaler Stimulus) bedistale Sinnesemp- schreibt in der Psychologie ein Objekt, von findung dem eine physikalisch messbare Größe (Gewicht, Licht, Wärme, Geruch, etc.) ausgeht, welche mit Hilfe der Sinne aufgenommen und in der Wahrnehmung verarbeitet werden kann. Der distale Reiz ist immer unabhängig von dem Betrachter, im Gegensatz zu dem proximalen Reiz.’ (Quelle: ThomasSD 26.04.2008a) Electrotechnical Commission 154 ‘Die Internationale Elektrotechnische Kommission (IEC) ist eine anerkannte Standardisierungsorganisation auf dem Gebiet der Elektrotechnik und Elektronik. Zu ihren Sachgebieten gehören die elektrischen Sicherheit, die Spannungsfestigkeit und Isolation, der Bereich der elektrischen Bauelemente, Anlagen zur Erzeugung, Transport und Verteilung elektrischer Energie, die Haustechnik sowie die Nachrichten, Funk- und Informationstechnik.’ (Quelle: Lipinski 26.04.2008b) Glossar Diplomarbeit Gordon Lemme ‘Das neuronale Signal besteht aus elektrischen elektrische Impulse Impulsen, so genannten Aktionspotenzialen, die die einzigen Eingangs- und Ausgangssignale des Gehirns bilden. Sie beruhen auf Permeabilitätsänderungen der Zellmembran für bestimmte Ionen. Im Ruhezustand ist das Innere des Axons negativ in Bezug auf die Außenseite, aber wenn eine Störung auftritt, wenn beispielsweise ein retinaler Rezeptor durch Licht gereizt wird, wird das Faserinnere positiv. Dies löst einen Stromfluss aus, der wie eine Welle die Nervenfaser entlangläuft. Die Leitungsgeschwindigkeit ist dabei wesentlich geringer als die des elektrischen Stroms in einem Draht. Sie beträgt in großen Fasern ungefähr 100 m/s, in den kleinsten Fasern weniger als 1 m/s.’ (Quelle: Gregory 2001, Seite 95) 155 Glossar Farbraum Farbtemperatur Field of View 156 Glossar ‘Ein Farbraum oder auch Farbmodell basiert auf einem geometrischen oder mathematischem Rahmenwerk, welches die Farbdarstellung des menschlichen Auges beschreibt. Die sichtbaren Farben werden im Farbraum durch eine oder mehrere Dimensionen dargestellt, wobei jeder Dimension bestimmte Farben angehören, um diese numerisch beschreiben zu können. Durch diese Art der Beschreibung können Farben klassifiziert, eindeutig beschrieben und verlichen werden.’ (Quelle: Häßler 26.04.2008c) Durch die Erhitzung eines Schwarzkörpers fängt dieser bei genügend großer Hitze an Licht auszusenden. Die Farbtemperatur gibt den Wert an, um diesen Farbeindruck zu erzeugen. ‘Sichtfeld oder Field of View (FOV) ist ein in der Optik gebräuchlicher Ausdruck und bezeichnet den Bereich im Bildwinkel eines optischen Geräts, z. B. eines Sonnensensors, der Bildfläche einer Kamera (Film oder Aufnahmesensor) oder eines Durchsicht-Displays, innerhalb dessen Ereignisse oder Veränderungen wahrgenommen und aufgezeichnet werden können.’ (Quelle: Wikipedia 26.04.2008b) Glossar Gamut Glaskörper HLS Diplomarbeit Gordon Lemme englisch Tonleiter, Farbpalette Corpus vitreum - Der Glaskörper besteht zu ca. 98% aus Wasser sowie aus ca. 2% Hyaluronsäure und einem Netz von Kollagenfasern (<<1%). Das angesprochene feine, dreidimensionale Netzwerk der Kollagene besteht hierbei vornehmlich aus Kollagen Typ II und IX. Die Assoziation von Hyaluronsäure in diesem weitmaschigen Netzwerk sowie die hohe Kapazität der Hyaluronsäure, Wasser zu binden, bedingen die homogene, gelartige Konsistenz des Glaskörpers und seine Durchsichtigkeit. (Quelle: Gregory 2001) ‘Das HLS-Farbmodell ist ein wahrnehmungsorientiertes Farbmodell und somit auf das Wahrnehmungsempfinden des Menschen ausgerichtet. Die Wahrnehmung richtet sich nach drei Größen (Parametern): Farbton (Hue), Helligkeit (Brightness, Lightness) und Sättigung (Saturation).’ (Quelle: Klagenfurt 26.04.2008) 157 Glossar Interpolation Iris 158 Glossar ‘Bei der Interpolation werden auf mathematischem Weg zusätzliche Bildpunkte errechnet, die sich zwischen anderen Bildpunkten befinden. Die Interpolationsverfahren dienen der Erhöhung der scheinbaren Auflösung von Grafiken, Bildern und Fotos. Die Auflösung selbst kann durch Interpolation nicht verändert werden, da keine zusätzlichen Details erzeugt werden.’ (Quelle: Lipinski 26.04.2008c) ‘Ist Teil der mittleren Augenhaut, funktioniert wie eine Blende. Sie stellt mit Hilfe der Sehlochmuskeln je nach Helligkeit das Sehloch (Pupille) enger oder weiter und regelt damit den Lichteinfall auf die Netzhaut. Die unterschiedliche Farbgebung der Iris ist auf einen unterschiedlichen Pigmentgehalt in den Zellen zurückzuführen. Ist der Pigmentgehalt hoch, ist die Iris dunkelbraun; ist er niedrig, ist sie grau-blau.’ (Quelle: med. Rainer Wiltfang 26.04.2008a) Glossar laterale Hemmung Linse LOD Diplomarbeit Gordon Lemme ‘Die laterale Hemmung ist ein allgemeines Prinzip, das überall im Zentralnervensystem genutzt wird. Sie tritt in kompliziert verflochtenen Schaltkreisen auf, wie sie beispielsweise in Ganglienzellknoten oder in den oberen Schichten der Retina lokalisiert sind (dort werden die inhibitorischen Interneurone als Horizontalzellen bezeichnet. In der Retina ist die Verschaltung durch weitere Möglichkeiten der Kontrastverstärkung bei weitem komplizierter). Das Ergebnis der lateralen Hemmung ist die Kontrastverstärkung, und damit die Herausbildung von Gestaltgrenzen, die als Grundlage der Orientierung dienen können.’ (Quelle: Matthias 26.04.2008) ‘Sie ist aus Schichten unterschiedlicher Brechkraft aufgebaut und wird von einer durchsichtigen, elastischen Membran umschlossen. Die Aufhängevorrichtung, durch die die Linse in ihrer Lage festgehalten wird, besteht aus Zonulafasern, die am Ziliarkörper des Auges entspringen.’ (Quelle: Meyers 26.04.2008) ‘(deutsch: Detailstufen) bezeichnet man die verschiedenen Detailstufen bei der Darstellung virtueller Welten. Um die Geschwindigkeit von Anwendungen der virtuellen Realität zu steigern setzt man meist auf gleichzeitiges Nutzen von hoher Detailgenauigkeit im Nahbereich und niedriger Detailstufe im Fernbereich. Dies kann die Komplexität (Anzahl der Polygone) der 3DObjekte betreffen, aber auch die Auflösung der Texturen.’ (Quelle: Kühn 26.04.2008) 159 Glossar Mach-Phänomen MAIS 160 Glossar ‘subjektive Empfindung einer Kontrastverstärkung als so genannter Nachbareffekt an Hell-Dunkel-Übergängen (z.B. im Röntgenbild zwischen Feldern verschiedener Schwärzung).’ (Quelle: Patzer 26.04.2008) ‘Die Abbreviated Injury Scale (AIS) ist eine weltweit gültige Klassifikation für Einzelverletzungen [1]. Die Klassifikation ist nach Körperregionen geordnet und jede Verletzung wird durch einen 7-stelligen Code beschrieben. Die letzte Zahl des Codes beschreibt die Verletzungsschwere. Die Skala hierfür reicht von 1 bis 6. AIS 1 entspricht einer leichten Verletzung und AIS 6 einer Verletzung die nach dem aktuellen wissenschaftlichen Stand nicht behandelbar ist und mittelbar zum Tod führt.’...’Der Maximum AIS (MAIS) entspricht dem höchsten AIS der Verletzten Person [1]. Nach dem MAIS werden die Verletzungsgrade wie folgt definiert: MAIS 0 als ’unverletzt’, MAIS 1 als ’leicht verletzt’, MAIS 2 bis 4 als ’schwer verletzt’ und MAIS 5 und 6 als ’schwerst verletzt’.’ (Quelle: Richter 26.04.2008) Glossar Mapping Diplomarbeit Gordon Lemme ‘Der Begriff Musterabbildung oder englisch texture mapping bezeichnet ein Verfahren der 3DComputergrafik. Es dient dazu, die Oberflächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern - sogenannten ’Texturen’ - und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder detailreicher und realistischer erscheinen, ohne dass das zugrundeliegende Modell selbst verfeinert werden muss.... Der Versuch, die Textur Zeile für Zeile abzutasten und entsprechend der Position des Polygons schräge Linien im Bildspeicher zu zeichnen, endet in einem durchlöcherten Bild. Man muss gerade Linien (üblicherweise horizontal) im Bildspeicher rendern und auf der Textur entsprechend schräge Linien abtasten. Übliche Algorithmen zeichnen nur Dreiecke, d.h. alle Objekte werden aus Dreiecken zusammengesetzt.’ (Quelle: Wikipedia 26.04.2008c) 161 Glossar Netzhaut opaque Glossar ‘Ist die lichtempfindliche Schicht an der hinteren Innenseite des Auges. Sie enthält lichtempfindliche Zellen (Stäbchen und Zapfen), die das auftreffende Licht, nachdem es die Hornhaut, die Linse und den Glaskörper durchquert hat, in elektrische Impulse (Nervensignale) umwandeln und so über den Sehnerv zum Gehirn weiterleiten. Die Netzhaut stellt damit ein entscheidendes Glied in der Kette des Sehens dar.’ (Quelle: med. Rainer Wiltfang 26.04.2008b) opak, lichtundurchlässig ‘ “Das Ganze ist mehr als die Summe ihrer Teile” perzeptuelle Orga- - das ist der bekannte Slogan der Gestaltpsychonisation logen Max Wertheimer, Kurt Koffka und Wolfgang Köhler, die in den 20er und 30er Jahren den Prozess der Formwahrnehmung untersucht haben. Sie kamen zu den Schluss, dass Formwahrnehmung ein konstruktiver Prozess ist und dass die Elemente nicht unabhängig sind vom Muster, in das sie eingebettet sind. Sie formulierten Prinzipien, die das visuelle Feld in einer bestimmten Weise organisieren: die Prinzipien der Nähe, der Ähnlichkeit, der guten Fortsetzung, der Geschlossenheit.’ (Quelle: Funke 26.04.2008) 162 Glossar Diplomarbeit Gordon Lemme ‘Der Proximale Reiz (auch „Nahreiz“, „Proxiproximale Sinnes- maler Stimulus“) bezeichnet in der Psycholoempfindung gie die Gesamtheit der messbaren, physikalischen oder chemischen Einwirkung eines distalen Reizes auf Sinneszellen im Rahmen der Wahrnehmung. Oftmals wird mit dem proximalen Reiz auch nur das Netzhautbild bzw. das Muster des sensorischen Input im Auge des Beobachters bezeichnet, physikalisch konkret also die Verteilung elektromagnetischer Energie auf der Netzhaut. Der proximale Reiz ist dabei immer an einen Betrachter gebunden, im Gegensatz zu dem distalen Reiz.’ (Quelle: ThomasSD 26.04.2008b) Pupille Rasterbild ‘Ist ein kreisrundes, dunkel erscheinendes ’Sehloch’ in der Regenbogenhaut und wird je nach nach Helligkeit von der Irismuskulatur in der Größe (1,5 – 8 mm) verändert. Damit wird der Lichteinfall auf die Netzhaut geregelt.’ (Quelle: med. Rainer Wiltfang 26.04.2008c) ‘Rasterbilder bestehen aus unzähligen winziger Bildpunkte gleicher Dichte, die mosaikförmig angeordnet sind und die Illusion von Tonwerten simulieren z.B. bei der Reproduktion von Fotos im Druck.’ (Quelle: Janssen 26.04.2008) 163 Glossar Regenbogenhaut Retina Sakkade Sehgrube 164 Glossar siehe Iris siehe Netzhaut ‘Bei Sakkaden handelt es sich um schnelle, ruckartige Rückbewegungen der Bulbi nach einer Augenbewegung, bei der ein Gegenstand fixiert wird. Man spricht auch von einem Abtastsprung im Blickverlauf. Während der Sakkade ist die visuelle Wahrnehmung stark eingeschränkt.’ (Quelle: Antwerpes 26.04.2008) (Fovea centralis), ‘Die Sehgrube ist eine etwa 1,5 mm große Vertiefung in der Netzhaut des Auges. Beim Mensch ist sie der Ort des schärfsten Sehens. Sie enthält keine Stäbchen, sondern nur Zapfen, also jene Rezeptoren, die für das Farbensehen zuständig sind. Dementsprechend schwer ist es, bei Dunkelheit, wenn nur die Schwarz-Weiß-Rezeptoren, die Stäbchen, aktiv sind, einen Text scharf zu lesen.’ (Quelle: Meyer-Wagenfeld 26.04.2008) Glossar Sehnerv Stäbchen Tristimulus Diplomarbeit Gordon Lemme ‘(Nervus Opticus), Dieser Nerv leitet die visuellen Informationen, die von den Netzhautzellen verarbeitet wurden, zum Gehirn weiter.’ (Quelle: med. Rainer Wiltfang 26.04.2008d) ‘Sind Lichtsinneszellen in der Netzhaut. Sie sind verantwortlich für das Dämmerungssehen (HellDunkel-Unterscheidung).’ (Quelle: med. Rainer Wiltfang 26.04.2008e) ‘Der Ausgangspunkt war die beschriebene indirekte Methode der Farbmessung durch Vergleich (’colour match’). Eine Farbe wird dabei gemessen, indem man einen Beobachter vermittelst eines geeigneten Apparats in die Lage versetzt, sie mit einer (additiven) Mischung der drei Elementarfarben zu vergleichen. Man spricht dabei vom ’Dreifarbenwert’ (’tristimulus value’). ’Farbe’ heißt in diesem Fall ’Wellenlänge’, und auf die erwähnte Weise wird ermittelt, welche Anteile von Rot, Grün oder Blau in Licht zum Beispiel der Wellenlänge 520 nm gesehen werden. Der jeweilige Beobachter wird den Apparat entsprechend einstellen; das ermittelte Ergebnis wird notiert und in Form von drei Zahlen festgehalten, die wir mit den Buchstaben R, G und B bezeichnen wollen. (Daß es sich hierbei um die Energie der jeweiligen Strahlung handelt, die gemessen wird, spielt für das CIE-Diagramm keine Rolle.)’ (Quelle: virtualcolourmuseum 26.04.2008) 165 Glossar Viewpoint Zapfen Ziliarkörper 166 Glossar ‘die optische Perspektive oder Einstellung, die einen Blick wie mit den Augen eines Akteurs oder einer Figur zeigt’ (Quelle: Wikipedia 26.04.2008a) ‘Sind kegelförmige Lichtsinneszellen in der Netzhaut, zuständig für das Wahrnehmen verschiedener Farben bei genügend Lichteinfall. Sie befinden sich hauptsächlich im Zentrum der Netzhaut.’ (Quelle: med. Rainer Wiltfang 26.04.2008f) (Corpus ciliare, Strahlenkörper), ‘Ist ein im vorderen Drittel des Augapfels gelegenes Organ, das aus einem Muskel und einer Drüse besteht. Das Ziliarkörperepithel produziert das Kammerwasser. Die Augenlinse ist durch Fasern mit dem Ziliarkörper verbunden, wodurch sie ihre stabile Lage erhält.’ (Quelle: med. Rainer Wiltfang 26.04.2008g) Abbildungsverzeichnis 0.1 Fahrsimulatorbild . . . . . . . . . . . . . . . . . . . . . xii 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 2.11 2.12 2.13 Augenhöhle . . . . . . . . . spektrale Absorption . . . . 3D-Augabbildung . . . . . . Wahrnehmungsprozess . . . Vase . . . . . . . . . . . . . Gesichter . . . . . . . . . . . Wahrnehmungsbeeinflussung Wahrnehmungstäuschung . . Clipping Planes . . . . . . . Frustum . . . . . . . . . . . Hüllobjekt Auto . . . . . . . Hüllobjekt . . . . . . . . . . Culling . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11 3.12 Bones-Animation . . . . . . Flipbook Animation . . . . . 1. Schritt . . . . . . . . . . . 3. Schritt . . . . . . . . . . . 5. Schritt . . . . . . . . . . . 7. Schritt . . . . . . . . . . . 9. Schritt . . . . . . . . . . . 11. Schritt . . . . . . . . . . Fußgängeranimation . . . . . Verhaltensmerkmal . . . . . Pedestrian Protection System Pedestrian Protection System . . . . . . . . . . . . . . . . . . . . . . im . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 10 11 13 14 14 15 16 17 18 18 19 20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Einsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 24 25 25 25 26 26 26 26 34 40 40 167 Abbildungsverzeichnis 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 168 Abbildungsverzeichnis RGB-Farbraum . . . . . . . . . . . . . . RGB-Gamut . . . . . . . . . . . . . . . . RGB-Würfel . . . . . . . . . . . . . . . . xyY-Gamut . . . . . . . . . . . . . . . . Imaginärvalenzen . . . . . . . . . . . . . Umrechnungstabelle . . . . . . . . . . . . HLS-Farbraum . . . . . . . . . . . . . . . Header Attributes: db Fenster . . . . . . Face Attribute-Fenster . . . . . . . . . . TM R MultiGen-Paradigm Creator 3.3 Color Burosch Testbild . . . . . . . . . . . . . . Fahrsimulatorgamut . . . . . . . . . . . . Gouraud Shading . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Palette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 44 46 47 50 53 54 55 56 58 59 61 65 5.1 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Farbbereich nicht retroreflektierender Materialien . . . . 5.3 Schnittmenge Fahrsimulatorgamut und Verkehrszeichenaufsichtfarbe . . . . . . . . . . . . . . . . . . . . . . . . 71 74 6.1 6.5 6.2 6.3 6.4 6.6 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 6.15 6.16 78 78 79 79 79 80 81 83 83 85 86 86 88 89 95 96 Kirche . . . . . . . . . . . . . . . . . . . . . . . . . Spitfire . . . . . . . . . . . . . . . . . . . . . . . . . 1.generische Textur . . . . . . . . . . . . . . . . . . 2.generische Textur . . . . . . . . . . . . . . . . . . 3.generische Textur . . . . . . . . . . . . . . . . . . einzigartige Textur . . . . . . . . . . . . . . . . . . RGBA-Dateiaufbau . . . . . . . . . . . . . . . . . . Minificationfilter . . . . . . . . . . . . . . . . . . . . Magnificationfilter . . . . . . . . . . . . . . . . . . . Point Filter . . . . . . . . . . . . . . . . . . . . . . Bilinear Filter . . . . . . . . . . . . . . . . . . . . . Bicubic Filter . . . . . . . . . . . . . . . . . . . . . Texture Attribute Editor-Ausschnitt . . . . . . . . . TM R MultiGen-Paradigm Creator 3.3 Attribute Editor TM R Adobe Photoshop CS2 Alphakanalerstellung . . TM R Jasc Paint Shop Pro 8 Alphakanalerstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Abbildungsverzeichnis Diplomarbeit Gordon Lemme 7.1 LOD . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 8.2 8.3 8.4 8.5 8.6 Anisotrope Filterung . . . Anisotrope Filterung . . . Anti-Aliasing . . . . . . . . Aliasing . . . . . . . . . . DLP-Projektor . . . . . . . UTM-Software-Screenshot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 104 105 107 107 108 110 9.1 nicht optimierte Textur . . . . . . . . . . . . . . . . . . 111 9.2 optimierte Textur . . . . . . . . . . . . . . . . . . . . . 111 TM R 9.3 MultiGen-Paradigm Creator 3.3 Beispielhaus unoptimiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 TM R 9.4 MultiGen-Paradigm Creator 3.3 Beispielhaus optimiert114 9.5 Nvidia GeForce4 Einstellung . . . . . . . . . . . . . . . 116 9.6 Moiré-Effekt . . . . . . . . . . . . . . . . . . . . . . . . 117 9.7 Screenshot Z-Buffer . . . . . . . . . . . . . . . . . . . . 119 9.8 Szenengraph . . . . . . . . . . . . . . . . . . . . . . . . 121 9.9 Szenengraph Optimierung . . . . . . . . . . . . . . . . . 121 9.10 Screenshot Fahrsimulatormaterial . . . . . . . . . . . . 125 9.11 Screenshot Creatormaterial . . . . . . . . . . . . . . . . 125 TM 9.12 Lichtquellenstandort im OpenGL Performer . . . . . . 126 TM R 9.13 Lichtquellenstandort im MultiGen-Paradigm Creator 3.3 126 10.1 Simulatorbild . . . . . . . . . . . . . . . . . . . . . . . 129 10.2 Fotografie . . . . . . . . . . . . . . . . . . . . . . . . . 129 169 Abbildungsverzeichnis 170 Abbildungsverzeichnis Tabellenverzeichnis 4.1 Primärvalenzwerte nach CIE . . . . . . . . . . . . . . . 4.2 Eckpunkte der Darstellungsgrenze . . . . . . . . . . . . 45 60 5.2 Farbbereiche für nicht retroreflektierende Materialien im Neuzustand . . . . . . . . . . . . . . . . . . . . . . . . 73 9.2 Statistiktabelle für Beispielhaus . . . . . . . . . . . . . 112 9.3 Perfly-Statistik für ein Quadrat . . . . . . . . . . . . . . 120 A.1 A.2 A.3 A.4 A.5 A.6 A.7 A.8 GeForce4 Ti 4600 Spezifikation CPU Spezifikation . . . . . . . Motherboard Spezifikation . . Speicher Spezifikation . . . . . North Bridge Spezifikation . . Betriebssystem Spezifikation . Projektor Teil 1 . . . . . . . . Projektor Teil 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 132 132 133 134 134 135 136 B.1 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 138 171 Tabellenverzeichnis 172 Tabellenverzeichnis Personenverzeichnis Ali, Muhammad, 64 Antwerpes, Dr. Frank, 164 Buber, Martin, 33 Bunks, Carey, 45, 46 Burosch, Klaus, 59 Camenzind, J., 33 Eckel, George, 17, 121 Euklid von Alexandria, 9 Fuchsberger, Joachim, 28 Funke, Prof. Dr. Joachim, 162 Gehweiler, Monika, 52 Goethe, Johann Wolfgang von, 125 Graßmann, Hermann Günther, 45 Gregory, Richard L., 7, 8, 11, 15, 64, 109, 155 Hartl, Stephan H., 154 Hiller, Uli, 152 Hischer, Horst, 115 Häßler, Ulrike, 45, 51, 156 Hürlimann, F. W., 33 Janott, Marc, 52 Janssen, Wilhelm, 163 Jones, Ken, 17, 121 Kneisel, Prof. Dr. Peter, 12, 14 Kägi, B., 33 Kühn, Stefan, 159 Lembke, Robert, 31 Lindbloom, Bruce Justin, 47 Lipinski, Klaus, 153, 154, 158 Maison, Rudolf, 41 Matthias, Arno, 159 Michelson, Prof. Dr. Georg, 8 Musahl, Hans-Peter, 38 Müller, Johannes, 12 Patzer, Karl-Heinz, 160 Pythagoras von Samos, 109 Richter, Prof. Dr. Martinus, 160 Richter, Susann, 13 Scherer, Christian, 29, 31, 33, 35– 37 Schlag, Prof. Dr. Bernhard, 27 Schnabel, Gisela, 56 Seifert, A., 106 Serck, Karsten, 108 Sullivan, Laurie, 23 Tati,Jacques, 69 Unger, Jens, 20 173 Personenverzeichnis Wagner, Maria, 9 Wiltfang, Dr. med. Rainer, 158, 162, 163, 165, 166 Zawischa, Prof. Dr. Dietrich, 41, 50 174 Personenverzeichnis Index Akkomodation, 8 Anhang, 131 Animation, 21–23 Bild-für-Bild, 21, 23 Bones, 23 Keyframe, 22 Anisotrope Filterung, 104 Anti-Aliasing, 106 APROSYS, 25 Aufgabenstellung, ix Aufsichtfarbe, 72, 74 Augapfel, 8 Auge, 7 Augenbewegung, 11 Bounding-Volume, 19, 120 Burosch, 59 CIE, 42 Normvalenzsystem, 42 Clipping Plane, 18 far, 18 near, 18 Creator, 88 Farbraum, 54 Filtereinstellung, 88 Filterstandard, 88 Internal-Dateiformat, 88 Culling, 19 Danksagung, xvii Ebenengleichung, 60, 63 Eides Statt, xv Einleitung, 1 Electrotechnical Commission, 50 Empfindungsprozess, 13, 14 Bottom-up, 13 Top-down, 14 Epithel, 8 Erkennbarkeit, 70, 106, 115 Explorationsverhalten, 31 Fahrsimulatorgamut, 60 Farbe, 9, 41 Creator, 54 Definition, 41 Farbpalette, 57 Performer, 59 Farbe vs. Textur, 118 Farbmischung, 9, 81 additiv, 9, 42, 81 Farbmodell, 42, 47 RGB, 9, 42, 47 Farbraum, 41, 42, 54 HLS, 54, 55, 57 RGB, 42, 57 Farbsehen, 9 Farbtemperatur, 54, 154 175 Index Farbvalenz, 52, 153 Field of View, 16, 42, 93, 99 Filter, 82, 84 Magnification, 82 Minification, 82 Optionen, 84 Add Detail, 87 Bicubic, 85 Bilinear, 85 Modulate Detail, 87 None, 87 Point, 85 Sharpen, 87 Texture Environment, 84 Fotorezeptoren, 9 FOV, 16, 42, 93, 99 Fovea centralis, 9, 11 Frustum, 18, 20, 120 Fußgänger, 21 Gamut, 42, 60, 62, 63, 75 Gefahrenantizipation, 38 Gefahrenkognition, 38 Glaskörper, 8 Gliederung, 3 Grundlagen, 7 Hardware, 103, 122, 131 Grafikkarte, 103 Hemmung, 11 laterale, 11 Hornhaut, 8 Hüllobjekt, 18 Idealverhalten, 29, 36 Imaginärvalenz, 45 176 Index Imaginärvalenzen, 47–49 Impuls, 12 elektrisch, 12 Impulskodierung, 12 neuronal, 12 Interpolation, 22, 65 Iris, 8, 10 Kachelung, 94 Kammerwasser, 8 Lesbarkeit, 72, 115, 124 Leserlichkeit, 70, 137 Level of Detail, 97, 122 Licht, 64, 125 Linse, 8, 159 LOD, 97, 122 Berechnung, 100 Definition, 97 Funktionsweise, 98 Magnificationfilter, 82 MAIS, 25 Material, 64, 66, 124 Ambient, 66 Diffuse, 66 Emissive, 67 Specular, 66 Menschliche Wahrnehmung, 7 Minification, 82 Minificationfilter, 115 Mipmap, 87 Moiré-Effekt, 115 Motivation, 1 Nervenenergie, 12 Index spezifisch, 12 Netzhaut, 9, 10, 158, 163, 164 Normfarbtafel, 74 Objekt, 64 opaque, 64 Optimierung, 111 Organisation, 12 perzeptuell, 12 Pedestrian Protection System, 39 Phänomen, 12 Mach, 12 Primärfarbe, 45 Primärfarben, 45 Primärvalenz, 47–49, 52 Projektor, ix, 45, 59, 100, 107, 135 DLP, ix, 59, 135 Pupille, 10 Rasterbild, 81 Regenbogenhaut, 8 Retina, 9, 11 RGB, 42, 88 Farbraum, 42 Kodierung, 42 Konvertierung, 47 RGBA, 47 sRGB, 50 TX_RGB_5, 88 Sakkaden, 11 Schatten, 64 Sehgrube, 9, 11 Sehnerv, 12 Diplomarbeit Gordon Lemme Sehweitenfaktor, 71 Sekundärfarbe, 45 Shading, 64, 65 Flat, 65 Gouraud, 65 Lit, 65 Lit Gouraud, 66 Sichtfeld, 16 Significant Size, 99 Sinnesempfindung, 12 distal, 12 proximal, 12 Speichergröße, 90 Creator, 91 Textur, 90 StVO, 27, 28 § 25 StVO, 28 § 26 StVO, 27 Stäbchen, 9 Frequenzverlauf, 10 Szenengraphoptimierung, 120 Tagessehen, 9 Texel, 77, 82 Textur, 77 Aufbau, 81 Berechnungsvorschrift, 90 Definition, 77 Erstellung, 94 Adobe Photoshop, 94 Paint Shop Pro, 95 Filter, 81 Generisch, 78 Mapping, 77 Unique, 78 177 Index Texturaufbau, 118 Texturfilter, 115 Texturverkleinerung, 111 Treppeneffekt, 106 Tristimulus, 50 Verhaltensanalyse, 25 Fallunterscheidung, 27 Gefahrenantizipation, 37 Konflikt, 33 Modelle, 29 Schlussfolgerung, 37 Verkehrsanalyse, 33, 35 Auswertung, 35 Merkmalsdetektion, 33 Verkehrserziehung, 38 Verkehrszeichen, 69 Verzerrung, 108 perspektivisch, 108 Viewing-Volume, 17 Viewpoint, 16 Volume, 18 Bounding, 18 Viewing, 18 Voxel, 83 Wahrnehmungsprozess, 12 Wellenlänge, 9 Zapfen, 9 L-Zapfen, 9 M-Zapfen, 9 S-Zapfen, 9 Zielstellung, 2 Ziliarkörper, 8, 159 Zusammenfassung, 127 178 Index Fazit, 128 Inhalt, 127