Diplomarbeit als PDF

Transcription

Diplomarbeit als PDF
TECHNISCHE UNIVERSITÄT
DRESDEN
FAKULTÄT INFORMATIK
INSTITUT FÜR SOFTWARE- UND
MULTIMEDIATECHNIK
LEHRSTUHL FÜR MEDIENGESTALTUNG
PROF. DR. RAINER GROH
Diplomarbeit
zur Erlangung des akademischen Grades
Diplom-Medieninformatiker
Animation von Menschen und Optimierung der
Objektdarstellung im Fahrsimulator des
Fraunhofer-Instituts für Verkehrs- und
Infrastruktursysteme Dresden
vorgelegt von Gordon Lemme
Dresden 2008
ii
Inhaltsverzeichnis
Aufgabenstellung
ix
Eidesstattliche Erklärung
xv
Danksagung
xvii
1 Einleitung
1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Zielstellung . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Gliederung . . . . . . . . . . . . . . . . . . . . . . . . .
2 Grundlagen
2.1 Wahrnehmung . . . . . . . . . .
2.1.1 Aufbau und Funktion des
2.1.2 Farben . . . . . . . . . .
2.1.3 Die Augenbewegung . . .
2.2 Wahrnehmungsprozess . . . . .
2.2.1 Bottom-up . . . . . . . .
2.2.2 Top-down . . . . . . . .
2.3 Field of View . . . . . . . . . .
2.3.1 Frustum . . . . . . . . .
2.3.2 Hüllobjekte . . . . . . .
2.3.3 Culling . . . . . . . . . .
1
1
2
3
.
.
.
.
.
.
.
.
.
.
.
7
7
7
9
11
12
13
14
16
18
18
19
3 Fußgänger
3.1 Animation . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Definition . . . . . . . . . . . . . . . . . . . . .
3.1.2 Animationsmöglichkeiten . . . . . . . . . . . . .
21
21
21
21
. . . .
Auges
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
Inhaltsverzeichnis
3.1.3 Animation vs. Simulation
3.1.4 Creator-Animation . . .
3.2 Verhaltensanalyse . . . . . . . .
3.2.1 Fallunterscheidungen . .
3.2.2 Verhaltensmodelle . . . .
3.2.3 Konflikt . . . . . . . . .
3.2.4 Merkmalsdetektion . . .
3.2.5 Auswertung . . . . . . .
3.2.6 Schlussfolgerung . . . . .
Inhaltsverzeichnis
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
23
25
27
29
33
33
35
37
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
41
41
42
42
42
47
49
53
54
54
54
57
59
59
60
64
64
64
66
5 Verkehrszeichen
5.1 Erkennbarkeit . . . . . . . . . . . . . . . . . . . . . . .
5.2 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Lesbarkeit . . . . . . . . . . . . . . . . . . . . . . . . .
69
70
70
72
4 Farbe
4.1 Farbe . . . . . . . . . . . . . . . .
4.1.1 Der Farbraum . . . . . . .
4.1.2 menschliche Wahrnehmung
4.2 RGB-Farbraum . . . . . . . . . .
4.2.1 RGB-Kodierung . . . . . .
4.2.2 RGB in xyY-Konvertierung
4.2.3 xyY in RGB-Konvertierung
4.2.4 Rechenhilfe . . . . . . . . .
4.3 Farbtemperatur . . . . . . . . . .
4.4 Farben im Creator . . . . . . . . .
4.4.1 Farbraumdefinition . . . .
4.4.2 Farbpalette . . . . . . . . .
4.5 Farben im Fahrsimulator . . . . .
4.5.1 Experiment . . . . . . . .
4.5.2 Ergebnis . . . . . . . . . .
4.6 Licht, Schatten und Material . . .
4.6.1 Das Licht . . . . . . . . . .
4.6.2 Der Schatten . . . . . . . .
4.6.3 Das Material . . . . . . . .
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Inhaltsverzeichnis
5.4 Aufsichtfarbe
Diplomarbeit Gordon Lemme
. . . . . . . . . . . . . . . . . . . . . . .
6 Textur
6.1 Definition . . . . . . . . . . . . . .
6.2 Generisch vs. Einzigartig . . . . . .
6.3 Texturaufbau . . . . . . . . . . . .
6.4 Texturfilter . . . . . . . . . . . . . .
6.4.1 Minificationfilter . . . . . . .
6.4.2 Magnificationfilter . . . . . .
6.4.3 Filterermittlung . . . . . . .
6.4.4 Texture Environment Filter .
6.4.5 Filteroptionen . . . . . . . .
6.5 Creator . . . . . . . . . . . . . . . .
6.5.1 Internal-Dateiformat . . . .
6.5.2 Filterstandard . . . . . . . .
6.5.3 Filtereinstellung . . . . . . .
6.6 Berechnungsvorschriften . . . . . . .
6.6.1 Speichergröße der Textur . .
6.6.2 Speichergröße Creator intern
6.6.3 Texturgröße . . . . . . . . .
6.7 Texturerstellung . . . . . . . . . . .
TM
R
6.7.1 Adobe
Photoshop CS2
.
TM
R
6.7.2 Jasc Paint Shop Pro 8
.
7 Level of Detail
7.1 Definition . . . . . . . . . . . .
7.2 Funktionsweise . . . . . . . . . .
7.3 Significant Size . . . . . . . . .
7.4 Berechnungsvorschriften . . . . .
7.4.1 Pixelgröße auf Leinwand
7.4.2 Objektentfernung . . . .
7.4.3 reale Objektgröße . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
72
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
78
81
81
82
82
84
84
84
88
88
88
88
90
90
91
92
94
94
95
.
.
.
.
.
.
.
97
97
98
99
100
100
100
102
8 Hardware
103
8.1 Grafikkarte . . . . . . . . . . . . . . . . . . . . . . . . . 103
v
Inhaltsverzeichnis
Inhaltsverzeichnis
8.1.1 Anisotrope Filterung . . .
8.1.2 Anti-Aliasing Filterung . .
8.2 Projektor . . . . . . . . . . . . . .
8.2.1 Technik . . . . . . . . . . .
8.2.2 Perspektivische Verzerrung
9 Optimierung
9.1 Texturverkleinerung . . .
9.2 Texturfilter . . . . . . . .
9.3 Moiré-Effekt . . . . . . .
9.4 Texturaufbau . . . . . .
9.5 Farbe vs. Textur . . . . .
9.6 Szenengraphoptimierung
9.7 LOD . . . . . . . . . . .
9.8 Hardware . . . . . . . . .
9.8.1 Treiber . . . . . .
9.8.2 Verschleißteile . .
9.8.3 Auflösung . . . .
9.9 Material . . . . . . . . .
9.10 Licht . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
104
106
107
107
108
.
.
.
.
.
.
.
.
.
.
.
.
.
111
111
115
115
118
118
120
122
122
122
123
124
124
125
10 Zusammenfassung
127
10.1 Inhalt . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
10.2 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
A Hardware
A.1 Grafikkarte . . .
A.2 Prozessor . . . .
A.3 Motherboard . .
A.4 Arbeitsspeicher
A.5 North Bridge . .
A.6 Betriebssystem .
A.7 Projektoren . .
B DIN 1450
vi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
132
132
133
134
134
135
137
Inhaltsverzeichnis
Diplomarbeit Gordon Lemme
C Creator to Fahrsimulator Checkliste
C.1 Szenengraphaufbau . . . . . . . .
C.2 Fahrspurdaten . . . . . . . . . . .
C.3 FLT zu PFB Konvertierung . . . .
C.4 Konfiguration . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
139
139
139
140
140
Literaturverzeichnis
143
Internetquellen
145
Glossar
152
Abbildungsverzeichnis
167
Tabellenverzeichnis
171
Personenverzeichnis
173
Index
175
vii
Inhaltsverzeichnis
viii
Inhaltsverzeichnis
Diplomarbeit Gordon Lemme
Aufgabenstellung
Animation von Menschen und Optimierung der Objektdarstellung im Fahrsimulator des Fraunhofer-Instituts für
Verkehrs- und Infrastruktursysteme Dresden
Im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme (IVI) in Dresden wurde ein Fahrsimulator aufgebaut, der insbesondere für Untersuchungen neuartiger
Fahrerassistenzsysteme sowie für die Beurteilung alternativer Straßenentwürfe konzipiert ist (Abbildung 0.1).
Die gesamte 3D-Welt der Simulation ist in einer Visualisierungs-Datenbasis abgelegt, die effizient variier- und
erweiterbar ist. Die Qualität der modellierten 3D-Welt
ist dabei von wesentlicher Bedeutung für die empfundene
Realitätsnähe im Simulator.
Die Modellierung der Objekte erfolgt mit dem im IVI
vorhandenen 3D-Werkzeug MultiGen Creator der Firma
MultiGen-Paradigm (Quelle: MultiGen 26.04.2008). Die
anschließende Darstellung im Fahrsimulator sowie die Animation (Bewegen, Blinken, Bremsen) der Simulationsfahrzeuge erfolgt mit Hilfe des OpenGL Performers (SGI)
v3.0. Die visuelle Umgebung wird nach vorne durch drei
DLP-Projektoren auf eine sphärische Leinwand mit einem
Sichtbereich von 170◦ x 50◦ projiziert. Zur Sicht nach hinten werden zwei Kanäle des 3D-Modells auf zwei TFTDisplays ausgegeben, die an den Positionen der Rückspiegel angebracht sind.
Im ersten Teil der Arbeit soll die Möglichkeit der Animation eines Fußgängers mit den vorhandenen Werkzeugen
ix
0. Aufgabenstellung
geprüft und umgesetzt werden. Dabei ist zu beschreiben,
welchen optischen Veränderungen, bedingt durch die perspektivische Verzerrung, die Darstellungsform eines Menschen unterliegt. Weiterhin sollen verschiedene Ansätze
zum Analysieren des Verhaltens eines Fußgängers und die
Möglichkeit der Vorhersage seiner nächsten Handlung untersucht werden.
Im zweiten Teil der Arbeit soll die Optimierung der Objektdarstellung im Fahrsimulator untersucht werden. Dabei werden die Schwerpunkte auf die folgenden Themen
gelegt:
• Es sind gewisse Abweichungen bei der Farbdarstellung, Helligkeit und Kontrast während der Modellierung im Creator und der anschließenden Darstellung im Fahrsimulator zu beobachten. Ziel der Arbeit ist es, das Zusammenspiel der Komponenten
zu analysieren sowie die Einstellungsmöglichkeiten
der Projektoren, zum Beispiel bezüglich der Überlappung der einzelnen Bilder, Helligkeit und Kontrast, zu untersuchen, um ein optimales Wiedergabeergebnis zu erzielen. Dabei soll eine Farbpalette
R
für die Verwendung im MultiGen-Paradigm
CreaTM
tor 3.3 und im Fahrsimulator definiert werden.
• Einfluss auf die Darstellungsqualität im Fahrsimulator haben weiterhin die Einstellungen der Texturattribute. Ein weiteres Ziel der Arbeit ist es, diese Einstellungsmöglichkeiten zu beschreiben (siehe
Creator-Hilfe, Internetrecherchen) und anhand verschiedener Beispielobjekte (Straßenmarkierung in
Kurven, in Geraden, Verkehrszeichen, Dach- und
Fassadentextur für Häuser usw.) die Parameter optimal zu belegen. Dabei soll untersucht werden, ob
dadurch das Flimmern bei der Darstellung von kleix
Diplomarbeit Gordon Lemme
nen Mustern (Dachflächen, Sperrflächen, Pflasterwegen) im Simulator behoben werden kann.
• Beim Aufrufen von Objekten mit großem Datenvolumen während der Simulation kommt es gelegentlich zu Verzögerungen in der Darstellung. Es ist daher zu überprüfen, inwieweit durch geeignete Maßnahmen derartige Verzögerungen vermindert beziehungsweise gänzlich verhindert werden können. Hierzu ist neben Experimenten zur Verringerung des
Datenvolumens einzelner Objekte zu untersuchen,
ob durch die Zerlegung großer Objekte in Teilobjekte und deren zeitlich versetztes Aufrufen das Problem behoben werden kann.
Anhand der gewonnenen Erkenntnisse sollen vorhandene
Objekte aus der Umsetzung der Bundesstraße B6 optimiert werden. Bei der Optimierung ist auf einen geeigneten Mechanismus bzw. Richtlinien zur Bestimmung der
LOD-Entfernungen zum Laden von Objekten in großen
Terrains zu achten.
Die Ergebnisse der Arbeit sollen in einem Bericht dokumentiert und bei einer Ergebnispräsentation vorgestellt
werden.
xi
0. Aufgabenstellung
Abbildung 0.1: Fahrsimulator des Fraunhofer-Instituts
für Verkehrs- und Infrastruktursysteme
Dresden
xii
Diplomarbeit Gordon Lemme
Bearbeitungsbeginn: 1. November 2007
Bearbeitungsdauer: 6 Monate
Hochschullehrer:
Fakultät:
Telefon:
Betreuung im IVI:
Telefon:
E-Mail:
Prof. Dr.-Ing. habil. Rainer Groh
Informatik
Institut für Software- und Multimediatechnik
Lehrstuhl für Mediengestaltung
Technische Universität Dresden
Nöthnitzer Straße 46
01187 Dresden
(0351) 46339178
Dipl.-Inf. Marina Voigtländer
Fraunhofer-Institut für Verkehrsund Infrastruktursysteme (IVI)
Zeunerstraße 38
01069 Dresden
(0351) 4640657
[email protected]
xiii
0. Aufgabenstellung
xiv
Diplomarbeit Gordon Lemme
Eidesstattliche Erklärung
Ich erkläre hiermit an Eides Statt, dass ich die vorliegende Diplomarbeit selbstständig angefertigt habe. Die aus
fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht.
Die Arbeit wurde bisher weder in gleicher noch in ähnlicher Form einer anderen Prüfungsbehörde vorgelegt und
auch noch nicht veröffentlicht.
Dresden, 30. April 2008
Gordon Lemme
xv
0. Eidesstattliche Erklärung
xvi
Diplomarbeit Gordon Lemme
Danksagung
Zu Beginn möchte ich Herrn Prof. Dr. R. Groh von der
TU-Dresden für die Ermöglichung einer externen Diplomarbeit danken.
In diesem Zusammenhang gilt ein ganz besonderer Dank
Herrn Dr. T. Knote, der mir eine Diplomandenstelle am
Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden zur Verfügung stellte.
Des Weiteren möchte ich mich bei meiner Betreuerin Frau
Marina Voigtländer für die kontinuierliche und intensive
Betreuung meiner Arbeit bedanken. Ihre zahlreichen Hinweise, Anregungen und die konstruktiven Diskussionsrunden am Fahrsimulator haben diese Arbeit in großem Maße
geprägt. Durch ihre unermüdliche Art und ihre kreativen
Einfälle hat sie mich während meiner Arbeit unterstützt
und in meiner Arbeitsweise vorangebracht.
Für die Unterstützung in Hardware-Fragen möchte ich
mich bei Herrn Dr. G. Nirschl und Patrick Peternell vom
Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden bedanken, die meine Anfragen schnellstmöglich beantworteten.
Weiterhin möchte ich mich bei Herrn Prof. Dr. B. Schlag,
Herrn Christoph Schulze und Jan Rickmeyer von der TUDresden bedanken, die mich in verkehrspsychologischen
Fragen betreuten und so diesen Teil der Arbeit bereicherten.
xvii
0. Danksagung
Bei der Recherche und für die Beschaffung von Fachliteratur möchte ich den beiden Bibliothekarinnen G. Holler
und S. Huste recht herzlich danken. In diesem Zusammenhang ist das ganze Kollegium des Fraunhofer-Instituts für
Verkehrs- und Infrastruktursysteme Dresden zu erwähnen, in dem eine sehr angenehme Arbeitsatmosphäre vorherrscht.
Für die Unterstützung während meines gesamten Studiums möchte ich mich an dieser Stelle bei meiner Familie
und meiner Freundin Diana bedanken. Sie haben mir in
schweren Zeiten den Rücken freigehalten und mich mit
neuen Überlegungsansätzen bei dieser Arbeit motiviert.
Schließlich möchte ich noch den Personen Dank aussprechen, die zum Gelingen dieser Arbeit beitrugen und nicht
namentlich erwähnt wurden.
xviii
Diplomarbeit Gordon Lemme
1 Einleitung
Der erste Teil dieses Abschnittes befasst sich mit der Motivation zur Bearbeitung des Diplomarbeitsthemas. Im
Anschluss werden die allgemeinen Ziele und die speziellen Aufgaben dieser Arbeit vorgestellt. Das Kapitel wird
durch eine inhaltliche Gliederung der Diplomarbeit abgeschlossen.
1.1 Motivation
In einem Fahrsimulator sind die Echtzeitfähigkeit und Realitätsnähe essenziell. Nur wenn diese beiden Eigenschaften
gegeben sind, lassen sich die erfassten Verhaltensmuster
von Fahrzeugführern repräsentativ für den realen Straßenverkehr auswerten. Dabei kommt es auf ein Gleichgewicht
zwischen den beiden Merkmalen an, da bei begrenzten
Rechenzeiten und Rechenkapazitäten die Echtzeitfähigkeit nicht beeinflusst werden darf. Demgegenüber steht
die zu erzeugende Realitätsnähe, um wesentliche Verhaltensschemata für den Straßenverkehr ableiten zu können.
Im Zuge des APROSYS-Projektes am Fraunhofer-Institut
für Verkehrs- und Infrastruktursysteme Dresden und der
damit verbundenen Unfallverhütung, ist es notwendig die
Realitätsnähe der vorhandenen Datenbank zu verbessern.
Dabei soll die Studie des DaimlerChrysler-Fahrsimulators
in Berlin untermauert werden. In der Studie soll die Nutzung des Fahrsimulators, unter Berücksichtigung der tech1
1. Einleitung
Zielstellung
nischen Komplexität, abgeschätzt werden. Kernpunkt der
Studie ist die Untersuchung der Fahrzeugführerreaktion
auf ein so genanntes Pedestrian Protection System. Hierbei sollen verschiedene Szenarien untersucht werden.
1.2 Zielstellung
Aus den in Abschnitt 1.1 gegebenen Anforderungen soll
im Zuge dieser Arbeit die Echtzeitfähigkeit des Fahrsimulators vom Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden hergestellt werden. Dabei sollen die in der vorhandenen Datenbank befindlichen 3DObjekte optimiert werden, ohne dabei an Realitätsnähe
zu verlieren. In diesem Zusammenhang ist die Darstellungsfähigkeit der Datenbank durch die einzelnen Instanzen zu analysieren. Ziel dieser Analyse ist eine einheitliche
Farbdarstellung durch eine vordefinierte Farbpalette.
Weiterhin soll auf den Einsatz von Filtermöglichkeiten
eingegangen werden, um die Darstellung von Objekten
an ihre jeweilige Entfernung anpassen zu können. Hierbei
spielt die Sichtbarkeit von Verkehrszeichen eine primäre
Rolle, da diese für das Verkehrsverhalten von Simulatornutzern essenziell ist.
Zusätzlich ist das Flimmern von Texturen zu untersuchen
und gegebenenfalls ein Lösungsvorschlag zur Situationsverbesserung zu unterbreiten.
Die vorhandene Datenbank soll um eine Fußgängeranimation ergänzt werden. Zudem soll die perspektivische Analyse von Fußgängern in der 3D-Umgebung einen Unterpunkt der Diplomarbeit bilden. Im Weiteren ist die theoretische Erarbeitung der Verhaltensmerkmale von Fußgängern am Fahrbahnrand ein Ziel dieser Arbeit.
2
Gliederung
Diplomarbeit Gordon Lemme
1.3 Gliederung
Diese Arbeit beinhaltet verschiedene Themengebiete. Die
Kapitel sind nachstehend kurz erläutert, um einen Überblick über die Diplomarbeit zu geben.
Das Kapitel 2 setzt sich mit grundlegenden Elementen der
Wahrnehmung auseinander. Dabei wird auf die menschliche Wahrnehmung sowie dem damit verbundenen Wahrnehmungsprozess eingegangen. Die Betrachtungsgrundlagen in der Computergrafik werden in diesem Kapitel abschließend betrachtet.
Das Kapitel 3 ist in zwei Bereiche geteilt. Der erste Abschnitt beschäftigt sich mit der Animation von 3D-Objekten. Dabei wird auf die Flipbook Animation (Bild-für-Bild
Animation) am Beispiel eines Fußgängers eingegangen.
Der zweite Teil dieses Kapitels ist der Verhaltensanalyse
von Fußgängern gewidmet. Hierbei werden die verschiedenen Erkennungsmerkmale bei der Fahrbahnüberquerung
analysiert.
Das Kapitel 4 beschäftigt sich mit dem Thema Farbe. Es
wird sowohl die Entstehung von Farben, als auch ihre Anwendung beschrieben. Hierbei steht der RGB-Farbraum
im Mittelpunkt der Betrachtung. Des Weiteren wird auf
die Beeinflussung der Farbe im Fahrsimulator eingegangen.
Im Kapitel 5 werden die Grundlagen zur Betrachtung von
Verkehrszeichen gelegt. Es werden die verschiedenen gesetzlich geregelten Normen abgehandelt. Abgeschlossen
wird dieses Kapitel durch die erhaltene Schnittmenge aus
der Aufsichtfarbe und dem Fahrsimulatorgamut.
Das Kapitel 6 beschäftigt sich mit der Verwendung von
Texturen. Dabei werden zu Beginn die Grundlagen vorge3
1. Einleitung
Gliederung
stellt. Im weiteren Verlauf wird auf mögliche Texturfilter
sowie verschiedene Berechnungsvorschriften eingegangen.
Abgeschlossen wird das Kapitel durch zwei Texturerstellungstutorials.
Im Kapitel 7 wird mit der Einführung des Levels of Detail
eine Möglichkeit der Optimierung von 3D-Landschaften
aufgezeigt. Hierbei wird auf die Funktionsweise und verschiedene Parameter eingegangen.
Das Kapitel 8 beschäftigt sich mit der Hardware, die an
der Simulation beteiligt ist. Dabei werden im ersten Abschnitt die Optimierungsmöglichkeiten durch die Grafikkarte analysiert. Hierbei sei auf die beiden Filtereinstellungen (Anisotrope Filterung und Anti-Aliasing Filterung)
hingewiesen. Sowohl die Projektionstechnik als auch die
perspektivische Verzerrung werden im zweiten Teil erläutert.
Im Kapitel 9 werden die, auf Grundlage dieser Arbeit ermittelten, Optimierungsschritte beschrieben. Dabei wird
die Anwendung im Fahrsimulator des Fraunhofer-Instituts
für Verkehrs- und Infrastruktursysteme Dresden berücksichtigt.
Das Kapitel 10 beinhaltet die Zusammenfassung dieser
Arbeit und geht kurz auf Anwendungsgebiete eines Fahrsimulators ein.
Im Anhang dieser Arbeit befindet sich eine Hardwareübersicht des Simulationssystems. Darüber hinaus ist die
Tabelle der Leserlichkeit aus DIN 1450 aufgelistet. Zusätzlich ist die Vorgehensweise für die Einbindung von
TM
R
MultiGen-Paradigm
Creator 3.3 -Dateien in die Simulationsumgebung exemplarisch beschrieben. Weiterhin befindet sich im Anhang ein Literatur- sowie Internetquellenverzeichnis. Darüber hinaus gibt es ein Glossar, in wel-
4
Gliederung
Diplomarbeit Gordon Lemme
chem die wichtigsten Begriffe dieser Arbeit kurz erläutert
werden. Anschließend werden Abbildungen, Tabellen und
Personen in den gleichnamigen Verzeichnissen aufgeführt.
Abgeschlossen wird diese Diplomarbeit durch ein Indexverzeichnis.
5
1. Einleitung
6
Gliederung
Diplomarbeit Gordon Lemme
2 Grundlagen
Um die Objektdarstellung im Fahrsimluator optimieren
zu können, bedarf es einer Analyse des menschlichen Sehapparates. Aus dem Analyseergebnis lassen sich dann Rückschlüsse auf die Optimierungsmöglichkeiten ziehen.
„Wir müssen nur unsere Au-
2.1 Wahrnehmung
Das Auge des Menschen bildet für Sehende die primäre
Orientierungshilfe und ist als solche nur schwer wegzudenken. Es ist aus verschiedenen Teilen aufgebaut, die ihrerseits spezielle Aufgaben zu erfüllen haben. Um eine Optimierung an einer 3D-Umgebung durchführen zu können,
muss verstanden werden, wie sich der Mensch in seiner
realen Umwelt orientiert. Durch die daraus gewonnenen
Erkenntnisse ist es dann möglich in der 3D-Gestaltung,
der Texturierung und der Darstellung solcher 3D-Welten
Einfluss auf die Optimierung zu nehmen.
gen öffnen, so liegt eine
reich gedeckte Tafel voller
Farben, Formen und Texturen vor uns, ein optischer Festschmaus von Objekten aller Art, auf wunderbare Weise eingefangen
in zwei winzigen, verzerrten, auf dem Kopf stehenden Lichtmustern in den
Augen“
Gregory, Richard L.
2.1.1 Aufbau und Funktion des Auges
Das menschliche Auge ist aus verschiedenen Bestandteilen
aufgebaut, welche im Folgenden erläutert werden. Diese
Ausführung erhebt keinen Anspruch auf Vollständigkeit,
da nur die für diese Arbeit bedeutungsträchtigen Teile
untersucht werden. Der interessierte Leser findet weitergehende Informationen im Internet und einschlägiger Literatur.
7
2. Grundlagen
Wahrnehmung
Der Augapfel eines erwachsenen Menschen besitzt einen
Durchmesser von 22-25 mm und ein Gewicht von 7,5 g. Er
besteht aus der Hornhaut, der Linse, dem Kammerwasser
und der Iris. Der Augapfel wird durch sechs Augenmuskeln in seiner runden Form von außen stabilisiert. Der
Glaskörper besteht aus einer gallertartigen, durchsichtigen Masse und liegt in einem Fettgewebe in der Augenhöhle. Er dient zur Aufrechterhaltung der Kugelform des
Auges.
Die Hornhaut ist vom restlichen Augenkörper durch das
Kammerwasser getrennt, durch welches sie auch mit NährAbbildung 2.1:
stoffen versorgt wird. An der Hornhautvorderfläche wird
Augenhöhle mit Augenmus- das in das Auge fallende Licht am meisten gebrochen.
keln (Quelle: Michelson
26.04.2008a)
Das menschliche Auge:
• 120 Mio. Stäbchen
• 7 Mio. Zapfen
Die Linse des Menschen ist für die Akkommodation zuständig. Der Krümmungsradius der Linse wird durch Muskelkraft verändert, wodurch betrachtete Objekte deutlich
zu erkennen sind.
Das Kammerwasser ist eine klare Flüssigkeit, welche aus
Eiweiß, Kochsalz, Natrium, Kalium und Glukose besteht.
Sie wird vom Epithel des Ziliarkörpers gebildet (Quelle:
Michelson 26.04.2008b). Das menschliche Auge erzeugt
etwa 2 mm3 Kammerwasser in der Minute. Dadurch erneuert sich das Kammerwasser eines erwachsenen Menschen mit einem Augapfelvolumen von 6,5 cm3 etwa jeden
zweiten Tag vollständig.
Ein weiterer Muskel ist die Regenbogenhaut oder auch
Iris genannt, welche die Pupille umschließt. Durch die
Kontraktion des Irismuskels wird die auf die Linse fallende Lichtmenge reguliert. Jedoch sei dies nach Richard L.
Gregory nicht die primäre Aufgabe, da sich die Fläche lediglich in einem Verhältnis von 16:1 verändern könne, das
Auge allerdings einen Helligkeitsbereich von 100.000:1 ab-
8
Wahrnehmung
Diplomarbeit Gordon Lemme
deckt (vgl. Quelle: Gregory 1966, Seite 40).
Als Retina oder auch Netzhaut, wird der Teil des Auges bezeichnet, der aus einer dünnen Schicht miteinander
verbundener Nervenzellen besteht. Die Aufgabe der Nervenzellen besteht darin das auf sie fallende Licht mit Hilfe
der Zapfen und Stäbchen, welche dort angesiedelt sind, in
elektrische Impulse umzuwandeln.
„Das Auge ist ein geometrischer Punkt, der Lichtstrahlen aussendet, um Objekte
zu berühren.“
Euklid von Alexandria
2.1.2 Farben
Für das Farbsehen oder auch Tagessehen sind die so genannten Zapfen verantwortlich. Diese Fotorezeptoren werden in drei Kategorien eingeteilt. Man unterscheidet zwischen L-Zapfen (Rotrezeptor, Absorptionsmaximum circa
563 nm), M-Zapfen (Grünrezeptor, Absorptionsmaximum
circa 534 nm) und S-Zapfen (Blaurezeptor, Absorptionsmaximum circa 420 nm). Das von Objekten reflektierte Licht, die gesehene Farbe, setzt sich aus verschiedenen Wellenlängen zusammen. Die Farbrezeptoren reagieren auf diese unterschiedlichen Wellenlängen und werden
in Erregung versetzt. Es kommt im Gehirn zu einer additiven Farbmischung, ähnlich des RGB-Farbmodells. Dabei werden die verschiedenen Wellenlängen additiv verknüpft und aus rotem und grünem wird beispielsweise
gelbes Licht. Die Anzahl der Zapfen nimmt mit zunehmender Entfernung von der Fovea centralis (Sehgrube)
ab, es ist nicht möglich an der Peripherie der Retina Farben zu unterscheiden. Die dort vermehrt vorkommenden
Stäbchen (Absorptionsmaximum circa 500 nm) sind für
das Sehen in der Dämmerung zuständig (Quelle: Wagner 26.04.2008). Sie können keinerlei Farben erkennen,
sind dafür aber lichtempfindlicher. Bewegungen von Objekten, die sich am Rand der Retina abspielen, werden
nicht wahrgenommen. Sie lösen lediglich einen Reflex aus,
9
2. Grundlagen
Wahrnehmung
der die Augen auf das sich bewegende Objekt ausrichtet.
Dadurch rückt das Objekt näher an die Fovea und kann
untersucht werden.
Im Abbildung 2.2 befinden sich die drei Frequenzkurven,
welche für das Farbsehen relevant sind. Zusätzlich ist ein
vierter Kurvenverlauf eingetragen, welcher den Frequenzverlauf der Stäbchen beschreibt
(Quelle: p2pforum 26.04.2008).
Die Pupille ist der Teil des Auges, durch den das Licht auf
Abbildung 2.2: Die spektralen Absorptionskurven (vgl.
Quelle: Wikimedia 2008)
die Netzhaut fällt. Es handelt sich dabei um eine Öffnung
der Iris, welche durch Muskelkontraktionen die Öffnungsgröße und somit die Lichtmenge der Pupille beeinflussen
kann. Das durch sie einfallende Licht gelangt durch die
Linse auf die Retina.
10
Wahrnehmung
Diplomarbeit Gordon Lemme
2.1.3 Die Augenbewegung
Der Punkt des schärfsten Sehens ist im menschlichen Auge die Sehgrube (Fovea centralis). Um Objekte deutlich
fokussieren zu können, sind permanente Augenbewegungen nötig. Diese Sakkaden werden durch das Gehirn gesteuert und unterliegen dem menschlichen Unterbewusstsein. Somit entsteht ein Regelkreislauf, der die menschliche Wahrnehmung beeinflusst. Das Gehirn steuert die
Augenbewegung, wodurch die Augen neue visuelle Reize
aufnehmen. Diese wiederum werden im Gehirn verarbeitet
und führen zu neuen sukzessiven Fixationen. Dabei werden bestimmte Bereiche und Merkmale eines betrachteten
Objektes bevorzugt abgetastet. Ohne diese Augenbewegungen würde der Mensch einen betrachteten Bildbereich
nur sehr kurz wahrnehmen, da sich die Rezeptoren (Stäbchen und Zapfen) an diesem Reiz adaptieren und somit
keine weiteren Signale an das Gehirn senden.
„... Wenn wir ein weißes Blatt Papier betrachten, werden die Bildränder des Papiers auf der Retina hin und
her verschoben und die Reizeffekte dadurch erneuert. Im Abbildung 2.3:
Zentrum des Bildes haben diese kleinen Bewegungen je- 3D-Augabbildung
doch keinen Effekt. Denn hier werden lediglich Flächen
gleicher Helligkeit ausgetauscht. Eine Änderung der Reizsituation durch die willkürliche Augenbewegung erfolgt
also hier nicht. Das läßt annehmen, daß Ränder und
Umrisse für die Wahrnehmung sehr wichtig und Signale von einem großen Gebiet gleicher Helligkeit weniger
interessant sind. Der visuelle Apparat extrapoliert und
füllt offenbar selbstständig Strukturgrenzen aus.“
(Quelle: Gregory 1966, Seite 44)
Dieser Mechanismus wird als laterale Hemmung bezeichnet, der durch eine Kontrastverschärfung zu einer Bildverschärfung führt. Dabei werden die Nachbarrezeptoren
11
2. Grundlagen
Wahrnehmungsprozess
von angeregten Rezeptoren gehemmt Signale zum Gehirn
zu schicken. Objektgrenzen werden stärker herausgebildet beziehungsweise wahrgenommen. Aufgrund der Bedeutung von Objektgrenzen können Begrenzungen entstehen, die als solche gar nicht vorhanden sind. Eine solche
optische Täuschung ist auch als das Mach-Phänomen bekannt.
2.2 Wahrnehmungsprozess
Die Grundlage aller psychischen Prozesse bildet die Wahrnehmung. Durch die Wahrnehmung werden Informationen über die Umwelt und den eigenen Körper gewonnen.
Von entscheidendem Einfluss sind dabei die distalen, wie
auch die proximalen Sinnesempfindungen. Mit Hilfe des
Vergleiches zwischen den Eigenschaften des distalen Reizes und der bereits gemachten Erfahrungen, kommt es zu
einem bewussten Wahrnehmungsprozess. Die undifferenzierte neuronale Impulskodierung wird durch die physikalische Energie (distaler Reiz, zum Beispiel Lichtwellen)
Gehirndaten:
hervorgerufen. Dabei richtet sich der elektrische Impuls eines Reizes, der zur Reizleitung verwendet wird, nach der
• Gewicht: ca. 1,5 kg
Intensität der Stimulanz und nicht nach Art und Ursprung
• Verbrauch: ca. 20%
des Reizes. Johannes Müller sprach von der spezifischen
der Körperenergie
Nervenenergie, das heißt, dass Nervenzellen nur die ih• Nervenzellen:
100 nen entsprechenden Empfindungen hervorbringen, wenn
Mrd. (Neuronen)
sie gereizt werden. Dies sei unabhängig von der physika• Synapsen: 10.000 pro lischen Natur des Reizes. Es wird immer mit einer opNeuron
tischen Empfindung reagiert, wenn der Sehnerv gereizt
(Quelle:
Kneisel wird, auch wenn die Stimulanz mechanische oder chemische Ursachen hat. Auf der Stufe der Organisation der
26.04.2008)
Wahrnehmung werden die Informationen verarbeitet (perzeptuelle Organisation). Diese stellen die Repräsentation
der Umwelt, also ein inneres Abbild der äußeren Umwelt,
12
Wahrnehmungsprozess
Diplomarbeit Gordon Lemme
dar. Beim Identifizieren und Einordnen wird dem Wahrgenommenen eine Bedeutung zugeordnet und es wird in den
eigenen Erfahrungsbereich eingebaut. Der Empfindungs-
Abbildung 2.4: Schematische Darstellung des Wahrnehmungsprozesses (modifiziert nach Michel,
Novak, 1991) (Quelle: Richter 2002, Seite 16)
prozess wird in zwei Klassen eingeteilt. Man unterscheidet
den reizgeleiteten Bottom-up und den konzeptgesteuerten
Top-down Prozess. Diese werden in den nachstehenden
Abschnitten 2.2.1 und 2.2.2 beschrieben.
2.2.1 Bottom-up
Die Bottom-up Verarbeitung (datengesteuerte Verarbeitung) ist eine Form der Wahrnehmungsanalyse. Der Pro13
2. Grundlagen
Wahrnehmungsprozess
zess ist dadurch gekennzeichnet, dass die sensorischen Informationen, welche durch die Rezeptoren aufgenommen
wurden, an das Gehirn geleitet werden. Die Daten werden so transformiert, dass sie in abstrakter Form im Gehirn verarbeitet werden können. Dort werden sie analysiert und relevante Informationen des Wahrnehmungsobjektes selektiert.
Abbildung 2.5:
Teilbild der Vase (Quelle:
Kneisel 26.04.2008)
2.2.2 Top-down
Abbildung 2.6:
Teilbild
der
ter
(Quelle:
26.04.2008)
GesichKneisel
„Nichts ist im Verstand, was
nicht zuvor in der Wahrnehmung wäre.“
14
Die Top-down Verarbeitung (konzeptgesteuerte Verarbeitung), welche höhere mentale Prozesse zur Objektidentifikation heranzieht, arbeitet komplementär zum Bottomup Prozess. Durch die im Gehirn gespeicherten Erfahrungswerte, Motive und Wissen, wird eine Erwartungshaltung generiert, welche sich auf die Analyse und Selektion auswirkt. Der Vorteil des Top-down Prozesses besteht darin, bekannte Reize schneller verarbeiten zu können und diese in einen bekannten Kontext einzuordnen.
In der Abbildung 2.8 ist eine Wahrnehmungstäuschung
dargestellt. Die Teilbilder 2.5 und 2.6 lassen sich leicht
erkennen und vom menschlichen Gehirn einordnen. Im
„Gesamtbild“ (Abbildung 2.8) ist es dem Menschen nicht
möglich beide Abbildungen gleichzeitig zu erkennen. Das
Gehirn erlaubt nur eine Darstellung und wechselt zwischen den beiden bekannten Objekten, Vase und Gesicht,
hin und her. Wenn ein solches Bild aus einem bekannten
und einem unbekannten Objekt bestehen würde, wäre es
dem Menschen nicht möglich, das unbekannte Objekt zu
erkennen. In einem solchen Fall selektiert das Gehirn das
bekannte Objekt und das Bild erhält eine Eindeutigkeit.
Wahrnehmungsprozess
Diplomarbeit Gordon Lemme
Abbildung 2.7: Einfluss auf die Wahrnehmung (Quelle:
Gregory 2001, Seite 253)
15
2. Grundlagen
Field of View
Abbildung 2.8: Wahrnehmungstäuschung: Gesichter oder
Vase? (Quelle: Kneisel 26.04.2008)
2.3 Field of View
Field of View (kurz: FOV ) beschreibt das Sichtfeld ausgehend vom Viewpoint. Die Größe des Sichtfensters ist
durch die nachstehende Gleichung beschrieben. Dabei gilt
sie sowohl für den horizontalen, als auch für den vertikalen Field of View. Die erforderlichen Parameter sind die
Entfernung des Betrachters zur Betrachtungsebene, sowie
der mögliche Sichtwinkel, welcher horizontal und vertikal
variieren kann.
Sichtwinkel
F OV = 2 ∗ Entf ernung ∗ tan
2
16
Field of View
Diplomarbeit Gordon Lemme
Das daraus resultierende Seitenverhältnis lässt sich durch
die folgende vereinfachte Gleichung errechnen.
Seitenverhältnis =
=
H öhe
Breite
tan
tan
vertikaler F OV
2
horizontaler F OV
2
(Quelle: George Eckel 2002, Abschnitt 4)
Die durch den Viewpoint und die Sehstrahlen entstehende
Pyramide wird auch als Viewing-Volume bezeichnet und
ist in Abbildung 2.9 dargestellt.
Abbildung 2.9: Darstellung der Clipping Planes.
17
2. Grundlagen
Field of View
2.3.1 Frustum
In der Computergrafik besteht diese Pyramide aus verschiedenen Teilen, die kurz erläutert werden sollen.
Der Boden der Pyramide wird als Far Clipping Plane bezeichnet und bildet den Abschluss des Viewing-Volumes.
Abbildung 2.10:
Frustum
Zusätzlich gibt es eine Ebene, die als Near Clipping Plane
bezeichnet wird. Sie bildet zusammen mit der Far Clipping Plane das so genannte Frustum (engl. Pyramidenstumpf). 3D-Objekte, die sich innerhalb dieses Pyramidenstumpfes befinden, werden abgebildet. Objekte außerhalb dieses Bereiches, werden nicht gerendert, da sie nicht
im Sichtbereich liegen und somit unnötige Rechenressourcen benötigen.
2.3.2 Hüllobjekte
Um zu überprüfen, ob ein Objekt innerhalb oder außerhalb des Frustums liegt, gibt es verschiedenste Algorithmen. An dieser Stelle sei nur eine Vorgehensweise kurz
erläutert.
Um nicht jedes Pixel eines 3D-Objektes überprüfen zu
müssen, erfolgt der Test mit einem so genannten Hüllobjekt (engl. bounding volume). Dieses Hüllobjekt umschließt das 3D-Objekt vollständig mit Hilfe eines einfaAbbildung 2.11:
chen geometrischen Primitives (zum Beispiel Kugel oder
Hüllobjekt Auto (Quelle: Quader).
George Eckel 2002)
Im Folgenden wird eine Kollisionsabfrage zwischen dem
Hüllobjekt und dem Frustum durchgeführt. Ergibt sich
aus dieser Abfrage eine leere Schnittmenge, so liegt das
3D-Objekt vollständig außerhalb des Pyramidenstumpfes, das heißt, es wird nicht gerendert und ist nicht auf
dem Bildschirm sichtbar (Würfel). Für den Fall, dass das
18
Field of View
Diplomarbeit Gordon Lemme
Bounding-Volume nur teilweise im Frustum liegt, ist das
Objekt auch nur teilweise sichtbar und muss in Teilobjekte zur Überprüfung zerlegt werden (Auto). Ist das Hüllobjekt vollständig innerhalb des Frustums, so wird es komplett abgebildet und es bedarf keiner weiteren Kontrolle
der Teilobjekte (Zug).
Abbildung 2.12: Frustum mit verschiedenen Hüllobjekten
(Quelle: George Eckel 2002)
2.3.3 Culling
Eine weitere, bereits implementierte, Optimierungsmethode ist das Culling. Dabei werden Flächen innerhalb des
19
2. Grundlagen
Field of View
Frustums auf Sichtbarkeit überprüft. Eine Fläche innerhalb des Pyramidenstumpfes ist immer dann für den Betrachter sichtbar, wenn der Winkel zwischen der Sichtlinie und dem Normalenvektor der Fläche kleiner, maximal
gleich, 90◦ ist. Für einen Winkel größer 90◦ , handelt es sich
um eine vom Betrachter abgewandte Fläche. Diese findet
keine weitere Betrachtung und wird nicht gerendert. Die
Abbildung 2.13 zeigt dies anhand eines Würfelmodells.
Abbildung 2.13: Culling eines Würfels (Quelle: Unger
26.04.2008)
20
Diplomarbeit Gordon Lemme
3 Fußgänger
3.1 Animation
Das Bestreben nach Realitätsnähe verlangt danach, die im
Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden vorhandenen 3D-Objekte um eine Fußgängeranimation zu erweitern. Eine solche Einführung von
menschlichen 3D-Objekten in die Datenbank bietet neue
Verkehrssituationen, welche bezogen auf das Fahrerverhalten analysiert werden können.
3.1.1 Definition
Das Wort Animation leitet sich aus dem lateinischen animare ab und bedeutet beleben. Durch eine Animation
wird dem Betrachter der Eindruck einer kontinuierlichen
Bewegung vermittelt, bei der es sich lediglich um eine Abfolge von Einzelbildern handelt. Eine Animation wird als
flüssig bezeichnet, wenn sie mit mindestens 24 Bildern
pro Sekunde abgespielt wird. Eine andauernde Bewegung
entsteht durch die Veränderung des animierten Objektes.
Diese kann die Lage, aber auch die Form und Farbe des
Objektes betreffen.
3.1.2 Animationsmöglichkeiten
Zur Erzeugung einer Computeranimation gibt es verschiedene Ansätze. Man unterscheidet die Bild-für-Bild Ani21
3. Fußgänger
Animation
mation und die Keyframe Animation.
Um mit der Bild-für-Bild Technik eine Animation zu erzeugen, wird das Objekt in jedem Frame leicht verändert. Bei dieser Methode handelt es sich um die klassische
Trickfilmtechnik, die auch in Daumenkinos zur Anwendung kommt. Diese Technik ist durch die Erstellung jedes
einzelnen Bildes sehr zeitaufwendig und ressourcenintensiv.
Bei der Keyframe Animation werden ausschließlich so genannte Schlüsselbilder (Keyframes) festgelegt. Eine Bewegung kommt durch die Interpolation zwischen den einzelnen Bildern zustande. Diese Technik hat die Vorteile,
dass sie weniger speicherintensiv und weniger zeitaufwendig bei der Animationserstellung ist. Das lässt sich daraus
schließen, dass lediglich die Keyframes gespeichert werden
müssen und die fehlenden Bilder berechnet werden.
3.1.3 Animation vs. Simulation
Die Unterschiede zwischen der Animation und einer Simulation liegen auf der Hand. Während es bei der Präsentation keine Einflussmöglichkeit auf die Animationssequenz
gibt, besitzt der Nutzer einer Simulation einen aktiven
Part. Sobald eine Animationssequenz gestartet wurde, befindet sich der Nutzer diesbezüglich in einer Betrachterrolle. In einer Simulation ist der Nutzer der agierende Teil,
der durch seine Handlung seine virtuelle Umwelt beeinflussen kann.
Daraus ergibt sich, dass eine Simulation in Echtzeit arbeiten sollte, wobei dies bei einer Animation nicht der Fall
sein muss, da diese nicht zur Laufzeit, sondern bei der Erstellung gerendert wird. Ein Beispiel für eine Animation
im weiteren Sinne ist der oscarprämierte Film Cars, wel22
Animation
Diplomarbeit Gordon Lemme
chen die Walt Disney Company in Zusammenarbeit mit
PIXAR produziert hat. Dieser ausschließlich am Computer produzierte Film beinhaltet Frames, die zwanzig
Stunden an Renderzeit beanspruchten (Quelle: Sullivan
26.04.2008, Seite 21). Es wäre also derzeit völlig unmöglich dieses Datenvolumen in Echtzeit zu simulieren und
in einem solchen Cars-Auto durch die Filmlandschaft zu
fahren.
Durch die unterschiedlichen Anforderungen gibt es SoftTM
R
ware, wie den MultiGen-Paradigm
Creator 3.3 , die
auf die Simulation oder vielmehr Modellierung von Simulationsobjekten spezialisiert ist. Dadurch ist der Funktionsumfang zur Erstellung von Animationen beim Multi- Abbildung 3.1:
TM
R
Gen-Paradigm
Creator 3.3 auf die Bild-für-Bild Me- Bones-Animation
thode begrenzt. In einem Animationsprogramm, wie zum
R
Beispiel Autodesk Maya
, stehen dem Nutzer neben der
Bild-für-Bild und Keyframe Animation auch Bones (Knochen, die zu einer leichteren Bewegungskoordination beitragen) zur Verfügung. Im nachfolgenden Abschnitt wird
R
die Animation mit Hilfe des MultiGen-Paradigm
CreaTM
tors 3.3 beschrieben.
3.1.4 Creator-Animation
Wie bereits im Abschnitt 3.1.2 beschrieben, ist der MultiTM
R
Gen-Paradigm
Creator 3.3 auf die Bild-für-Bild Animation beschränkt. Dabei ist im Szenengraph ein Animationsknoten zu erstellen. Alle an der Animation beteiligten Gruppen- und Objektknoten sind unterhalb des
Animationsknoten zu platzieren. Diese erste Untergruppe bildet das erste Bild der Animationssequenz. Um eine
Sequenz mit 25 Frames pro Sekunde zu erstellen, bedarf
es ebenso vieler verschiedener Knoten unterhalb des Animationsknotens. Im Fenster Group Attributes des Ober23
3. Fußgänger
Animation
knotens lässt sich unter Flipbook Animation der Knoten als Animationsknoten definieren. Dabei steht der forward und backward Type zur Auswahl. Der forward Type erzeugt die Sequenz durch das nacheinander Abspielen der Unterknoten. Mit der backward-Option werden
die Unterknoten in umgekehrter Reihenfolge wiedergegeben. Unter der Einstellung Loop Count kann die Anzahl
der Durchläufe festgelegt werden. Der Wert 0 steht dabei für eine kontinuierliche Wiederholung der Animationssequenz. Die Loop Duration gibt die Gesamtlänge eines Animationsdurchlaufes an. Bei der Animation von 25
verschiedenen Bildern in einer Sekunde beträgt die Dauer 25 Sekunden. Unter Last Frame Duration kann die
Anzeigedauer des letzten Frames verlängert werden. Das
Abbildung 3.2: Screenshot des Flipbook-Animationsfensters
in den Abbildungen 3.3 - 3.8 dargstellte 3D-Modell wurR
R
de in Autodesk
Maya
modelliert. Dabei wurde das
Modell anhand von Grafikvorlagen gefertigt. Auf diesen
Grafiken ist die zu modellierende Figur in der Front-,
Rück- und Seitenansicht abgebildet. Die Umrisse wurden
24
Verhaltensanalyse
Diplomarbeit Gordon Lemme
R
R
in Autodesk
Maya
mit Hilfe von polygonalen Flächen
nachempfunden. Auf diese Weise entsteht die dreidimensionale Hülle des Modells. Diese wurde im Anschluss mit
einem Bone-Skelett versehen, um die Bewegungsanimation zu erleichtern. Die folgende Bildersequenz (Abbildungen 3.3 - 3.8) zeigt sechs der 25 Modellposen, die zur Animation verwendet wurden. Dabei ist das Modell mit jeder Körperhaltung exportiert worden, um später in der
R
Flipbook-Animation des MultiGen-Paradigm
Creators
TM
3.3 eingegliedert zu werden. Die so entstandene Fußgängeranimation ist im anschließenden Screenshot (Abbildung 3.9) festgehalten.
Abbildung 3.3:
1. Schritt
Abbildung 3.4:
3. Schritt
Abbildung 3.5:
5. Schritt
3.2 Verhaltensanalyse
In der im Zuge des APROSYS-Projektes (Quelle: APROSYS 2008, Seite 12) erstellten Unfallstatistik ist ersichtlich, dass fast 59% der Unfälle auf gerader, gut einsehbarer
Straße stattfinden und zu einer MAIS 2+ (Maximum Abbreviated Injury Scale) Verletzung führen.
25
3. Fußgänger
Verhaltensanalyse
Abbildung 3.6:
7. Schritt
Abbildung 3.7:
9. Schritt
Abbildung 3.8:
11. Schritt
Abbildung 3.9: Screenshot der Fußgängeranimation
26
Verhaltensanalyse
Diplomarbeit Gordon Lemme
Es stellt sich auch im Verlauf der Diplomarbeit die Frage,
ob es Anzeichen für die plötzliche Fahrbahnüberquerung
durch Fußgänger gibt. Nach intensiver Literaturrecherche
und Rücksprache mit dem Verkehrspsychologen Prof. Dr.
Bernhard Schlag von der TU-Dresden, lassen sich keinerlei
eindeutige Merkmale bestimmen. Der Grund für dieses regellose Verhalten ist der Mensch, da jeder einzigartig ist
und unterschiedliche Verhaltensmuster an den Tag legt.
Dennoch soll in den folgenden Abschnitten die FußgängerFahrzeuglenker-Kommunikation untersucht und mögliche
Ansatzpunkte für die Konfliktbewältigung gegeben werden.
3.2.1 Fallunterscheidungen
Es sollte eine Fallunterscheidung der Situation in Betracht
gezogen werden. Diese Unterscheidung beruht auf verkehrsjuristischen Gesichtspunkten, da der Fußgänger an
Fußgängerüberwegen nach § 26 StVO das Recht hat, vor
dem Fahrzeug die Straße zu überqueren.
Definition 1 (Fußgängerüberwege) (1) An Fußgängerüberwegen haben Fahrzeuge mit Ausnahme von Schienenfahrzeugen den Fußgängern sowie Fahrern von Krankenfahrstühlen oder Rollstühlen, welche den Überweg erkennbar benutzen wollen, das Überqueren der Fahrbahn
zu ermöglichen. Dann dürfen sie nur mit mäßiger Geschwindigkeit heranfahren; wenn nötig müssen sie warten.
(Quelle: Grunert 26.04.2008a)
Damit wird der Fahrzeugführer in die Problemlage versetzt, das Verhalten oder die Absicht des Fußgängers richtig zu antizipieren und einzuschätzen. Dieses Verhalten
27
3. Fußgänger
Verhaltensanalyse
bedarf laut Gesetzestext einer „erkennbaren“ Nutzungsabsicht des Fußgängers, welche nicht weiter definiert ist.
Für Bereiche außerhalb des Fußgängerüberweges ist § 25
StVO heranzuziehen. Demnach hat der Fußgänger sein
Verhalten am Fahrzeugverkehr auszurichten.
„Ein Fußgänger ist ein
glücklicher Autofahrer, der
einen Parkplatz gefunden
hat.“
Fuchsberger, Joachim
Definition 2 (Fußgänger) (1) Fußgänger müssen die
Gehwege benutzen. Auf der Fahrbahn dürfen sie nur gehen, wenn die Straße weder einen Gehweg noch einen
Seitenstreifen hat. Benutzen sie [Fußgänger, g.d.V.] die
Fahrbahn, so müssen sie innerhalb geschlossener Ortschaften am rechten oder linken Fahrbahnrand gehen; ...
(3) Fußgänger haben Fahrbahnen unter Beachtung des
Fahrzeugverkehrs zügig auf dem kürzesten Weg quer zur
Fahrtrichtung zu überschreiten, und zwar, wenn die Verkehrslage es erfordert nur an Kreuzungen oder Einmündungen, an Lichtzeichenanlagen innerhalb von Markierungen oder auf Fußgängerüberwegen (Zeichen 293). . . .
(Quelle: Grunert 26.04.2008b)
Damit ergeben sich mit Einschränkungen zwei mögliche
Konstellationen, in denen ein Fußgänger plötzlich auf die
Fahrbahn tritt, so dass es zu einer unfallkritischen Situation kommen kann.
Die erste Situation entsteht aus der Unachtsamkeit oder
Hektik des Fußgängers heraus und ist schwierig an Prädikaten festzustellen.
In der zweiten Situation wird sich der Fußgänger eine
Fahrbahnüberquerung erzwingen wollen und in vollem Bewusstsein darüber auch handeln. In einem solchen Fall
wird sich der Fußgänger als schwächster Verkehrsteilnehmer dahingehend absichern, dass er von den Fahrzeugführern zur Kenntnis genommen wird. Dies kann beispiels-
28
Verhaltensanalyse
Diplomarbeit Gordon Lemme
weise durch gegenseitigen Blickkontakt (FahrzeugführerFußgänger) erfolgen.
3.2.2 Verhaltensmodelle
Der Fußgänger bildet im Straßenverkehr das schwächste Glied, da er über keinerlei Aufprallschutz und technische Schutzmechanismen verfügt. Zur Verbesserung der
Sicherheit von Fußgängern gehören verschiedene technische Maßnahmen. Dazu zählen Lichtsignalanlagen, Unterund Überführungen, öffentliche Beleuchtung sowie Markierungen. Im Folgenden wird auf das Verhalten von Fußgängern und Fahrzeuglenkern im öffentlichen Straßenverkehr eingegangen. Dabei wird zur besseren Fußgängeranalyse der Fußgängerüberweg herangezogen, da dort repräsentative, wiederholbare Szenarien dargestellt werden
können. Wie im Abschnitt 3.2.1 erläutert, ist das Überqueren von Fahrbahnen nur an dafür vorgesehenen Stellen erlaubt. Hierbei sind die technischen Maßnahmen, die
der Gesetzgeber zur Verfügung stellt, zu nutzen. Aus diesem Grund wird im Weiteren der Fußgängerüberweg für
die Betrachtung der Interaktion zwischen Fußgänger und
Fahrzeuglenker herangezogen. Zu Beginn der Analyse wird
auf ein Modell für das Idealverhalten von Fußgängern und
Fahrzeugführern eingegangen (Quelle: Scherer 1983, Seite 86-88). Dieses Idealverhalten am Fußgängerüberweg
lässt sich in die nachstehenden Schritte untergliedern.
1. Fußgängerüberweg entdecken, identifizieren
2. Fußgängerüberweg zielbewußt aufsuchen
3. Verhalten vor dem Erreichen des Gehsteigrandes:
• visuelle und auditive Exploration (Wahrnehmen von Fahrzeugen aus allen für die Überquerung relevanten Richtungen)
29
3. Fußgänger
Verhaltensanalyse
• Antizipation möglicher Ereignisse (Abschätzen
von Distanzen, Geschwindigkeiten herannahender Fahrzeuge; Voraussehen des Verlaufes von
Bewegungen von Fahrzeugen und anderen Fußgängern)
• Entschluß über das Verhalten am Gehsteigrand (anhalten, um günstigeren Zeitpunkt abzuwarten oder um jetzt mit Exploration zu
beginnen; Straße ohne Anhalten betreten, da
Exploration und Antizipation ein Anhalten als
nicht notwendig erscheinen lassen oder da durch
mangelnde Exploration und Antizipation keine
adäquate Einschätzung der Situation erfolgte)
4. Verhalten am Gehsteigrand:
• visuelle und auditive Exploration, soweit diese
nicht unter Punkt 3 erfolgt ist oder weiterhin
erforderlich scheint
• Antizipation möglicher Ereignisse, soweit diese
unter Punkt 3 nicht erfolgt ist oder weiterhin
erforderlich scheint
• allenfalls Kontaktnahme mit Fahrzeuglenker
(feststellen, ob dieser die Absicht des Fußgängers erkennt)
• Entschluß über weiteres Verhalten:
– Überqueren beginnen,
da Exploration und Antizipation vor oder
bei Erreichen des Gehsteigrandes oder eine allfällige Reaktion des Fahrzeuglenkers
den Moment als günstig erscheinen lassen
weil wegen fehlender Exploration und Antizipation keine Gefahr erkannt wird;
30
Verhaltensanalyse
Diplomarbeit Gordon Lemme
– warten,
da die Exploration und Antizipation vor
dem Erreichen des Gehsteigrandes oder am
Rand das Abwarten eines günstigeren Moments naheliegen
5. Verhalten während der Überquerung:
• visuelle und auditive Exploration fortsetzen,
sofern Exploration und Antizipation unter
Punkt 4 dies als notwendig erscheinen lassen
• Antizipation möglicher Ereignisse fortsetzen,
sofern Exploration und Antizipation unter
Punkt 4 dies als notwendig erscheinen lassen
• motorisches Verhalten (Gehverhalten, Zeichen
geben) ist bestimmt durch Antizipation und
Interpretation des Verhaltens allfällig vorhandener anderer Verkehrsteilnehmer
Durch technische Maßnahmen seitens des Gesetzgebers
wird die Überquerung der Fahrbahn im Allgemeinen erleichtert. Zu diesen Maßnahmen gehört zum Beispiel eine Lichtsignalanlage. Dennoch kommt auch hier die Anwendung des Modells zum Einsatz, wobei sich das Explorationsverhalten lediglich dahingehend ändert, dass nach
Lichtsignalanlagen gesucht wird. Scherer verweist darauf,
dass je nach Verkehrssituation zu beurteilen ist, ob alle Verhaltensschritte eingehalten werden müssen (Quelle:
Scherer 1983, (Seite 86)). Er geht davon aus, dass bei
vollständiger Anwendung seines Modells, ein Fußgänger
die Straße ohne Gefährdung überqueren kann.
„Die größte Gefahr im Straßenverkehr sind Autos, die
schneller fahren, als ihr Fahrer denken kann.“
Lembke, Robert
Nach Scherer gibt es auch ein Modell, welches das Idealverhalten von Fahrzeuglenkern beschreibt, wenn ein Fußgänger die Fahrbahn überqueren will. Bei vollständiger
Anwendung dieses Modells soll ebenfalls jeglicher Konflikt
31
3. Fußgänger
Verhaltensanalyse
zwischen Fußgänger und Fahrzeugführer ausgeschlossen
werden können. Scherer bezieht seine Betrachtung wiederum auf den Fußgängerüberweg und hat das folgende
Modell (Quelle: Scherer 1983, Seite 87) entwickelt.
1.
• allfälliges Erkennen der Signale „Fußgängerstreifen“ oder „Fußgänger“, die auf einen Streifen
hinweisen
• Wahrnehmen des Streifens
2.
• Erkennen von Fußgängern im Bereich des Streifens, welche die Absicht haben (könnten), die
Fahrbahn zu überqueren
• Antizipation möglicher Bewegungen von Fußgängern (Schätzen von Distanzen, Gehgeschwindigkeiten, Zeiten)
3.
• Entschluß über das eigene Verhalten (Bremsbereitschaft, bremsen, anhalten, mit konstanter Geschwindigkeit durchfahren, beschleunigen, ausweichen)
• allenfalls mit Fußgänger Kontakt nehmen
Auch in dem Fahrermodell bleiben die Schritte bei Lichtsignalanlagen erhalten. Dennoch muss zwischen Geradeausfahrt und Abbiegevorgang unterschieden werden.
Bei der Geradeausfahrt unterstützt die Lichtsignalanlage
den Fahrzeugführer, dabei sind die Punkte 1 und 2 nur im
Sinne einer Kontrolle zu verstehen. Der dritte Punkt spielt
auch nur eine untergeordnete Rolle, da laut Abschnitt 2
das Überqueren gesetzlich untersagt ist.
Bei einem Abbiegevorgang mit Freigabe des Fußgängerverkehrs kommt das Modell von Scherer wiederum zum
vollen Einsatz und die Punkte 1-3 müssen seitens des Fahrers überprüft werden.
32
Verhaltensanalyse
Diplomarbeit Gordon Lemme
3.2.3 Konflikt
Definition 3 (Konflikt) Unter der Voraussetzung, daß
sich die Wege eines Fußgängers und eines Fahrzeuges
derart kreuzen, daß es zu einer Kollision kommt, falls
die beiden Beteiligten ihre Geschwindigkeit und Bewegungsrichtung konstant beibehalten, liegt dann ein Konflikt vor, wenn aus dem beobachtbaren Verhalten geschlossen werden kann, daß mindestens einer der beiden in
einem bestimmten Moment über das unmittelbar bevorstehende Verhalten des anderen im Ungewissen ist oder
zu einem bestimmten Zeitpunkt erkennt, daß sich der
andere nicht wie erwartet verhält.
(Quelle: Scherer 1983, Seite 87)
3.2.4 Merkmalsdetektion
In einer Studie der Stadtpolizei Zürich (Quelle: J. Camenzind 1978, Seite 16) wurde untersucht, inwieweit sich
das Anhalteverhalten von Fahrzeugführern am Fußgängerüberweg ändert beziehungsweise durch Fußgängergesten beeinflussen lässt. In dieser Studie entstanden fünf
verschiedene Szenarien, die jeweils reproduzierbar und repräsentativ waren. Im ersten Teil der Studie wurde ein
Mann mittleren Alters als Fußgängerrepräsentant herangezogen.
„Der Ursprung aller Konflikte zwischen mir und meinen Mitmenschen ist, daß
ich nicht sage, was ich meine, und daß ich nicht tue,
was ich sage.“
Buber, Martin
In einem ersten Szenario ging der Fußgänger bis zum Gehsteigrand, blieb dort stehen und wandte, durch eine Kopfbewegung, seinen Blick in Richtung der herannahenden
Autos. In der Auswertung zeigte sich, dass der Fahrzeugführer den Fußgänger wahr nahm, sein blicken allerdings
als eine Suche nach einer Lücke im Verkehrsstrom interpretierte.
33
3. Fußgänger
Verhaltensanalyse
Im zweiten Szenario blieb der Fußgänger abermals am
Gehsteigrand stehen, jedoch ohne Blickkontakt mit dem
Fahrzeugführer aufzunehmen. In diesem Fall war sein Blick
in Gehrichtung gerichtet, durch eine Handbewegung zeigte er seine Absicht, die Fahrbahn zu überqueren, an. Als
Ergebnis ließ sich feststellen, dass der nicht zugewandte
Blick des Fußgängers eine Verunsicherung bei den Fahrzeuglenkern hervorrief. Dabei erkannten die Fahrzeugführer die Absicht des Fußgängers durch das Handzeichen,
waren aber im gleichen Zug, aufgrund des fehlenden Blickkontaktes, über die Entschlossenheit unsicher.
Das dritte Szenario veranlasste den Fußgänger einen Fuß
auf die Fahrbahn zu setzen und Blickkontakt mit dem
Fahrzeugführer aufzunehmen. Mit dem Fuß auf der Straße
vermittelte der Fußgänger dem Fahrzeuglenker eine dynamische Haltung und unterstrich somit seine Absicht der
Fahrbahnüberquerung. Es kam zu einer Verlangsamung
der Fahrzeuge, jedoch zu keinem Anhalten, da die mögliche Gefährdung dann doch nicht eintrat.
In den letzten beiden Szenarien erhöhte sich die Anhaltebereitschaft der Fahrzeugführer, da hier wirksame komAbbildung 3.10:
munikative Elemente kombiniert wurden.
Szenario 4 (Quelle: J. Ca- Das vierte Szenario kombiniert die beiden ersten Fallmenzind 1978)
betrachtungen. Dabei ging der Fußgänger bis zum Gehwegrand, blieb dort stehen und gab sein Handzeichen,
während er Blickkontakt mit dem Fahrzeugführer suchte.
Durch diese Merkmalskombination konnte der Fußgänger
sowohl seine Absicht, als auch seine Entschlossenheit gegenüber dem Fahrzeugführer verständlich machen.
Im letzten Szenario ging der Fußgänger bis zum Gehwegrand, setzte einen Fuß auf die Straße und gab dem Fahrzeugführer ein Handzeichen, während er den Blickkontakt
zu ihm suchte. In diesem Fall wurde die Fahrbahnüber34
Verhaltensanalyse
Diplomarbeit Gordon Lemme
querungsabsicht durch das Handzeichen und den Blickkontakt ausgedrückt. Dabei wurde sie durch die Dynamik
des Fußabsetzens unterstrichen und für den Fahrzeugführer sichtlich verstärkt. Die Handlung des Fahrzeuglenkers
wurde in diesem Szenario durch zwei Aspekte geprägt.
Zum Einen durch die sichtbare Absicht des Fußgängers die
Straße zu überqueren und zum Anderen durch den Moment der Gefährdung (der Fußgänger tritt auf die Fahrbahn).
Im weiteren Verlauf der Studie wurde der Mann mittleren Alters durch eine ältere Frau ersetzt. Dabei kam
es nur noch zur Anwendung des vierten Szenarios, um
die Anhaltebereitschaft der Kraftfahrer gegenüber Menschen unterschiedlichen Alters zu untersuchen. Als Ergebnis lies sich festhalten, dass ältere Fußgänger im Straßenverkehr benachteiligt sind. Anhand der ausgewerteten Daten wurde deutlich, dass bei dem Mann mittleren Alters
durchschnittlich jeder fünfte Fahrzeuglenker anhielt, um
ihm eine Straßenüberquerung zu ermöglichen. Der älteren
Frau räumte nur durchschnittlich jeder achte Kraftfahrer die Überquerungsmöglichkeit ein. Die Anhaltebereitschaft wird also auch von dem Mobilitätsgrad des Fußgängers beeinflusst, wobei ältere Menschen im Allgemeinen als weniger mobil eingeschätzt werden. Ein weiterer
Grund kann die Voreingenommenheit gegenüber älteren
Menschen sein, da diese im Allgemeinen mehr Zeit haben.
3.2.5 Auswertung
In der von Scherer (Quelle: Scherer 1983, Seite 87) verfassten Auswertung wird deutlich, dass die Konflikterzeugung nicht in Zusammenhang mit der ausgeführten Kopfbewegung steht. Anhand dieser Erkenntnis lässt sich ableiten, dass dies kein Indiz für die eindeutige Absicht der
35
3. Fußgänger
Verhaltensanalyse
Straßenüberquerung sein kann.
Das Gehverhalten des Fußgängers spielt bei auftretenden
Konflikten eine bedeutende Rolle. Ein erhöhtes Konfliktpotenzial erzeugen dabei Fußgänger, die eine der nachstehenden Eigenschaften erfüllten (Quelle: Scherer 1983,
Seite 87).
• Verzögerung oder Beschleunigung des Schrittes bei
der Überquerung
• Abstoppen vor der Überquerung
• Anhalten in der Straßenmitte
• Beginn der Straßenüberquerung, während sich ein
Fahrzeug nähert, welches vor ihnen durchfahren wird
Hervorgehoben wird auch, dass durch längeres Warten
Konflikte seitens des Fußgängers vermieden werden können. Dabei handelt es sich lediglich um einen Zeitraum
von wenigen Sekunden.
In der Studie von Scherer wurde zusätzlich auf die Zeit
eingegangen, die ein Fußgänger vor dem Betreten der Fahrbahn am Gehsteigrand wartete. Daraus schloss Scherer
folgendes:
„Aus der Tatsache, daß ein Fußgänger am Gehsteigrand
nicht anhält, kann allein nicht geschlossen werden, ob er
sich den Forderungen des Idealverhaltens entsprechend
verhält oder nicht. Wenn er sich vorher genügend abgesichert hat und die Situation es nicht erfordert, kann er
auf einen Halt verzichten.“
(Quelle: Scherer 1983, Seite 87)
Dem gegenüber steht die Auswertung, dass Fußgänger,
36
Verhaltensanalyse
Diplomarbeit Gordon Lemme
die länger am Gehsteigrand warten als andere, ein erhöhtes Konfliktpotenzial haben. Die Studie belegt, dass bei
einer Wartezeit von durchschnittlich 11,8 Sekunden mehr
Konflikte entstehen, als bei einer Wartezeit von durchschnittlich nur 8,8 Sekunden.
„Dies läßt vermuten, daß Fußgänger bei längerer Wartezeit häufiger als bei kurzer veranlaßt werden, trotz herannahender Fahrzeuge, die vor ihnen durchfahren, den
Streifen zu betreten.“
(Quelle: Scherer 1983, Seite 87)
3.2.6 Schlussfolgerung
Aus den vorangegangenen Abschnitten lässt sich folgern,
wie schwer es ein Fahrzeuglenker hat, die Absicht eines
Fußgängers zu erkennen. Dabei wurde von fast idealen
Umgebungseinflüssen (zum Beispiel Wetter oder Tageslicht) ausgegangen, doch für den Fahrzeugführer können
neben dem eigentlichen Erkennen und Wahrnehmen, wie
es im Abschnitt 2.2 beschrieben ist, noch erschwerende
äußere Einflüsse hinzukommen. Zudem kann im Straßenverkehr nicht auf das Idealverhalten von Fußgängern und
Fahrzeuglenkern, wie es im Abschnitt 3.2.2 dargestellt ist,
zurückgegriffen werden. Deshalb ist die Beachtung der
Straßenverkehrsordnung §1 StVO ein wichtiger Grundsatz für alle Verkehrsteilnehmer, um Konfliktsituationen
zu vermeiden. Die nachstehenden Abschnitte beschäftigen sich mit der Konfliktbewältigung zwischen Fußgängern und Fahrzeuglenkern.
Gefahrenantizipation
Um Konflikte zwischen Fußgängern und Fahrzeuglenkern
zu vermeiden, ist es wichtig, dass beide Parteien sich dem
37
3. Fußgänger
Verhaltensanalyse
Straßenverkehr angemessen verhalten. Dazu gehört sowohl die Gefahrenkognition, welche das Wahrnehmen, Verstehen und Bewerten von Gefahrensituationen beschreibt,
als auch die Gefahrenantizipation, die die geistige Vorwegnahme der Entwicklung gefährlicher Situationen beschreibt (vgl. Quelle: Musahl 1997 ). Durch das frühzeitige Erkennen und richtige Bewerten der Situation, seitens des Fahrzeugführers, ist es unter Mithilfe des Fußgängers möglich, dessen Fahrbahnüberquerungsabsichten zu
erkennen. Mögliche Merkmale sind in Abschnitt 3.2.4 inklusive der jeweiligen Bewertung aufgeführt. Diese Merkmale und die Entschlossenheit des Fußgängers führen im
Allgemeinen zu einer konfliktfreien Fahrbahnüberquerung.
Wie in Abschnitt 3.2.4 beschrieben, kommt es nicht nur
auf die vom Fußgänger ausgehenden Absichtsmerkmale
an, sondern insbesondere auf dessen Entschlossenheit. Dies
ist im Abschnitt 3.2.5 deutlich geworden, da es bei Unentschlossenheit, wie sie sich durch die angegebenen Merkmale 3.2.5 auszeichnen, vermehrt zu Konflikten kommt.
Verkehrserziehung
Ein wichtiger Punkt ist die vorschulische und schulische
Verkehrserziehung. Durch Verkehrsunterricht kann die Gewandtheit und damit Sicherheit im Straßenverkehr beeinflusst werden. Ebenso ist die Verkehrserziehung zur Persönlichkeitsformung von großer Bedeutung für die Ausbildung des Verkehrssinnes. An dieser Stelle sei auch der
lernpsychologische Effekt erwähnt, der sich einstellt, wenn
ein vortrittgewährender Fahrzeugführer eine Dankesgeste des Fußgängers erhält. Diese positive Geste wird vom
Fahrzeugführer als Erfolg angesehen und in einer späteren
Situation wird er dementsprechend sein Handlungsmuster
wiederholen.
38
Verhaltensanalyse
Diplomarbeit Gordon Lemme
Verkehrstechnische Schutzmaßnahmen
Um das Konfliktpotenzial zwischen Fußgängern und Fahrzeuglenkern weiter zu minimieren, können durch den Gesetzgeber verschiedenste Maßnahmen ergriffen werden. Dazu zählen zum Einen die Installation von Lichtsignalanlagen und gut sichtbaren Fußgängerüberwegen und zum Anderen ist es denkbar die Fußgänger vollständig von abweichenden Verkehrsarten zu trennen. Dies kann durch eine
geschlossene Fußgängerzone oder eine zeitliche Trennung
der Verkehrsarten erfolgen. Hinzu kommt die Möglichkeit der räumlichen Trennung, wobei die Fußgängerüberführungen beziehungsweise Fußgängerunterführungen den
Komfortansprüchen der Fußgänger genügen sollten.
Fahrzeugentwicklung
Für den Fall, dass es trotz der bereits erwähnten Schutzmaßnahmen dennoch zu einem Konflikt kommt, sind die
Fahrzeughersteller derzeit bestrebt die Verletzungen des
Fußgängers zu minimieren. Dabei entwickeln die unterschiedlichen Hersteller so genannte Pedestrian Protection Systems, welche bei einem Verkehrsunfall mit einem
Fußgänger zum Einsatz kommen sollen. Das grundlegende
Prinzip basiert darauf, dass sich ein Teil der Motorhaube
hebt, um so die Wucht des auftreffenden Fußgängerkörpers zu dämpfen.
39
3. Fußgänger
Verhaltensanalyse
Abbildung 3.11: Pedestrian Protection System (Quelle:
APROSYS 2008)
Abbildung 3.12: Pedestrian Protection System im Einsatz
(Quelle: APROSYS 2008)
40
Diplomarbeit Gordon Lemme
4 Farbe
4.1 Farbe
Der Begriff Farbe wird in der DIN 5033 von 1979 wie folgt
definiert.
„Ohne Farbe keine Form.“
Definition 4 (Farbe) Die Farbe ist diejenige Gesichtsempfindung eines dem Auge des Menschen strukturlos
erscheinenden Teiles des Gesichtsfeldes, durch die sich
dieser Teil bei einäugiger Beobachtung mit unbewegtem
Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann.
Maison, Rudolf
(Quelle: DIN 5033)
Das Licht, welches das Auge erreicht (siehe Abschnitt
2.1.2), wird Farbreiz genannt. Ein solcher Farbreiz ist
durch die Farbreizfunktion (=spektrale Verteilfunktion)
definiert (Abbildung 2.2). Diese Funktion stellt den jeweiligen Lichtanteil der verschiedenen Wellenlängen dar
(Quelle: Zawischa 26.04.2008a).
4.1.1 Der Farbraum
Um eine einheitliche Wahrnehmung von Farbe zu schaffen,
wurden Farbräume definiert. Diese beinhalten verschiedene Farben, welche auf unterschiedlichen mathematischen
Hintergründen beruhen und maximal alle vom Menschen
wahrnehmbaren Farbreize enthalten. In technischer Hinsicht werden Farbräume definiert, um unabhängig vom
41
4. Farbe
RGB-Farbraum
Ausgabegerät stets den selben Farbeindruck zu erzeugen.
Dies ist nötig, da es derzeit nicht möglich ist, alle vom
Menschen wahrnehmbaren Farben durch ein darstellendes Gerät (zum Beispiel Monitor) wiederzugeben.
4.1.2 menschliche Wahrnehmung
Im nachfolgenden Bild (Abbildung 4.1) wird der für das
menschliche Auge sichtbare Bereich und somit die vom
Menschen gesehenen Farben definiert. Bei der unten abgebildeten Darstellung handelt es sich um das von der
CIE (Commission internationale de l’éclairage) 1931 entwickelte Normvalenzsystem. Es basiert auf einem Sichtfeld von 2◦ , was in etwa der Betrachtung einer Euromünze aus 30 cm Abstand entspricht. In diesem Field of View
besitzt die menschliche Farbwahrnehmung ihr Maximum.
In der Computergrafik ist dieses Normvalenzsystem das
meist verwendete. Auf Grundlage dieses Farbmodells gibt
es einen so genannten Gamut. Dieser gibt die Menge aller darstellbaren Farben an, die ein Gerät wiedergeben
kann. In der folgenden Abbildung 4.2 ist der Gamut für
ein Dell-RGB-Wiedergabegerät angegeben.
4.2 RGB-Farbraum
Der RGB-Farbraum oder vielmehr das RGB-Farbmodell
spannt mit Hilfe der R, G und B Werte einen dreidimensionalen Raum auf.
4.2.1 RGB-Kodierung
Die RGB-Kodierung beruht auf der additiven Farbmischung. Durch die drei Grundfarben rot (R), grün (G)
und blau (B) wird ein dreidimensionaler Raum, wie er in
42
RGB-Farbraum
Diplomarbeit Gordon Lemme
Abbildung 4.1: Der RGB-Farbraum definiert die für einen
Menschen sichtbaren Farben.
43
4. Farbe
RGB-Farbraum
Abbildung 4.2: Der Gamut gibt die darstellbaren Farben
eines Gerätes an.
44
RGB-Farbraum
Diplomarbeit Gordon Lemme
Abbildung 4.3 (Quelle: Bunks 26.04.2008) dargestellt ist,
aufgespannt. Entlang der Koordinatenachsen sind die drei
Primärfarben angeordnet. Durch diese Darstellung wird
deutlich, dass mittels der RGB-Kodierung alle im Würfel
befindlichen Farben darstellbar sind. Durch die Mischung
von zwei Primärfarben entsteht eine dritte Farbe, die als
Sekundärfarbe bezeichnet wird. Die sich daraus ergebenden Eckpunkte des RGB-Würfels bilden die Farben cyan (blau-grün-Mischung), magenta (rot-blau-Mischung)
und yellow (rot-grün-Mischung). Bei der additiven Mischung aller drei Primärfarben entsteht weiß. Hierbei wird
das Licht vollständig von einer betrachteten Oberfläche
zum Auge reflektiert. Der letzte Punkt liegt im Koordinatenursprung und beschreibt den schwarzen Farbwert.
Der RGB-Farbraum wird bevorzugt für die Bildschirmdarstellung genutzt, da er ohne Umrechnung auf Monitoren und durch Projektoren abgebildet werden kann. Die
jeweiligen Intensitäten der einzelnen R, G und B Werte
bilden ein numerisches Tripel, welches die Farbe eindeutig
bestimmt. Die X, Y und Z Werte sind die drei Imaginärvalenzen, welche von der CIE gewählt wurden und auf
dem Rand des Spektralzuges liegen. Die Eckpunkte des
Spektralzuges wurden durch die CIE wie in der Tabelle
4.1 (Quelle: Häßler 26.04.2008a) definiert.
Jeder Farbeindruck kann
mit genau drei Grundgrößen vollständig beschrieben
werden.
1. Graßmannsche Gesetz
Graßmann, Hermann Günther
CIE-Farbe
Wellenlänge
x
y
z
Spektral-Rot
700,0nm
0,73467 0,26533
0,0
Spektral-Grün
546,1nm
0,27367 0,71741 0,00892
Spektral-Blau
435,8nm
0,16658 0,00886 0,82456
Tabelle 4.1: Primärvalenzwerte nach CIE
45
4. Farbe
RGB-Farbraum
Abbildung 4.3: Darstellung des RGB-Würfels (Quelle:
Bunks 26.04.2008)
46
RGB-Farbraum
Diplomarbeit Gordon Lemme
RGBA
In diesem Fall wird das RGB-Farbmodell durch einen Alphakanal erweitert. Diese Erweiterung bietet die Möglichkeit, die Transparenz von Pixeln zu bestimmen. Der Wertebereich dieses Kanals erstreckt sich zwischen null und
eins. Dabei steht Eins für Lichtundurchlässigkeit und Null
für völlige Transparenz (Abschnitt 6.3).
4.2.2 RGB in xyY-Konvertierung
Zur Überprüfung, ob ein RGB-Wert innerhalb oder außerhalb des Fahrsimulatorgamuts liegt, müssen diese Werte
in die xyY-Koordinaten umgewandelt werden. Bei dieser
Konvertierung werden die Primärvalenzen (R, G und B )
in Imaginärvalenzen (=virtuelle Primärvalenzen) umgewandelt. Anschließend können diese Imaginärvalenzen (X,
Y und Z ) in die Koordinaten x und y umgerechnet werden.
Abbildung 4.4:
3D-xyY-Gamut
(Quelle:
Lindbloom 2004-2007)
Legende RGB-Würfel
• B - blau
RGB-Umwandlung
• C - cyan
Zu Beginn der Konvertierung werden die 8 Bit Integer
RGB-Werte in nichtlineare Fließkommawerte umgerechnet.
• G - grün
R1 =
R8 Bit
255
G8 Bit
G1 =
255
B1 =
• M - magenta
• R - rot
• W - weiß
• Y - gelb
B8 Bit
255
47
4. Farbe
RGB-Farbraum
Konvertierung von R1 G1 B1 nach R2 G2 B2


für R1 ≤ 0, 04045
R1 ∗ 12, 92
R2 = 2,4

 (R1 +0,055)
für R1 > 0, 04045
1,055


für G1 ≤ 0, 04045
G1 ∗ 12, 92
G2 = 2,4

 (G1 +0,055)
für G1 > 0, 04045
1,055


für B1 ≤ 0, 04045
B1 ∗ 12, 92
B2 = 2,4

 (B1 +0,055)
für B1 > 0, 04045
1,055
Konvertierung von R2 G2 B2 nach XYZ
An dieser Stelle werden die linearen Primärvalenzen (R2 ,
G2 , B2 ) in die Imaginärvalenzen (X, Y, Z) konvertiert.
Dazu werden die Primärvalenzen mit einer von der CIE
standardisierten Matrix multipliziert.
  
  
X
0, 4124 0, 3576 0, 1805
R2
 Y  = 0, 2126 0, 7152 0, 0722 ∗ G2 
Z
B2
0, 0193 0, 1192 0, 9505
48
RGB-Farbraum
Diplomarbeit Gordon Lemme
Umrechnung von XYZ nach xyY
Abschließend erfolgt die Umrechnung der Imaginärvalenzen in die Koordinaten x und y. Der Luminanzwert Y ist
gleich der Imaginärvalenz Y und muss somit nicht mehr
berechnet werden.
x=
X
X +Y +Z
y=
Y
X +Y +Z
z=
Z
X +Y +Z
Auf der Grundlage von 1 = x + y + z lässt sich der z-Wert
auch durch die Gleichung z = y − (x + y) berechnen.
4.2.3 xyY in RGB-Konvertierung
Zur Umwandlung der Koordinatenpaare x und y, sowie
des Luminanzwertes Y in die Primärvalenzen (R, G und
B ) sind die nachstehenden Berechnungsschritte notwendig.
xyY in XYZ
Die Umrechnung der Parameter in die Imaginärvalenzen
ist nachstehend dokumentiert. Dabei bleibt der Luminanz49
4. Farbe
RGB-Farbraum
wert Y als Imaginärvalenz erhalten.
X=
x∗Y
y
Y =Y
Z=
(1 − x − y) ∗ Y
y
XYZ in sRGB
An dieser Stelle erfolgt die Grundlage zur Umrechnung
von xyY-Werten in RGB-Werte. Der sRGB-Farbraum wurCIE Farbraum mit Imagide von der Electrotechnical Commission (IEC) standardinärvalenzen (Quelle: Zawisiert. Er beruht auf der Charakteristik eines Monitors,
scha 26.04.2008b)
wie dieser in schwach beleuchteten Büroumgebungen vorzufinden ist. Da es sich hierbei nur um leichte Abweichungen zum eigentlichen RGB-Farbraum handelt, können diese beiden Farbräume als äquivalent bezeichnet werden. Das s in der sRGB Notation steht für das englische
standard und soll diesen Farbraum eindeutig identifizieren. Aufgrund der minimalen Unterschiede zwischen dem
sRGB-Farbraum und dem RGB-Farbraum wird folgend
ausschließlich mit der RGB-Notation gearbeitet. Neben
dem sRGB-Farbraum gibt es weitere RGB -Farbräume,
wozu der Adobe RGB -, Apple RGB-, Best RGB- und
SMPTE-C RGB-Farbraum zählen, um an dieser Stelle
nur einige zu nennen. Auf diese Farbräume wird im Zuge
dieser Arbeit nicht näher eingegangen.
Abbildung 4.5:
Im Folgenden wird auf die Beziehung zwischen den D65Tristimulus-Werten und den RGB-Werten eingegangen.
Die abgebildete Matrix bildet die Umrechnungsgrundlage zur Berechnung der vorläufigen RGB-Werte (Quelle:
50
RGB-Farbraum
Diplomarbeit Gordon Lemme
Häßler 26.04.2008b).
  
  
X
3, 2406 −1, 5372 −0, 4986
R
G = −0, 9689 1, 8758 0, 0415  ∗  Y 
Z
0, 0557 −0, 2040 1, 0570
B
Wertebereich
Nachfolgend soll gelten, dass Werte die größer als Eins
und kleiner als Null sind an diesen Stellen abgeschnitten
werden. Durch dieses Verfahren wird der Wertebereich auf
0 ≤ R ≤ 1, 0 ≤ G ≤ 1 und 0 ≤ B ≤ 1 eingegrenzt.


1 für R ≥ 1



R1 = 0 für R ≤ 0




R sonst


1 für G ≥ 1



G1 = 0 für G ≤ 0




G sonst


1



B1 = 0




B
für B ≥ 1
für B ≤ 0
sonst
51
4. Farbe
RGB-Farbraum
Konvertierung R1 G1 B1 nach R2 G2 B2
Im weiteren Verlauf werden die vorläufigen R1 G1 B1 -Werte
in nichtlineare R2 G2 B2 -Werte umgewandelt.

R1 ∗ 12, 92
für R1 ≤ 0, 0031308
R2 =
 ( 125 )
R1 ∗ 1, 055 − 0, 055 für R1 > 0, 0031308
G2 =

G1 ∗ 12, 92

B2 =
(
5
für G1 ≤ 0, 0031308
)
G112 ∗ 1, 055 − 0, 055 für G1 > 0, 0031308

B1 ∗ 12, 92
für B1 ≤ 0, 0031308
 ( 125 )
B1 ∗ 1, 055 − 0, 055 für B1 > 0, 0031308
Konvertierung R2 G2 B2 nach 8 Bit
R8 Bit G8 Bit B8 Bit Integer
Abschließend werden zum Erhalt der endgültigen RGBDaten die R2 G2 B2 -Werte in 8 Bit Integer Werte konvertiert. Die so erhaltenen Werte R, G und B werden
als Primärvalenzen bezeichnet. Der Farbanteil der einzelnen Grundfarben bildet die jeweilige Farbvalenz (Quelle:
Marc Janott 26.04.2008 ).
R8 Bit = round(255 ∗ R2 )
G8 Bit = round(255 ∗ G2 )
B8 Bit = round(255 ∗ B2 )
52
RGB-Farbraum
Diplomarbeit Gordon Lemme
4.2.4 Rechenhilfe
Im Zuge dieser Arbeit wurde eine Excel-Tabelle entworfen, welche die Konvertierung der Farbwerte selbstständig vornimmt. In Abbildung 4.6 ist ein exemplarischer
Screenshot dieser Arbeitsmappe zu sehen. Dabei ist durch
die verschiedenen Reiter verdeutlichen hierbei die Art der
Konvertierung. In den rot unterlegten Zellen erfolgt die
Eingabe der umzurechnenden Werte. Anschließend werden anhand der abgebildeten Transformationsmatrix die
gesuchten Werte automatisch errechnet. Folglich kommt
es zur Bildung aller daraus resultierender Zwischenwerte.
Abbildung 4.6: Excel-Umrechnungstabelle
53
4. Farbe
Farbtemperatur
4.3 Farbtemperatur
Farbe ist eine Empfindung, die ausgestrahlte beziehungsweise reflektierte Energie hervorruft. Diese Energie wird
von Auge und Gehirn in Farbeindrücke verarbeitet. Um
eine solche Empfindung reproduzieren zu können, bedarf
es einer standardisierten Umgebung und Lichtquelle.
Die Farbtemperatur ist eine standardisierte Lichtquellenangabe. Zum Beispiel handelt es sich bei D65 um ein typisches Umgebungslicht für einen Monitor, dies entspricht
6500 Kelvin. Ein solcher Farbeindruck entsteht, wenn man
einen schwarzen Körper erhitzt, bis er selber Licht dieser
Farbe abgibt. Für den Fall, dass der schwarze Körper typisches Umgebungslicht emittiert, müsste er auf eine Temperatur von circa 6500 Kelvin (6226,85◦ C) erhitzt werden.
Dann hinterlässt das abgestrahlte Licht den gleichen Farbeindruck.
4.4 Farben im Creator
TM
R
Im MultiGen-Paradigm
Creator 3.3 ist es möglich,
zwischen zwei Farbmodellen zu wählen. Dabei handelt
es sich um den HLS-Farbraum und den RGB-Farbraum.
R
Das Standardfarbmodell im MultiGen-Paradigm
CreaTM
tor 3.3 ist der HLS-Farbraum. Dieser entspricht einer
doppelten sechseckigen Pyramide und ist in Abbildung
4.7 dargestellt.
Abbildung 4.7:
HLS-Farbraum
(Quelle:
Klagenfurt 26.04.2008)
54
4.4.1 Farbraumdefinition
R
Die Farbraumanpassung im MultiGen-Paradigm
CreaTM
tor 3.3 erfolgt durch die Auswahl des Datenbankknotens db in der Szenengraphansicht. In Abbildung 4.8 ist
Farben im Creator
Diplomarbeit Gordon Lemme
R
Abbildung 4.8: Screenshot des MultiGen-Paradigm
TM
Creator 3.3
Header Attributes: db
Fenster
das sich öffnende Optionsfenster unter dem Reiter Preferences dargestellt. Im rechten Bereich ist es durch eine Checkbox möglich, unter Database Preferences, den
RGB-Mode zu aktivieren und gegebenenfalls wieder zu
deaktivieren. Durch diese Auswahl wird im Programm die
Farbauswahl beziehungsweise Farbpalette auf den jeweiligen Farbumfang begrenzt. Mit der RGB-Einstellung kann
man beispielsweise nur noch die R, G und B Werte im
Face Attributes-Fenster (Abbildung 4.9) eintragen. Die
für den HLS-Farbraum spezifischen Felder (Index, Name
und Intensity) sind blind und können nicht mehr verwendet werden.
R
CreaDer Standardfarbraum des MultiGen-Paradigm
TM
tor 3.3 ist der HLS-Farbraum. HLS steht für Hue (Farbton), Lightness (Helligkeit) und Saturation (Sättigung).
Der HLS-Farbraum beinhaltet weitaus weniger Farben als
der RGB-Farbraum. Er stellt sich als ein Doppel-Kegel
dar, indem die Längsachse die Helligkeit abbildet. Der Ra-
55
4. Farbe
Farben im Creator
R
Abbildung 4.9: Screenshot des MultiGen-Paradigm
TM
Creator 3.3 Face Attribute-Fenster
dius repräsentiert die Sättigung einer Farbe und die Position auf einem kreisförmigen Kegelschnitt gibt den Farbton wieder. Das HLS-Farbsystem wurde 1931 von Textronix zum ersten Mal implementiert (Quelle: Schnabel
26.04.2008).
Um dies an einem Beispiel zu verdeutlichen, werden im
Folgenden die maximal darstellbaren Farben des jeweiligen Farbraumes berechnet. HLSmax bezeichnet die Menge
aller darstellbaren Farben im HLS-Farbraum.
HLSmax = Indizes ∗ Intensität
HLSmax = 1024 ∗ 128
HLSmax = 131.072
Der HLS-Farbraum umfasst 131.072 Farben. Im Vergleich
dazu wird nun berechnet, wieviel Farben der RGB-Farb56
Farben im Creator
Diplomarbeit Gordon Lemme
raum beinhaltet.
RGBmax = Rotmax ∗ Grünmax ∗ Blaumax
RGBmax = 256 ∗ 256 ∗ 256
RGBmax = 16.777.216
Im Vergleich der beiden Werte wird deutlich, dass der
RGB-Farbraum um ein Vielfaches größer ist als der HLSFarbraum. Um eine möglichst realistische Darstellung der
Farben zu erhalten wird im Fahrsimulator des FraunhoferInstituts für Verkehrs- und Infrastruktursysteme Dresden
auf den RGB-Farbraum zurückgegriffen. Aufgrund dieser
Vorgabe, die soweit auch von der Hardware unterstützt
R
wird, muss die Einstellung im MultiGen-Paradigm
CreaTM
tor 3.3 geändert werden. Diese Umstellung erfolgt im
Szenengraphen der Datenbank. Durch einen Doppelklick
auf das db Symbol öffnen sich die Header Attributes:db, in
denen unter Database Preferences das Optionsfeld RGBMode aktiviert werden muss.
4.4.2 Farbpalette
TM
R
In der MultiGen-Paradigm
Creator 3.3 Farbpalette
(Color Palette) sind in einer 32 x 32 Matrix alle HLSFarbtöne vordefiniert, welche durch die Intensitätsanpassung (Intensity) die Menge der Farben des Farbraums
ergeben (Abschnitt 4.4.1). Für die Auswahl mittels RGBKoordinaten lässt sich die Farbe im Color -Fenster definieren. In Abbildung 4.10 handelt es sich um einen ScreensR
hot der Color Palette des MultiGen-Paradigm
Creator
TM
3.3 .
57
4. Farbe
Farben im Creator
R
Abbildung 4.10: Screenshot der MultiGen-Paradigm
TM
Creator 3.3 Color Palette
58
Farben im Fahrsimulator
Diplomarbeit Gordon Lemme
4.5 Farben im Fahrsimulator
4.5.1 Experiment
Das im Folgenden beschriebene Experiment soll zeigen,
inwieweit die Farbdarstellung des Monitors mit der Farbdarstellung des Projektors übereinstimmt. Als Ergebnis
dieses Experimentes soll eine Farbpalette erstellt werden,
die es dem Anwendungsersteller ermöglicht, dem Benutzer
des Fahrsimulators ein reelles, farbechtes Bild präsentieren zu können. Um verschiedene Eindrücke der Farben zu
erhalten, wurde mit verschiedenen Standbildern gearbeitet. Es handelt sich dabei um standardisierte Testbilder
der Firma Burosch (Abbildung 4.11, Quelle: Burosch
26.04.2008). Als Entscheidungskriterium wurde an dieser Stelle der Durchschnittswert an subjektiven Wahrnehmungseindrücken herangezogen.
Abbildung 4.11: Burosch Testbild
59
4. Farbe
Farben im Fahrsimulator
4.5.2 Ergebnis
Infolge des durchgeführten Experimentes wurde für den
Fahrsimulator ein eigener Gamut erstellt. Der Fahrsimulatorgamut befindet sich innerhalb des RGB-Gamuts und
deckt die gesättigten Farben ab. Die Sättigung der Farbe
nimmt mit zunehmender Entfernung zum Weißpunkt zu,
wodurch in der Mitte des Gamuts ein schlecht darstellbarer Bereich entsteht. Diese Abweichung zum Monitor
hängt mit der Helligkeit der Projektorlampe, der Oberflächenbeschaffenheit der Projektionswand sowie der Umgebungsbeleuchtung im Fahrsimulator zusammen. In der
Tabelle 4.2 werden die Eckpunkte des inneren, schlecht
darstellbaren Bereichs, als RGB-Werte angegeben. AnName
Rot
Grün
Blau
x
0,50722
0,30379
0,19333
y
0,32866
0,52751
0,13226
R
255
100
99
G
99
255
100
B
100
99
255
Tabelle 4.2: Eckpunkte der Darstellungsgrenze
hand dieser Angaben aus Tabelle 4.2 ist es möglich, Texturen so zu manipulieren, dass sie für den Benutzer des Fahrsimulators eindeutig und gut sichtbar erscheinen. Hinzu
kommt die Beeinflussungsmöglichkeit der Parameter bei
der Wahl von Farbwerten (Farben). Diese Manipulationen
sind immer mit einem Realitätsverlust behaftet, optimieren jedoch das wahrgenommene Leinwandbild und sorgen
für farbechte Eindrücke der Umgebung.
Auf Grundlage der im Abschnitt 4.2.2 hergeleiteten Umrechnung und den durch das Experiment bestimmten Eckpunktkoordinaten, lässt sich mit Hilfe der Ebenengleichung 4.5.2 und dem daraus resultierenden linearen Gleichungssystem bestimmen, ob ein RGB-Wert innerhalb
oder außerhalb des gut darstellbaren Bereiches liegt.
60
Farben im Fahrsimulator
Diplomarbeit Gordon Lemme
Abbildung 4.12: Der Fahrsimulatorgamut definiert die im
Fahrsimulator gut darstellbaren Farben.
61
4. Farbe
Farben im Fahrsimulator
Ebenengleichung
Der zu untersuchende Punkt P befindet sich im darstellbaren Bereich, wenn er innerhalb des Dell-Gamuts und
außerhalb des vom Projektor nicht darstellbaren Bereiches liegt.
Mit Hilfe der Ebenengleichung lässt sich bestimmen, ob
ein Punkt innerhalb, außerhalb oder auf dem Rand der
durch die Formel bestimmten Fläche befindet. Zur Vereinfachung wird von einem 2D-Raum, dem CIE-Farbraum,
unter Vernachlässigung des Luminanzwertes Y, ausgegangen. Damit wird der Raum, in welchem der Gamut liegt,
vollständig durch die beiden Koordinaten x und y aufgespannt. Die Parameter der Ebenengleichung, s und r genannt, sind ausschlaggebend für die Lagebeurteilung des
Punktes.
Um eine Ebene durch Vektoren darstellen zu können, benötigt man drei Punkte. Die Punkte A, B und C, welche
in der Tabelle 4.2 festgelegt wurden, bilden die Eckpunkte
eines Dreieckes. Nachstehend ist die Ebenengleichung in
Parameterschreibweise angegeben.
~ + AB
~ ∗ r + AC
~ ∗ s s, r ∈ <
E : ~x = 0A
~ werden zwei verschiedene RichtunVom Stützvektor 0A
~ und AC
~ vorgegeben.
gen durch die Spannvektoren AB
Im gegebenen Beispiel sei P ein beliebiger, zu untersuchender Punkt. Für diesen ist zu überprüfen, ob er innerhalb, außerhalb oder auf dem Rand der Ebene liegt.
Der Punkt P ist eindeutig durch seinen Ortsvektor P~ bestimmt. Dieser ist bei der Lagebestimmung für den Vektor ~x einzusetzen. Durch diesen Ersetzungsschritt gilt im
62
Farben im Fahrsimulator
Diplomarbeit Gordon Lemme
Weiteren die folgende Gleichung.
~ = AB
~ ∗ r + AC
~ ∗s
AP
Das durch die Ersetzung entstandene Gleichungssystem




~ =0, 50722 − 0, 19333∗r+0, 30379 − 0, 19333∗s
AP
0, 32866 − 0, 13226
0, 52751 − 0, 13226
muss nach den Parametern r und s aufgelöst werden. Dabei müssen die nachstehenden Bedingungen erfüllt sein.
• 0≤r≤1
• 0≤s≤1
• 0 ≤ (r + s) ≤ 1
Der Punkt befindet sich außerhalb der betrachteten Fläche, wenn die Summe der beiden Parameter größer als eins
ist (1 < (r + s)). Liegt die Summe zwischen eins und null
(0 < (r + s) < 1), befindet sich der Punkt innerhalb. In
dem Fall, dass der Wert genau eins beträgt ((r + s) = 1),
liegt der Punkt auf dem äußeren Rand der Fläche.
Aus diesen mathematischen Grundlagen lässt sich ableiten, dass eine Farbe gut darstellbar ist, wenn der sie bestimmende Punkt innerhalb des Dell-Gamuts und außerhalb des schlecht darstellbaren Projektorgamuts liegt. Sollte der Fall eintreten, dass (r + s) < 1 ist, wäre der Punkt
schlecht darstellbar, da er innerhalb dieser Fläche liegt.
Damit muss die generelle Darstellbarkeit (Dell-Gamut)
nicht weiter überprüft werden, ist der Wert (r + s) > 1
muss untersucht werden, ob sich der Farbwert überhaupt
im darstellbaren Bereich für Geräte befindet. Dazu muss
erneut die Ebenengleichung angewendet werden, um zu
63
4. Farbe
Licht, Schatten und Material
prüfen, ob der Punkt P im Dell-Gamut liegt. Dabei gelten für die Parameter die selben Bedingungen. Nach Aus



0, 640074 − 0, 150016∗r0 +0, 28 − 0, 150016∗s0



0, 329970 − 0, 060006
0, 6 − 0, 060006

A~0 P =

wertung von r’ und s’ lässt sich eine Einschätzung über
die richtige Darstellung der gewählten Farbe (gewählten
Punkt) treffen.
4.6 Licht, Schatten und Material
„I’m so fast that last night
I turned off the light switch
in my hotel room and was
in bed before the room was
dark.“
Ali, Muhammad
4.6.1 Das Licht
Um Objekte wahrnehmen zu können, bedarf es Licht. Dieses steht dem Menschen in Form der Sonne als natürliche, sowie durch Leuchtkörper als künstliche, Lichtquelle
zur Verfügung. Das Licht selber besitzt sowohl Teilchen-,
als auch Wellencharakter und breitet sich mit einer Geschwindigkeit von 300.000 km in der Sekunde aus. Aufgrund dieser endlichen Geschwindigkeit und der vorhandenen Verzögerung beim Sehvorgang mit den Augen sowie
dem Sehen als Wahrnehmungsprozess im Gehirn, sieht der
Mensch immer die Vergangenheit (vgl. Gregory 1966,
Seite 15).
4.6.2 Der Schatten
Alle blickdichten (engl. opaque) Objekte, die von einer
Lichtquelle angestrahlt werden, erzeugen einen Schatten.
In der Optik wird der dunkle Raum hinter einem undurchsichtigen, beleuchteten Objekt als Schatten bezeichnet. In
der Computergrafik ist die Berechnung des Schattens sehr
64
Licht, Schatten und Material
Diplomarbeit Gordon Lemme
ressourcenintensiv und wird an dieser Stelle nicht weiter
betrachtet. Im Weiteren werden die Schattierungsarten
TM
R
des MultiGen-Paradigm
Creator 3.3 kurz vorgestellt.
Flat Shading
Beim so genannten Flat Shading wird eine Fläche nicht
schattiert, sondern gibt den eingegebenen Polygonfarbwert unabhängig vom Betrachtungswinkel wieder. Der beschriebene Modus ist sehr ressourcensparend, da keine
Farbwertberechnungen zur Schattierung durchgeführt werden müssen.
Lit Shading
Das Lit Shading berechnet aus der Vertex-Normalen, dem
der Oberfläche zugewiesenen Material und der Lichtquelle den Schatten. Zur Berechnung der Vertex-Normalen
TM
R
kann im MultiGen-Paradigm
Creator 3.3 die Calculate Shading-Funktion verwendet werden.
Gouraud Shading
Abbildung 4.13:
Gouraud Shading
Das so genannte Gouraud Shading berechnet die Farbwerte durch Interpolation. Dabei wird die Knotennormale eines Eckpunktes durch die Mittelwertbildung der anliegenden Flächennormalen berechnet. Im Folgenden wird die
Beleuchtungsintensität in diesem Punkt bestimmt. Diese Vorgehensweise wird mit allen Eckpunkten einer Fläche vollzogen. Die auf diese Weise erhaltenen Eckpunkte
ergeben durch Interpolation die Kantenpunkte, die zwei
Eckpunkte miteinander verbinden. Damit beinhalten alle
Polygonkantenpunkte eine Beleuchtungsintensität, welche
nun die Grundlage für die Interpolation des inneren Bereiches des Polygons bildet.
65
4. Farbe
Licht, Schatten und Material
Lit Gouraud Shading
Das Lit Gouraud Shading kombiniert bei der Darstellung
von Flächen das Lit Shading und das Gouraud Shading.
4.6.3 Das Material
In der Computergrafik wird einem Objekt ein bestimmtes Material zugewiesen. Dadurch erhält das Objekt die
Fähigkeit einfallendes Licht unterschiedlich reflektieren zu
können. Man unterscheidet dabei die folgenden echtzeitfähigen Materialien.
Ambient
In diesem Fall erfährt das Objekt eine indirekte Beleuchtung durch das Umfeld. Das Material hat die Eigenschaft
das auftreffende Streulicht zu reflektieren. Diese Eigenart
ist der realen Welt nachempfunden.
Diffuse
Das auf ein Objekt auftreffende Licht wird in alle Richtungen gleichermaßen reflektiert. Die entstehende Farbe wird
durch die Entfernung und den Einfallswinkel des Lichtes
beeinflusst und ist unabhängig vom Standpunkt des Betrachters.
Specular
Mit diesem Material lässt sich die Stärke des erzeugten
Glanzlichtes, welches bei der Reflektion eines Lichtstrahles auf eine Oberfläche entsteht, beeinflussen.
66
Licht, Schatten und Material
Diplomarbeit Gordon Lemme
Emissive
Bei Verwendung dieser Materialeigenschaft ist das Objekt
selbstleuchtend, kann dadurch aber keine anderen Objekte beleuchten.
67
4. Farbe
68
Licht, Schatten und Material
Diplomarbeit Gordon Lemme
5 Verkehrszeichen
Für Sicherheit und einen geregelten Ablauf im Straßenverkehr wurden vom Gesetzgeber Verkehrszeichen erlassen. Um im Fahrsimulator des Fraunhofer-Instituts für
Verkehrs- und Infrastruktursysteme Dresden Realitätsnähe zu simulieren, wurden auch hier Verkehrszeichen, auf
Grundlage der realen Verkehrsbeschilderung, in die Simulationsdatenbank aufgenommen. Solche Verkehrsschilder
sind für die Analyse des Fahrverhaltens von großer Bedeutung, da sie den Fahrer auf verschiedene Verkehrssituationen vorbereiten. Diese Situationen können dann im Nachhinein ausgewertet werden und liefern Erkenntnisse über
das Fahrverhalten in den simulierten Situationen. Die Beschilderung im Straßenverkehr unterliegt nach (DIN 1450,
Absatz 3.1) den folgenden Einflüssen.
„Der größte Aberglaube ist
• Schreibweise
• Betrachtungswinkel
der Glaube an die Vorfahrt.“
Tati,Jacques
• Kontrast
• Relativbewegung vom Betrachter
Eine Übersicht für die Normmaße von Verkehrszeichen ist
im Anhang unter B.1 zu finden. Im realen Straßenverkehr
bedarf es dieser Normen, die eine einheitliche Verwendung
von Formen, Schriften und Farben gewährleisten. In der
DIN 1450 werden Festlegungen bezüglich der Textinformationen auf Verkehrszeichen getroffen. Dabei müssen die
69
5. Verkehrszeichen
Erkennbarkeit
Informationen „unter verkehrsüblichen Bedingungen“ leserlich sein (Quelle: DIN 1450, Seite 1). Um diese Leserlichkeit einheitlich zu definieren, wurden die nachstehenden Termini festgelegt.
5.1 Erkennbarkeit
Definition 5 Erkennbarkeit ist die Eigenschaft von Einzelzeichen, die es ermöglicht, eine Information unter definierten Darbietungsbedingungen zu erfassen.
(Quelle: DIN 1450, Seite 1)
5.2 Leserlichkeit
Definition 6 Leserlichkeit ist die Eigenschaft einer Folge erkennbarer Zeichen, die es ermöglicht, diese Zeichen
im Zusammenhang zu erfassen.
(Quelle: DIN 1450, Seite 1)
Die Darstellung 5.1 aus (DIN 1450, Absatz 5) zeigt einen
Kreis mit einem Durchmesser E[m], der eine gleichbleibende Leserlichkeit darstellt. Die Sehlinie E’[m] beschreibt
eine nicht senkrechte Betrachtung des Informationsträgers
und ist durch die nachstehende Formel definiert.
E 0 = E ∗ cos α
Der Winkel α steht dabei für die horizontale beziehungsweise vertikale Verschiebung des Betrachters zur senkrechten Ausgangssituation. Weiterhin ist eine Mindestleseentfernung zum betrachteten Objekt notwendig. Diese wird
im Schema mit e bezeichnet und repräsentiert den Durchmesser des kleinen Lesekreises. Eine weitere Variable ist
70
Leserlichkeit
Diplomarbeit Gordon Lemme
Abbildung 5.1: Leserlichkeitsschema (Quelle: DIN 1450)
die Schriftgröße h[mm], welche durch die Schrifthöhe des
Buchstabens H festgelegt ist. Die Bestimmungsgröße für
die maximale Leseentfernung ist der so genannte Sehweitenfaktor f. Dabei definiert f=0,3 gute, f=0,23 ausreichende und f=0,12 ungünstige Lesebedingungen. Die Leseentfernung berechnet sich durch die folgende Gleichung.
E = h ∗ f ∗ 1000
1. vertikaler Lesekreis
2. horizontaler
Lesekreis
3. Sehlinie E
4. Sehlinie E’
5. Informationsträger
Zur Bestimmung des Sehweitenfaktors wird die sich anschließende Formel herangezogen.
f=
E
h
Dabei bedeuten größere f-Werte eine bessere Lesebedingung.
71
5. Verkehrszeichen
Lesbarkeit
5.3 Lesbarkeit
Definition 7 Lesbarkeit ist die Eigenschaft erkennbarer
Zeichen und leserlich angeordneter Zeichenfolgen, die es
ermöglicht, die Informationen zweifelsfrei zu verstehen.
(Quelle: DIN 1450, Seite 1)
5.4 Aufsichtfarbe
Die Aufsichtfarbe von Verkehrszeichen ist die Körperfarbe, die in DIN 5033-1 definiert ist. Dabei entsteht der
Farbeindruck durch das reflektierte Licht des Informationsträgers. In DIN 6171-1, Absatz 4, Anmerkung 2 ist die
Auswahl von Farben für den Straßenverkehr definiert.
„Die Anzahl der in einem Farbsystem zur Signalisierung
verwendeten Farbbereiche sollte so klein wie möglich und
der Abstand zwischen den Farben so groß wie möglich
sein, um Verwechselungen benachbarter Farben zu vermeiden.. . . “
Die Aufsichtfarben sind in DIN 6171-1, (Tabelle 2) mit
den nachfolgenden Eckpunktkoordinaten definiert (Tabelle 5.2).
72
Leuchtdichtefaktor β
≥0,75
Aufsichtfarbe
≥0,45
≥0,20
≥0,07
≥0,05
≥0,10
0, 04 ≤ β ≤ 0, 15
0, 16 ≤ β ≤ 0, 24
≤0,03
≥0,05
73
Tabelle 5.2: Farbbereiche für nicht retroreflektierende Materialien im Neuzustand
Diplomarbeit Gordon Lemme
Aufsichtfarbe Normfarbwertanteil Eckpunktkoordinaten der
Farbbereiche
1
2
3
4
Weiß
x
0,305 0,335 0,325 0,295
y
0,315 0,345 0,355 0,325
Gelb
x
0,494 0,470 0,493 0,522
y
0,505 0,480 0,457 0,477
Orange
x
0,610 0,535 0,506 0,570
y
0,390 0,375 0,404 0,429
Rot
x
0,735 0,700 0,610 0,660
y
0,265 0,250 0,340 0,340
Blau
x
0,140 0,160 0,160 0,140
y
0,140 0,140 0,160 0,160
Grün
x
0,230 0,260 0,260 0,230
y
0,440 0,440 0,470 0,470
Braun
x
0,467 0,447 0,447 0,467
y
0,386 0,386 0,366 0,366
Grau
x
0,305 0,335 0,325 0,295
y
0,315 0,345 0,355 0,325
Schwarz
x
0,385 0,300 0,260 0,345
y
0,355 0,270 0,310 0,395
Purpur
x
0,457 0,374 0,308 0,302
y
0,136 0,247 0,203 0,064
5. Verkehrszeichen
Aufsichtfarbe
Abbildung 5.2: Farbbereich für nicht retroreflektierende
Materialien
In Abbildung 5.2 ist die Normfarbtafel (für 2◦ -Normalbeobachter) nach DIN 5033-3 mit den Aufsichtfarben für
nicht retroreflektierende Materialen dargestellt (Quelle:
DIN 6171-1, Bild 1). Unter retroreflektierenden Materialien versteht man solche, die auf einem optischen System
basieren, welches das auftreffende Licht genau zur Quelle
zurücklenkt. Da diese Eigenschaft im Fahrsimulator derzeit nicht realisiert werden kann, wird auf nicht retroreflektierende Eigenschaften von Verkehrszeichen zurückgegriffen. In Abbildung 5.3 ist die Schnittmenge zwischen
74
Aufsichtfarbe
Diplomarbeit Gordon Lemme
dem Fahrsimulatorgamut und den Farbkoordinaten für
Verkehrszeichen dargestellt.
Abbildung 5.3: Schnittmenge zwischen Fahrsimulatorgamut und Verkehrszeichenaufsichtfarbe
75
5. Verkehrszeichen
76
Aufsichtfarbe
Diplomarbeit Gordon Lemme
6 Textur
6.1 Definition
Definition 8 (Textur) Textur ist ein Begriff aus dem
Lateinischen (textura = Gewebe) und beschreibt die Beschaffenheit, die Struktur oder die Zusammensetzung von
Dingen (Quelle: Mullkubel 26.04.2008).
In der Computergrafik werden Texturen dazu verwendet,
photorealistische Darstellungen von Objekten zu erstellen, ohne die Polygonanzahl dieser zu erhöhen (Quelle:
Creator 2007b). Bei dem Vorgang des Texturierens wird
ein Bild, zum Beispiel ein Foto, auf ein modelliertes 3DObjekt aufgetragen. Findet eine solche Abbildung von einem Bild auf die Fläche eines 3D-Objektes Anwendung,
spricht man vom Texture Mapping. Ein Texel (Tex ture
El ement) bezeichnet, äquivalent wie ein Pixel zu einem
Bild, die kleinste Einheit der Textur.
Mit zunehmender Rechengeschwindigkeit und günstigen
Speichermöglichkeiten werden die synthetischen Texturen
durch große, realitätsnahe und speicherintensive Texturen
abgelöst. Durch diese Texturen ist es dem Visualisierer
möglich, dem Anwender eine vertraute Darstellung seiner Umwelt zu generieren. Weiterhin bieten Texturen den
Vorteil, kleinere Details nicht vollständig ausmodellieren
zu müssen.
77
6. Textur
Generisch vs. Einzigartig
6.2 Generisch vs. Einzigartig
Generische (engl. gerneric) Texturen haben die Eigenschaften, dass sie wiederverwendbar und zumeist kachelbar sind.
Weiterhin weisen sie in Abhängigkeit von ihrer Art die selbe Größe auf (Quelle: Creator 2007c, Abschnitt 11-6).
Ein Beispiel für generische Texturen ist in den Abbildungen 6.2 und 6.3 dargestellt. Zu sehen sind zwei generische
Texturen, welche, wie gefordert, jeweils eine Größe von
Abbildung 6.1:
128 x 128 Pixel aufweisen. Durch dieses Merkmal ist es
3D-Objekt Kirche (Quelle: möglich, die Texturen ohne viel Aufwand gegeneinander
Creator 2007b)
auszutauschen. Die Texturen sind auf verschiedene 3DObjekte anwendbar, das heißt, die Steintextur kann zum
Beispiel an mehreren Gebäuden Anwendung finden, sie ist
in diesem Sinne nicht einzigartig. Die Kachelbarkeit ist
eine zusätzliche Eigenschaft der Textur. Sie ist gegeben,
wenn man die Textur mehrfach aneinander legen kann, ohne Nahtstellen zu erzeugen. Mit Hilfe der Steintextur aus
Abbildung 6.2 wurde in Abbildung 6.4 eine Textur der
Größe 256 x 128 Pixel erstellt. Durch diese Art der Texturverwendung kann Grafikspeicher eingespart werden, da
diese 128 x 128 Pixeltextur nur einmal in den Speicher geladen werden muss, um dann mehrfach verwendet werden
zu können.
Den generischen Texturen stehen die einzigartigen (engl.
unique) Texturen gegenüber. Sie zeichnen sich dadurch
aus, dass sie weder kachelbar, noch wiederverwendbar sind.
Das bedeutet, dass eine solche Textur einem 3D-Objekt
seine Einzigartigkeit verleiht. Diese Art der Textur eignet
sich im Wesentlichen für Objekte, bei denen es auf Details
Abbildung 6.5:
ankommt. Eine unique Textur ist vollständig auf das eine,
3D-Objekt Spitfire (Quelle: zu texturierende, Objekt abgestimmt. Das in Abbildung
Creator 2007b)
6.6 gezeigte Beispiel stammt aus der Texturengalerie des
TM
R
MultiGen-Paradigm
Creator 3.3 .
78
Generisch vs. Einzigartig
Abbildung 6.2: Steintextur
(Quelle:
Creator
2007b)
Diplomarbeit Gordon Lemme
Abbildung 6.3: Wandverkleidung
(Quelle:
Creator
2007b)
Abbildung 6.4: Kachelung der Steintextur
Creator 2007b)
(Quelle:
79
6. Textur
Generisch vs. Einzigartig
Abbildung 6.6: Textur der Beispieldatei Spitfire (Quelle:
Creator 2007b)
80
Texturaufbau
Diplomarbeit Gordon Lemme
6.3 Texturaufbau
Das verwendete RGB-Dateiformat wurde von Silicon Graphics entwickelt und ist ein Rasterbildformat. Das digitale Bild ist so codiert, dass jedes Pixel durch ein Tripel, bestehend aus jeweils einem Wert für den Rot-, den
Grün- und den Blauanteil, repräsentiert wird. Dabei unterliegen die Werte keiner Kodierung (zum Beispiel RunTM
LengthCoding), um für den OpenGL Performer lesbar zu bleiben. In Anlehnung an das menschliche Wahrnehmungssystem, wird ein Farbwert beziehungsweise ein
Farbton, durch eine additive Farbmischung erzeugt. Um
im Fahrsimulator Anwendung zu finden, muss die Textur
einer 2er-Potenz genügen. Dies ist darin begründet, dass
TM
der OpenGL Performer als Engine auf OpenGL (Open
Graphics Library) basiert. Auf dieser Grundlage bildet
TM
der OpenGL Performer die Basis für den Fahrsimulator
im Fraunhofer-Institut für Verkehrs- und InfrastrukturTM
systeme Dresden. Der OpenGL Performer unterstützt
Texturdateien bis zu einer Farbtiefe von 16 oder 32 Bit
pro Texel, Bereiche dazwischen sind ausgeschlossen. Eine
RGB-Datei (8 Bit pro Farbkanal) wird auf 32 Bit erhöht. Abbildung 6.7:
Dies entspricht der gleichen Größe einer RGBA-Datei. Die RGBA-Dateiaufbau
Quelle: Creator 2007e
maximale Größe einer Textur ist auf 8096 x 8096 Pixel
TM
R
limitiert. Im MultiGen-Paradigm
Creator 3.3 ist es
grundsätzlich möglich, auch andere Texturgrößen zu verwenden.
6.4 Texturfilter
Ein Pixel ist die kleinstmögliche Auflösungseinheit auf einem Bildschirm. Beim Rendern einer Textur wird jedem
Pixel des Bildschirmes ein Farbwert aus der Textur zugeordnet. Man unterscheidet die folgenden Möglichkeiten:
81
6. Textur
Texturfilter
full size - jedem Pixel wird genau ein Texturpunkt zugeordnet,
minified - mehrere Texel werden zu einem Bildschirmpixel zusammengefasst und
magnified - einem Texel werden mehrere Bildschirmpixel
zugeordnet.
Die Kontrolle des Texturmappings obliegt der Minificationund Magnificationeinstellungen.
6.4.1 Minificationfilter
Bei der Texturierung von Objekten kann es passieren, dass
die spätere Darstellung des Objektes kleiner ist, als die
Darstellung während des Texturierens. Ein Beispiel hierfür wäre ein Verkehrszeichen am Straßenrand im Fahrsimulator. In der Entfernung ist das Schild sehr klein und
das System muss die Textur auf das verkleinert dargestellte Schild mappen. Dieser Vorgang muss stetig, mit
zunehmender Annäherung des Fahrzeuges an das Schild,
wiederholt werden, bis es die modellierte beziehungsweise texturierte Größe erreicht hat. In einem solchen Fall,
muss das System die Textur verkleinern und somit bei
konstanter Auflösung Texel zusammenfassen. Für diese
Art von Filter gibt es weitere Optionen, um auf die Art
der Zusammenfassung von Texeln durch das System Einfluss nehmen zu können.
6.4.2 Magnificationfilter
Der Magnificationfilter behandelt den entgegengesetzen
Fall zum Minificationfilter. Bei stark vergrößerten Objekten, kann der Fall eintreten, dass die Auflösung der Darstellung größer als die der Textur ist. In einer solchen Si82
Texturfilter
Diplomarbeit Gordon Lemme
Abbildung 6.8: Funktionsprinzip des Minificationfilters
tuation muss das System mit einem Texel mehrere Voxel
(Volume El ement) texturieren. Das heißt, ein Farbwert
einer Textur wird auf mehrere dargestellte Pixel verteilt.
Für diesen Filter gibt es weitere Optionen, um auf die zusätzlich erzeugten Farbwerte Einfluss nehmen zu können.
Abbildung 6.9: Funktionsprinzip des Magnificationfilters
83
6. Textur
Texturfilter
6.4.3 Filterermittlung
Um bestimmen zu können, ob eine Textur minified oder
magnified ist, gilt die folgende Berechnungsvorschrift.
gerenderte Texelanzahl
T extur = log2
Texelanzahl
Für den Fall, dass die Textur gleich null ist, stehen die
beiden Bilder im Verhältnis 1:1. Ergibt sich ein negativer Textur-Wert, ist die Anzahl der Texel größer als die
auf der gerenderten Fläche. Dann ist die Textur minified
und die unter Abschnitt 6.4 angegebenen Minificationsfilter finden Anwendung. Ist der Textur-Wert positiv, ist
die Anzahl der dargestellten Pixel größer als die der Textur. Für diesen Fall ist sie magnified und die Magnificationfilter (Abschnitt 6.4.2) werden angewandt. (Quelle:
Creator 2007b, Seite 811)
6.4.4 Texture Environment Filter
Das Texture Environment kontrolliert den Algorithmus,
der für die Überblendung von Textur und Polygonfarbe
zuständig ist. Auch für diesen Algorithmus gibt es weitere
Optionen, um die Überblendung beeinflussen zu können.
Die Texture Environment-Einstellungen können im Texture Attributes-Fenster für jede Textur festgelegt werden.
6.4.5 Filteroptionen
Mit Hilfe der Filteroptionen lassen sich die Filter spezifizieren und können an verschiedene Bedürfnisse angepasst
R
werden. Im Folgenden sind die im MultiGen-Paradigm
TM
Creator 3.3 vorhandenen Filteroptionen kurz erläutert.
84
Texturfilter
Diplomarbeit Gordon Lemme
Point
Berechnet die Farbe des dargestellten Pixels durch die
Auswahl des Farbwertes, der diesem Pixel am nächsten
liegenden korrespondierenden Texels (Abbildung 6.10).
Abbildung 6.10: schematische Darstellungen eines PointFilters
Bilinear
Berechnet die Farbe des dargestellten Pixels durch die
Bildung des Durchschnittswertes der vier nächsten Texel
(4er-Nachbarschaft) des korrespondierenden Pixels (siehe
Abbildung 6.11).
Bicubic
Berechnet den Farbwert des dargestellten Pixels durch die
Bildung des Durchschnittswertes der acht benachbarten
Texel (8er-Nachbarschaft) des korrespondierenden Pixels
(siehe Abbildung 6.12).
85
6. Textur
86
Texturfilter
Abbildung 6.11: schematische
Darstellungen
Bilinear-Filters
eines
Abbildung 6.12: schematische
Bicubic-Filters
eines
Darstellungen
Texturfilter
Diplomarbeit Gordon Lemme
MipMap
Das Mipmapping ist eine Methode, mit derer Objekte in
unterschiedlicher Entfernung mit unterschiedlich detaillierten Texturen belegt werden. Um eine Folge von MipMaps erzeugen zu können, muss die gewählte Textur den
Dimensionen einer 2er-Potenz genügen. Aus dieser Textur
werden dann viele Texturen verschiedener Auflösung erstellt. Mit Hilfe der LOD- Berechnungsvorschrift 7.4 wird
bestimmt, welche Textur zum Einsatz kommt. Die Speicherauslastung bei der Wahl von MipMap-Filtern ist um
1
3 höher gegenüber der Standardtexturierung.
Sharpen
Aus den beiden größten MipMap-Karten wird jeweils der
Durchschnittswert aus der 4er-Nachbarschaft des Texels
gebildet. Diese beiden Werte werden zu einem Farbwert
extrapoliert.
Add Detail
Die Textur wird durch eine größere detailreichere Textur
ersetzt.
Modulate Detail
Die Textur wird mit einer detailreicheren Textur überblendet.
None
In der None-Einstellung wird der Farbwert eines jeden
Pixels mit Hilfe der Default-Einstellungen des Systems
berechnet (Bilinear).
87
6. Textur
Creator
6.5 Creator
6.5.1 Internal-Dateiformat
TM
R
Der MultiGen-Paradigm
Creator 3.3 verarbeitet die
Texturen (RGB-Dateien), indem er diese in ein internes
Abbildung 6.13:
Format umwandelt. Bei dieser Umwandlung können durch
Texture Attribute Editor–
verschiedene Einstellungen Informationen verloren gehen.
Ausschnitt
R
In der Standardeinstellung des MultiGen-Paradigm
CreaTM
tors 3.3 werden RGB-Dateien in TX_RGB_5 Dateien
umgewandelt. Diese Umwandlung komprimiert die 24 Bit
Bilder in 16 Bit Dateien. Dabei erfahren der Rot- und
Blaukanal eine 5 Bit und der Grünkanal eine 6 Bit Abtastung. Diese Einstellung steigert die Performance, wobei
durch die fehlenden 8 Bit eine leichte Bildverschlechterung zu erwarten ist.
6.5.2 Filterstandard
Die Standardeinstellungen der Texturen lassen sich im
TM
R
MultiGen-Paradigm
Creator 3.3 : Preferences Optionsfenster verändern. Hier lassen sich die Minification /
Magnification Optionsfelder anwählen. Mit diesen Filtereinstellungen werden grundsätzlich alle Texturen behandelt. Es ist jedoch möglich für jede Textur eine manuelle
Änderung der Optionen vorzunehmen. Die Vorgehensweise zur Änderung sind in Abschnitt 6.5.3 beschrieben.
6.5.3 Filtereinstellung
TM
R
Der MultiGen-Paradigm
Creator 3.3 arbeitet mit einer übersichtlichen Texture Palette, in welche ein zusätzlicher Bildeditor integriert ist. Dabei handelt es sich um ein
einfaches Grafikwerkzeug, um einzelne Texturen nachzubearbeiten. Durch das Doppelklicken auf eine ausgewählte
88
Creator
Diplomarbeit Gordon Lemme
Textur, öffnet sich der Texture Attribute Editor, in dem
der Nutzer verschiedene Einstellungsmöglichkeiten vorfindet. In der Abbildung 6.14 ist das Texture AttributesFenster abgebildet. Im Feld Minification/Magnification
lassen sich die in Abschnitt 6.4.5 erläuterten Filtereinstellungen auswählen.
TM
R
Abbildung 6.14: MultiGen-Paradigm
Creator 3.3
tribute Editor
At-
89
6. Textur
Berechnungsvorschriften
6.6 Berechnungsvorschriften
An dieser Stelle werden die Berechnungsvorschriften vorgestellt, welche für die Texturverarbeitung wichtig sind.
Diese Gleichungen unterliegen grundlegender mathematischer Gesetzmäßigkeiten. Dabei werden innerhalb der Berechnungen keine Kompressionsalgotithmen berücksichtigt.
In den folgenden Abschnitten wird auf die Speichergröße, die interne Speichergröße und die Texturgröße eingegangen. Dabei unterscheidet sich die interne MultiGenTM
R
Paradigm
Creator 3.3 -Speichergröße deutlich von der
konventionellen Größe.
6.6.1 Speichergröße der Textur
Die allgemeine Berechnungsvorschrift zur Ermittlung der
Speicherplatzgröße ist in der nachfolgenden Gleichung dargestellt. Es wird unterstellt, dass keinerlei Kodierung (zum
Beispiel RunLengthCoding) vorgenommen wurde.
Bilddimension = Bildhöhe[px] ∗ Bildbreite[px]
F arbtief e[Bit] = Kanäle ∗ Farbtiefe
[Bit]
[Kanal]
Speicherplatz[Bit] = Bilddimension ∗ Farbtiefe[Bit]
Speicherplatz[Byte] =
Speicherplatz[KB] =
Speicherplatz[Bit]
8
Speicherplatz[Byte]
1024
An einem Zahlenbeispiel verdeutlicht heißt das für eine 32
x 32 Pixel-Textur, dass sich der Speicherplatzbedarf wie
90
Berechnungsvorschriften
Diplomarbeit Gordon Lemme
folgt berechnet.
Bilddimension = 32[px] ∗ 32[px]
= 1024
F arbtief e[Bit] = 3 ∗ 8[Bit]
= 24
Speicherplatz[Bit] = 1024 ∗ 24[Bit]
Speicherplatz[Byte] =
24576[Bit]
8
Speicherplatz[KB] =
3072[Byte]
1024
= 3, 072[KB]
6.6.2 Speichergröße Creator intern
An einem Beispiel soll gezeigt werden, wie sich die Speicherauslastung durch die Defaulteinstellung im Texture
Attributes Editor ändert. In der folgenden Gleichung wird
die Farbtiefe auf Grundlage der in Abschnitt 6.5.1 beschriebenen Änderungen neu berechnet.
Die ersten beiden Brüche stehen für den jeweiligen roten
beziehungsweise blauen Farbanteil und der Letzte gehört
zum Grünanteil.
F arbtief e[Byte] =
5 5 6
+ +
8 8 8
Aus dieser Farbtiefenreduzierung ergibt sich dann für die
interne Verarbeitung der Textur die folgende Gleichung.
91
6. Textur
Berechnungsvorschriften
Zu beachten ist, dass die Farbtiefe statt 24 Bit nur noch
16 Bit beträgt. Der Speicherplatzbedarf reduziert sich bei
einer 24 Bit Textur um den Faktor 13 .
Bilddimension = Bildhöhe[px] ∗ Bildbreite[px]
= 32[px] ∗ 32[px]
= 1024
Speicherplatz[KB] = Bilddimension ∗ Farbtiefe[Byte]
= 1024 ∗ 2[Byte]
= 2, 048[KB]
6.6.3 Texturgröße
Eine Textur sollte immer in Abhängigkeit zu der Größe des zu texturierenden Objektes und dessen Beobachtungsentfernung stehen. Daraus ergibt sich die Gleichung
zur Berechnung der Texturauflösung und wird durch ein
nachstehendes Beispiel verdeutlicht. Das zu texturierende
Objekt hat eine Breite von 0,90 m und die Textur eine
Größe von 32 x 32 Texel.
Auf lösung =
Weltgröße
Texelanzahl der Achse
Auf lösung =
0, 90[m]
32[T exel]
= 0, 028125[m pro T exel]
92
Berechnungsvorschriften
Diplomarbeit Gordon Lemme
Die optimale Texturgröße für ein 0,9 m breites Objekt
lässt sich durch die folgende Gleichung berechnen.
P ixelgröße =
horizontaler FOV
horizontale Auflösung
70[◦ ]
=
1280[px]
= 0, 0546875[◦ pro px]
Radiant = Bogenmaß(Auflösung)
= Bogenmaß(0, 0546875[◦ pro px])
= 0, 00095448[px]
Auf lösung = Viewpointabstand ∗ Radiant
= 25[m] ∗ 0, 00095448[px]
= 0, 023862[m pro px]
T exturgröße =
Weltgröße[m]
Auflösung[m pro px]
=
0, 9[m]
0, 023862[m pro px]
= 37, 7168[px]
Wenn der Abstand vom Fahrer des Fahrsimulators zum
betrachteten Objekt 25 Meter beträgt, ergibt sich bei einer Auflösung von 1280 Pixel und einem Field of View von
70◦ , eine Texturbreite von etwa 37 Pixel. Da es sich bei
dieser Texturbreite um keine 2er-Potenz handelt, besteht
die Möglichkeit die Textur mit einer kleineren Texturbrei93
6. Textur
Texturerstellung
te von 32 Pixel zu erstellen und Informationsverluste zu
akzeptieren. Für einen vollständigen Informationsgehalt
muss die Textur auf eine Größe von 64 Pixel vergrößert
werden. Eine zusätzliche Option besteht in der Kachelung
einer Textur, sofern es sich bei dieser um eine generic Textur handelt. Durch dieses Verfahren, welches in Abschnitt
6.2 beschrieben ist, wird Rechenkapazität eingespart und
es kann zur Performancesteigerung genutzt werden.
6.7 Texturerstellung
Texturen werden mit Hilfe von Grafikprogrammen erstellt,
bearbeitet und im gewünschten Grafikformat abgespeichert. Zum Vereinfachen der Arbeitsschritte zur Modelltexturierung sollte ein einheitliches Dateiaustauschformat
gefunden werden. Um eine konsistente Farbdarstellung zu
erhalten, ist es notwendig, dass sich das gesamte Produktionssystem dem kleinsten darstellbaren Farbraum unterwirft. Bei Farben, die außerhalb dieser definierten Farbpalette liegen, werden die Farbwerte verfälscht und die
Farbe falsch wiedergegeben.
R
6.7.1 Adobe
Photoshop CS2
TM
Um Dateien im RGB-Format bearbeiten zu können, beTM
R
darf es im Adobe
Photoshop CS2 einem zusätzlichen
Filter. Dieser Filter (SGIFormat.8BI (Quelle: SGIFilter 26.04.2008)) muss im Programmverzeichnis (.../Adobe Photoshop CS2/Zusatzmodule/Dateiformat) abgelegt
werden. Der Filter wird bei jedem Programmaufruf autoTM
R
matisch von Adobe
Photoshop CS2 geladen und es ist
R
möglich RGB-, sowie RGBA-Dateien in Adobe
PhotoTM
shop CS2 zu öffnen, zu bearbeiten und zu speichern.
94
Texturerstellung
Diplomarbeit Gordon Lemme
Um einen Alphakanal zu erzeugen, muss dieser im Kanalfenster angelegt werden. In ihm werden die schwarz
dargestellten Flächen transparent und die weißen Flächen
sichtbar. Der erzeugte Alphakanal kann mit den zur Verfügung stehenden Werkzeugen bearbeitet werden. Die erstellte Datei muss die Erweiterung RGBA erhalten, um
den zusätzlichen Kanal einbinden zu können.
TM
R
Abbildung 6.15: Adobe
Photoshop CS2
erstellung
Alphakanal-
TM
R
6.7.2 Jasc
Paint Shop Pro 8
R
Die Verarbeitung von Texturen im Jasc
Paint Shop Pro
TM
TM
R
8 basieren, wie im Adobe Photoshop CS2 auf den
grundlegenden Werkzeugen der Grafikverarbeitung. Im UnTM
R
terschied zum Adobe
Photoshop CS2 wird der AlphaTM
R
kanal im Jasc
Paint Shop Pro 8 über die Menüleiste
95
6. Textur
Texturerstellung
der RGBA-Datei hinzugefügt. Dazu werden die darzustellenden Flächen des Bildes ausgewählt und mit dem Menüpunkt Auswahl in Alphakanal speichern... in der Bilddatei abgelegt. Dieser Unterpunkt ist unter Auswahl→ Auswahl laden/speichern zu finden.
TM
R
Abbildung 6.16: Jasc
Paint Shop Pro 8
erstellung
96
Alphakanal-
Diplomarbeit Gordon Lemme
7 Level of Detail
In vielen Visualisierungen hat das verarbeitende System
große Datenmengen zu rendern. Dies liegt zum Einen an
der Größe und Detailgenauigkeit der Texturen, am polygonintensiven Modellieren und nicht zuletzt an der Größe der gesamten Datenbank. Um in einer Echtzeitanwendung, wie es ein Fahrsimulator ohne Zweifel ist, die Daten
zeitnah präsentieren zu können, gibt es verschiedene Vorgehensweisen den Flaschenhals der beschränkten Rechenzeit zu umgehen. Eine Variante ist die grundlegende Verkleinerung des Datenvolumens, wobei dies zumeist eine
fehlende Realitätsnähe nach sich zieht. Eine andere Vorgehensweise ist die Nutzung von Levels of Detail, welche
im Folgenden allgemein beschrieben wird.
7.1 Definition
Definition 9 (Level of Detail) Das Level of Detail
(kurz: LOD) ist eine Methode zur Verringerung des zu
berechnenden Datenvolumens. Diese Verkleinerung erfolgt auf Grundlage der Festlegung verschiedener Spezifizierungsgrade von 3D-Modellen und nutzt dabei die
menschliche Wahrnehmungsschwäche sowie die geringere Darstellungsauflösung.
97
7. Level of Detail
Funktionsweise
7.2 Funktionsweise
Wie der Name, Level of Detail, schon sagt, werden verschiedene Detailstufen für ein 3D-Objekt festgelegt. Diese Detaillierungsgrade werden so gewählt, dass Objekte,
welche sich im Fokus des Betrachters befinden, mit vielen Einzelheiten dargestellt werden. Dies kann durch eine erhöhte Polygonanzahl sowie durch eine alle Einzelheiten umfassende Textur geschehen. Bei Objekten, die sich
nicht im Fokus befinden, weil sie entfernter liegen, wird
eine gröbere Darstellung gewählt. Diese wiederum beinhaltet weniger Polygonflächen beziehungsweise eine detailärmere Textur. Die verschiedenen Level werden dann,
je nach Bedarf, respektive Nutzereinstellungen, geladen
und ermöglichen somit eine realitätsnahe, kontinuierliche
Präsentation.
Abbildung 7.1: Aufteilung des Frustums in LODs (Quelle:
Creator 2007a)
98
Significant Size
Diplomarbeit Gordon Lemme
7.3 Significant Size
Im Szenengraphen wird für die unterschiedlichen Levels of
Detail jeweils ein LOD-Knoten angelegt. Die darunter befindlichen Knoten (Gruppen, Objekte, Faces) werden, den
Entfernungseinstellungen entsprechend, ein- beziehungsweise ausgeblendet. Durch die reine Distanzangabe wird
das Objekt eingeblendet, wenn sich der Betrachter innerhalb dieser Entfernung befindet. Demnach ist die Darstellung nur von der Entfernung des Betrachters zum LODCenter abhängig. Die Darstellungsmöglichkeiten (Anzahl
der darstellbaren Pixel, Pixelgröße auf dem Ausgabemedium oder Field of View) der verschiedenen Ausgabegeräte
(Monitor, Projektor, usw.) werden nicht berücksichtigt.
Mit Hilfe der Significant Size ist es möglich anzugeben,
wie groß ein Objekt, in Abhängigkeit der Pixelgröße sein
muss, um dargestellt zu werden. Anhand eines Beispiels
soll der Einsatz verdeutlicht werden.
Bei einem modellierten Würfel beträgt die Seitenlänge
einen Meter. Wenn nun die Entfernung zum Objekt durch
Herauszoomen soweit vergrößert wird, dass der Würfel
genau einen Pixel groß ist, entspricht ein Pixel genau einem Meter. Dies stellt im Weiteren die Significant Size
dar. Für den Fall, dass der Würfel durch vier Pixel (zwei
horizontal sowie vertikal) dargestellt wird, entspricht die
Größe eines Pixels 0,5 Meter. Durch das Significant SizeAttribut ist es möglich, den Würfel erst dann einzublenden, wenn die Ausmaße eines Pixels kleiner oder gleich
einem Meter entsprechen. Erst dann ist es möglich den
Würfel abzubilden.
In Abschnitt 7.4.1 wird die Berechnung der Pixelgröße auf
einer Leinwand angegeben.
99
7. Level of Detail
Berechnungsvorschriften
7.4 Berechnungsvorschriften
7.4.1 Pixelgröße auf Leinwand
Zur Berechnung der Pixelgröße auf einer Leinwand werden die Auflösung, das Field of View sowie die Entfernung des Projektors zur Projektionsfläche (d) benötigt.
Die im Beispiel aufgeführten Werte entsprechen denen im
Fahrsimulator des Fraunhofer-Instituts für Verkehrs- und
Infrastruktursysteme Dresden.
[m]
)
2 ∗ ((d) ∗ tan F OV
2
P ixelgröße =
Auf lösung[px]
◦
2 ∗ ((4[m]) ∗ tan 702 )
=
1280[px]
=
3, 790517763[m]
1280[px]
= 0, 002961342
= 0, 2961342
[m]
[px]
[cm]
[px]
Mit den gewählten Parametern beträgt die Größe eines
Pixels auf der Leinwand circa 0,3 cm.
7.4.2 Objektentfernung
Zur Berechnung der Objektentfernung werden die horizontalen Parameter, Objektbreite in der realen Welt, Objektbreite auf der Leinwand und horizontale Auflösung
benötigt. In dem folgenden Gleichungssystem wird die
Entfernung eines 0,9 Meter breiten Verkehrsschildes be100
Berechnungsvorschriften
Diplomarbeit Gordon Lemme
rechnet, welches bei einer Auflösung von 1280 Pixel eine
Leinwandgröße von etwa 40 Pixel besitzt.
Entf ernung[m] =
(Auflösung[px] ∗ reale Objektgröße[m])
2 ∗ Leinwandobjekt[px] ∗ tan FOV
2
Entf ernung[m] =
1280[px] ∗ 0, 9[m]
2 ∗ 40[px] ∗ tan 70
2
=
1152[px][m]
37, 9051776[px]
= 30, 39162[m]
Das bedeutet, dass sich ein solches Objekt etwa 30,39
m vom Beobachter entfernt befindet. (Quelle: Creator
2007d, Abschnitt 14-5)
101
7. Level of Detail
Berechnungsvorschriften
7.4.3 reale Objektgröße
Um angeben zu können, wie groß ein Objekt auf der Leinwand in einer bestimmten Entfernung abgebildet wird,
kann man mit der folgenden Formel arbeiten. Das Zahlenbeispiel beruht auf den unter 7.4.2 angegebenen Werten.
Größe[px] =
=
=
Objektgröße in der Realität[m]
FOV 2
2 ∗ Entfernung zum Objekt[m] ∗ tan Auflösung
0, 9[m]
70 2
2 ∗ 25[m] ∗ tan 1280[px]
0, 9[m]
[m]
0, 018508387 [px]
= 48, 626[px]
Ein Objekt mit diesen Ausmaßen und einer solchen Entfernung ist auf der Leinwand etwa 48,626 px groß. (Quelle:
Creator 2007d, Abschnitt 14-6)
102
Diplomarbeit Gordon Lemme
8 Hardware
Die Hardware ist ein elementarer Bestandteil einer Simulationsumgebung und bezeichnet die maschinentechnischen Teile eines Systems. Im Fraunhofer-Institut für
Verkehrs- und Infrastruktursysteme Dresden wird derzeit
auf die in Abschnitt A aufgeführten Bauteile zurückgegriffen. Das Betriebssystem bildet die Schnittstelle zwischen
Hard- und Software und wird deshalb in diesem Kapitel
mit seinen Parametern kurz dokumentiert.
8.1 Grafikkarte
Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden wurden fünf Grafikkarten der Firma Gainward mit einem nVidia Chipsatz
verbaut. Dabei handelt es sich um die Gainward GeForce4 PowerPack! Ultra/750, deren Spezifikation im Anhang
A.1 zu finden ist.
Die Grafikkarte ist wesentlich für die Bilddarstellung und
besteht unter anderem aus den folgenden Bestandteilen.
Der Grafikspeicher enthält Daten, die zur Berechnung an
den Grafikprozessor geleitet werden. Weiterhin zählen bereits berechnete Daten dazu, die zu einem späteren Zeitpunkt wiedergegeben werden.
Der Grafikprozessor verrechnet die aus dem Grafikspeicher kommenden Daten zu einem Bild und legt diese wie103
8. Hardware
Grafikkarte
der im Grafikspeicher ab.
Die Grafikkarte ihrerseits besitzt bereits Optionen, um die
Darstellung von Objekten anzupassen. Zwei dieser für die
3D-Darstellung wichtigen Einstellungen sind nachstehend
kurz erläutert.
8.1.1 Anisotrope Filterung
Abbildung 8.1:
Anisotrope Filterung
104
Der anisotrope Filter kommt bei Flächen zum Einsatz,
die aus einem flachen Betrachtungswinkel gesehen werden. Die darzustellenden Texel sind nicht mehr quadratisch und müssen angepasst werden. Bei der Anpassung
durch die Filtereinstellung lässt sich die Anzahl der zu betrachtenden Nachbarpixel auswählen, welche zur Generierung des Pixels herangezogen werden. In der Abbildung
8.2 wird die Anwendung der anisotropen Filterung erkennbar. Der Nutzer des Fahrsimulators hat auf die dargestellte Straße einen flachen Betrachtungswinkel. Dadurch
wird die Straße perspektivisch verzerrt. Deutlich wird dies
anhand des y und y’ Wertes, wobei die Strecke y kürzer
als die Strecke y’ ist. Dies muss bei der Berechnung der
Texturen durch das System berücksichtigt werden, da auf
einem Pixel der Leinwand im Fall y mehr Informationen
zusammengerechnet werden müssen, um den Farbwert zu
bilden, als dies für y’ der Fall ist. Die Art und Weise der
Berechnung durch die Grafikkarte wird durch die anisotrope Filtereinstellung festgelegt. Der Filterfaktor gibt die
Anzahl der maximal betrachteten Texel an. Dabei ist diese vom Neigungswinkel des Polygons abhängig. Der anisotrope Filter arbeitet additiv und belastet durch diese
Berechnungen die Grafikkarte zusätzlich.
Grafikkarte
Diplomarbeit Gordon Lemme
Abbildung 8.2: Anisotrope Filterung am Beispiel einer
Straße
105
8. Hardware
Grafikkarte
8.1.2 Anti-Aliasing Filterung
Das Aliasing wird auch als Treppeneffekt bezeichnet, der
durch eine zu geringe Auflösung des Bildes an Schrägen,
Rundungen und Farbübergängen entsteht. Mit Hilfe einer Anti-Aliasing Filterung wird eine so genannte Kantenglättung durchgeführt. Das bedeutet, dass die Objekte
an Schärfe verlieren, aber weicher ineinander überblenden.
Die Vorteile dieser Technik liegen auf der Hand. Scharfe
Übergänge werden weicher und das Pixelflimmern bei sehr
kleinen Flächen kann reduziert werden. Dennoch hat diese
Technik auch beträchtliche Nachteile, was die Echtzeitfähigkeit anbelangt. Durch die Glättung entstehen zusätzliche Zwischenwerte, die sowohl berechnet, als auch gespeichert werden müssen (Quelle: Seifert 26.04.2008).
Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden stellt die Erkennbarkeit von Verkehrszeichen ein grundlegendes Problem dar.
Dabei führen 1-Pixel-Übergänge zu Flimmern. Die Anwendung der Anti-Aliasing Filterung würde dieses Problem grundsätzlich lösen, allerdings kommt es dadurch zu
einer unscharfen Darstellung der Zeichen. Dieses wiederum erschwert das Erkennen und Wahrnehmen des Verkehrszeichens.
Berechnung
Um die Glättung eines Pixels vorzunehmen, werden Nachbarpixel betrachtet, wobei die Art der Auswahl verschiedenen Algorithmen unterliegt, welche an dieser Stelle nicht
weiter ausgeführt werden. Es sei nur soviel festgehalten,
dass die Anzahl „2x“, “4x“,... in der Grafikkarteneinstellung die Anzahl der betrachteten Pixel definiert. Je größer
die Anzahl, desto mehr Rechen- und Speicheraufwand ist
von der Grafikkarte für die Berechnung zu leisten.
106
Projektor
Abbildung 8.3:
Verkehrszeichen mit
Anti-Aliasing
Filterung (Quelle: Creator 2007b)
Diplomarbeit Gordon Lemme
Abbildung 8.4:
Verkehrszeichen
ohne
Anti-Aliasing
Filterung
(Quelle:
Creator 2007b)
8.2 Projektor
8.2.1 Technik
Die Digital Light Processing-Technik (DLP-Technik) basiert auf der Reflektion von Licht. Dabei können die auf
dem Digital Mirror Device (DMD) platzierten Spiegel einzeln gesteuert werden. Die verwendeten Projektoren im
Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden besitzen jeweils 1.310.720 kleine Spiegel. Diese Spiegel besitzen zwei Positionen, in welche sie gekippt
werden können. Die Positionen beeinflussen die Lichtreflektion und geben an, ob Licht auf die Leinwand reflektiert wird oder nicht. Durch diese Vorgehensweise lassen
sich schwarz-weiß Bilder erzeugen. Mit Hilfe einer Manipulation können auch Graubilder erzeugt werden. Dazu
wird die Trägheit des menschlichen Auges (Abschnitt 4.6)
ausgenutzt. Die Spiegel werden in schneller Abfolge hin
und her geschalten, wodurch der Eindruck eines Graubil107
8. Hardware
Projektor
des entsteht. Um bei einem 1-Chip-DLP Projektor Farben erzeugen zu können, muss zwischen der Lichtquelle
und den Spiegeln ein Farbrad installiert werden. Auf dem
Farbrad befinden sich die drei Grundfarben (RGB), welche durch Rotation des Rades jeweils ein rotes, grünes
und blaues Bild erzeugen. Da sich das Farbrad mit großer
Geschwindigkeit dreht und das menschliche Auge diesbezüglich eine träge Wahrnehmung hat, wird der Mensch
nur ein buntes Bild sehen.
Abbildung 8.5: Aufbau eines 1-Chip-DLP Projektors
(Quelle: Serck 26.04.2008)
8.2.2 Perspektivische Verzerrung
Diese Verzerrung ist kein Abbildungsfehler, es handelt
sich vielmehr um eine perspektivische Darstellung der Grö108
Projektor
Diplomarbeit Gordon Lemme
ßenverhältnisse. Die Verzerrung entsteht durch den unterschiedlich langen Weg der Lichtstrahlen zur Projektionsebene. Bei der Betrachtung einer ebenen Projektionsfläche werden Lichtstrahlen zum Projektionsmittelpunkt
einen kürzeren Weg zurücklegen, als Strahlen zum Projektionsrand. Begründung findet dieser Umstand im Satz von
Pythagoras, welche aussagt, dass die Hypotenuse immer
länger als die Kathete sein muss. Dabei wird die perspektivische Verzerrung durch die zwei nachstehenden Indikatoren bestimmt.
Zum Einen beeinflusst der Projektionswinkel die Stärke
der Verzerrung. Die Winkelgröße und die Hypotenusenlänge stehen in einem proportionalen Verhältnis. Folglich
nimmt die Verzerrung mit größer werdendem Winkel zu.
Zum Anderen kommt es durch den Projektionsabstand zu
einer direkten Beeinflussung. Mit zunehmender Projektionsentfernung verstärkt sich die Verzerrung.
Ein bekanntes Beispiel für perspektivische Verzerrung sind
die stürzenden Linien. Dabei verlaufen senkrechte Linien
nicht parallel nach oben, sondern nach der Gesetzmäßigkeit der Zentralperspektive in einem Fluchtpunkt zusammen.
Um das Problem der perspektivischen Verzerrung und der
vermeintlich ungenauen Abbildung zu beschreiben, wird
im Folgenden aus Gregory 2001, Seite 213 zitiert.
„Es gibt also ein Problem: Warum wird eine streng geometrische Perspektive ziemlich selten verwirklicht?
Schließlich hat das Netzhautbild eine geometrische Perspektive (jedes Merkmal schrumpft mit einer Verdopplung der Entfernung auf die Hälfte seiner Größe), warum
also reproduziert der Maler so selten das Bild des Auges,
um auf seinem Gemälde eine Tiefenwirkung zu erzielen?
109
8. Hardware
Projektor
Wir können sofort sehen, dass es dabei eine sehr reale
Schwierigkeit gibt. Zwar ist das Netzhautbild wie eine
Fotografie streng perspektivisch, doch so sehen wir die
Welt nicht, denn unser Bild wird durch perzeptorische
Skalierungsmechanismen modifiziert.“ (siehe Abschnitt
2.2)
Um im Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme Dresden derartige perspektivische Verzerrungen zu vermeiden, wird die 3D-Umgebung auf eine sphärische Leinwand projiziert. Dabei übernimmt die UTMSoftware der Firma 3D-Perception die Berechnung der
Darstellung. Die Software ist auf die geometrisch korrekte
Präsentation von Bildern auf gewölbte Leinwände ausgerichtet. Zudem bietet sie die Möglichkeit, mehrere Projektoren zur Darstellung zu benutzen und die Projektionsübergänge anzupassen.
Abbildung 8.6: UTM-Software-Screenshot
110
Diplomarbeit Gordon Lemme
9 Optimierung
In diesem Abschnitt werden die Optimierungsschritte zur
Performanceverbesserung aufgeführt und eine Begründung
für die gewählten Parameter gegeben. Diese Parameter
basieren auf den gewonnenen Erkenntnissen der vorangegangenen Abschnitte.
9.1 Texturverkleinerung
Die bestehenden Häusertexturen, welche eine Größe von
mindestens 512 x 512 Pixel aufwiesen, wurden auf der
Grundlage von Abschnitt 6.6.3 verkleinert. Weiterhin wurden aus diesen Texturen die, unter Umständen vorhandenen, redundanten Informationen entfernt. Für den Fall der
Häusertexturierung ist somit eine Zerlegung der uniquen
Texturen in generische Texturen (Abschnitt 6.2) erfolgt.
Diese Maßnahme zieht eine Vervielfachung der verwendeten Texturen nach sich, wodurch eine Überarbeitung der
vorhandenen Modelle nötig wurde. Die 3D-Modelle sind
entsprechend der Texturaufsplittung zu zerlegen. Dabei
erhöht sich die Anzahl der Polygone. Der aufmerksame
Leser erkennt an dieser Stelle die Problematik, dass durch
die Verkleinerung der Texturen Rechenkapazität eingespart wird. Die daraus resultierende Erhöhung der Polygonanzahl nimmt zusätzliche Berechnungszeit in Anspruch.
In der nachstehenden Tabelle 9.2 wird die Veränderung
TM
R
der MultiGen-Paradigm
Creator 3.3 Statistik für ein
ausgewähltes 3D-Objekt (9.3 und 9.4) angeführt, wobei
Abbildung 9.1:
Eine nicht optimierte Textur mit Redundanz
Abbildung 9.2:
Eine optimierte Textur ohne Redundanz
111
9. Optimierung
Texturverkleinerung
die bereits genannten Veränderungen ablesbar sind. Zusätzlich sind die bei der Konvertierung (flt-Dateiformat in
pfb-Dateiformat) dieses 3D-Objektes entstehenden Daten
in der Tabelle angegeben. Bei den zu untersuchenden Ver-
Statistik
optimiertes Objekt
Abbildung 9.4
Gruppenknoten 4
Objekte
3
3-seitige Poly- 150
gone
4-seitige Poly- 126
gone
Faces
276
Dreiecke
402
Vertices
954
Texturanzahl 12
Texturgröße
210[KB]
Größe FLT
84,34[KB]
Größe PFB
35,41[KB]
nicht optimiertes Objekt
Abbildung 9.3
3
3
3
8
11
19
41
3
6147[KB]
18,02[KB]
2,28[KB]
Tabelle 9.2: Statistiktabelle für Beispielhaus
kehrszeichen wurde die Texturgröße drastisch reduziert.
Das Ausgangsmaterial, welches eine Größe von 512 x 512
Pixel besaß, ist auf 64 x 64 Pixel verkleinert wurden. Diese Reduzierung ist in Abschnitt 6.6.3 begründet. Die dort
verwendeten Daten (FOV=70◦ , Auflösung=(1280 x 1024
Pixel), Schildergröße=0,9 m) sind entsprechend der Simulatordaten gewählt.
112
Texturverkleinerung
Diplomarbeit Gordon Lemme
R
Abbildung 9.3: MultiGen-Paradigm
Creator 3.3
spielhaus - nicht optimiert
TM
Bei-
113
9. Optimierung
Texturverkleinerung
R
Abbildung 9.4: MultiGen-Paradigm
Creator 3.3
spielhaus - optimiert
114
TM
Bei-
Texturfilter
Diplomarbeit Gordon Lemme
9.2 Texturfilter
Im Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden kommt lediglich die
Nutzung des Minification Filters (Abschnitt 6.4.1) in betracht, da die Auflösung des 3D-Objektes nie größer als
die der Textur wird (Magnificationfilter Abschnitt 6.4.2).
In diesem Zusammenhang wurden verschiedene Experimente zur Nutzung von unterschiedlichen Minificationfilter getestet. Das Ziel dieser Experimente war die Auswahl
des idealen Filters. Da die Nutzung eines Filters zusätzlichen Rechenaufwand nach sich zieht, wurde aufgrund
bisheriger Erkenntnisse auf die Anwendung eines Filter
verzichtet. Dies begründet sich in der zusätzlich benötigten Rechenleistung gegenüber einer kaum beziehungsweise gar nicht sichtbaren Bildverbesserung. Zudem wurde durch die automatische Kantenglättung die Lesbarkeit
(Abschnitt 5.3) verschlechtert. Die mögliche Bildverbesserung wurde anhand von subjektiven Wahrnehmungseindrücken gemessen. Dabei erfuhr der Fahrer des Fahrsimulators keine merkliche Erkennbarkeitsverbesserung der
Verkehrszeichen. Um Rechenleistung einzusparen wird auf
die Nutzung der Magnificationfilter, wie auch der Minificationfilter, bei Verkehrszeichen verzichtet.
9.3 Moiré-Effekt
Der zu beobachtende Moiré-Effekt entsteht, wenn periodische Strukturen unterabgetastet werden. Dabei ist die
Abtastfrequenz niedriger als die doppelte Frequenz der
Struktur und es bildet sich ein nicht vorhandenes Muster
(Quelle: Hischer 2004). Zur Behebung dieses Effektes
ist die Verwendung eines Anti-Aliasing Filters notwendig
(Abschnitt 8.1.2). Diese Filteroption lässt sich mit Hil115
9. Optimierung
Moiré-Effekt
fe der Einstellungsassistenten von Grafikkarte justieren.
Im Bild 9.5 ist ein Screenshot einer solchen Einstellungsoption abgebildet. Bei Erhöhung der zu betrachtenden
Pixel, steigt die Auslastung der Grafikkarte proportional
an. Mit diesem Hintergrund sollten die Einstellungen für
den Fahrsimulator des Fraunhofer-Instituts für Verkehrsund Infrastruktursysteme Dresden mit den Standardwerten verwendet werden, da es keine sichtbare Verbesserung gab und die Grafikkarte zusätzlichen Rechenaufwand
zu bewältigen hat. Um Moiré-Effekte zu verhindern ist
bei der Texturerstellung auf die Vermeidung von periodischen Strukturen zu achten. Diese werden durch starke
hell-dunkel Kontraste verstärkt. In Abbildung 9.6 ist der
Effekt deutlich an dem Zaun und der Dachfläche zu beobachten.
Abbildung 9.5: Screenshot der Nvidia Grafikkarteneinstellungen
116
Moiré-Effekt
Diplomarbeit Gordon Lemme
Abbildung 9.6: Auftretender Moiré-Effekt an Zaun- und
Dachfläche
117
9. Optimierung
Texturaufbau
9.4 Texturaufbau
TM
Der OpenGL Performer unterstützt ausschließlich den
Einsatz von RGB-, RGBA-, INT- und INTA-Dateien in
Form von 2er-Potenzen. Diese sind für das Mipmapping
notwendig, da dadurch eine interne ganzzahlige Halbierung der Texturgröße vollzogen werden kann. Texturen
die nicht dieser 2er-Potenzanforderung genügen werden
TM
R
im MultiGen-Paradigm
Creator 3.3 fehlerfrei dargeTM
stellt, produzieren aber in der OpenGL Performer Engine weiße untexturierte Flächen.
Darüber hinaus kommt es bei der Verwendung von RGBund RGBA-Dateien zu Z-buffer-fightings, wenn sich auf
gleicher Ebene eine zusätzliche Hintergrundtextur befindet. Solche Z-buffer-fightings ergeben in der Simulation
flackernde Texturflächen und sind nur durch die Objektzerlegung zu beheben. Ein Beispiel für ein solches Szenario bildet die Texturierung einer Hauswand eines 3DObjektes, wie sie in Abbildung 9.7 zu sehen ist. Die auf
der Wand befindlichen Fenstertexturen liegen in der selben Ebene, wie die Wandtextur (siehe Szenengraph). Bei
der Visualisierung kann nicht mehr unterschieden werden,
welche Textur dem Betrachter näher ist und welche dahinter liegt. Durch diesen Umstand ist die Abbildung nicht
eindeutig beschrieben und das System versucht beide Flächen abzubilden, es kommt zum Flackern.
9.5 Farbe vs. Textur
Bei der Möglichkeit Farbe anstatt einer Textur zu verwenden, sollte diese Alternative in betracht gezogen werden.
Dabei ist der eventuelle Realitätsverlust zu berücksichtigen. Jedoch entlastet die Wahl von Farbe die benötigten
Systemressourcen. Die erforderliche Textur muss in den
118
Farbe vs. Textur
Diplomarbeit Gordon Lemme
Abbildung 9.7: Screenshot Z-Buffer
119
9. Optimierung
Szenengraphoptimierung
Speicher geladen werden und verursacht so zusätzliche Ladezeit. In der nachstehenden Tabelle 9.3 ist der Vergleich
der Perfly-Statistik aufgeführt. Zusätzlich wird der SpeiArt
Triangles
Loading time
Loading rate
Farbe
2
0,025 sek
80,167 prim/sek
Textur
2
0,053 sek
37,809 prim/sek
Tabelle 9.3: Perfly-Statistik für ein Quadrat
cher, durch die Textur, mit folgenden Werten belastet.
Dabei handelt es sich um eine 512 x 512 Pixel Farbtextur.
Download time
Download rate
Texture use
1985,772 ms
0,252 MB/sek
0,500 MB
9.6 Szenengraphoptimierung
Durch die Szenengraphoptimierung lässt sich zusätzliche
Rechenzeit einsparen. Dabei gibt es verschiedene Ansätze auf die in diesem Abschnitt eingegangen wird. Der
TM
OpenGL Performer arbeitet den Szenengraphen von vorne nach hinten durch und prüft, inwieweit ein Objekt
gerendert werden muss oder nicht. Dabei sind nur Objekte oder Gruppen von Objekten interessant, die nicht
außerhalb des Frustums (Abschnitt 2.3.1) liegen. Da Objekte als Bounding-Volume betrachtet werden, wird vom
TM
OpenGL Performer eine Kollision mit dem Frustum
überprüft. Wenn das Bounding-Volume eine Objektgruppe außerhalb des Frustums liegt, müssen alle darin enthaltenen Objekte nicht weiter betrachtet werden. Diese Objekte befinden sich dann auch außerhalb des Sichtfeldes.
120
Szenengraphoptimierung
Diplomarbeit Gordon Lemme
Durch diese Objektgruppierung kann eine Performancesteigerung erreicht werden. Für den Fall, dass eine solche
Gruppierung zu groß gewählt wurde, muss jede einzelne
Untergruppen beziehungsweise jedes einzelne Objekt dieser Gruppe auf Kollision getestet werden.
Eine weitere Möglichkeit der Gruppierung besteht darin,
Objekt nach ihrer Farbe oder vielmehr ihrer Textur zu organisieren (Abbildung 9.9). Dieses Vorgehen hat den VorAbbildung 9.8:
teil, dass eine Textur, die auf mehrere Objekte gemapped Szenengraph
wurde, nur einmal in den Speicher gelesen werden muss,
um diese Objekte zu texturieren. Durch diese Vorgehensweise wird der interne Grafiktransfer stark reduziert. Dar-
Abbildung 9.9: Szenengraph Textur- beziehungsweise
Farboptimierung (Quelle: Creator
2007a, Abschnitt 6-1)
über hinaus gibt es noch weitere Szenengraphoptimierungen, welche in George Eckel 2002, (Seite 94) beschrie121
9. Optimierung
LOD
ben sind. Da diese keine Anwendung im Fahrsimulator des
Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden finden, soll auf ihre Betrachtung verzichtet
werden.
9.7 LOD
Mit Hilfe der Levels of Detail lassen sich 3D-Objekt in Abhängigkeit der Entfernung zum Betrachter während der
Laufzeit laden. Dabei wird das Objekt in unterschiedlicher Darstellungsqualität gezeigt. Diese Unterschiede können zum Einen durch die Verringerung der Polygonanzahl
oder durch die Texturierung des Objektes mit kleineren
Texturen erreicht werden. Die Kombination aus beiden
Verfahren ist natürlich auch denkbar und durchaus praktikabel. Durch dieses Hilfsmittel ist es möglich eine Datenbank vollständig zu generieren und die detailreichen Segmente nur dann einzublenden, wenn dies nötig ist (siehe
Berechnung LOD 7.4). Nötig bedeutet in diesem Zusammenhang, dass sich der Benutzer nah an dem texturierten
Objekt befindet, um dessen exakte Darstellung wiederzuerkennen. Da die Wiedererkennbarkeit eines Objektes auf
der menschlichen Erfahrung basiert (Abschnitt 2.2), sollte eine Abbildung im Simulator nicht oder nur kaum von
der Realität zu unterscheiden sein (zum Beispiel Abbildung 10.1 und 10.2).
9.8 Hardware
9.8.1 Treiber
Die Aktualisierung von Treibersoftware spielt eine wichtige Rolle in der Optimierung des Fahrsimulators. Ein Trei122
Hardware
Diplomarbeit Gordon Lemme
ber bildet die Schnittstelle zwischen einem Hardwarebestandteil und dem Betriebssystem. Im vorliegenden Fall
wurden die Treiber der Grafikkarte (Spezifikation A.1)
aktualisiert. Dieser informiert das Betriebssystem (Abschnitt A.6) über die Anzahl der darstellbaren Farben, die
Auflösung, der Aktualisierungsfrequenz und vielem mehr.
Nach der Aktualisierung stehen neue und/oder verbesserte Funktionen zur Verfügung. Durch das Installieren von
aktuellen Grafiktreibern, welche der Hersteller zur Verfügung stellt, konnte die Bildwiederholrate von etwa 50
Frames in der Sekunde auf knapp 60 Frames die Sekunde
R
R
gesteigert werden. Der von Microsoft
Windows
installierte Treiber erkannte die Grafikkarte (Referenz A.1) mit
einer PCI-Schnittstelle und der Funktionsumfang war begrenzt. Durch die Installation des vom Hersteller bereitgestellten Treibers, wurden alle Funktionen unterstützt.
Darüber hinaus wurde die Grafikkarte am richtigen Port
(AGP) erkannt.
9.8.2 Verschleißteile
Die zur Bilderzeugung verwendeten Projektoren erzeugen
die Bilder, wie in Abschnitt 8.2.1 beschrieben, mit Hilfe eines Leuchtkörpers. Mit zunehmender Betriebsdauer
eines solchen Leuchtmittels nimmt die Lichtleistung ab.
Dies hat eine Verdunkelung des projizierten Bildes zur folge. Die Lebensdauer der Projektorlampen im FraunhoferInstitut für Verkehrs- und Infrastruktursysteme Dresden
beträgt circa 2000 Stunden. Dabei sollte darauf geachtet
werden, dass alle drei an der Simulation beteiligten Projektoren die gleiche Einsatzzeit besitzen. Bei unterschiedlichen Gebrauchszeiten kann es zu einer unterscheidbaren
Verschlechterung der Bildwiedergabe kommen. Dabei heben sich die von der UTM-Software berechneten Projek123
9. Optimierung
Material
tionsübergänge voneinander ab. Es entstehen sichtbaren
Übergangsstreifen.
9.8.3 Auflösung
Mit der Erhöhung der Auflösung würde die dargestellte
Pixelgröße kleiner werden. Dadurch wäre es möglich, feinere Farbwertabtastungen vorzunehmen und zu projizieren. Diese Auflösungserhöhung unterliegt jedoch technischen Grenzen und ist deshalb beschränkt. Dennoch hat
die Firma projectiondesign den weltweit ersten 1-ChipDLP Projektor, mit einer Auflösung von 1920 x 1200 Pixeln, auf den Markt gebracht (Quelle: projectiondesign 26.04.2008). Dadurch würde die Pixelgröße auf der
[cm]
Leinwand von circa 0, 29 [cm]
[px] auf 0, 19 [px] ändern (siehe
Abschnitt 7.4).
9.9 Material
Da der Fahrsimulator nur eine globale Lichtquelle besitzt,
wird auf den Einsatz unterschiedlicher Materialien weitestgehend verzichtet. Eine Ausnahme bilden Verkehrszeichen, die aufgrund der fehlenden Helligkeit ein Material mit Emissive-Eigenschaften (Abschnitt 4.6.3) zugewiesen bekommen. Durch diese Eigenschaft werden sie heller, wodurch sich die Lesbarkeit (Abschnitt 5.3) für den
Fahrsimulatornutzer erheblich verbessert. Durch die Verwendung des Standardmaterials werden aufwendige Lichtstrahlenberechnungen vermieden. Für nicht selbstleuchtende Objekte (zum Beispiel Häuser) kann die Helligkeit der Polygonfläche durch die explizite MaterialzuweiTM
R
sung im MultiGen-Paradigm
Creator 3.3 erhöht werden. Dadurch wird die Echtheit des Farbeindruckes in der
R
Simulation verstärkt. Der MultiGen-Paradigm
Creator
124
Licht
Diplomarbeit Gordon Lemme
TM
3.3 -Materialstandardwert beträgt (-1) und besitzt in
TM
der Laufzeitumgebung (OpenGL Performer ) einen größeren Absorptionswert. Dies ist bei der Benutzung der
Programme zu berücksichtigen. In den Abbildungen 9.10
und 9.11 ist dies verdeutlicht. Die beiden Bilder zeigen die
selbe polygonale Fläche. In dem linken Screenshot sind die
oberen beiden Flächen heller, als die darunter. Der rechte
Screenshot zeigt ein umgekehrtes Bild, hier sind die oberen Flächen dunkler. Dabei wird deutlich, dass durch die
Zuweisung des Standardmaterialwertes 0 im MultiGenTM
R
Paradigm
Creator 3.3 eine Helligkeitsverbesserung im
Fahrsimulator erzielt werden kann.
Abbildung 9.10:
Screenshot des
Fahrsimulatormaterials
Abbildung 9.11:
Screenshot des
Creatormaterials
9.10 Licht
„Wo viel Licht ist, ist auch
viel Schatten.“
Goethe, Johann Wolfgang
von
Die zu untersuchenden Farbunterschiede lassen sich zum
Teil auf die unterschiedliche Beleuchtung der Systeme zurückführen. Der Standort der infiniten Lichtquelle unterscheidet sich wie in den Abbildungen 9.12 und 9.13 deutlich. Dabei handelt es sich im Bild 9.12 um die OpenGL
TM
Performer -Lichtquelle. Es wird deutlich, dass sich die
125
9. Optimierung
Licht
Lichtquelle im Azimut befindet. Deshalb werden Objekte mit dazu nahzu oder vollständig parallel verlaufenden
Flächen weniger dunkel abgebildet (zum Beispiel Häuserdachflächen).
Abbildung 9.12:
Lichtquellenstandort
im
OpenGL
TM
Performer
126
Abbildung 9.13:
Lichtquellenstandort
im
MultiGenR
Paradigm
TM
Creator 3.3
10 Zusammenfassung
Abschließend wird an dieser Stelle ein zusammenfassendes
Resümee über die Schwerpunkte dieser Arbeit gezogen.
Abschnitt 10.1 gibt einen kurzen inhaltlichen Überblick
dieser Diplomarbeit wieder. Dabei wird auf die gewonnenen Erkenntnisse eingegangen. Ein Fazit der Arbeit wird
in Abschnitt 10.2 wiedergegeben.
10.1 Inhalt
Im Zuge dieser Arbeit wurden, auf Grundlage der physischen Gegebenheiten, die Optimierungsmöglichkeiten analysiert. Dabei sind die menschlichen Wahrnehmungsschwächen und das technische Know-How untersucht worden.
Durch die gewonnenen Erkenntnisse wurden Optimierungsansätze formuliert, die zum Teil im Fahrsimulator des
Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme Dresden umgesetzt werden konnten. Das Datenvolumen ließ sich erheblich reduziert und die Simulation gewann an Echtzeitfähigkeit. In diesem Zusammenhang ist
die Möglichkeit einer 3D-Animationserstellung erläutert
worden. Diese Animation fließt in das APROSYS-Projekt
ein und bildet eine weitere Komponente zum Erhalt von
Straßenverkehrsrealismus. Im Zuge der Fußgängeranimation wurde das Verhalten von Passanten im Straßenverkehr untersucht. Dabei wurden Anzeichen und Merkmale
für eine Fahrbahnüberquerung ergründet.
127
10. Zusammenfassung
Fazit
10.2 Fazit
Nach Moores Law wächst die zur Verfügung stehende
Rechenkapazität unaufhaltsam. Damit ergeben sich immer neuere und größere Projektmöglichkeiten. Doch auch
anhand kleinerer Veränderungen und Optimierungsschritte lässt sich die Rechenleistung idealer ausnutzen. Dies
wurde anhand der Performancesteigerung des im Jahr
2002 installierten Fahrsimulatorsystems des FraunhoferInstituts für Verkehrs- und Infrastruktursysteme Dresden
bewiesen. Die Framerate konnte auf circa 60 Bilder pro
Sekunde gesteigert und das Datenvolumen halbiert werden. Im Zuge dieser Arbeit wurde trotz der Optimierung
auf die Realitätsnähe geachtet. Neben dem Versuch diese beizubehalten, konnte sie vereinzelt gesteigert werden.
Durch die Verkleinerung der Texturen wurde es notwendig, einige Objekte vollständig zu modellieren, wodurch
diese eine noch größere Realitätsnähe gewannen. In den
folgenden Grafiken ist ein Ausschnitt der Bundesstraße
B6 zu erkennen. In der ersten Grafik (Abbildung 10.1)
handelt es sich um einen Screenshot aus dem Fahrsimulator. Demgegenüber steht eine ursprüngliche Fotografie des
gleichen Ausschnittes (Abbildung10.2). Die fortschreitende Realitätsnähe in Simulatoren bietet neue Forschungsansätze. Dabei ist es zunehmend möglich die gewonnenen Simulatordaten eins zu eins in den realen Straßenverkehr zu übertragen. Durch diese Art der Verhaltens, Unfall- und Reaktionsanalyse ist es praktikabel, eine
große Anzahl von wiederholbaren Testszenarien zu durchlaufen. Durch die Reproduzierbarkeit von Szenarien liegt
die Wirtschaftlichkeit eines solchen Systems auf der Hand.
Das zu untersuchende Verhalten lässt sich präzise eingrenzen und die zusätzlichen Einflüsse können nach Bedarf
minimiert oder auch maximiert werden. Dabei kann das
128
Fazit
Diplomarbeit Gordon Lemme
Abbildung 10.1: Screenshot vom Simulator
Abbildung 10.2: Fotografie der Szene
129
10. Zusammenfassung
Verhalten der Fahrzeugführer gegenüber einer sich verändernden 3D-Umgebung, wie auch bezüglich Fahrassistenzsystemen gegenüber, analysiert werden. Ein Beispiel
ist das in dieser Arbeit oft zitierte APROSYS-Projekt, in
dem ein Pedestrian Protection System getestet wird. Dabei soll der Fußgänger in einer Unfallsituation mit Hilfe
eines so genannten Hook-Ups, beim Aufprall des Körpers
auf die Motorhaube, geschützt werden (Abbildung: 3.2.6).
An dieser Stelle wird ein weiteres Szenario betrachtet, bei
dem das Hook-Up fehlerhaft auslöst. Zukünftig bleibt die
Hypothese zu untersuchen, dass sich in einer solchen Situation das Verhaltensmuster der Probanden im öffentlichen
Straßenverkehr ändern würde. Daraus wären Rückschlüsse für die Entwicklung eines derartigen Systems für den
realen Straßenverkehr zu ziehen.
130
Fazit
Diplomarbeit Gordon Lemme
A Hardware
A.1 Grafikkarte
Eigenschaft
Wert
Grafikkarte
GPU Codename
Transistoren
BIOS Version
Chiptyp
DAC Typ
Installierter Treiber
Speichergröße
Bustyp
GPU Takt
RAMDAC Takt
Pixel Pipelines
Textureinheiten
Vertex Shader
Pixel Shader
DirectX Unterstützung
Pixel Fillrate
Texel Fillrate
Chip Takt
Speichertakt
Speicherbandbreite
Speichergröße
Gainward GeForce4 Ti 4600
NV25
63 Millionen
4.25.00.28.00
GeForce4 Ti 4600
Integrated RAMDAC
nVidia ForceWare 93.71
128 MB
AGP 4x
300 MHz
350 MHz
4
2
2
4
DirectX v8.1
1200 MPixel/sek
2400 MTexel/sek
300 MHz
650 MHz
10,4 GB/sek
128 MB
Tabelle A.1: GeForce4 Ti 4600 Spezifikation (Quelle: Everest-AnalyseTool)
131
A. Hardware
Prozessor
A.2 Prozessor
Eigenschaft
CPU Typ
CPU Bezeichnung
CPU stepping
Befehlssatz
Vorgesehene Taktung
Min / Max CPU Multiplikator
L1 Cache
L2 Cache
Transistoren
Core Spannung
I/O Spannung
Maximale Leistung
Wert
Intel Pentium 4, 2433 MHz (18x135)
Northwood
C1
x86, MMX, SSE, SSE2
2400 MHz
18x /18x
8 KB
512 KB
55 Millionen
1,475 - 1,55 V
1,475 - 1,55 V
49 - 109 W
Tabelle A.2: CPU Spezifikation (Quelle: Everest-Analyse-Tool)
A.3 Motherboard
Eigenschaft
Motherboard ID
Motherboard Name
CPU Sockel
Erweiterungssteckplätze
RAM
Bauform
Wert
09/27/2002-I845E/ICH4/IT8708-P4B533-E
Asus P4B533-E
1
6 PCI, 1 AGP (4x)
3 DIMM
ATX
Tabelle A.3: Motherboard Spezifikation (Quelle: Everest-Analyse-Tool)
132
Arbeitsspeicher
Diplomarbeit Gordon Lemme
A.4 Arbeitsspeicher
Eigenschaft
Modulname
Seriennummer
Modulgröße
Modulart
Speicherart
Speichergeschwindigkeit
Modulbreite
Speicher Timings (142 MHz)
(133 MHz)
Physikalischer Speicher
Auslagerungsdatei
Virtueller Speicher
Wert
Infineon HYS64D64020GU-7
039B5010h (273718019)
031B585Fh (1599609603)
512 MB
unbuffered
DDR SDRAM
PC2100 (133 MHz)
64 bit
2.5-3-3-7 (CL-RCD-RP-RAS)
2.0-3-3-6 (CL-RCD-RP-RAS)
1023 MB
1950 MB
2974 MB
Tabelle A.4: Speicher Spezifikation (Quelle: Everest-Analyse-Tool)
133
A. Hardware
North Bridge
A.5 North Bridge
Eigenschaft
North Bridge
FSB Geschwindigkeiten
Gehäusetyp
Core Spannung
CAS Latency (CL)
RAS to CAS Delay (tRCD)
RAS Precharge (tRP)
RAS Active Time (tRAS)
Refresh Period (tREF)
Wert
Intel Brookdale i845E
FSB400, FSB533
593 Pin FC-BGA
1,5 V
2T
3T
3T
6T
7,8 ms
Tabelle A.5: North Bridge Spezifikation (Quelle: Everest-Analyse-Tool)
A.6 Betriebssystem
Eigenschaft
Betriebssystem (OS)
OS Version
OS Service Pack
DirectX
OpenGL
Wert
R
R
Microsoft
Windows
2000 Professional
5.0.2195 (Win2000 Retail)
Service Pack 3
4.07.00.0700 (DirectX 7.0)
5.00.2195.4709
Tabelle A.6: Betriebssystem Spezifikation (Quelle: Everest-AnalyseTool)
134
Projektoren
Diplomarbeit Gordon Lemme
A.7 Projektoren
Display
Technologie
Konzept
Auflösung
Helligkeit
Kontrast (ein/aus)
Bildseitenverhältnis
darstellbare Farben
Kompatibilität
Bildverarbeitungslatenz
Computer Kompatibilität
Horizontaler Scan
Vertikaler Scan
Videokompatibilität
Bandbreite
single Chip DLPTM Technologie,
DDR - Double Data Rate DMDTM
R
von Texas Instruments
abgeschlossenes prismenfreies optisches Design ganz aus Glas
1280 x 1024 Pixel
3000 ANSI-Lumen (max)
1000 : 1
5:4 (4:3 und 16:9 kompatibel)
16,8 Millionen Farben simultan anzeigbar
≈1 Frame am Grafikport
UXGA, SXGA+, SXGA, XGA, SVGA, VGA
Auflösung 1920 x 1080 - 640 x 480
Pixel
mögliche Formate RGBHV, RGBS,
RGsB
15 - 150 kHz (auflösungsabhängig)
48 - 190 Hz (auflösungsabhängig)
HDTV (1080i/720p)
EDTV (576p, 480p)
SDTV (576i, 480i)
NTSC, PAL, SECAM
205 MHz bei analogem RGB
165 MHz bei digitalem RGB über
DVI
Tabelle A.7: Projektoren Spezifikation Teil 1 (F1 SXGA der Firma projectiondesign)(Quelle: projectiondesign 26.04.2008)
135
A. Hardware
Optik
Projektoren
Standardlinsen
Projektionsverhältnis (Entfernung : Breite)
Bildgröße (Diagonale)
Linsen-Offset
Fokussierdistanz
Zoom-Verhältnis
Lampentyp
Lampen-Lebensdauer
Weitwinkellinse
Eingänge &
Ausgänge
Computereingänge
Videoeingänge
Audioeingänge
Steuerung und Kommunikation
Allgemeines
Computerausgänge
Audioausgäng
Betriebsgeräusche (Typ)
Abmessungen
Gewicht
Stromanschluss
Betriebstemperatur
Betriebsfeuchtigkeit
f=31, 1 -39, 2 mm, F/2,8-3,0
1,75 - 2,25 :1
0,9 - 7,3 m
+5 %
1,5 - 10 m
1,3x
250W UHPTM
2000 Stunden (max) volle Leistung
unterstellt
f=17,9 mm, F/2,8, 1:1 Projektionsverhältnis
1x DVI
2x VGA
DVI-D
YPbPr
S-Video
Composite Video
4 x 3,5 mm Stereo Minibuchse Audio
1 x RS232 9-Pin DSUB (Steuerung)
1 x USB (Maussteuerung und
Firmware-Upgrade)
1 x 15pin HDDSUB (analog)
1 x 3,5 mm Stereo Minibuchse
28 dB(A) bei 20◦ C, Meereshöhe
244 x 278 x 88 mm (TxBxH)
3,0 Kg
100 - 240 V Wechselstrom, 50/60 Hz
Stromverbrauch 350 W
0-40◦ C, 0-1500 m
0-35◦ C, 1500 - 3000 m
20-90 % RH
Tabelle A.8: Projektoren Spezifikation Teil 2 (F1 SXGA der Firma projectiondesign) (Quelle: projectiondesign 26.04.2008)
136
B DIN 1450
137
Nr.
1
Einflüsse
Kontrast
Anforderung
Verhältnis von Zeichenleuchtdichte zu
Zeichenträgerleuchtdichte 1:3 bis 1:10
(schwarze Zeichen auf weißem oder
hellbuntem Grund)
1
∗ h bis 18 ∗ h
7
≈ 3:2 (Mittelschrift)
2
3
4
Linienbreite der Zeichen
Verhältnis von Bildhöhe zu
Bildbreite
Zeichenabstand
5
6
Schreibweise
Sehschärfe
gemischt
Visus 0,7
7
8
9
10
11
Schriftart
Wortabstand
Zeichenabstand
Zeilenlänge
Randabstand
z.B. DIN 1451 Teil 2 und Teil 3
≥ 73 ∗ h
≈ 11
∗h
7
bis zu 65 Zeichen je Zeile
≥ 77 ∗ h
12
Leuchtdichte des Zeichenträgers
bis 100 mcd2
13
14
Sehwinkel
Qualität des Zeichenträgers
≈ 150
z.B. Papier DIN 6723-90
≈
1
7
∗h
Bemerkung
Bei weißem Zeichen auf schwarzem
Grund ist die Schriftgröße h um ≈ 25%
zu vergrößern.
Eine angepaßte Abstandsgestaltung für
jede Schrift wird empfohlen (Beispiel
siehe DIN 1451 Teil 2).
Es wird davon ausgegangen, dass
[g.d.V.] etwa 90% der Bevölkerung den
Visus 0,7 erreichen.
siehe auch Bemerkung zu Nr. 4
Ein freier Rand neben der Beschriftungsfläche verbessert das Erfassen der
Information.
Bei höheren Leuchtdichten (bis 500 mcd2 )
steigt zwar die Leserlichkeit noch um 5
bis 10%, dafür nimmt aber vor allem
bei größeren Flächen die Blendung zu,
was zu vorzeitiger Ermüdung führt.
Tabelle B.1: Einflüsse auf die Leserlichkeit von Verkehrszeichen
C Creator to Fahrsimulator
Checkliste
C.1 Szenengraphaufbau
Um eine Kachel der Standardgröße 2000 x 2000 Meter in den Fahrsimulator laden zu können, muss der Szenengraph dem nachstenden Aufbau
genügen.
R
Alle vorhandenen Straßenelemente, die mit dem MultiGen-Paradigm
TM
Creator 3.3 Road-Tool erstellt wurden, müssen unter einem Knoten
abgelegt werden. Diesem Knoten ist der Name ROAD zuzuweisen.
Die restlichen 3D-Objekte sind in dem Knoten mit der Bezeichnung
GROUND abzulegen. Dabei kann es sich sowohl um modellierte 3DObjekte, als auch um externe Referenzen handeln.
C.2 Fahrspurdaten
Zum Benutzen der Fahrspurdaten ist es notwendig eine externe Datei zu erzeugen. An dieser Fahrspur werden in der Simulation so genannte Player Cars ausgerichtet. Diese bilden in der Simulation den
Fahrzeugverkehr. Die Fahrspurdatei muss zusätzlich in ein fahrsimulatortaugliches Format konvertiert werden. Im folgenden Abschnitt sind
diese Schritte im einzelnen aufgeführt.
Zum Erzeugen der Path-Information wird der Straßenknoten (R.Nummer)
TM
R
im Szenengraphen des MultiGen-Paradigm
Creators 3.3 angewählt.
Danach wird im Mennüpunkt Road der Unterpunkt Write Path . . .
139
C. Creator to Fahrsimulator Checkliste
FLT zu PFB Konvertierung
ausgewählt. Der Speicherort der ∗ .path-Datei ist im folgenden Fenster
anzugeben.
Um diese Datei in ein fahrsimulatorfähiges Dateiformat umzuwandeln,
muss es mit der road2dat.exe in zwei ∗ .dat-Dateien konvertiert werden. Die entstandenen Dateien (name_00.dat und name_00_rev.dat)
enthalten die Koordinaten beziehungsweise Stützpunkte der Straße. Dabei sind in der name_00_rev.dat die selben Koordinaten wie in name_00.dat gespeichert, jedoch in umgekehrter Reihenfolge. Diese Datei
beschreibt den Pfad des Gegenverkehrs. Die beiden Dateien sind im
nachstehenden Ordner abzulegen.
d:/Programme/VRFlexDrive/data/vis/numeric/numeric_
DiplomLemme/
C.3 FLT zu PFB Konvertierung
TM
R
Die im MultiGen-Paradigm
Creator 3.3 erzeugte flt-Datei muss in
TM
das für den OpenGL Performer lesbare pfb-Dateiformat umgewandelt
werden. Dazu wird die pfconv.exe mit den Parametern Ausgangsdatei.flt
und Zieldatei.pfb aufgerufen. Die so entstandene pfb-Datei ist in einem
Ordner des nachfolgenden Verzeichnisses abzulegen.
d:/3dModelsRun/DiplomLemme/
In diesem Ordner, im Weiteren mit Terrains bezeichnet, sind neben der
pfb-Datei auch die verwendeten Texturdateien abzulegen.
C.4 Konfiguration
Im abschließenden Teil sind die Fahrsimulatorkonfigurationsdateien im
unten genannten Verzeichnis anzupassen.
d:/Programme/VRFlexDrive/cfg/cfg_DiplomLemme/
140
Konfiguration
Diplomarbeit Gordon Lemme
Dazu muss in den aufgelisteten Dateien die absolute Pfadangabe hinzugefügt werde.
• DiplomLemme_car.cfg
CarDef. . . model3D ducati.pfb car2 . . .
• DiplomLemme_path.cfg
PathDef. . . Verzeichnisse inklusive Unterordner (zum Beispiel Terrains) hinzufügen
• DiplomLemme_terrains.cfg
TerrainDef. . . File „road_00.pfb“ GROUND ROAD . . .
TerrainOrderDef 0 1
0 definiert dabei die erste Kachel
1 definiert, sofern vorhanden, die folgende Kachel
Nun müssen die im Verzeichnis
d:/Programme/VRFlexDrivecfg/cfgIVI/cfgIVI_DiplomLemme/
parts/
befindlichen Dateien angeglichen werden. Dazu wird in der sim.cfg der
Terrainpfad und der Playerpfad angepasst. Der Ordner, der die Datei
mit den Straßenkoordinaten enthält, ist in der tiles.cfg nach folgendem
Schema zu adaptieren.
Road01=PathSegfile=...//data//vis//numeric_DiplomLemme/
/road_00.dat
Zum Einbinden mehrerer Terrainflächen ist der Kachelübergang anzugeben. Dabei geht die erste Kachel (tile00 ) in den Abschnitt tile01 über.
{tile00=Tile{
pathes={
{"Road01",{"tile01",0}
"Road01_r",("tile01",1}}...
141
C. Creator to Fahrsimulator Checkliste
142
Konfiguration
Literaturverzeichnis
APROSYS (2008). APROSYS SP 1 . Detailes draft test scenarios for
a specific pre-crash saftey system.
Creator (2007a). Creator Modeling Guide. Paradigm, Edition 3.4 Aufl.
Creator (2007b). Creator Users Guide. Paradigm, Edition 3.0 Aufl.
Creator, P. M. (2007c). Applying Textures to Geometry.
Creator, P. M. (2007d). Levels of Detail and Switching.
Creator, P. M. (2007e). Wizards & Auto Texturing.
DIN (1450). Leserlichkeit. Technischer Bericht DIN 1450, Deutsches
Institut für Normung e.V.
DIN (5033). Farbe. Technischer Bericht DIN 5033, Deutsches Institut
für Normung e.V.
DIN (6171-1). Aufsichtfarben für Verkehrszeichen und Verkehrseinrichtungen. Technischer Bericht DIN6171-1, Deutsches Institut für
Normung e.V.
TM
George Eckel, K. J. (2002). OpenGL Performer Programmer’s Guide.
Gregory, R. L. (1966). Auge und Gehirn. München: Kindler. Zur
Psychophysiologie des Sehens.
Gregory, R. L. (2001). Auge und Gehirn. Reinbek: Rowohlt. Psychologie des Sehens.
143
Literaturverzeichnis
Literaturverzeichnis
Hischer, H. (2004). Abtast-Moiré-Phänomene als Aliasing. PrePrint,
Universität des Saarlandes.
J. Camenzind, F.W.Hürlimann, B. (1978). Konfliktstelle Fußgängerstreifen. Zeitschrift für Verkehrssicherheit, 1, 14–20.
Musahl, H.-P. (1997). Gefahrenkognition: Roland Asanger Verlag Heidelberg. Theoretische Annäherungen, empirische Befunde und Anwendungsbezüge zur subjektiven Gefahrenkenntnis.
Richter, S. (2002). Einstellungen und Verhalten beim Fahren im Nebel : Shaker Verlag. Eine psychologische Studie.
Scherer, C. (1983). Konflikte zwischen Fußgängern und Fahrzeuglenkern. Zeitschrift für Verkehrssicherheit, 2, 86–88.
144
Internetquellen
Antwerpes, D. F. (26.04.2008). Sakkade.
flexikon.doccheck.com/Sakkade.
Website.
http://
Boonekamp (26.04.2008). CIE-Normvalenzsystem. Website. http:
//de.wikipedia.org/wiki/CIE-Normvalenzsystem.
Bunks, C. (26.04.2008).
Der RGB-Farbraum.
Website.
http://www.verwaltung.uni-mainz.de/edv/projekte/
doku/gimp/grokking/node50.html.
Burosch, K. (26.04.2008). Display Tuning. Website. http://www.
burosch.de/shop/shop_content.php?coID=123&.
Funke, P. D. J. (26.04.2008). 7.3 Perzeptuelle Organisation. Website. http://www.psychologie.uni-heidelberg.de/ae/
allg/lehre/wct/w/w7_form/w730_organisation.htm.
Grunert, G. (26.04.2008a). Straßenverkehrs-Ordnung (StVO). Technischer Bericht, Grunert + Tjardes verkehrsportal.de GbR. http:
//verkehrsportal.de/stvo/stvo_26.php.
Grunert, G. (26.04.2008b). Straßenverkehrs-Ordnung (StVO). Technischer Bericht, Grunert + Tjardes verkehrsportal.de GbR. http:
//verkehrsportal.de/stvo/stvo_25.php.
Hartl, S. H. (26.04.2008). copyshop-tips.de. Website. http://www.
copyshop-tips.de/index.php.
Hiller, U. (26.04.2008). Begriffserklärungen Spieleentwicklung. Website.
http://www.orgapedia.de/knowmore/index.php/
Begriffserkl%C3%A4rungen_Spieleentwicklung.
145
Internetquellen
Internetquellen
Häßler, U. (26.04.2008a). Vorlesung Farbraumtransformationen für
die digitale Farbreproduktion. Website. http://farbe.wisotop.
de/vomLichtZumXYZ.shtml.
Häßler, U. (26.04.2008b). Vorlesung Farbraumtransformationen für
die digitale Farbreproduktion. Website. http://farbe.wisotop.
de/vonXYZnachRGB.shtml.
Häßler, U. (26.04.2008c). Vorlesung Farbraumtransformationen für
die digitale Farbreproduktion. Website. http://farbe.wisotop.
de/vonOrdnungZumModell.shtml.
Janssen, W. (26.04.2008). Rasterbild . Website. http://www.atmix.de/rasterbild.htm.
Kühn, S. (26.04.2008). Level of Detail . Website. http://de.
wikipedia.org/wiki/Level_of_Detail.
Klagenfurt (26.04.2008).
Wahrnehmungsorientierte Farbmodelle.
Website.
http://melville.uni-klu.ac.at:8080/
greybox/m01/206_PC_2.html.
Kneisel, P. D. P. (26.04.2008). Datenverarbeitung im menschlichen Gehirn. Website. http://homepages.fh-giessen.de/
~hg10013/Lehre/MMS/SS04/ruehl/.
Lindbloom, B. J. (2004-2007).
Using the Chromaticity Diagram for Color Gamut Evaluation. Website. http://www.
brucelindbloom.com/index.html?ColorCalcHelp.html.
Lipinski, D.-I. K. (26.04.2008a). Chipsatz . Website. http:
//www.itwissen.info/definition/lexikon/Chipsatzchipset.html.
Lipinski, D.-I. K. (26.04.2008b).
international electronical
commission.
Website.
http://www.itwissen.info/
definition/lexikon/international-electronical146
Internetquellen
Diplomarbeit Gordon Lemme
commission-IEC-Internationale-elektronischeKommission.html.
Lipinski, D.-I. K. (26.04.2008c).
Interpolation.
Website.
http://www.itwissen.info/definition/lexikon/
Interpolation-interpolation.html.
Marc Janott, M. G. (26.04.2008).
Das CIE-Farbmodell .
Website.
http://www.marc-janott.de/marc/uni/
bildkommunikation_ss00/cie.html.
Matthias, A. (26.04.2008). Laterale Hemmung. Website. http://
de.wikipedia.org/wiki/Laterale_Hemmung.
Meyer-Wagenfeld (26.04.2008). Sehgrube. Website. http://p5965.
typo3server.info/index.php?id=2&uid=311.
Meyers (26.04.2008). Auge. Website. http://lexikon.meyers.
de/meyers/Auge.
Michelson, P. D. G. (26.04.2008a). rund um’s Auge. Website. http:
//www.onjoph.com/patinfo/funktion/anatomie.html.
Michelson, P. D. G. (26.04.2008b). rund um’s Auge. Website. http:
//www.onjoph.com/patinfo/funktion/zahlen.html.
Mullkubel (26.04.2008).
Textur .
wikipedia.org/wiki/Textur.
Website.
http://de.
MultiGen, W. (26.04.2008). Website. http://www.multigenparadigm.com, http://www.presagis.com.
Netzoptiker.de (26.04.2008).
optik)lexikon.
Website.
http:
//www.optiklexikon.de/kontaktlinsen-brillenglossar/akkomodation.html.
p2pforum
(26.04.2008).
Forumseintrag.
Website.
http://immagini.p2pforum.it/out.php/i78208_
Coneresponse.png.
147
Internetquellen
Internetquellen
Patzer, K.-H. (26.04.2008).
M.-Phänomen.
Website.
http://www.aerztlichepraxis.de/rw_4_Lexikon_
HoleEintrag_35063_Eintrag.htm.
projectiondesign (26.04.2008). F30 series professional grade DLP
projector . Website. http://www.projectiondesign.com/
Default.asp?CatID=1533.
med. Rainer Wiltfang, D. (26.04.2008a). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_I.html.
med. Rainer Wiltfang, D. (26.04.2008b). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_N.html.
med. Rainer Wiltfang, D. (26.04.2008c). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_P.html.
med. Rainer Wiltfang, D. (26.04.2008d). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_S.html.
med. Rainer Wiltfang, D. (26.04.2008e). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_S.html.
med. Rainer Wiltfang, D. (26.04.2008f). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_XYZ.html.
med. Rainer Wiltfang, D. (26.04.2008g). Wichtige Begriffe zum Thema
Auge und refraktive Chirurgie.. Website. http://www.smileyes.
de/augenlexikon/Auge_XYZ.html.
148
Internetquellen
Diplomarbeit Gordon Lemme
Richter, P. D. M. (26.04.2008). Methodik der Unfallforschung der
Medizinischen Hochschule Hannover . Website. http://www.
martinusrichter.de/de/forsch_unfall_iframe.htm.
Schnabel, G. (26.04.2008).
Farb(t)räume.
Website.
http:
//www.hrz.uni-dortmund.de/computerPostille/
September1999/00.html.
Seifert, A. (26.04.2008).
Anti-Aliasing im Detail .
Website. http://www.3dcenter.de/artikel/anti-aliasing/
index03.php.
Serck, K. (26.04.2008). DLP & LCD: Video-Projektionstechnik im
Vergleich. Website. http://www.hifi-regler.de/special/
dlp-lcd-videoprojektionstechnik.php.
SGIFilter (26.04.2008). Free plugins for Photoshop & Illustrator...and
other software. Website. http://www.telegraphics.com.au/
sw/.
Sullivan, L. (26.04.2008).
Website.
http://www.
informationweek.com/hardware/personaltech/
189501146.
ThomasSD (26.04.2008a). Distaler Reiz . Website. http://de.
wikipedia.org/wiki/Distaler_Reiz.
ThomasSD (26.04.2008b). Proximaler Reiz . Website. http://de.
wikipedia.org/wiki/Proximaler_Reiz.
Unger, J. (26.04.2008). Programmdokumentation zur vektororientierten Darstellung. Website. http://www.yoki.de/lscape_vec/.
virtualcolourmuseum (26.04.2008).
CIE-1931-System.
Website.
http://www.colorsystem.com/projekte/dt/!37CIED.
HTM.
149
Internetquellen
Internetquellen
Wagner, M. (26.04.2008). Farben und Farbwahrnehmung. Website.
http://www.medien.ifi.lmu.de/fileadmin/
mimuc/mmi_ws0405/uebung/essays/maria.wagner/
colouressay.html.
Wikimedia (2008).
Image:Cone-response.png.
Website.
http://commons.wikimedia.org/wiki/index.html?
curid=214182.
Wikipedia (26.04.2008a). POV . Website. http://de.wikipedia.
org/wiki/POV.
Wikipedia (26.04.2008b).
Sichtfeld .
Website.
wikipedia.org/wiki/Sichtfeld.
http://de.
Wikipedia (26.04.2008c). Texture Mapping. Website. http://de.
wikipedia.org/wiki/Texture_Mapping.
Zawischa, P. D. D. (26.04.2008a).
Farbmetrik und die CIEDiagramme. Website. http://www.itp.uni-hannover.de/
~zawischa/ITP/farbeinf.html.
Zawischa, P. D. D. (26.04.2008b).
Farbmetrik und die CIEDiagramme. Vorlesungsfolie. http://www.itp.uni-hannover.
de/~zawischa/ITP/fmetr.pdf.
150
151
Glossar
Glossar
Glossar
Akkommodation
Bone-Animation
152
‘Fähigkeit des Auges, sich auf verschiedene
Entfernungen durch Brechkraftzuwachs oder
Brechkraftabnahme der Augenlinse einzustellen.
Brechkraftzuwachs erfolgt durch Anspannen des
Zilliarmuskels und daraus folgendes Entspannen der Zilliarbänder; durch die Eigenelastizität begibt sich die Linse annähernd in Kugelform.’(Quelle: Netzoptiker.de 26.04.2008)
‘Es gibt zwei hauptsächliche Methoden zum
Animieren eines Modells: Vertex- und BonesAnimation. Bei der Vertex-Animation ist jeder Frame ein ’Schnappschuss’ einer bestimmten Pose des Modells. Die Engine erzeugt eine
stufenlose Animation durch Berechnen von Zwischenschritten zwischen den einzelnen Frames.
Bei der Bones-Animation erhält jedes Modell
ein ’Skelett’, bestehend aus zusammenhängenden ’Knochen’ (Bones). Das Modell wird animiert, indem die Position, Länge oder Orientierung von Knochen verändert wird. BonesAnimation erfordert mehr Prozessorleistung als
Vertex-Animation, bietet aber viele Vorteile. Sie
ist einfacher und schneller zu erstellen. Verschiedene Bones-Animationen können kombiniert werden - zum Beispiel kann ein Model
gleichzeitig den Kopf drehen, schiessen und laufen.’(Quelle: Hiller 26.04.2008)
Glossar
Chipsatz
Diplomarbeit Gordon Lemme
‘Der Chipsatz besteht aus einem oder mehreren Prozessoren, die die Leistungsfähigkeit
des Rechners steigern. Chipsätze legen wichtige
Board-Eigenschaften fest, denn sie verknüpfen
den Prozessor, die Grafikkarte, interne Bussysteme, externe Schnittstellen, Festplatten, optische
Laufwerke und meistens auch den Arbeitsspeicher untereinander. Sie übernehmen vielfältige Steuerfunktionen von internen und externen Komponenten wie der Echtzeituhr oder der
Tastatur, steuern die Interrupt-Kontrolle und
die Funktionen zwischen CPU und Arbeitsspeicher.’(Quelle: Lipinski 26.04.2008a)
‘Das CIE-Normvalenzsystem oder CIECIE Normvalenz- Normfarbsystem wurde von der Internationalen
system
Beleuchtungskommission (CIE - Commission
internationale de l’éclairage) definiert, um
eine Relation zwischen der menschlichen Farbwahrnehmung (Farbe) und den physikalischen
Ursachen des Farbreizes (Farbvalenz) herzustellen. Es erfasst die Gesamtheit wahrnehmbarer
Farben.’(Quelle: Boonekamp 26.04.2008)
153
Glossar
D65
Glossar
‘Die Normlichtart D65 repräsentiert eine bestimmte Phase des Tageslichtes mit einer Farbtemperatur von 6500 Kelvin. Dieses soll ein
‘mittleres Nordhimmelslicht’ darstellen. Diese
Lichtart existiert nur theoretisch, kann jedoch
angenähert werde. Sie stellt für die Farbmessung die wichtigste Lichtart dar, wird jedoch zunehmend durch D50 abgelöst. ’ (Quelle: Hartl
26.04.2008)
‘Ein distaler Reiz (auch distaler Stimulus) bedistale Sinnesemp- schreibt in der Psychologie ein Objekt, von
findung
dem eine physikalisch messbare Größe (Gewicht,
Licht, Wärme, Geruch, etc.) ausgeht, welche mit
Hilfe der Sinne aufgenommen und in der Wahrnehmung verarbeitet werden kann. Der distale
Reiz ist immer unabhängig von dem Betrachter,
im Gegensatz zu dem proximalen Reiz.’ (Quelle:
ThomasSD 26.04.2008a)
Electrotechnical
Commission
154
‘Die Internationale Elektrotechnische Kommission (IEC) ist eine anerkannte Standardisierungsorganisation auf dem Gebiet der Elektrotechnik und Elektronik. Zu ihren Sachgebieten gehören die elektrischen Sicherheit, die
Spannungsfestigkeit und Isolation, der Bereich
der elektrischen Bauelemente, Anlagen zur Erzeugung, Transport und Verteilung elektrischer
Energie, die Haustechnik sowie die Nachrichten, Funk- und Informationstechnik.’ (Quelle: Lipinski 26.04.2008b)
Glossar
Diplomarbeit Gordon Lemme
‘Das neuronale Signal besteht aus elektrischen
elektrische Impulse Impulsen, so genannten Aktionspotenzialen, die
die einzigen Eingangs- und Ausgangssignale des
Gehirns bilden. Sie beruhen auf Permeabilitätsänderungen der Zellmembran für bestimmte Ionen. Im Ruhezustand ist das Innere des Axons
negativ in Bezug auf die Außenseite, aber wenn
eine Störung auftritt, wenn beispielsweise ein retinaler Rezeptor durch Licht gereizt wird, wird
das Faserinnere positiv. Dies löst einen Stromfluss aus, der wie eine Welle die Nervenfaser entlangläuft. Die Leitungsgeschwindigkeit ist dabei wesentlich geringer als die des elektrischen
Stroms in einem Draht. Sie beträgt in großen Fasern ungefähr 100 m/s, in den kleinsten Fasern
weniger als 1 m/s.’ (Quelle: Gregory 2001,
Seite 95)
155
Glossar
Farbraum
Farbtemperatur
Field of View
156
Glossar
‘Ein Farbraum oder auch Farbmodell basiert
auf einem geometrischen oder mathematischem
Rahmenwerk, welches die Farbdarstellung des
menschlichen Auges beschreibt. Die sichtbaren
Farben werden im Farbraum durch eine oder
mehrere Dimensionen dargestellt, wobei jeder
Dimension bestimmte Farben angehören, um
diese numerisch beschreiben zu können. Durch
diese Art der Beschreibung können Farben klassifiziert, eindeutig beschrieben und verlichen
werden.’ (Quelle: Häßler 26.04.2008c)
Durch die Erhitzung eines Schwarzkörpers fängt
dieser bei genügend großer Hitze an Licht auszusenden. Die Farbtemperatur gibt den Wert an,
um diesen Farbeindruck zu erzeugen.
‘Sichtfeld oder Field of View (FOV) ist ein in
der Optik gebräuchlicher Ausdruck und bezeichnet den Bereich im Bildwinkel eines optischen
Geräts, z. B. eines Sonnensensors, der Bildfläche einer Kamera (Film oder Aufnahmesensor)
oder eines Durchsicht-Displays, innerhalb dessen Ereignisse oder Veränderungen wahrgenommen und aufgezeichnet werden können.’ (Quelle:
Wikipedia 26.04.2008b)
Glossar
Gamut
Glaskörper
HLS
Diplomarbeit Gordon Lemme
englisch Tonleiter, Farbpalette
Corpus vitreum - Der Glaskörper besteht zu
ca. 98% aus Wasser sowie aus ca. 2% Hyaluronsäure und einem Netz von Kollagenfasern
(<<1%). Das angesprochene feine, dreidimensionale Netzwerk der Kollagene besteht hierbei
vornehmlich aus Kollagen Typ II und IX. Die
Assoziation von Hyaluronsäure in diesem weitmaschigen Netzwerk sowie die hohe Kapazität
der Hyaluronsäure, Wasser zu binden, bedingen
die homogene, gelartige Konsistenz des Glaskörpers und seine Durchsichtigkeit. (Quelle: Gregory 2001)
‘Das HLS-Farbmodell ist ein wahrnehmungsorientiertes Farbmodell und somit auf das Wahrnehmungsempfinden des Menschen ausgerichtet. Die Wahrnehmung richtet sich nach drei
Größen (Parametern): Farbton (Hue), Helligkeit
(Brightness, Lightness) und Sättigung (Saturation).’ (Quelle: Klagenfurt 26.04.2008)
157
Glossar
Interpolation
Iris
158
Glossar
‘Bei der Interpolation werden auf mathematischem Weg zusätzliche Bildpunkte errechnet,
die sich zwischen anderen Bildpunkten befinden. Die Interpolationsverfahren dienen der Erhöhung der scheinbaren Auflösung von Grafiken, Bildern und Fotos. Die Auflösung selbst
kann durch Interpolation nicht verändert werden, da keine zusätzlichen Details erzeugt werden.’ (Quelle: Lipinski 26.04.2008c)
‘Ist Teil der mittleren Augenhaut, funktioniert
wie eine Blende. Sie stellt mit Hilfe der Sehlochmuskeln je nach Helligkeit das Sehloch (Pupille)
enger oder weiter und regelt damit den Lichteinfall auf die Netzhaut. Die unterschiedliche
Farbgebung der Iris ist auf einen unterschiedlichen Pigmentgehalt in den Zellen zurückzuführen. Ist der Pigmentgehalt hoch, ist die Iris dunkelbraun; ist er niedrig, ist sie grau-blau.’ (Quelle: med. Rainer Wiltfang 26.04.2008a)
Glossar
laterale Hemmung
Linse
LOD
Diplomarbeit Gordon Lemme
‘Die laterale Hemmung ist ein allgemeines Prinzip, das überall im Zentralnervensystem genutzt wird. Sie tritt in kompliziert verflochtenen
Schaltkreisen auf, wie sie beispielsweise in Ganglienzellknoten oder in den oberen Schichten
der Retina lokalisiert sind (dort werden die inhibitorischen Interneurone als Horizontalzellen
bezeichnet. In der Retina ist die Verschaltung
durch weitere Möglichkeiten der Kontrastverstärkung bei weitem komplizierter). Das Ergebnis der lateralen Hemmung ist die Kontrastverstärkung, und damit die Herausbildung von Gestaltgrenzen, die als Grundlage der Orientierung
dienen können.’ (Quelle: Matthias 26.04.2008)
‘Sie ist aus Schichten unterschiedlicher Brechkraft aufgebaut und wird von einer durchsichtigen, elastischen Membran umschlossen. Die Aufhängevorrichtung, durch die die Linse in ihrer
Lage festgehalten wird, besteht aus Zonulafasern, die am Ziliarkörper des Auges entspringen.’ (Quelle: Meyers 26.04.2008)
‘(deutsch: Detailstufen) bezeichnet man die verschiedenen Detailstufen bei der Darstellung virtueller Welten. Um die Geschwindigkeit von
Anwendungen der virtuellen Realität zu steigern setzt man meist auf gleichzeitiges Nutzen
von hoher Detailgenauigkeit im Nahbereich und
niedriger Detailstufe im Fernbereich. Dies kann
die Komplexität (Anzahl der Polygone) der 3DObjekte betreffen, aber auch die Auflösung der
Texturen.’ (Quelle: Kühn 26.04.2008)
159
Glossar
Mach-Phänomen
MAIS
160
Glossar
‘subjektive Empfindung einer Kontrastverstärkung als so genannter Nachbareffekt an
Hell-Dunkel-Übergängen (z.B. im Röntgenbild
zwischen Feldern verschiedener Schwärzung).’
(Quelle: Patzer 26.04.2008)
‘Die Abbreviated Injury Scale (AIS) ist eine
weltweit gültige Klassifikation für Einzelverletzungen [1]. Die Klassifikation ist nach Körperregionen geordnet und jede Verletzung wird durch
einen 7-stelligen Code beschrieben. Die letzte
Zahl des Codes beschreibt die Verletzungsschwere. Die Skala hierfür reicht von 1 bis 6. AIS 1 entspricht einer leichten Verletzung und AIS 6 einer
Verletzung die nach dem aktuellen wissenschaftlichen Stand nicht behandelbar ist und mittelbar
zum Tod führt.’...’Der Maximum AIS (MAIS)
entspricht dem höchsten AIS der Verletzten Person [1]. Nach dem MAIS werden die Verletzungsgrade wie folgt definiert: MAIS 0 als ’unverletzt’,
MAIS 1 als ’leicht verletzt’, MAIS 2 bis 4 als
’schwer verletzt’ und MAIS 5 und 6 als ’schwerst
verletzt’.’ (Quelle: Richter 26.04.2008)
Glossar
Mapping
Diplomarbeit Gordon Lemme
‘Der Begriff Musterabbildung oder englisch texture mapping bezeichnet ein Verfahren der 3DComputergrafik. Es dient dazu, die Oberflächen
dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern - sogenannten ’Texturen’ - und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder
detailreicher und realistischer erscheinen, ohne
dass das zugrundeliegende Modell selbst verfeinert werden muss.... Der Versuch, die Textur
Zeile für Zeile abzutasten und entsprechend der
Position des Polygons schräge Linien im Bildspeicher zu zeichnen, endet in einem durchlöcherten Bild. Man muss gerade Linien (üblicherweise horizontal) im Bildspeicher rendern
und auf der Textur entsprechend schräge Linien abtasten. Übliche Algorithmen zeichnen nur
Dreiecke, d.h. alle Objekte werden aus Dreiecken zusammengesetzt.’ (Quelle: Wikipedia
26.04.2008c)
161
Glossar
Netzhaut
opaque
Glossar
‘Ist die lichtempfindliche Schicht an der hinteren
Innenseite des Auges. Sie enthält lichtempfindliche Zellen (Stäbchen und Zapfen), die das auftreffende Licht, nachdem es die Hornhaut, die
Linse und den Glaskörper durchquert hat, in
elektrische Impulse (Nervensignale) umwandeln
und so über den Sehnerv zum Gehirn weiterleiten. Die Netzhaut stellt damit ein entscheidendes Glied in der Kette des Sehens dar.’ (Quelle:
med. Rainer Wiltfang 26.04.2008b)
opak, lichtundurchlässig
‘ “Das Ganze ist mehr als die Summe ihrer Teile”
perzeptuelle Orga- - das ist der bekannte Slogan der Gestaltpsychonisation
logen Max Wertheimer, Kurt Koffka und Wolfgang Köhler, die in den 20er und 30er Jahren
den Prozess der Formwahrnehmung untersucht
haben. Sie kamen zu den Schluss, dass Formwahrnehmung ein konstruktiver Prozess ist und
dass die Elemente nicht unabhängig sind vom
Muster, in das sie eingebettet sind. Sie formulierten Prinzipien, die das visuelle Feld in einer bestimmten Weise organisieren: die Prinzipien der Nähe, der Ähnlichkeit, der guten Fortsetzung, der Geschlossenheit.’ (Quelle: Funke
26.04.2008)
162
Glossar
Diplomarbeit Gordon Lemme
‘Der Proximale Reiz (auch „Nahreiz“, „Proxiproximale Sinnes- maler Stimulus“) bezeichnet in der Psycholoempfindung
gie die Gesamtheit der messbaren, physikalischen oder chemischen Einwirkung eines distalen Reizes auf Sinneszellen im Rahmen der
Wahrnehmung. Oftmals wird mit dem proximalen Reiz auch nur das Netzhautbild bzw. das
Muster des sensorischen Input im Auge des Beobachters bezeichnet, physikalisch konkret also
die Verteilung elektromagnetischer Energie auf
der Netzhaut. Der proximale Reiz ist dabei immer an einen Betrachter gebunden, im Gegensatz zu dem distalen Reiz.’ (Quelle: ThomasSD
26.04.2008b)
Pupille
Rasterbild
‘Ist ein kreisrundes, dunkel erscheinendes ’Sehloch’ in der Regenbogenhaut und wird je nach
nach Helligkeit von der Irismuskulatur in der
Größe (1,5 – 8 mm) verändert. Damit wird der
Lichteinfall auf die Netzhaut geregelt.’ (Quelle:
med. Rainer Wiltfang 26.04.2008c)
‘Rasterbilder bestehen aus unzähligen winziger
Bildpunkte gleicher Dichte, die mosaikförmig
angeordnet sind und die Illusion von Tonwerten
simulieren z.B. bei der Reproduktion von Fotos
im Druck.’ (Quelle: Janssen 26.04.2008)
163
Glossar
Regenbogenhaut
Retina
Sakkade
Sehgrube
164
Glossar
siehe Iris
siehe Netzhaut
‘Bei Sakkaden handelt es sich um schnelle,
ruckartige Rückbewegungen der Bulbi nach einer Augenbewegung, bei der ein Gegenstand fixiert wird. Man spricht auch von einem Abtastsprung im Blickverlauf. Während der Sakkade ist die visuelle Wahrnehmung stark eingeschränkt.’ (Quelle: Antwerpes 26.04.2008)
(Fovea centralis), ‘Die Sehgrube ist eine etwa
1,5 mm große Vertiefung in der Netzhaut des
Auges. Beim Mensch ist sie der Ort des schärfsten Sehens. Sie enthält keine Stäbchen, sondern nur Zapfen, also jene Rezeptoren, die für
das Farbensehen zuständig sind. Dementsprechend schwer ist es, bei Dunkelheit, wenn nur
die Schwarz-Weiß-Rezeptoren, die Stäbchen, aktiv sind, einen Text scharf zu lesen.’ (Quelle:
Meyer-Wagenfeld 26.04.2008)
Glossar
Sehnerv
Stäbchen
Tristimulus
Diplomarbeit Gordon Lemme
‘(Nervus Opticus), Dieser Nerv leitet die visuellen Informationen, die von den Netzhautzellen
verarbeitet wurden, zum Gehirn weiter.’ (Quelle: med. Rainer Wiltfang 26.04.2008d)
‘Sind Lichtsinneszellen in der Netzhaut. Sie sind
verantwortlich für das Dämmerungssehen (HellDunkel-Unterscheidung).’ (Quelle: med. Rainer Wiltfang 26.04.2008e)
‘Der Ausgangspunkt war die beschriebene indirekte Methode der Farbmessung durch Vergleich
(’colour match’). Eine Farbe wird dabei gemessen, indem man einen Beobachter vermittelst eines geeigneten Apparats in die Lage versetzt,
sie mit einer (additiven) Mischung der drei Elementarfarben zu vergleichen. Man spricht dabei
vom ’Dreifarbenwert’ (’tristimulus value’). ’Farbe’ heißt in diesem Fall ’Wellenlänge’, und auf
die erwähnte Weise wird ermittelt, welche Anteile von Rot, Grün oder Blau in Licht zum Beispiel
der Wellenlänge 520 nm gesehen werden. Der
jeweilige Beobachter wird den Apparat entsprechend einstellen; das ermittelte Ergebnis wird
notiert und in Form von drei Zahlen festgehalten, die wir mit den Buchstaben R, G und B
bezeichnen wollen. (Daß es sich hierbei um die
Energie der jeweiligen Strahlung handelt, die gemessen wird, spielt für das CIE-Diagramm keine Rolle.)’ (Quelle: virtualcolourmuseum
26.04.2008)
165
Glossar
Viewpoint
Zapfen
Ziliarkörper
166
Glossar
‘die optische Perspektive oder Einstellung, die
einen Blick wie mit den Augen eines Akteurs
oder einer Figur zeigt’ (Quelle: Wikipedia
26.04.2008a)
‘Sind kegelförmige Lichtsinneszellen in der Netzhaut, zuständig für das Wahrnehmen verschiedener Farben bei genügend Lichteinfall. Sie
befinden sich hauptsächlich im Zentrum der
Netzhaut.’ (Quelle: med. Rainer Wiltfang
26.04.2008f)
(Corpus ciliare, Strahlenkörper), ‘Ist ein im vorderen Drittel des Augapfels gelegenes Organ,
das aus einem Muskel und einer Drüse besteht.
Das Ziliarkörperepithel produziert das Kammerwasser. Die Augenlinse ist durch Fasern mit dem
Ziliarkörper verbunden, wodurch sie ihre stabile Lage erhält.’ (Quelle: med. Rainer Wiltfang 26.04.2008g)
Abbildungsverzeichnis
0.1 Fahrsimulatorbild . . . . . . . . . . . . . . . . . . . . .
xii
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12
2.13
Augenhöhle . . . . . . . . .
spektrale Absorption . . . .
3D-Augabbildung . . . . . .
Wahrnehmungsprozess . . .
Vase . . . . . . . . . . . . .
Gesichter . . . . . . . . . . .
Wahrnehmungsbeeinflussung
Wahrnehmungstäuschung . .
Clipping Planes . . . . . . .
Frustum . . . . . . . . . . .
Hüllobjekt Auto . . . . . . .
Hüllobjekt . . . . . . . . . .
Culling . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9
3.10
3.11
3.12
Bones-Animation . . . . . .
Flipbook Animation . . . . .
1. Schritt . . . . . . . . . . .
3. Schritt . . . . . . . . . . .
5. Schritt . . . . . . . . . . .
7. Schritt . . . . . . . . . . .
9. Schritt . . . . . . . . . . .
11. Schritt . . . . . . . . . .
Fußgängeranimation . . . . .
Verhaltensmerkmal . . . . .
Pedestrian Protection System
Pedestrian Protection System
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
im
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8
10
11
13
14
14
15
16
17
18
18
19
20
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Einsatz
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
24
25
25
25
26
26
26
26
34
40
40
167
Abbildungsverzeichnis
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11
4.12
4.13
168
Abbildungsverzeichnis
RGB-Farbraum . . . . . . . . . . . . . .
RGB-Gamut . . . . . . . . . . . . . . . .
RGB-Würfel . . . . . . . . . . . . . . . .
xyY-Gamut . . . . . . . . . . . . . . . .
Imaginärvalenzen . . . . . . . . . . . . .
Umrechnungstabelle . . . . . . . . . . . .
HLS-Farbraum . . . . . . . . . . . . . . .
Header Attributes: db Fenster . . . . . .
Face Attribute-Fenster . . . . . . . . . .
TM
R
MultiGen-Paradigm
Creator 3.3 Color
Burosch Testbild . . . . . . . . . . . . . .
Fahrsimulatorgamut . . . . . . . . . . . .
Gouraud Shading . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Palette
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
44
46
47
50
53
54
55
56
58
59
61
65
5.1 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Farbbereich nicht retroreflektierender Materialien . . . .
5.3 Schnittmenge Fahrsimulatorgamut und Verkehrszeichenaufsichtfarbe . . . . . . . . . . . . . . . . . . . . . . . .
71
74
6.1
6.5
6.2
6.3
6.4
6.6
6.7
6.8
6.9
6.10
6.11
6.12
6.13
6.14
6.15
6.16
78
78
79
79
79
80
81
83
83
85
86
86
88
89
95
96
Kirche . . . . . . . . . . . . . . . . . . . . . . . . .
Spitfire . . . . . . . . . . . . . . . . . . . . . . . . .
1.generische Textur . . . . . . . . . . . . . . . . . .
2.generische Textur . . . . . . . . . . . . . . . . . .
3.generische Textur . . . . . . . . . . . . . . . . . .
einzigartige Textur . . . . . . . . . . . . . . . . . .
RGBA-Dateiaufbau . . . . . . . . . . . . . . . . . .
Minificationfilter . . . . . . . . . . . . . . . . . . . .
Magnificationfilter . . . . . . . . . . . . . . . . . . .
Point Filter . . . . . . . . . . . . . . . . . . . . . .
Bilinear Filter . . . . . . . . . . . . . . . . . . . . .
Bicubic Filter . . . . . . . . . . . . . . . . . . . . .
Texture Attribute Editor-Ausschnitt . . . . . . . . .
TM
R
MultiGen-Paradigm
Creator 3.3 Attribute Editor
TM
R
Adobe
Photoshop CS2 Alphakanalerstellung . .
TM
R
Jasc
Paint Shop Pro 8 Alphakanalerstellung . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
Abbildungsverzeichnis
Diplomarbeit Gordon Lemme
7.1 LOD . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.1
8.2
8.3
8.4
8.5
8.6
Anisotrope Filterung . . .
Anisotrope Filterung . . .
Anti-Aliasing . . . . . . . .
Aliasing . . . . . . . . . .
DLP-Projektor . . . . . . .
UTM-Software-Screenshot
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
98
104
105
107
107
108
110
9.1 nicht optimierte Textur . . . . . . . . . . . . . . . . . . 111
9.2 optimierte Textur . . . . . . . . . . . . . . . . . . . . . 111
TM
R
9.3 MultiGen-Paradigm
Creator 3.3 Beispielhaus unoptimiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
TM
R
9.4 MultiGen-Paradigm
Creator 3.3 Beispielhaus optimiert114
9.5 Nvidia GeForce4 Einstellung . . . . . . . . . . . . . . . 116
9.6 Moiré-Effekt . . . . . . . . . . . . . . . . . . . . . . . . 117
9.7 Screenshot Z-Buffer . . . . . . . . . . . . . . . . . . . . 119
9.8 Szenengraph . . . . . . . . . . . . . . . . . . . . . . . . 121
9.9 Szenengraph Optimierung . . . . . . . . . . . . . . . . . 121
9.10 Screenshot Fahrsimulatormaterial . . . . . . . . . . . . 125
9.11 Screenshot Creatormaterial . . . . . . . . . . . . . . . . 125
TM
9.12 Lichtquellenstandort im OpenGL Performer . . . . . . 126
TM
R
9.13 Lichtquellenstandort im MultiGen-Paradigm
Creator 3.3 126
10.1 Simulatorbild . . . . . . . . . . . . . . . . . . . . . . . 129
10.2 Fotografie . . . . . . . . . . . . . . . . . . . . . . . . . 129
169
Abbildungsverzeichnis
170
Abbildungsverzeichnis
Tabellenverzeichnis
4.1 Primärvalenzwerte nach CIE . . . . . . . . . . . . . . .
4.2 Eckpunkte der Darstellungsgrenze . . . . . . . . . . . .
45
60
5.2 Farbbereiche für nicht retroreflektierende Materialien im
Neuzustand . . . . . . . . . . . . . . . . . . . . . . . .
73
9.2 Statistiktabelle für Beispielhaus . . . . . . . . . . . . . 112
9.3 Perfly-Statistik für ein Quadrat . . . . . . . . . . . . . . 120
A.1
A.2
A.3
A.4
A.5
A.6
A.7
A.8
GeForce4 Ti 4600 Spezifikation
CPU Spezifikation . . . . . . .
Motherboard Spezifikation . .
Speicher Spezifikation . . . . .
North Bridge Spezifikation . .
Betriebssystem Spezifikation .
Projektor Teil 1 . . . . . . . .
Projektor Teil 2 . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
132
132
133
134
134
135
136
B.1 Leserlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 138
171
Tabellenverzeichnis
172
Tabellenverzeichnis
Personenverzeichnis
Ali, Muhammad, 64
Antwerpes, Dr. Frank, 164
Buber, Martin, 33
Bunks, Carey, 45, 46
Burosch, Klaus, 59
Camenzind, J., 33
Eckel, George, 17, 121
Euklid von Alexandria, 9
Fuchsberger, Joachim, 28
Funke, Prof. Dr. Joachim, 162
Gehweiler, Monika, 52
Goethe, Johann Wolfgang von, 125
Graßmann, Hermann Günther, 45
Gregory, Richard L., 7, 8, 11, 15,
64, 109, 155
Hartl, Stephan H., 154
Hiller, Uli, 152
Hischer, Horst, 115
Häßler, Ulrike, 45, 51, 156
Hürlimann, F. W., 33
Janott, Marc, 52
Janssen, Wilhelm, 163
Jones, Ken, 17, 121
Kneisel, Prof. Dr. Peter, 12, 14
Kägi, B., 33
Kühn, Stefan, 159
Lembke, Robert, 31
Lindbloom, Bruce Justin, 47
Lipinski, Klaus, 153, 154, 158
Maison, Rudolf, 41
Matthias, Arno, 159
Michelson, Prof. Dr. Georg, 8
Musahl, Hans-Peter, 38
Müller, Johannes, 12
Patzer, Karl-Heinz, 160
Pythagoras von Samos, 109
Richter, Prof. Dr. Martinus, 160
Richter, Susann, 13
Scherer, Christian, 29, 31, 33, 35–
37
Schlag, Prof. Dr. Bernhard, 27
Schnabel, Gisela, 56
Seifert, A., 106
Serck, Karsten, 108
Sullivan, Laurie, 23
Tati,Jacques, 69
Unger, Jens, 20
173
Personenverzeichnis
Wagner, Maria, 9
Wiltfang, Dr. med. Rainer, 158,
162, 163, 165, 166
Zawischa, Prof. Dr. Dietrich, 41,
50
174
Personenverzeichnis
Index
Akkomodation, 8
Anhang, 131
Animation, 21–23
Bild-für-Bild, 21, 23
Bones, 23
Keyframe, 22
Anisotrope Filterung, 104
Anti-Aliasing, 106
APROSYS, 25
Aufgabenstellung, ix
Aufsichtfarbe, 72, 74
Augapfel, 8
Auge, 7
Augenbewegung, 11
Bounding-Volume, 19, 120
Burosch, 59
CIE, 42
Normvalenzsystem, 42
Clipping Plane, 18
far, 18
near, 18
Creator, 88
Farbraum, 54
Filtereinstellung, 88
Filterstandard, 88
Internal-Dateiformat, 88
Culling, 19
Danksagung, xvii
Ebenengleichung, 60, 63
Eides Statt, xv
Einleitung, 1
Electrotechnical Commission, 50
Empfindungsprozess, 13, 14
Bottom-up, 13
Top-down, 14
Epithel, 8
Erkennbarkeit, 70, 106, 115
Explorationsverhalten, 31
Fahrsimulatorgamut, 60
Farbe, 9, 41
Creator, 54
Definition, 41
Farbpalette, 57
Performer, 59
Farbe vs. Textur, 118
Farbmischung, 9, 81
additiv, 9, 42, 81
Farbmodell, 42, 47
RGB, 9, 42, 47
Farbraum, 41, 42, 54
HLS, 54, 55, 57
RGB, 42, 57
Farbsehen, 9
Farbtemperatur, 54, 154
175
Index
Farbvalenz, 52, 153
Field of View, 16, 42, 93, 99
Filter, 82, 84
Magnification, 82
Minification, 82
Optionen, 84
Add Detail, 87
Bicubic, 85
Bilinear, 85
Modulate Detail, 87
None, 87
Point, 85
Sharpen, 87
Texture Environment, 84
Fotorezeptoren, 9
FOV, 16, 42, 93, 99
Fovea centralis, 9, 11
Frustum, 18, 20, 120
Fußgänger, 21
Gamut, 42, 60, 62, 63, 75
Gefahrenantizipation, 38
Gefahrenkognition, 38
Glaskörper, 8
Gliederung, 3
Grundlagen, 7
Hardware, 103, 122, 131
Grafikkarte, 103
Hemmung, 11
laterale, 11
Hornhaut, 8
Hüllobjekt, 18
Idealverhalten, 29, 36
Imaginärvalenz, 45
176
Index
Imaginärvalenzen, 47–49
Impuls, 12
elektrisch, 12
Impulskodierung, 12
neuronal, 12
Interpolation, 22, 65
Iris, 8, 10
Kachelung, 94
Kammerwasser, 8
Lesbarkeit, 72, 115, 124
Leserlichkeit, 70, 137
Level of Detail, 97, 122
Licht, 64, 125
Linse, 8, 159
LOD, 97, 122
Berechnung, 100
Definition, 97
Funktionsweise, 98
Magnificationfilter, 82
MAIS, 25
Material, 64, 66, 124
Ambient, 66
Diffuse, 66
Emissive, 67
Specular, 66
Menschliche Wahrnehmung, 7
Minification, 82
Minificationfilter, 115
Mipmap, 87
Moiré-Effekt, 115
Motivation, 1
Nervenenergie, 12
Index
spezifisch, 12
Netzhaut, 9, 10, 158, 163, 164
Normfarbtafel, 74
Objekt, 64
opaque, 64
Optimierung, 111
Organisation, 12
perzeptuell, 12
Pedestrian Protection System, 39
Phänomen, 12
Mach, 12
Primärfarbe, 45
Primärfarben, 45
Primärvalenz, 47–49, 52
Projektor, ix, 45, 59, 100, 107,
135
DLP, ix, 59, 135
Pupille, 10
Rasterbild, 81
Regenbogenhaut, 8
Retina, 9, 11
RGB, 42, 88
Farbraum, 42
Kodierung, 42
Konvertierung, 47
RGBA, 47
sRGB, 50
TX_RGB_5, 88
Sakkaden, 11
Schatten, 64
Sehgrube, 9, 11
Sehnerv, 12
Diplomarbeit Gordon Lemme
Sehweitenfaktor, 71
Sekundärfarbe, 45
Shading, 64, 65
Flat, 65
Gouraud, 65
Lit, 65
Lit Gouraud, 66
Sichtfeld, 16
Significant Size, 99
Sinnesempfindung, 12
distal, 12
proximal, 12
Speichergröße, 90
Creator, 91
Textur, 90
StVO, 27, 28
§ 25 StVO, 28
§ 26 StVO, 27
Stäbchen, 9
Frequenzverlauf, 10
Szenengraphoptimierung, 120
Tagessehen, 9
Texel, 77, 82
Textur, 77
Aufbau, 81
Berechnungsvorschrift, 90
Definition, 77
Erstellung, 94
Adobe Photoshop, 94
Paint Shop Pro, 95
Filter, 81
Generisch, 78
Mapping, 77
Unique, 78
177
Index
Texturaufbau, 118
Texturfilter, 115
Texturverkleinerung, 111
Treppeneffekt, 106
Tristimulus, 50
Verhaltensanalyse, 25
Fallunterscheidung, 27
Gefahrenantizipation, 37
Konflikt, 33
Modelle, 29
Schlussfolgerung, 37
Verkehrsanalyse, 33, 35
Auswertung, 35
Merkmalsdetektion, 33
Verkehrserziehung, 38
Verkehrszeichen, 69
Verzerrung, 108
perspektivisch, 108
Viewing-Volume, 17
Viewpoint, 16
Volume, 18
Bounding, 18
Viewing, 18
Voxel, 83
Wahrnehmungsprozess, 12
Wellenlänge, 9
Zapfen, 9
L-Zapfen, 9
M-Zapfen, 9
S-Zapfen, 9
Zielstellung, 2
Ziliarkörper, 8, 159
Zusammenfassung, 127
178
Index
Fazit, 128
Inhalt, 127