Geographische und Topographische Lage von

Transcription

Geographische und Topographische Lage von
Post-graduate University Course MSc
Space Sciences
Master Thesis
Automatisierte Generierung von virtuellen 3D
Landschaften auf der Basis des Österreichischen
Topographischen Modells, der Digitalen Katastralmappe
und Satellitenbilddaten
By
Mag. Stefan Eichberger
Automatisierte Generierung von virtuellen 3D
Landschaften auf der Basis des Österreichischen
Topographischen Modells, der Digitalen Katastralmappe
und Satellitenbilddaten
By
Mag. Stefan Eichberger
Submitted in partial fulfillment
of the requirements for the degree of
Master of Science
of the Post-graduate University Course Space Sciences
Karl Franzens University of Graz
Graz, Austria
December 2005
Karl Franzens University of Graz
II
Date: Dez. 2005
Author:
Mag. Stefan Eichberger
Title:
Automatisierte Generierung von virtuellen 3D
Landschaften auf der Basis des Österreichischen
Topographischen Modells, der Digitalen Katastralmappe
und Satellitenbilddaten
Permission is herewith granted to the Post-graduate University Course Space
Sciences of Karl Franzens University of Graz to circulate and to have copied for noncommercial purposes, at its discretion, the above title upon the request of individuals
or institutions.
_________________________________
Signature of Author
The author reserves other publication rights, and neither the thesis nor extensive
extracts from it may be printed or otherwise reproduced without the author’s written
permission.
The author attests that permission has been obtained for the use of any copyrighted
material appearing in this thesis (other than brief excerpts requiring only proper
acknowledgement in scholarly writing) and that all such use is clearly acknowledged.
III
Inhaltsverzeichnis
1
Einleitung & Zielsetzung................................................................................................1
1.1
Visualisierung & Geovisualisierung......................................................................................... 1
1.2
Zielsetzung ............................................................................................................................. 3
1.3
Workflow................................................................................................................................. 4
1.4
Begriffe ................................................................................................................................... 5
1.4.1 Visualisierung..................................................................................................................... 5
1.4.2 Landschaft.......................................................................................................................... 6
1.4.3 Dimensionen ...................................................................................................................... 6
1.4.4 Geodaten ........................................................................................................................... 9
2
Datengrundlagen ..........................................................................................................10
2.1
Digitales Geländemodell (DGM) ........................................................................................... 10
2.1.1 Verwendete DGMs: .......................................................................................................... 11
2.1.1.1 DGM des BEV ......................................................................................................... 11
2.1.1.2 SRTM (Shuttle Radar Topography Mission) ............................................................ 11
2.1.1.3 DGM Joanneum Research ...................................................................................... 12
2.2
Vektordaten .......................................................................................................................... 13
2.2.1 Verwendete Vektordaten.................................................................................................. 14
2.2.1.1 DLM – Digitales Landschaftsmodell......................................................................... 14
2.2.1.2 DKM – Digitale Katastralmappe............................................................................... 16
2.2.2 Datenformat: ESRI Shape................................................................................................ 16
2.2.3 Fernerkundung – das „Missing Link?“ .............................................................................. 17
2.3
Rasterdaten - Satellitenbilder und Sensoren ........................................................................ 19
2.3.1 QuickBird.......................................................................................................................... 20
2.3.2 Spot.................................................................................................................................. 21
2.3.3 Landsat ............................................................................................................................ 22
2.4
Klassifizieren von Fernerkundungsdaten.............................................................................. 24
2.4.1 Pixelbasierte Methodik ..................................................................................................... 24
2.4.1.1 Unüberwachte Klassifikation.................................................................................... 25
2.4.1.2 Überwachte Klassifikation........................................................................................ 26
2.4.2 Objekt-orientierte Methodik .............................................................................................. 28
2.4.2.1 Clusterbasierte Segmentierung ............................................................................... 29
2.4.2.2 Regionsbasierte Segmentierung (region-based) ..................................................... 30
2.4.2.3 Kantenbasierte Segmentierung (edge-based) ......................................................... 30
2.4.2.4 Watershed-Segmentierung...................................................................................... 31
2.4.2.5 Weitere Verfahren ................................................................................................... 31
2.5
Texturen ............................................................................................................................... 34
2.5.1 Natürliche Texturen .......................................................................................................... 35
2.5.2 Künstliche Texturen.......................................................................................................... 36
I
2.6
Existierende 3D-Visualisierung basierend auf amtlichen Geodaten am Beispiel der „Austrian
Map“……………................................................................................................................................. 37
3
Konzept einer Landschaftsvisualisierung .................................................................39
3.1
3.2
3.3
3.4
3.5
3.6
4
VNS - Softwarefunktionalität................................................................................................. 40
Datenaufbereitung ................................................................................................................ 43
Rasterbasierte Visualisierung ............................................................................................... 45
Vektorbasierte Visualisierung ............................................................................................... 46
„Automatisierte“ Visualisierung ............................................................................................. 47
Arbeitsumgebung ................................................................................................................. 48
Visualisierungsergebnisse der einzelnen Testgebiete .............................................49
4.1
Dachstein-Tauern Region..................................................................................................... 49
4.1.1 Visualisierung................................................................................................................... 51
4.1.1.1 Konzeption & Work Flow ......................................................................................... 51
4.1.1.2 Grundlagen.............................................................................................................. 51
4.1.1.3 Aufbau & Konzept der Ecosystems ......................................................................... 51
4.1.1.4 Rasterbasierte Visualisierung .................................................................................. 57
4.1.1.5 Hybride Visualisierung............................................................................................. 64
4.1.1.6 Vektorbasierte Visualisierung .................................................................................. 71
4.2
Mallnitz – Hohe Tauern......................................................................................................... 77
4.2.1 Diskussion der Ergebnisse............................................................................................... 83
4.2.1.1 Fernerkundungsdaten ............................................................................................. 83
4.2.1.2 Vektordaten der DKM .............................................................................................. 85
4.2.1.3 Vektordaten des DLM.............................................................................................. 88
4.2.1.4 Animation................................................................................................................. 92
4.2.1.5 Realtime Animation ................................................................................................. 95
5
Grenzen und Zielsetzung.............................................................................................99
5.1
5.2
5.3
6
7
8
Systemvoraussetzung .......................................................................................................... 99
Daten & Zielsetzung ............................................................................................................. 99
Maßstab.............................................................................................................................. 100
Diskussion und Ausblick...........................................................................................101
Literaturverzeichnis ...................................................................................................104
Anhang ........................................................................................................................111
II
Abbildungsverzeichnis
Abb. 1: Objektdimensionen von Geodaten............................................................................................... 8
Abb. 2: Feature Space ........................................................................................................................... 25
Abb. 3: Überwachte Klassifikation.......................................................................................................... 27
Abb. 4: Ablauf einer Multispektral-Klassifizierung .................................................................................. 28
Abb. 5: Vergleich einer Abgrenzung eines Moors .................................................................................. 29
Abb. 6: Hierarchische Klassifizierung..................................................................................................... 31
Abb. 7: Information und Ablauf in einem typischen neuronalen Netz ..................................................... 32
Abb. 8: Künstliche Felstextur ohne (links) bzw. mit Bump Mapping (rechts).......................................... 34
Abb. 9: Beispiel einer natürlichen Textur, Kombination Landsat TM/Spot.............................................. 35
Abb. 10: Textur für Ackerflächen............................................................................................................ 36
Abb. 11: 2D-Bilder als Billboard Objekte ................................................................................................ 37
Abb. 12: Anaglyphenbild von Graz......................................................................................................... 37
Abb. 13: Perspektive Ansicht in der AMAP, Version 2.0 ........................................................................ 38
Abb. 14: Ecosystem „Nadelwald“ ........................................................................................................... 41
Abb. 15: Detailansicht ............................................................................................................................ 41
Abb. 16: Konzept einer Landschaftsvisualisierung mit VNS................................................................... 44
Abb. 17: Image Drape mit Satellitenbild (Auflösung 10 m)..................................................................... 45
Abb. 18: Vektorbasierte Visualisierung .................................................................................................. 46
Abb. 19: Gebietsabgrenzung Region Dachstein-Tauern........................................................................ 49
Abb. 20: Ecosystem Editor, VNS 2......................................................................................................... 52
Abb. 21: Ecosystems – Rules of Nature................................................................................................. 53
Abb. 22: Ecosystem – Material Gradient................................................................................................ 54
Abb. 23: Ecosystems – Material & Foliage............................................................................................. 54
Abb. 24: Darstellung der Klasse „Unclassified“. ..................................................................................... 55
Abb. 25: Ecotype Editor der Overstory für das Material „Laubwald“....................................................... 55
Abb. 26: Ecosystem – Color Map........................................................................................................... 56
Abb. 27: Landnutzungsklassifikation als Image Drape........................................................................... 58
Abb. 28: Satellitenbild als natürliche Textur. .......................................................................................... 58
Abb. 29: Visualisierung mittels künstlicher Texturen.............................................................................. 58
Abb. 30: Natürliche Textur im kleinen Maßstab...................................................................................... 59
Abb. 31: Künstliche Textur, kleiner Maßstab.......................................................................................... 60
Abb. 32: Natürliche Textur, mittlerer Maßstab........................................................................................ 60
Abb. 33: Künstliche Textur, mittlerer Maßstab ....................................................................................... 61
Abb. 34: Künstliche Textur, großer Maßstab.......................................................................................... 61
Abb. 35: Künstliche Textur, großer Maßstab.......................................................................................... 62
Abb. 36: 3D Objekte zur Darstellung bebauter Flächen ......................................................................... 63
Abb. 37: Rasterbasierte Ecosystems ..................................................................................................... 65
Abb. 38: Ergänzende Vektordaten für ein Verkehrs- (gelb) und Gewässernetz (blau)........................... 65
III
Abb. 39: Terrafectors ............................................................................................................................. 65
Abb. 40: Render Preview ....................................................................................................................... 66
Abb. 41: Vektoren und Terrafectors ....................................................................................................... 67
Abb. 42: Terrafector und Area Terrafector mit den Komponenten Streams und Lakes.......................... 68
Abb. 43: Terrafectors ohne Streams, Area Terrafector mit Lakes.......................................................... 68
Abb. 44: Vektoren & Terrafectors (1) ..................................................................................................... 69
Abb. 45: Vektoren & Terrafectors (2) ..................................................................................................... 69
Abb. 46: Vektoren & Terrafectors (3) ..................................................................................................... 70
Abb. 47: Renderergebnis, hybride Methodik .......................................................................................... 70
Abb. 48: Open GL View, VNS2 .............................................................................................................. 72
Abb. 49: Konzept eines Edge Feathering Profile.................................................................................... 72
Abb. 50: Platzierung von 3D Objekten (1).............................................................................................. 74
Abb. 51: Platzierung von 3D Objekten (2).............................................................................................. 74
Abb. 52: Renderergebnis, Vektorbasierte Methodik............................................................................... 75
Abb. 53: Übersichtskarte Mallnitz – Hohe Tauern.................................................................................. 77
Abb. 54: 3D Ansicht des Testgebietes ................................................................................................... 77
Abb. 55: Lageungenauigkeiten zwischen DLM und DKM ...................................................................... 80
Abb. 56: Ausdehnung der DKM Daten ................................................................................................... 81
Abb. 57: Bottom-Up-Konzept der Modellierung für das Testgebiet Mallnitz ........................................... 82
Abb. 58: Spot 5 Klassifikation, 24 bit Farbdarstellung ............................................................................ 84
Abb. 59: Walls aus Gebäudepolygonen. ................................................................................................ 86
Abb. 60: Farbzuordnung über eine Thematic Map................................................................................. 87
Abb. 61: Modellieren von Walls ausgehend von einer dreidimensionalen Dachform ............................. 87
Abb. 62: Walls als Zaun entlang von Grundstücksgrenzen.................................................................... 87
Abb. 63: DLM Daten mit Terrafectors modelliert .................................................................................... 89
Abb. 64: Überlagerung der DKM mit DLM Daten ................................................................................... 90
Abb. 65: Natürliche Unterbrechung eines Terrafectors .......................................................................... 90
Abb. 66: Plazieren eines 3D Objektes.................................................................................................... 90
Abb. 67: Fertiges Renderergebnis mit Cloud Models und Shadows im Bildvordergrund ....................... 91
Abb. 68: Konzept einer Keyframe-basierten Animation.......................................................................... 92
Abb. 69: Ausschnitt der fertigen Animation (AVI Format, Windows Media Player, Version 9.0)............. 93
Abb. 70: Ausschnitt einer Animation mit künstlicher Textur (AVI Format, Windows Media Player, Version
9.0) ................................................................................................................................................ 94
Abb. 71: Teilausschnitt in Nature View Express (NVE), Version 1.60 .................................................... 97
Abb. 72: VRML Szene in Cortona 4.2 .................................................................................................... 97
IV
Tabellenverzeichnis
Tab. 1:.Elemente der räumlichen Wahrnehmung..................................................................................... 7
Tab. 2: Verfahren zur Raumbilderzeugung .............................................................................................. 7
Tab. 3: Parameter der SRTM Systeme .................................................................................................. 12
Tab. 4: Vergleich der Datenstrukturen Vektor – Raster.......................................................................... 13
Tab. 5: Inhalt des DLM, Stand November 2005 ..................................................................................... 15
Tab. 6: Quickbird Systemparameter....................................................................................................... 20
Tab. 7: SPOT Systemparameter............................................................................................................ 21
Tab. 8: Landsat Systemparameter......................................................................................................... 23
Tab. 9: Systemvorsaussetzung und verwendete Arbeitsumgebung....................................................... 48
Tab. 10: Zusammenfassung der verwendeten Software........................................................................ 48
Tab. 11: Abgrenzung des Testgebietes Dachstein Tauern Region in BMN Koordinaten ....................... 49
Tab. 12: Aggregierte Klassen und ihre Vergleichbarkeit mit CORINE-Klassen...................................... 50
Tab. 13: CLC Klassen, wie sie tatsächlich im Testgebiet vorkommen ................................................... 50
Tab. 14: Zusammenfassung der verschiedenen Visualisierungs-Methoden .......................................... 76
Tab. 15: Abgrenzung des Testgebietes Mallnitz - Hohe Tauern in BMN Koordinaten .......................... 77
Tab. 16: Attribute des DLM der Objektbereiche „Namen“ und „Verkehr“ ............................................... 78
Tab. 17: Attribute des Objektbereichs „Verkehr“ .................................................................................... 79
Tab. 18: Rasterattribute der Klassifikation der Quickbird-Szene............................................................ 84
Tab. 19: Auszug der Attribute für das Shape „Nfl.shp“ inkl. Summe der Polygone ................................ 85
Tab. 20: Zusammenfassung der Objektarten und ihre direkte Anwendbarkeit in VNS........................... 88
V
Danksagung
Im Rahmen des Universitätslehrganges Space Sciences konnte ich auf meinen Kenntnissen aus dem
Studium der Umweltsystemwissenschaften aufbauen und mein Wissen mit dem selbst gewählten
Schwerpunkt Remote Sensing noch vertiefen.
Der Arbeitsschwerpunkt innerhalb der Master Thesis führte mich in eine Materie, die bis dahin in diesem
Ausmaß noch Neuland für mich war.
Für die die Schaffung der Voraussetzungen für eine erfolgreiche Arbeit am Joanneum Research bzw.
die Betreuung der Master Thesis möchte ich mich an erster Stelle sehr herzlich bei Herrn Univ.-Prof. Dr.
Mathias Schardt bedanken. Am Institut für Digitale Bildverarbeitung bot die Visualisierungsgruppe rund
um Herrn Dipl. Ing. Alexander Almer einen idealen Rahmen von Fachwissen, Erfahrung und
entsprechender Arbeitsmittel zur Durchführung der Arbeit. Bei Herrn Almer möchte ich mich besonders
für die uneigennützige Bereitstellung von Arbeitsplatz und –mittel bedanken.
Innerhalb des Institutes für Digitale Bildverarbeitung bzw. der Visualisierungsgruppe gilt mein
besonderer Dank Herrn Dipl. Ing. Harald Stelzl, der mir zu jeder Zeit mit Rat und Tat zur Seite stand,
Motivationsprobleme erfolgreich bekämpfte und zuletzt sogar des öfteren für kulinarische Freuden in
den Mittagspausen sorgte.
VI
Kurzfassung
Unsere Umwelt wird zusehends digital erfasst und durch einen ständig wachsenden Pool an Geodaten
repräsentiert. Mit der Verfügbarkeit und Homogenisierung der Daten bzw. der kontinuierlich technischen
Entwicklung von Computerhard- und Software liegt auch die Idee nahe, diese in ihrer ursprünglichen
Form, nämlich 3-dimensional, zu visualisieren.
In dieser Arbeit werden verschiedene Raster- und Vektordaten für eine möglichst automatisierte
Landschaftsvisualisierung mittels der High-End Software Visual Nature Studio 2 (VNS) herangezogen.
Satellitenbilder und daraus abgeleitete thematische Information können auf relativ einfache Art und
Weise Grundlage für eine naturnahe Darstellung großflächiger Gebiete sein. Ein besonderes
Hauptaugenmerk wurde innerhalb von VNS auf die Kompatibilität gegenüber GIS-Daten gelegt bzw. die
Integration von Daten aus dem Digitalen Landschaftsmodell (DLM) und der Digitalen Katastralmappe
(DKM) des Bundesamtes für Eich- und Vermessungswesen (BEV).
In einem ersten Testgebiet wurden grundlegende Techniken und Methoden behandelt, die dann in
einem zweiten Gebiet in Kombination mit den amtlichen GIS-Daten weiter verbessert und umgesetzt
wurden. Als Ergebnis der Visualisierung wurden verschiedene 3-dimensionale Standbilder gerendert,
Animationen mit natürlicher und künstlicher Textur bzw. Realtime Animationen als VRML- oder Nature
View (NV) Szene erstellt
Abstract
Our environment is noticably represented through a growing pool of digital geo-data. Along with data
availability and homogenisation as well as an ongoing technical development of computer hardware and
software comes the idea of visualising these data in their natural way, that is to say, 3-dimensionally.
In this study different raster data and vector data were used to achieve an automated landscape
visualisation by means of the high-end software Visual Nature Studio 2 (VNS).
Satellite images and thematic information derived from it provide an appropriate basis for views of large
areas close to nature in a comparatively easy way. This study especially emphasises the VNS GIScompatibility and the integration of data taken from the Digital Landscape Model (DLM) and the Digitale
Katastralmappe (DMK) of the Austrian Federal Office of Metrology and Surveying (BEV).
With the first test area some basic techniques and methods are discussed and further improved and
implemented in a second area, including the official GIS data. Different 3-dimensional still images and
animations based on natural and artificial texture were rendered as results. In addition realtime
animation as VRML- or Nature View (NV) scenes were generated.
VII
1 Einleitung & Zielsetzung
Es kommt nicht von Ungefähr, dass bestimmte Sprichwörter den Generationswechsel problemlos
überdauern. Das viel strapazierte „Ein Bild sagt mehr als tausend Worte“ ist eines davon. Erwiesener
Maßen sind graphische Repräsentationen das einfachste und effektivste Mittel in der Kommunikation
(TUKEY, 1977; TUFTE, 1983; zitiert in DUNBAR et al., 2003).
Der Mensch visualisiert von Natur aus. Einer Studie des U.S. Landwirtschaftsministeriums zufolge
beruhen 87 % der menschlichen Perzeption unserer Umwelt auf dem Sehvermögen (KOCH und HARM,
2001).
Unsere dreidimensionale Umwelt hat sich mit der Zeit verändert, ebenso die Mittel, diese abzubilden.
Längst ist die Landschaftsmalerei von der modernen Technologie eingeholt worden.
Computergenerierte 3D-Bilder ersetzen die, schon fast als nostalgisch zu bezeichnenden, gemalten
Panoramen in vielen Tourismusregionen.
Innerhalb der Visualisierung haben sich viele Teilgebiete etabliert, eines davon ist die
Geovisualisierung. Eine ständig wachsende Datenmenge und die Entwicklung hoch auflösender
Sensoren stellen immer neue Ansprüche an eine Visualisierung, bieten aber gleichzeitig auch immer
mehr Möglichkeiten.
Geographische Informationssysteme können zwar eine große Datenmenge verwalten und analysieren,
zeigen jedoch in der 3D-Visualisierung noch erhebliche Schwächen und orientieren sich großteils noch
an zwei Dimensionen zur Herstellung professioneller 2D Karten. Größere Ausschnitte unserer
Erdoberfläche werden meist auf recht einfache Weise mittels Fernerkundungsbilder 3-dimensional
dargestellt, stoßen jedoch bei näherer Betrachtung sehr rasch an natürliche Grenzen.
1.1 Visualisierung & Geovisualisierung
Visualisierung ist ein sehr vielschichtiger Begriff, der Aspekt der Geovisualisierung stellt eine kleine
Teildisziplin dar. Neben den Themen, die in dieser Arbeit behandelt wurden, gibt es noch eine Vielzahl
anderer interessanter Ansätze und Facetten der 3D-Visualisierung und Geovisualisierung, die hier nun
exemplarisch kurz angesprochen werden sollen.
Eine interessante Herangehensweise an dieses Thema ist es, das Internet danach zu durchsuchen. Für
einen Artikel über Visualisierung und Geomatik brachte der Begriff „visualisation“ im April 2000 244.255
Treffer (vgl. REED, 2000). Im November 2005 erzielte derselbe Suchbegriff in Google ungefähr
6.770.000 Treffer, der amerikanisch-englische Begriff „visualization“ sogar ungefähr 52.700.000. Die
deutschsprachige „Visualisierung“ schaffte es immerhin noch auf 1.610.000 Hits. Der Begriff der
„Geovisualisierung“ bzw. seine englischsprachigen Synonyme erzielen schon deutlich weniger Treffer
(ca. 30.000), die „Landschaftsvisualisierung“ gar nur mehr 452 Treffer („Landscape Visualization“ im
Vergleich dazu knapp 40.000 Hits). Man sieht also, dass das Wort „Visualisierung“ sehr häufig
verwendet wird, in verschiedensten Zusammenhängen und Disziplinen.
1
Geovisualisierung wird mittlerweile zu vielen Zwecken eingesetzt, wie in der öffentlichen Planung und
Szenarienbildung, als integrativer Bestandteil von Strategischen Umweltprüfungen (SUP) oder
Umweltverträglichkeitsprüfungen (UVP), bei verschiedenen Bauvorhaben, die eine Veränderung der
Umwelt und der Landschaft bewirken. Andere Anwendungsgebiete finden sich auch in der
Rekonstruktion
historischer
Landschaften
oder
auch
dem
Tourismus
(vgl.
http://www.3dnature.com/realworld.html).
Der Vorteil der 3D-Visualisierung liegt in der Art, wie wir Information sehen. Es wird vermutet, dass 50
Prozent der Neuronen im menschlichen Gehirn in das Sehvermögen involviert sind. Weiters wird
vermutet, dass 3D Ansichten mehr Neuronen im Gehirn stimulieren und einen Entscheidungsprozess
effizienter gestalten könnten. Bei 2D Reliefkarten beispielsweise muss unser Verstand erst ein
konzeptionelles Modell des Reliefs herstellen, bevor eine Analyse erfolgen kann (N. VAN DRIEL, zitiert in
REED, 2000).
Auf der einen Seite ist es immer wieder die Möglichkeit, Inhalte leicht zu vermitteln und Nicht-Experten,
die im Allgemeinen keine große Erfahrung darin haben, Pläne zu lesen oder sich eines GIS zu
bedienen, eine Möglichkeit der Analyse im Entscheidungsprozess zu bieten bzw. Schwachstellen in der
Kommunikation zu überwinden. Auf der anderen Seite wird speziell der 3D-Visualisierung ein gewisses
Potential an Subjektivität und Trichterwirkung zugesprochen, d.h. was für die einen ein Segen, ist für die
anderen eine Gefahr. Genau hier setzt der Begriff des „ethischen Maßstabes“ (vgl. Kap. 5.3) an bzw.
die Tatsache, dass man eigentlich noch zu wenig darüber weiß, wie Menschen computergenerierte 3D
Bilder und Virtual Reality wahrnehmen bzw. welche Wirkung solche Eindrücke haben können. Es stellt
sich mitunter auch die Frage, wie real soll die abgebildete Wirklichkeit sein? Einen interessanten
Einblick dazu bietet eine Umfrage zur Anwendung von computergenerierten Bildern im
Planungsprozess in Norwich, England, aus dem Jahr 2001 (vgl. APPLETON, 2001).
Mit der Wahrnehmung von Landschaft beschäftigen sich auch wissenschaftliche Disziplinen.
Landschafts-Empfindung (Landscape Perception) ist ein Zweig der Landschaftsbewertungsforschung
(Landscape Assessment Research), die untersucht, wie gut eine Landschaft gewisse Kriterien erfüllt.
Normalerweise werden solche Beurteilung von der Öffentlichkeit getroffen, oder einer Teilmenge davon.
Es gibt noch eine ganze Reihe anderer professioneller Beurteilungsmethoden, geordnet nach
ökonomischen oder funktionellen Gesichtspunkten bzw. Ressourcen. In diesem Zusammenhang sei
auch Maslow’s Hierarchie der Bedürfnisse genannt, um die Wichtigkeit der
Landschaftsbewertungsforschung zu verstehen (PALMER, 2003).
Die Möglichkeiten der 3-Dimensionalität werden auch als Schnittstelle zwischen traditionellen GISAnwendern und dem Rest der Welt bezeichnet. Bei ERDAS Inc. sah man zumindest im Jahr 2000 eine
stark wachsende Nachfrage an 3D-Visualisierungssoftware, vielleicht in Zusammenhang mit neuen,
hoch auflösenden Satellitenbildern (JORDAN, 2000). Auch bei ESRI war man im selben Jahr der
Meinung, dass Anwender zusehends nach Möglichkeiten realistischerer Betrachtung ihrer Daten
suchen. Es wurde der Trend spürbar, dass binnen kurzem viele erwarten werden, dass ihr GIS
fotorealistische Bilder der Daten produzieren kann, denn will man, dass GIS unsere Welt passend
modelliert, muss man auch die dritte Dimension inkludieren (CRAWFORD, 2000).
2
Ervin (2003) geht davon aus, dass computerbasierte Techniken zur Sammlung, Manipulation und
Darstellung von Daten sich weiter verbreiten werden, teilweise angetrieben von Anforderungen seitens
des Militärs oder der Computerspieleindustrie. Digitale Landschaftsmodellierung wird mehr Bedeutung
gewinnen in Planung und Design, auf professioneller und akademischer Ebene. Als einige wichtige
voraussehbare Entwicklungen nennt er eine höhere Rechenleistung künftiger Computer, steigende
Anzahl von Objektbibliotheken und fertigen Landschaftselementen für Softwarepakete, steigender
Fotorealismus, verbesserte Datenerfassung, steigende Integration von Web-Anbindung, mehr
immersive Darstellungsumgebungen, mehr Realtime Modelle, steigender Anteil öffentlicher Beteiligung
beim Schaffen und Bewerten von Landschaftsmodellen oder ein besseres Wissen über die menschliche
Wahrnehmung von Landschaft.
Den computergenerierten Standbildern und Animationen steht die gesamte Bandbreite der Realtime
Visualisierung gegenüber, die es nun erlauben soll, dass der Anwender sich nun wirklich intuitiv und
systematisch durch die Landschaft bewegen und jeden Ausschnitt aus einem beliebigen Blickwinkel
betrachten kann. Verfahren, die eine „echte“ 3D Visualisierung ermöglichen, versprechen einiges für die
Zukunft (vgl. JOBST, 2004; BUCHROITHNER, 2001; ZEHNER und KÜMPEL, 2001) sind aber zumeist noch in
Entwicklungsstadien und werden wohl aus Kostengründen auch in naher Zukunft kaum breitenwirksam
zur Anwendung kommen, im Gegensatz zu weit verbreiteten VR (Virtual Reality) Anwendungen auf
herkömmlichen Grafikbildschirmen, nicht zuletzt durch das Internet.
Mittlerweile sind die technischen Voraussetzungen für Echtzeitanimation weit fortgeschritten, zumindest
die Anwendung über Computerbildschirme und Internet wird intensiv genutzt. In Zusammenhang mit
Visualisierung in der Landschaftsplanung bzw. Beteiligung der Öffentlichkeit stellt sich für Bishop (2005)
daher eher die Frage der Notwendigkeit als der Möglichkeit. Wann reicht eine einfache Animation aus?
Welcher Nutzen entsteht durch die Möglichkeit einer Realtime Analyse? Sollte man Echtzeitanimation
immer verwenden, wenn möglich?
Als Planungsinstrument der Zukunft werden auch 3D-Realtime-Engines bezeichnet, die ihren Ursprung
aus der Computerspieleindustrie haben. Mittels 3D-Engines wird der Raum, den man später betrachtet,
konstruiert, d.h. alle Planungsdetails werden in 3D erstellt. Dem daraus abgeleiteten Realtime-3DExploring wird prophezeit, dass es in naher Zukunft zum Standard wird und 3D Animation ablösen
könnte (KRETZLER, 2003).
1.2 Zielsetzung
Mit dieser Arbeit wurde versucht, den Schritt zwischen herkömmlicher Methodik und „echter“ 3D
Darstellung zu vollziehen und mittels raster- und vektorbasierter Grundlagen möglichst automatisiert
eine entsprechende Landschaftsvisualisierung durch geeignete Software zu ermöglichen. In erster Linie
wurde die Möglichkeit der Einbindung amtlicher GIS-Daten untersucht, nämlich des Digitalen
Landschaftsmodells (DLM) bzw. der Digitalen Katastralmappe (DKM), zu Verfügung gestellt vom
Bundesamt für Eich- und Vermessungswesen (BEV).
3
Für eine 3D-Landschaftsvisualisierung muss grundsätzlich eine flächendeckende Information für das
gesamte Arbeitsgebiet vorhanden sein. Bei amtlichen GIS-Daten, wie eben dem DLM oder der DKM, ist
dies nur teilweise bzw. unvollständig der Fall.
Das DLM beinhaltet in erster Linie punkt- und linienförmige Information für Anwendungen in der
Geovisualisierung im kleineren bzw. mittleren Maßstab. Eine flächenhafte Information der
Bodenbedeckung ist zu Zeit noch nicht vorhanden. Die DKM dagegen ist auf einen sehr großen
Maßstab ausgelegt und auf Grund der Informationsfülle nur bedingt im Sinne automatisierter
Landschaftsvisualisierung einsetzbar, wie an anderer Stelle noch ausführlicher behandelt wird.
Die Software VNS (Visual Nature Studio) wurde ganz bewusst als Mittel der Visualisierung gewählt, weil
sie von allen derzeit am Markt befindlichen fotorealistischen Renderern die größte Kompatibilität
bezüglich GIS-Daten aufweist und daher vielfach verwendet wird.
GIS-Daten sind also nicht die einzige Voraussetzung für eine flächendeckende
Landschaftsvisualisierung durch alle Maßstabsbereiche hindurch. Speziell für großflächige Gebiete
muss eine andere Lösung gefunden werden. Hier kommt der Aspekt der Fernerkundungsdaten ins
Spiel, die genau diese Lücke füllen können. Fernerkundungsbilder ergänzen die verschiedenen GISDaten ideal und bilden praktisch eine homogene, flächendeckende Grundlage, auf der die, meist
thematisch spezielleren, Vektordaten aufbauen können.
Ausgehend von der Überlegung, dass in Zukunft für ganz Österreich eine homogene
Bodenbedeckungsinformation mit 7 Klassen im Digitalen Landschaftsmodell vorhanden sein könnte,
könnte „per Mausklick“ eine realistische 3D-Visualisierung in Form von 3D-Ansichten, 3D-Panoramen
und virtuellen Flügen erfolgen. Ein weiterer Gesichtspunkt ist die Umsetzung der Ergebnisse in eine
interaktive Realtime Umgebung, wie z.B. VRML oder Nature View.
1.3 Workflow
Zur Diskussion standen 2 verschiedene Testgebiete. Mit der Bearbeitung des ersten Testgebietes (vgl.
Kap. 4.1) wurde ein Konzept und eine Methodik entwickelt, die in einem Bottum-Up Prinzip basierend
auf den flächendeckenden Fernerkundungsdaten ein großflächiges Gebiet abdecken sollte. Nach dem
Aufbau von einer bestimmten Klasse von Landschaftselementen (Ecosystems) stand die Integration
verschiedener GIS-Daten im Mittelpunkt.
Die daraus gewonnenen Erkenntnisse und Ergebnisse wurden dann auf ein zweites, wesentlich
kleineres, Testgebiet umgelegt, für das amtliche GIS-Daten zu Verfügung standen (vgl. Kap. 4.2). Dabei
wurde besonderes Augenmerk darauf gelegt, das Pre- und Postprocessing des gesamten
Arbeitsablaufs möglichst gering zu halten und die Kompatibilität der Fernerkundungs- und GIS-Daten zu
analysieren.
4
1.4 Begriffe
1.4.1 Visualisierung
Sichtbarmachen von Objekten, Daten und Phänomenen durch
Darstellung in graphischer Form z.B. durch ein Bild, die
Hervorhebung einer Information durch eine Graphik oder die
Sichtbarmachung eines räumlichen Phänomens in einer Karte.
In den wissenschaftlichen Disziplinen wird Visualisierung
hauptsächlich als digitale Methode für die Analyse großer
Datenmengen eingesetzt1.
Wie viele andere Begriffe verfügt auch die Visualisierung über eine Vielzahl an Definitionen, die aber
eine gleichsam intuitive gemeinsame Eigenschaft aufweisen, nämlich das Darstellen/Sichtbarmachen
eines bestimmten Inhaltes.
„Visualisierung“ taucht als Forschungsbereich in der Kartographie auf (FUHRMANN und KRAAK, 2001) im
Zuge neuer, veränderter Ansätze und Systeme der traditionellen kartographischen Darstellung bzw.
kartenverwandten Darstellungen (HAKE et al., 2002).
Neben der Tradition in der Kartographie fand der Begriff der „Visualisierung“ aber auch zusehends
Einzug in andere Disziplinen und Forschungsbereiche. Damit entwickelte sich der Forschungsbereich
der wissenschaftlichen Visualisierung (ViSC, Visualization in Scientific Computing). Für die
Geowissenschaften ergab sich aus den verschiedenen Forschungsansätzen der Begriff
„Geovisualisierung“ (Geovisualization od. Geoscientific Visualization), die ihrerseits verschiedene
methodische und technische Ansätze aus ViSC, der Kartographie, Bildverarbeitung,
Informationsvisualisierung, explorativer Datenanalyse und GIS (Geographisches Informationssystem)
integriert (MCEACHREN und KRAAK, 2001).
Kraak (2002) bezeichnet Geovisualisierung auch als einen typischerweise multidisziplinären Ansatz für
ein besseres Verständnis unserer Umwelt.
Die rasche Entwicklung der Computertechnologie, speziell im PC-Bereich, erlaubt zusehends den
Einsatz von interaktiver und immersiver 3D Visualisierung, nicht nur für fachbezogene
geowissenschaftliche Anwendungen. Visualisierung ist das einfachste, weil intuitivste, und damit auch
wirksamste Mittel innerhalb verschiedener Kommunikationsprozesse. Man vergleiche beispielsweise
eine Straßenszene, wie sie der menschlichen Perzeption entspricht, mit derselben Information, in
Tabellenform. Dieses einfache Beispiele sollte die große Stärke der Visualisierung verdeutlichen, die
speziell in der Planung ausgeschöpft werden kann, nicht nur zur Beantwortung der Fragen „was?“,
„wo?“ bzw. „was, wenn?“, sondern auch zur Verdeutlichung des Ist-Zustandes bzw. der Erforschung der
Daten dienen.
Ein typischer Aspekt der Visualisierung ist, dass der Eindruck im Geiste des Betrachters verstärkt wird
und daraus ein positives oder negatives Gefühl entsteht (GELDERMANS und HOOGENBOOM, 2001).
1
Definitionen zu Kapitelanfang dieser Art stammen, wenn nicht anders vermerkt, aus BOLLMANN und KOCH, 2001.
5
1.4.2 Landschaft
Allgemeine Bezeichnung für einen durch einheitliche Struktur
und gleiches Wirkungsgefüge geprägten konkreten Teil der
Erdoberfläche von variabler flächenhafter Ausdehnung.
Als Landschaft wird gemeinhin ein bestimmter Teil der Erdoberfläche bezeichnet, der sich durch
gewisse Charakteristika auszeichnet. Bei genauerer Betrachtung trifft man auf komplexe Gefüge, die
einem ständigen Wandel unterworfen sind, insbesondere durch den Menschen.
Eine Unterteilung der Elemente einer Landschaft kann in 6 Hauptgruppen erfolgen, nämlich (1)
Gelände, (2) Vegetation (Bäume, Sträucher, Rasenflächen etc.), (3) Wasser, (4) Strukturen
(einschließlich Infrastruktur - Architektur, Strassen, Stadtmobiliar etc.), (5) Menschen/Tiere, (6)
Atmosphäre (Sonne, Wolken, Nebel, Wind etc.) (ERVIN, 1999; SCHAUPPENLEHNER, 2002).
1.4.3 Dimensionen
In der Mathematik und Physik festgelegte Größen, die im
Rahmen eines Einheitssystems durch keine andere ersetzt
werden können. Dementsprechend werden in der
wissenschaftlichen Visualisierung die unabhängigen Variablen,
die den Beobachtungsraum spezifizieren, auch als Dimension
bezeichnet. Dimensionen des Beobachtungsraumes, die
Ortsangaben definieren, werden auch als räumliche
Dimensionen bezeichnet.
Gerade „3D“ ist ein Begriff, mit dem besonders gerne und leicht jongliert wird und der oft zu
Schwierigkeiten in der Kommunikation und Auffassung führt. 3D-Grafik, 3D-Bild, 3D-Karte, 3DDarstellung (BUCHROITHNER und SCHENKEL, 2001) oder 3D-Kartografie (JOBST, 2004) sind nur einige
Begriffe, die in diesem Zusammenhang genannt werden können. Neben dem altbewährten 2D finden
sich auch noch 3D, 4D oder 5D (POCOCK und ROSEBUSH, 2002; GARTZ, 2003) in der zahlreich
vorhandenen Literatur. Meist ist 3D streng genommen nicht 3D, je nachdem, aus welcher Perspektive
man eben das Phänomen betrachtet.
Zur Erzeugung einer künstlichen Raumvorstellung wird auf die so genannten „depth cues“ (Elemente
der räumlichen Wahrnehmung) abgezielt. Geschicktes Ausnutzen der cues kann in 2-dimensionalen
Bildern einen räumlichen Eindruck vermitteln bzw. künstliche räumliche Bilder erzeugen. Depth cues
werden als visuelle Anhaltspunkte verstanden, auf denen die konkrete räumliche Perzeption beruht
(BUCHROITHNER und SCHENKEL, 2001). Eine Zusammenstellung psychologischer bzw. physiologischer
depth cues gibt Tab. 1
6
Physiologisch
Psychologisch
Retinale Disparität
Retinale Bildgröße
Konvergenz
Lineare Perspektive
Akkomodation
Luftperspektive
Bewegungsparallaxe
Verdeckung, Überlagerung
Chromostereopsis
Schatten (Beleuchtung)
Texturgradient
Tab. 1:.Elemente der räumlichen Wahrnehmung
(Quelle: Buchroithner, 2001 (nach Okoshi 1976, Albertz 1997)
Eine Auflistung der Verfahren zur Erzeugung von depth cues führt unter
wahrnehmungspsychologischen Gesichtspunkten zu 4 Gruppen („echt 3D“, pseudo 3D, dynamisch 2D,
statisch 2D), wobei es immer Technologien geben wird, die Übergangsbereiche belegen. Wichtig dabei
ist, dass die Bezeichnung der Gruppen sich danach richtet, wie der Raumeindruck erzeugt wird, und
nicht nach dem Darstellungsinhalt.
Tab. 2 gibt einen detaillierten Überblick über gängige Verfahren zur Raumbilderzeugung.
Verfahren
Gruppe
Freiheitsgrad
Ig
Pg
B
Status
Statisches
Volumen
echt 3D
F, G, M, H, R, Fa
h
h
f
exp.
3-Dtl-Type (Stanford)
Scannendes
Volumen
echt 3D
F, G, M, H, R, Fa
h
h
f
prot.
Helix
F, G, M, H, R
m
h
f
exp.
Matrix
Holographie
echt 3D
F, G, M, H, R, Fa
h
h
f
exp., anw.
MultiStereoskopie
pseudo 3D
Stereoskopie
pseudo 3D
Chromostereoskopie
pseudo 3D
Animation
dynam. 2D
(Computer)
Grafik
statisch. 2D
Displaytyp
Hologramme
F, G, M, H, R, Fa
h
m
f
anw.
Hologr. Stereogramme
F, G, M, H, R, Fa
h
m
f
anw.
Barrier Stripes
F, G, M, H, R, Fa
h
m
f
anw.
Lenticular Lenses
F, G, M, H, R
m
m
u
anw.
Anaglyphen
F, G, M, H, R, Fa
m
m
u
anw.
Polarisation
F, G, M, H, R, Fa
m
m
u
anw.
Shutter
F, G, M, H, R, Fa
n
n
f
anw.
Image Splitter
F, G, M, H, R, Fa
h
m
u
anw.
Head Mounted Display
F, G, M, H, R, Fa
m
n
u
anw.
Stereoskope
F, G, M, H, R, Fa
n
n
f
anw.
Autostereogramme
F, G, M, H, R, Fa
n
m
u
anw.
Chromadepth
F, G, M, H, R, Fa
m
n
f
anw.
Animated GIF, Movies
F, G, M, H, R, Fa
m
n
u
anw.
Pulfrich Display
F, G, M, H, R, Fa
n
n
f
anw.
Perspective
F, G, M, H, R, Fa
n
n
f
anw.
Depth Cueing
Tab. 2: Verfahren zur Raumbilderzeugung
(Quelle: Buchroithner und Schenkel, 2001)
Erläuterung zu den Abkürzungen:
Freiheitsgrade: F (Form), G (Größe), M (Muster), H (Helligkeit), R (Richtung), Fa (Farbe)
Immersionsgrad (Ig): h (hoch), m (mittel), n (niedrig)
Perzeptionsgrad (Pg): h (hoch), m (mittel), n (niedrig)
Betrachtung (B): f (frei), u (unterstützt – z.B. Brillen, Betrachtungsgeräte)
Status: exp. (experimentell), prot. (Prototyp), anw. (anwendungsreif)
Displaytyp: Fettgedruckt bedeutet auch als Hartkopien anwendbar
7
Unter „Raumbild“ versteht man eine künstlich erzeugte Erscheinung, die vom visuellen
Wahrnehmungssystem als räumlich erkannt wird (Raumeindruck), ohne dass diese körperlich
dreidimensional existiert. Ein Raumbild wird als perzeptiv optimal betrachtet, wenn das
Wahrnehmungssystem in derselben Weise arbeitet wie beim Betrachten der natürlichen Umwelt. Als
Maß der „Natürlichkeit“ wird der Perzeptionsgrad herangezogen (BUCHROITHNER und SCHENKEL, 2001).
Innerhalb der Geowissenschaften wird der Begriff der Dimension auf die Geodaten bezogen, um die
Objektdimension geometrisch zu beschreiben, d.h. anders, als beim wahrnehmungspsychologischen
Ansatz wird hier der Inhalt der Darstellung beschrieben.
2D:
Geometriebeschreibung durch x,yKoordinaten (Planimetrie)
2D + 1D:
Ergänzung der Planimetrie durch DGM,
keine Verknüpfung mit Lagegeometrie
2,5D:
Lagegeometrie + Höhe (z) als Attribut
jedes Punktes
3D:
vollständige Beschreibung durch x,y,zKoordinaten mit hinreichender Dichte
4D:
Ergänzung der x,y,z-Koordinaten durch
Zeitparameter (t)
Abb. 1: Objektdimensionen von Geodaten
(Quelle: Asche, 1999)
3D-Visualisierung bedient sich also dreidimensionaler Geodaten um einen subjektiven Raumeindruck
auf einem zweidimensionalen Medium, wie einem herkömmlichen Grafikbildschirm, entstehen zu
lassen. Die zumeist perspektivische, realitätsnahe Darstellung, basierend auf einem DGM (Digitales
Geländemodell), wird innerhalb der Geowissenschaften gemeinhin als „3D“ bezeichnet.
Doch besitzen verschiedene Disziplinen der Geowissenschaften auch ein variierendes Verständnis von
„3D“. Ein Landschaftsplaner sieht beispielsweise ein Geländerelief als 3D-Darstellung, ein Klimatologe
benutzt dieses als zweidimensionales Bezugssystem für seinen dreidimensionalen Kaltluftkörper und
interagiert dementsprechend damit. Das bedeutet, dass in den einzelnen Fachdisziplinen die Domän8
spezifische Betrachtung von Interaktionsansätzen erforderlich ist, wobei allen Domänen aber eines
gemein ist: der dreidimensionale Darstellungsraum (FUHRMANN et al., 2001).
„Echte“ 3D Systeme erreichen natürlich einen wesentlich höheren Immersionsgrad, da der Nutzer vor
dem flachen Bildschirm gleichsam durch ein Fenster auf die virtuelle Welt blicken kann, womit sich der
Begriff „pseudo 3D“ wieder anbietet. „Echt“ 3D wird sich (in erster Linie aus Kostengründen) vermutlich
auch in nächster Zukunft am PC-Sektor kaum verwirklichen lassen und nur einigen kostendeckenden
Spezielanwendungen vorbehalten bleiben. Flache Bildschirme stellen sicherlich noch den weit größeren
Anteil innerhalb der Geovisualisierung gegenüber semi - immersiven Systemen (z.B. Einsatz mehrerer
Schirme, die kurvenförmig angeordnet sind) bzw. immersiven „echt 3D“-Systemen.
1.4.4 Geodaten
Daten, die einen Raumbezug aufweisen, über den ein
Lagebezug zur Erdoberfläche hergestellt werden kann.
Zur digitalen Beschreibung unserer Welt sind Daten notwendig, die auch einen entsprechenden Bezug
zur Realwelt herstellen können. Die Verfügbarkeit an Geodaten (als Raster- oder Vektordaten) nimmt
ständig zu und erfasst zusehends mehr wissenschaftliche Disziplinen und Anwendungsbereiche.
Geodaten sind die Grundlage raumbezogener Informationssysteme zur Speicherung, Verwaltung,
Analyse und Ausgabe, wie z.B. der Geovisualisierung.
9
2 Datengrundlagen
2.1 Digitales Geländemodell (DGM)
Ein DGM bezeichnet die digitale Darstellung der
Geländeoberfläche durch räumliche Koordinatentripel einer
Menge von Flächenpunkten, z.B. in Form von Dreiecksnetzen
oder Gittern.
Digitale Geländemodelle beschreiben die 3-dimensionale reale Welt und sind somit ein wesentlicher
Grundbaustein für eine Visualisierung im 3-dimensionalen Raum.
Die Elemente eines DGM können Punkte, Linien oder Flächen sein. Im ersten Fall handelt es sich um
Koordinaten (x, y, z) von gewissen ausgezeichneten Punkten. Die Berechnung der Höhenwerte für die
dazwischen liegenden Punkte erfolgt im Allgemeinen über eine Dreiecksvermaschung mit
anschließender linearer Interpolation. Im zweiten Fall dienen Raumkurven als Grundbausteine, die im
Allgemeinen konstante Höhenwerte (Isolinien) haben. Auch hier müssen die Höhenwerte der
dazwischen liegenden Punkte durch Interpolation aus diesen Linien errechnet werden. Als dritte
Möglichkeit der Modellierung bieten sich auch Flächenstücke an, wodurch die Höhenwerte für beliebige
Flächenpunkte durch einfaches Einsetzen ermittelt werden können (vgl. BARTELME, 1998, S. 93 ff).
Eine gängige Form von DGMs ist eine regelmäßige Anordnung der Daten in einem quadratischen Gitter
(Raster–DGM), wobei die Maschenweite solcher Modelle sehr unterschiedlich sein kann. Allgemein ist
festzuhalten, dass der Raster des Modells um so dichter sein muss, je topographisch bewegter das
Gelände ist. Eine präzise Darstellung des Geländes mit einem Raster-DGM bedingt eine kleine
Maschenweite (z.B.: einige Meter), was wiederum mehr Speicherplatz, und in der Weiterverarbeitung
einen hohen Rechenaufwand mit sich bringt.
Eine High-End Visualisierungssoftware (wie Visual Nature Studio – VNS von 3D Nature LLC) bietet
daher z.B. die Möglichkeit eines Resamplings des ursprünglichen DGM auf eine kleinere Maschenweite
bzw. das Teilen des Gesamtausschnittes in sinnvolle Kacheln.
Die bildliche Darstellung eines DGM kann in unterschiedlicher Weise erfolgen. Eine geläufige Methode
ist die Darstellung als Grauwertbild, wobei der Bereich der Höhenwerte auf die darstellbaren Grauwerte
10
(0 – 255) reduziert wird. Die Höhenwerte werden dann durch Grauwerte repräsentiert, wobei helle Töne,
große Höhen und dunkle Töne niedere Höhen darstellen.
2.1.1 Verwendete DGMs:
Im Zuge dieser Arbeit wurden verschiedene DGMs für die jeweiligen Testgebiete verwendet, nämlich
das DGM des BEV, das SRTM Modell bzw. ein DGM, das vom Joanneum Research generiert wurde.
2.1.1.1
DGM des BEV
Das DGM des Bundesamtes für Eich- und Vermessungswesen liefert eine Beschreibung der
Topographie für das gesamte österreichische Staatsgebiet in Form eines Höhenrasters. Die Erfassung
der Daten erfolgt durch photogrammetrische Auswertungen von Luftbildern in einem fixen Raster von 50
m. Mittels markanten Geländestrukturen (z.B. Bruchkanten) wird das DGM lokal zusätzlich noch
verdichtet. Die Höhengenauigkeit ist von der Geländeform, Bodenbedeckung und der
Erfassungsmethode abhängig. In flachen Bereichen wird eine Genauigkeit von +/- 1 bis 3 m, in offenen,
hügeligen Bereichen +/- 3 bis 5 m bzw. im Wald und im Hochgebirge +/- 5 bis 20 m erreicht. Neben dem
50 m DGM bietet das BEV auch 25 m bzw. 10 m DGMs an. Derzeit liegt für ganz Österreich ein 10 m
DGM vor, wobei die Maschenweite durch ein mehrstufiges Verfahren unter Beibehaltung der
Strukturinformation dementsprechend interpoliert wird.
(Quelle: http://www.bev.gv.at)
2.1.1.2
SRTM (Shuttle Radar Topography Mission)
Ein Ergebnis der 11-tägigen SRTM Mission aus dem September 1999 ist ein globales konsistentes,
homogenes DGM mittels Radarinterferometrie.
Um die direkte Messung der Weglängen zu bestimmen, wird beim interferometrischen SAR die
Kohärenz des Signals ausgenutzt sowie die Tatsache, dass sich die Phase einer mono-chromatischen
elektromagnetischen Welle proportional zur zurückgelegten Weglänge verhält. Eine
Phasendifferenzmessung, wie sie in der SAR-Interferometrie letztendlich durchgeführt wird, ermöglicht
über die Bestimmung des Wegunterschiedes die Ermittlung der gewünschten Höheninformation.
Die SRTM-Mission liefert global für jedes Gebiet von 30 mal 30 Meter einen bis auf 6 Meter genauen
Höhenpunkt für die digitale Höhenkarte.
Eine absolute Genauigkeit wird angegeben mit: horizontal < 20 m < 20 m (90% circular error WGS) vertikal < 16 m < 16 m (90% linear error WGS) Relative Genauigkeit: horizontal < 15 m < 15 m (90%
circular error WGS) Relative Genauigkeit vertikal < 10 m < 6 m (90% linear error WGS).
11
Eckdaten zu den Radarsystemen
Radarsysteme
SIR-C
Inboard-Antennenfläche
12 m x 80 cm
Outboard-Antennenfläche
8 m x 80 cm
Wellenlänge
5,6 cm
Frequenz
5,3 GHz
Horizontale Auflösung
30 m
Relative Höhengenauigkeit
10 m
Breite des Aufnahmestreifens
225 km
Kartierte Landfläche
100%
X-SAR
12 m x 40 cm
6 m x 40 cm
3,1 cm
9,6 GHz
30 m
6m
50 km
40%
Tab. 3: Parameter der SRTM Systeme
Das SRTM Geländemodell liegt in 2 Versionen vor, nämlich dem SRTM-1 bzw. SRTM-3. Die
Maschenweite der Modelle beträgt 1 Arc-Sekunde bzw. 3 Arc-Sekunden, das entspricht etwa 30 m bzw.
90 m Ausdehnung in horizontaler Richtung am Äquator. Aus diesem Zusammenhang werden die beiden
DGMs auch mit „30 m“ bzw. „90 m“ bezeichnet. Die SRTM DGMs werden als 16 bit signed integer
Daten bereitgestellt. Alle Höhenangaben erfolgen in Metern bezogen auf das Ellipsoid WGS84 EGM96.
Für das Testgebiet Hohe-Tauern/Mallnitz wurde u.a. das SRTM 90 m verwendet.
(Quelle: http://www.op.dlr.de, ftp://edcftp.cr.usgs.gov/pub/data/srtm)
2.1.1.3
DGM Joanneum Research
Die Nutzung von exakten Geländemodellen, wie sie vom BEV hergestellt werden, ist mit Kosten und
Nutzungsrechtseinschränkungen verbunden. Daher bietet sich die Alternative an, DGMs selbst zu
erstellen. Dazu stehen grundsätzlich zwei Möglichkeiten zur Verfügung:
1) Ableitung von Geländedaten aus Stereobildpaaren
2) Digitalisierung der Geländedaten von topographischen Karten
Am Institut für Digitale Bildverarbeitung des Joanneum Research wurde 1985 für die gesamte
Steiermark ein eigenes Raster-DGM erstellt, in dem die Höhenschichtenlinien sowie wichtige
Bruchkanten aller betroffenen ÖK 50 – Blätter am Digitalisiertisch erfasst wurden. Aus diesen
Vektordaten wurde ein Raster-DGM mit einer Auflösung von 30 m abgeleitet. Die Genauigkeit dieses
DGM entspricht der des Geländemodells vom BEV.
12
2.2 Vektordaten
Vektordaten beschreiben ein Datenmodell, das auf der
Darstellung von geographischen Objekten durch kartesische
Koordinaten basiert und im Allgemeinen zur Darstellung linearer
Merkmale verwendet wird. Jedes Merkmal wird durch eine Reihe
von Koordinaten dargestellt, die seine Form definieren und
verknüpfte Informationen besetzen können.
(Quelle: ESRI, 2000)
In Geoinformationssystemen wird diese graphische Information als Vektormodell bezeichnet. Analog
dazu spricht man vom Rastermodell (als 2. Ansatz, um diese graphische Information in eine Form zu
übertragen, die computergestützt verarbeitet werden kann). In Verbindung mit raumbezogenen Daten
findet die beiden Modelle ihre Bezeichnung als Raster- bzw. Vektordaten.
Vektordaten werden aufgrund gewisser Vorzüge (geringerer Speicherbedarf, kürzere Rechenzeiten,
schneller Bildaufbau, im Prinzip maßstabsunabhängig, einfacheres Selektieren, Zuordnen von
Eigenschaften zu Objekten) vor allem in der Kartographie bevorzugt eingesetzt. (OLBRICH, 2002, S. 129)
Grundlegende Unterschiede zwischen den beiden Datenstrukturen sind in folgender Tabelle
beschrieben:
Vektordaten
Rasterdaten
Grundelemente
Geometrische Elemente
- Punkt, Linie, Fläche
Pixel
- Zeilen- u. spaltenweise
Matrix
Objektbezug
einfach
eingeschränkt
Datengewinnung
Digitalisierung
-manuell, automatisch
Fernerkundung,
Scannen
Speicherbedarf
niedrig
hoch
Genauigkeit
Beliebig genau
(maßstabsunabhängig)
Grenze nach geometrischer
Auflösung
Abdeckung
Meist nicht flächendeckend
flächendeckend
Tab. 4: Vergleich der Datenstrukturen Vektor – Raster
(Nach Olbrich, 2002, verändert)
13
2.2.1 Verwendete Vektordaten
2.2.1.1
DLM – Digitales Landschaftsmodell
Das Digitale Landschaftsmodell des BEV ist ein Vektordatensatz aus originären Messdaten
(maßstabsfrei und nicht durch kartographische Bearbeitung verändert), die durch Name und Attribute
näher beschrieben sind. Das DLM ist in 7 Objektbereiche (vgl. Tab. 5) gegliedert, nämlich Verkehr,
Siedlung, Raumgliederung, Gewässer, Bodenbedeckung, Gelände und Namen. Diese Objektbereiche
sind weiter untergliedert in Objektgruppen und Objektarten. Die Gesamtstruktur ist in einem
Objektartenkatalog festlegt.
Objektbereich
Objektgruppe
Objektart
Straßen
Autobahn; Schnellstraße; Rampen; Landesstraße B;
Landesstraße L; Gemeindestraße; Raststättenzufahrt
und –abfahrt; Parkplatzzufahrt und –abfahrt;
Nebenfahrbahn; Kfz_Fährverbindung
Linie
Wege
Fahrweg; Wirtschaftsweg
Linie
Bahnen
Normalspurbahn 2gleisig; Normalspurbahn 1gleisig;
Schmalspurbahn; Zahnradbahn; Schrägaufzug,
Linie
Bahnhof_Gebäude
Punkt
Rollfläche; Start- und Landebahn; Flugplatzbegrenzung
Linie
Flugverkehr
Flugplatz_Bezugspunkt; Flugplatz_Gebäude;
Hubschrauberlandeplatz
Punkt
Schiffsverkehr
Fähre (Anlegestelle); Schiffstation
Punkt
Anlagen und Bauwerke für
Verkehr, Transport,
Kommunikation und Versorgung
Zollstation; Mautstation; Raststätte; Tankstelle;
Pannendienst; Straßenmeisterei
Punkt
Siedlung
Kommunale Einrichtungen,
Betriebseinrichtungen,
Kultur,
Freizeit und Sport
Apotheke; Exekutive; Feuerwehr; Krankenanstalt;
Sanitätseinrichtung; Schule; BEV-Standort;
Gemeindeamt; Bezirkshauptmannschaft; Forstamt,
Forsthaus; Kraftwerk; Raffinerie; Staumauer;
Umspannwerk, Schutzhütte; Biwakschachtel; Jagdhaus,
Jagdhütte; Kläranlage_Betriebsgebäude, Kirche;
Kapelle; Kloster, Stift; Kultstätte;
Golfplatz_Clubgebäude; Bad; Campingplatz_Rezeption
Punkt
Raumgliederung
Verwaltungsgrenzdatenbank von Österreich:
Katastralgemeindegrenzen; Gemeindegrenzen;
Grenzen der politischen Bezirke; Verwaltungsbezirksgrenzen;
Grenzen der Bundesländer; Staatsgrenze
Verkehr
Feature
Linie
14
Fließende Gewässer
Gewässer
Stehende Gewässer
Fluss/Bach (Breite: > 20m); Fluss/Bach (Breite: 5- 20m);
Fluss/Bach (Breite: < 5m); Fluss/zeitw. wasserführend;
unterirdischer Gewässerverlauf; fiktiver unterird.
Gewässerverlauf; imaginäre Achse v. F Fluss/Bach
(Breite: > 20m); imaginäre Achse v. Fluss/Bach (Breite: 520m); imaginäre Achse v. Fluss/Bach (Breite: < 5m);
imaginäre Achse v. Bach, zeitw. wasserführend
Linie
Quelle; Wasserfall
Punkt
See, Teich (> 10km Längenausdehnung); See, Teich (410km Längenausdehnung); See, Teich (2-4km
Längenausdehnung); See, Teich (< 2km
Längenausdehnung); imagin. Ufer; Insel;
Schwimmbecken
Linie
Wasserleitung/oberirdisch, Wasserleitung/unterird.
Linie
Bauwerke für Wasserversorgung Brunnen, Zisterne, Wasserturm, Reservoir, Pumpwerk,
Wasserwerk
Punkt
Bodenbedeckung Noch nicht vorhanden
Namen
Siedlungsnamen
Stadt (> 100 000 Einwohner); Stadt (50 000 - 100 000
Einwohner); Stadt (10 000 - 50 000 Einwohner); Stadt (2
000 - 10 000 Einwohner); Stadt (< 2 000 Einwohner);
großer Stadtteil; mittelgroßer Stadtteil; kleiner Stadtteil;
Markt (> 10 000 Einwohner); Markt (2 000 - 10 000);
Einwohner); Markt (< 2 000 Einwohner); Dorf (> 2 000
Einwohner); Dorf (300 - 2 000 Einwohner); Dorf (< 300
Einwohner); Einzelgebäude und Gehöft; Objekt von
historischer Bedeutung; Objekt mit nichtdeutscher
Orthographie;
Gemeindename und Namen von Stadtbezirken (nicht in
ÖK50);
Punkt
Gebietsnamen
Gebiet (> 10km Längenausdehnung); Gebiet (5 - 10km
Längenausdehnung); Gebiet (2 - 5km
Längenausdehnung); Gebiet (< 2 km Längenausdehnung)
Punkt
Bergnamen
Gebirge, Tal (> 30km Länge); Gebirge, Tal (< 30km
Länge); Berg, Tal (bedeutend); Berg, Tal (geringer
bedeutend); Berg, Tal (lokal bedeutend);
Punkt
Gletschernamen
Gletscher (>6 km Länge); Gletscher (2 - 6km Länge);
Gletscher (< 2km Länge)
Punkt
Gewässernamen
Fluss (> 300km Länge); Fluss (50 - 300km Länge); Fluss,
Bach (10 - 50km Länge); Bach (< 10km Länge); Quelle
Wasserfall; Brunnen; See (> 10km Längenausdehnung);
See (4 - 10km Längenausdehnung); See (2 - 4km
Längenausdehnung); See, Teich (< 2km
Längenausdehnung); sonstiges Gewässerobjekt (gering
bedeutend); sonstiges Gewässerobjekt (bedeutend)
Punkt
Tab. 5: Inhalt des DLM, Stand November 2005
(Quelle: www.bev.gv.at)
15
Alle DLM-Objekte umfassen gewisse Standard-Attribute. Weitere Sach-Attribute sind mit den jeweiligen
Objektarten verspeichert.
Punktförmige Elemente werden zu Zeit in Form einer Access-Datenbank verwaltet, können aber auch
als ASCII Format abgegeben werden. Linienförmige Elemente sind als MicroStation Format DGN
erhältlich, wobei die extern gespeicherten Attribute über eine eindeutige Table-ID zugeordnet werden
können. Inhalte aus dem Objektbereich „Verkehr“ können auch als ESRI Shape oder ArcInfo/e00 Files
erworben werden.
2.2.1.2
DKM – Digitale Katastralmappe
Der digitale Kataster entstand u.a. aus direkter Auswertung von Luftbildern, wobei die Fortführung der
Katasterpläne in Österreich nur mehr auf digitaler Basis geschieht, d.h. auf Basis digitaler Orthophotos.
Die DKM ist der graphische Datenbestand des Katasters im Koordinatensystem der Österreichischen
Landesvermessung in digitaler Form in einem exakt definierten Format, wobei die Daten der DKM mit
den Datenbanken des Katasters (Grundstücksdatenbank, Koordinatendatenbank) konsistent sind. Die
Abgabe der DKM erfolgt im AutoCAD Format DXF.
2.2.2 Datenformat: ESRI Shape
Shape- und CAD-Files zählen im Vergleich zu anderen Datentypen wie Geodatabase und Coverages
zu den nicht topologischen Formaten, d.h. räumlichen Beziehungen zwischen einzelnen Features
werden im Shape-File nicht explizit gespeichert. Der Vorteil gegenüber topologischen Formaten liegt in
einer
schnelleren
Darstellung
bzw.
Editierbarkeit.
(Quelle:
http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf).
Ein Shape-File ist eine Sammlung von homogenen Features des Typs „Point“, „Multipoint“, „Polyline“
oder „Polygon“. Im Shapeformat werden die Geometrie- und Attributinformationen in mindestens 3,
maximal bis zu 7 Dateien abgespeichert. Immer vorhanden sind die Dateien *.dbf
(Attributinformationen), *.shp (Geometrie), *.shx (Index der Objektgeometrie). Zusätzlich gibt es noch
Dateien des Typs *.sbn, *.sbx (raumbezogener Index) und *.ain, *.aih (Attributindex).
Eine *.dbf-Datei (dBase–Format) kann mit jedem datenbankfähigen Programm oder auch mit MS-Excel
(z.B. für besondere statistische Auswertungen) verwendet werden. Die ursprüngliche Tabellenstruktur
darf jedoch keinesfalls verändert werden. Shape-Files enthalten keine Informationen über ihre
Darstellung. Es ist jedoch möglich über ein ArcMap-File eine Symbolisierung zu definieren - z.B. ein *.lyr
(Layer)–File. (Für genauere Informationen sei verwiesen auf: www.esri.com.)
Shape-Files werden auf Grund der weiten Verbreitung bereits auch außerhalb der ESRI Produktfamilie
unterstützt, so auch in der Visualisierung mit VNS.
16
2.2.3 Fernerkundung – das „Missing Link?“
Die Fernerkundung umfasst den Komplex der berührungsfreien
quantitativen und qualitativen Aufzeichnung, Speicherung,
thematischen Verarbeitung und Interpretation bzw. Klassifikation
von objektbeschreibender elektromagnetischer Strahlung mittels
geeigneter Sensoren.
Ziel dieser Arbeit ist es, möglichst automatisiert eine 3D-Visualisierung basierend auf Geodaten
durchzuführen. Automatisierung bezieht sich sowohl auf das gesamte Preprocessing, den Einsatz
unterschiedlicher Sofwarepakete bzw. auch das Postprocessing.
Es stellte sich die Frage, inwiefern sich amtliche GIS-Daten in Verbindung mit geeigneter
Visualisierungssoftware für eine ansprechende Landschaftsvisualisierung eignen, wobei auch der
Aufwand vertretbar sein sollte. Als GIS-Daten wurden jeweils kleinere Teilausschnitte des DLM bzw. der
DKM herangezogen. Speziell am Beispiel des DLM zeigt sich, dass das wichtigste Kriterium für eine
Landschaftsvisualisierung nicht erfüllt ist, nämlich eine flächenhafte Information über die
Bodenbedeckung eines Arbeitsgebietes. Die DKM erfüllt diese Voraussetzung zwar großteils, lässt sich
aber nur bedingt für großflächige Anwendungen verwenden, weil der Dateninput einfach zu
umfangreich wird und von Hard- und Softwareseite aus nicht mehr bewältigbar ist. Es muss also nach
anderen Möglichkeiten der Datengrundlage gesucht werden.
Hier kommt der Aspekt der Fernerkundung ins Spiel, die sehr rasch großflächige Bereiche erfassen
kann. Die dabei gewonnene Information kann direkt als natürliche Textur (vgl. Kap. 2.5.1) oder als Basis
homogener thematischer Information verwendet und mittels Klassifikation abgeleitet werden.
Ersteres bietet für die Visualisierung eine sehr rasche und einfache Möglichkeit, mittels verschiedenster
kommerzieller Daten, wie sie großflächig, teilweise global, vorhanden sind. Für Anwendungen im kleinund mittelmaßstäbigen Bereich reichen diese Daten mit Sicherheit aus. Dennoch erscheinen
dreidimensionale Objekte, die letztendlich im Fernerkundungsbild zweidimensional abgebildet werden,
auch in der perspektiven Ansicht der 3D-Visualisierung als solches, d.h., eine andere Grundlage muss
gefunden werden, um dreidimensionale Information zu generieren. Dazu kann eben thematische
Information dienen, wie eine Landnutzungsklassifikation aus Satellitenbildern, als Grundlage für die
Platzierung von 3D Elementen (vgl. Kap. 3.1). Genauso können auch Vektordaten, wie eben amtliche
GIS-Daten, herangezogen werden, um basierend auf der flächenhaften Information der
Fernerkundungsdaten spezielle, thematische Information der Landschaft zu ergänzen. D.h. die Stärken
aus beiden Datengrundlagen zusammen können eine ideale Kombination für die
Landschaftsvisualisierung ergeben. Darüber hinaus sollte auch der Aspekt der Datenverfügbarkeit nicht
vergessen werden bzw. die Tatsache, dass bestimmte Funktionalitäten innerhalb von VNS bestimmte
Datenformate voraussetzen (vgl. Kap. 3.1).
Die Fernerkundung ist ein ideales Instrument für eine großflächige, objektive Datenerfassung mit einer
entsprechenden Wiederholungs- und Aktualisierungsrate. Eine höhere geometrische Auflösung erlaubt
17
auch Anwendungen im regionalen Bereich als Basis für Planungsszenarien. Die zusehends
automatisierte Extraktion von Information liefert wichtige Daten verschiedenster Thematik.
Eine europaweite Datengrundlage bietet das Programm CORINE („Co-ordination of Information on the
Environment“) Land Cover (CLC), das derzeit mit dem aktuellen Projekt CLC2000 eine Aktualisierung
der Landnutzung und Bodenbedeckung anstrebt. Das erste Programm CLC1990 wurde zwischen 1986
und 1995 mittels visueller Interpretation georeferenzierter Landsat 4/5 Daten durchgeführt. Als Ergebnis
entstand ein aggregierter europaweiter Rasterdatensatz.
In dieser Arbeit wurde ein kleiner Teilausschnitt der CLC-Daten in vektorisierter Form verwendet (vgl.
Kap. 4.1.1.6).
CLC2000 basiert auf orthorektifizierten Landsat-7 Daten aus den Jahren 1999-2001. Das Bezugsjahr
ist, wie im Namen enthalten, das Jahr 2000. Die Daten werden teilweise visuell bzw. durch
automatische Verfahren in einem Erfassungsmaßstab von 1:100.000 verarbeitet. Neuflächen werden ab
einer Minimalgröße von 25 ha (vgl.: Ein Fußballplatz mit Zuschauerplätzen entspricht etwa 1 ha) und
Veränderungen von Landnutzungsgrenzen ab 5 ha aufgenommen. Flächen mit linienförmiger
Ausprägung (z.B. Gewässerläufe) werden ab einer Breite von 100 m erfasst.
Insgesamt werden in einer ersten Stufe 5 Klassen (Bebaute Fläche, Landwirtschaft, Wälder und
naturnahe Flächen, Feuchtflächen bzw. Wasserflächen), in einer zweiten Stufe 15 Klassen bzw. in einer
dritten Stufe 44 Klassen ausgewiesen. (EEA, 2002) Die Daten werden in Form eines Geographischen
Informationssystems in verschiedenen Qualitätslevel aufbereitet und stehen jeweils national für nicht
kommerzielle Zwecke zur Verfügung. Ziel des Programms ist nicht nur eine aktuelle Bodenbedeckung
bzw. Landnutzung, sondern auch deren Veränderung in den letzten 10 Jahren (Change Detection).
Die österreichischen CORINE Daten enthalten 28 der 44 Klassen. Daten des Level 2 (13
Landbedeckungsklassen in Österreich) werden zur nichtkommerziellen Verwendung kostenlos
abgegeben, die detaillierteren Daten des Level 3 sind gegen Kostenersatz (Österreichweit,
Bundeslandweit oder nach dem Blattschnitt der ÖK 50) von der Umweltbundesamt GmbH im Esri
Shape-Format erhältlich. (Quelle: http://www.ubavie.gv.at)
Mehr noch als das exemplarisch verwendete Programm CLC spielt eine andere Überlegung eine
gewichtige Rolle innerhalb dieser Arbeit, nämlich die Ableitung der Bodenbedeckung als Erweiterung
des bestehenden DLM, das bisher ja nur die Information „Wald“ als Bodenbedeckung führt. Franzen et
al. (1998) beschreiben, wie das DLM mit dem Potential hoch auflösender Fernerkundungsdaten
aktualisiert und verfeinert werden kann. Ziel dieser Untersuchung war, aus hoch auflösenden
panchromatischen Satellitenbildern (IRS-1C-pan und SPOT-pan) und multispektralen Bildern (Landsat
TM, geometrisch resampled auf 25 m) insgesamt 7 Klassen („Wasser“, „Wald“, „Acker“, „Grünland“,
„Besiedelt“, „Fels“ und „Gletscher“) mit einer Auflösung von 15 x 15 m und einer Genauigkeit von 93 %
abzuleiten.
Fernerkundungsdaten können in verschiedener Weise die Grundlage einer Geovisualisierung bilden, ob
in Form einer natürlichen Textur (vgl. Kap. 2.5.1) oder thematischer Information. Zweitere kann
18
rasterbasiert vorliegen, oder im Falle objekbasierter Klassifikation (vgl. Kap. 2.4.2) direkt durch GISDaten repräsentiert werden. Die Rasterweite der Erfassung aber gibt im Sinne einer naturnahen
Betrachtungsweise eine gewisse Grenze vor, auch wenn die Daten in Vektorform vorliegen. Speziell
linienhafte Elemente, wie der Großteil des Straßen- und Wegenetzes bzw. des Gewässernetzes, die in
einer anthropogen geprägten Landschaft eine große Rolle spielen, können nicht erfasst werden. Daher
drängt sich gleichsam das Nutzen bundesweit vorhandener Vektordatensätze auf, die diese Lücke
mittels geeigneter Visualisierungssoftware schließen können.
Eine andere Möglichkeit liegt in der Klassifikation hoch auflösender Satellitenbilder, die Geo-Objekte im
Meter- bzw. Submeterbereich erfassen können. Inwieweit sich hier das Kosten/Nutzen-Verhältnis in
Zukunft entwickeln wird, bleibt abzuwarten.
2.3 Rasterdaten - Satellitenbilder und Sensoren
Rasterdaten sind in Matrixform (Zeilen und Spalten) vorliegende digitale Daten mit impliziter räumlicher Positionsangabe
durch das Zeilen-Spaltensystem. Diese Datenstruktur nutzt in
der Regel quadratische Zellen gleicher Größe.
Die einzelnen Bildelemente heißen Pixel (Picture-Elements),
die die Bildinformation (bzw. beliebige andere numerische
Informationen) tragen.
(Quelle: ESRI, 2000)
Hochauflösende Sensoren haben in den letzten Jahren neue Möglichkeiten der digitalen
Bildverarbeitung eröffnet. Nicht nur im Rahmen der Visualisierung, als natürliche Textur im größeren
Maßstabsbereich, sondern auch der Interpretation und Analyse der Daten (vgl. Kap. 2.3.1).
Hochauflösende Sensoren erreichen bereits eine geometrische Auflösung von einigen wenigen Metern
im Multispektralbereich bzw. im panchromatischen Spektralbereich bereits den Sub-Meterbereich, eine
Domäne, die bisher eigentlich gänzlich von Luftbildern eingenommen wurde. Die „neue Generation“ der
so genannten 1-m Satelliten (Quickbird, Ikonos und zukünftige Missionen) führt zusammen mit immer
höheren Aufnahmen digitaler Luftbildkameras zu neuen Herausforderungen und Aufgabenstellungen
mit einer Verschiebung im Maßstabsbereich bzw. einer Verschiebung des Begriffs der Auflösung
(BLASCHKE et al., 2002).
19
Für die Arbeit wurden verschiedene Daten unterschiedlicher Sensoren verwendet, die nun etwas
genauer beschrieben werden.
2.3.1 QuickBird
Von der Vandenberg Air Force Base in Kalifornien aus startete DigitalGlobe im Oktober 2001 die
QuickBird Mission, welche erstmals Bilder mit einer Auflösung im Sub-Meterbereich ermöglichte.
QuickBird wurde dazu entworfen, große Gebiete mit äußerster Präzision effizient und genau
abzudecken. Der QuickBird Satellit ist in der Lage, Bilddaten von jährlich mehr als 75 Millionen
Quadratkilometern aufzunehmen (vgl. in etwa 1/7 der Erdoberfläche).
Die Genauigkeit wird angegeben mit 23 m circular error bzw. 17 m linear error. Die Umlaufzeit des
Satelliten beträgt 93.4 Minuten.
Weitere Details können folgender Tabelle entnommen werden:
System
QuickBird
Company
DigitalGlobe
Orbit
98°, near polar, sun synchronous
Orbit height
450 km
Revisit frequency:
1 to 3.5 days depending on latitude at 70centimeter resolution
Panchromatic
multispectral
0.61 m at nadir
2.44 m at nadir
Spectral Range (nm)
445 - 900
450 – 520 (b)
520 – 600 (g)
630 – 690 (r)
760 – 900 (nir)
Image Swath
16.5 km (Nadir)
Accessible ground swath: 544-km centered on
the satellite ground track (to ~30° off nadir)
Stereo
along
Image Scene size
16.5 x 16.5 km²
Strip - 16.5 km x 165 km
Revisit time
Appr. 3 days at 1-meter resolution, 40°
latitude
Dynamic range
11-bits per pixel
Resolution
Tab. 6: Quickbird Systemparameter
(Quelle: http://www.digitalglobe.com/about/imaging.shtml)
20
2.3.2 Spot
Das französische System Spot (System Probatoire d'Observation de la Terre) ist seit 1986 operabel mit
den Missionen Spot 1 (1986), Spot 2 (1990), Spot 3 (1993), Spot 4 (1998) und der bisher letzten
Generation Spot 5 (2002).
System
Spot 5
Spot 4
Company
Spot 1,2,3
Spot Image
Operational Life
5 years
5 years
Orbit
3 years
98.7°, sun synchronous
Orbit height
822 km
Revisit time
2-3 days, Orbital period: 101.4 minutes, Orbital cycle: 26 days
Resolution
Pan
5m
Sensor System
Ms
10
m
IR
20 m
Pan
10 m
Ms
20 m
IR
20 m
Pan
10 m
Ms
20 m
HRS, HRG
HRVIR
HRV
Spectral Range (nm)
480-710 (pan)
500-590 (g)
610-680 (r)
780-890 (nir)
1580-1750 (swir)
610-680 (pan)
500-590 (g)
610-680 (r)
780-890 (nir)
1580-1750 (swir)
500-730 (pan)
500-590 (g)
610-680 (r)
780-890 (nir)
Image Swath
600 km x 120 km
(HRS)
60 km x 60 km to
80 km (HRG)
60 km x 60 km to 80
km (HRVIR)
60 km x 60 km
to 80 km (HRV)
Image Scene size
Absolute location
accuracy (no ground
control points, flat terrain)
< 15 m (1 σ) (HRS)
< 50 m (1 σ)
(HRG)
< 350 m (1 σ)
Equator crossing time
(descending)
Dynamic range
< 350 m (1 σ)
10:30 a.m.
8-bits per pixel
Tab. 7: SPOT Systemparameter
(Quelle: http://www.spotimage.fr/html/_167_224_555_.php)
Spot operiert im Gegensatz zu anderen Systemen mit nur 2 Kanälen im sichtbaren Spektralbereich,
dafür aber ab Mission 4 mit einem zusätzlichen Kanal im mittleren Infrarot, weshalb sich die Daten
besonders gut für Vegetationsuntersuchungen eignen.
Spot 4 ist ein System, das aus zwei nebeneinander angeordneten Zeilenkameras besteht, die in zwei
Betriebsarten arbeiten können. Diese Sensoren, mit der Bezeichnung HRVIR (High-Resolution Visible
and Infrared Sensor) sind opto-elektronische Abtaster, deren Sensorzeilen mit Detektoren aus
Siliziumdioden ausgestattet sind, die nach dem CCD-Prinzip (charge coupled device) arbeiten (vgl.
KRAMER, 1996, S. 345 ff).
21
Eine weitere Besonderheit von Spot ist, dass die Aufnahmesensoren quer zur Flugrichtung (across) um
bis zu ± 27° verschwenkt werden können, um Stereoaufnahmen zu ermöglichen (vgl. BRANDSTÄTTER,
1997, S. 29 f).
Mit dem HRS (High Resolution Stereoscopic) Sensor verfügt Spot 5 über die Möglichkeit, 2 Bilder
gleichzeitig aufzunehmen – eines nach vorwärts und eines mit Blickrichtung nach hinten für eine
unmittelbare Aufnahme von Stereopaaren (along track). Dieses Verfahren bringt große Vorteile in der
Qualität und Genauigkeit von HRS abgeleiteten DGMs, da ein automatisches Korrelationsverfahren
durch die identischen radiometrischen Bildinhalte erheblich vereinfacht wird.
Mit 1. Mai 2004 waren von mehr als 56 Mio. km² der Landoberfläche der Erde HRS-Stereobilder
erhältlich. Über automatische Bildkorrelation wird ein DGM abgeleitet und mittels Resampling eine
Bodenauflösung von 20 m erreicht. Die absolute Höhengenauigkeit wird mit 10 bis 20 m
(Konfidenzintervall 90 %) angegeben (bezogen auf das vertikale Datum von EGM 96).
Über einen Image-Sampling Prozess von 2 panchromatischen Spot 5 Szenen mit 5 m Auflösung
(simultan von einem HRG Instrument aufgenommen) kann ein panchromatisches Bild mit 2,5 m
Auflösung gewonnen werden mit derselben Aufnahmegeometrie wie die beiden 5 m Bilder. Dieses neue
Konzept der Französischen Raumfahrtbehörde CNES wird auch als „Supermode“ bezeichnet. Durch
eine weitere Fusion mit einem 3-Band Multispektralbild mit 10 m Auflösung liefert Spot 5 auch
Farbbilder mit einer Bodenauflösung von 2,5 m.
(Quelle: http://www.spot.com/html/SICORP/_401_444_445_.php)
2.3.3 Landsat
Das amerikanische Landsat-Programm war das erste zivile Satellitenfernerkundungssystem, das 1972
mit dem Start des Landsat 1 Satelliten begann. Die Landsat Satelliten 1 bis 3 trugen den Sensor MSS
(Multispektral Scanner), der auch auf den jüngeren Satelliten noch eingesetzt wird. Ab Landsat 4, der
1982 gestartet wurde, wurde zusätzlich der Sensor TM (Thematic Mapper) eingesetzt, der eine
wesentlich bessere geometrische Auflösung bietet (30 m gegenüber 80 m bei MSS). Landsat 6
erreichte seinen Orbit nicht und ging verloren. Der zu Zeit aktuelle Landsat 7 Satellit trägt eine
Weiterentwicklung des TM Sensors, die ETM (Enhanced Thematic Mapper) genannt wird und weitere
Verbesserungen in der geometrischen Auflösung bietet (vgl. KRAMER, 1996, S. 185 f).
Der Sensor TM ist ein mechanischer Scanner, der mittels eines Rotationsspiegels die Erdoberfläche in
185 km langen Streifen abtastet. Die Aufnahme erfolgt durch Drehung des Spiegels sowohl in OstWest, als auch in West-Ost-Richtung, während der Vorwärtsbewegung des Satelliten. Die spektralen
Bereiche des Sensors reichen vom sichtbaren Licht bin zum thermalen Infrarot. Die geometrische
Auflösung der gewonnenen Digitalbilder beträgt 30 m für multispektrale, und 120 m für thermale Daten
(vgl. KRAMER, 1996, S. 187).
22
System
Landsat 5
Landsat 7
Company
NASA
Operational Life
6 years
Orbit
98.2°, sun synchronous
Orbit height
705 km
Repeat Coverage
Resolution
16 d
80 m (MSS)
30 m (TM) / 120 m (TM – IR)
15 m (Pan)
30 m (ETM+) / 60 m (ETM+ IR)
B 1: 0.450 - 0.520
B 2: 0.520 - 0.600
B 3: 0.630 - 0.690
B 4: 0.760 - 0.900
B 5: 1.550 - 1.750
B 6: 10.40 - 12.50
B 7: 2.080 - 2.350
0.450 - 0.520
0.520 - 0.600
0.630 - 0.690
0.760 - 0.900
1.550 - 1.750
10.40 - 12.50
2.080 - 2.350
Pan:0.500-0.900
Spectral Range (µm)
Image Swath
185 km
Stereo
Image Scene size
Equator crossing time
183 km
no
185 x 172 km
09:30
183 x 170 km
10:00 a.m. (± 15 Min.)
Tab. 8: Landsat Systemparameter
Durch die Spiegeloptik des TM-Sensors wird, wie zuvor erwähnt, die Erfassung von Thermalstrahlung
ermöglicht. Mit einer Linsenoptik wäre dies nicht möglich, da Wärmestrahlung nicht durch Linsen
abgebildet werden kann. Spiegeloptiken dieser Art werden auch Cassegrain-Systeme genannt und
ermöglichen die Abtastung des gesamten Spektralbereiches (vgl. BRANDSTÄTTER, 1996, S. 61).
Die durch die Bewegung des Spiegels während des Fluges entstandene Verzerrung des Sensors wird
während der Aufnahme durch Kompensationsbewegungen eines zweiten Spiegelsystems korrigiert, so
dass die resultierenden Abtastzeilen parallel zueinander und senkrecht zur Satellitenbahn liegen.
TM 7, die Weiterentwicklung des TM 5, liefert in folgenden Spektralbereichen verbesserte Daten: Ein
zusätzlicher PAN-Kanal mit der doppelten geometrischen Auflösung (15 m), der den Spektralbereich
von blau bis zum nahen IR abdeckt, wird angeboten. Weiters stehen die Thermaldaten mit doppelter
geometrischer Auflösung (60 m) zur Verfügung.
23
2.4 Klassifizieren von Fernerkundungsdaten
Die Klassifizierung ist eine Methode der Bildverarbeitung, die
dazu dient, in Rasterbildern Muster, d.h. Flächen mit gleichen
Eigenschaften zu ermitteln, z.B. Erkennen von Wald, Gewässer
etc. in Satellitenbildern.
Wie schon in Kap. 1.2 bzw. Kap. 2.2.3 erläutert, stellen Fernerkundungsbilder eine wichtige Grundlage
einer 3D-Landschaftsvisualisierung dar, auf Grund der flächenhaften Information. Fernerkundungsdaten
finden nicht nur als natürliche Textur, sondern auch als abstrahierte, thematische Information, über die
Art der Bodenbedeckung, Verwendung. Ein guter Grund, sich im Folgenden einen genaueren Einblick
in gängige Klassifizierungsmethoden zu verschaffen. Hierbei steht eine möglichst automatisierte
Methodik der traditionellen visuellen Interpretation gegenüber, deren Vorteile (Genauigkeit, Vorwissen
des Operators) aber einigen empfindlichen Nachteilen gegenüberstehen (Subjektivität, zeit- und
kostenintensiv). Klassifikationsverfahren fassen mittels verschiedenster Algorithmen Gleiches oder
Ähnliches in einem Bild zu einzelnen Klassen zusammen. Durch die rasche technische Entwicklung der
Sensoren und hoch auflösenden Bildern kommen grundsätzlich 2 unterschiedliche Verfahren zum
Einsatz, ein pixel-basiertes bzw. ein objekt-orientiertes Verfahren. In der Praxis sind die verschiedenen
Vorgänge meist eng verknüpft, sodass ein Endergebnis meist auf Basis hybrider Methodik entsteht.
Klassifikatoren werden vereinfacht auch unterschieden nach parametrischen und nicht-parametrischen
Verfahren. Erstere benutzen gewöhnlich einen problemspezifischen Modellansatz zur Beschreibung der
Klassifizierungsfunktion. Nicht-parametrische Verfahren besitzen keine exakten Modellvorstellungen,
sondern basieren auf universellen Regressionsmodellen. Aufgrund ihrer Verwendung innerhalb einer
großen Problemvielfalt werden sie auch als „robust“ bezeichnet. (BÄHR, VÖGTLE, 1998)
2.4.1 Pixelbasierte Methodik
Innerhalb einer herkömmlichen pixelbasierten Klassifizierung werden mathematisch-statistische
Algorithmen bzw. die spektralen Eigenschaften der Rasterdaten herangezogen, um möglichst
homogene Klassen zu bilden. Die Multispektral-Klassifizierung unterscheidet verschiedene
24
Objektklassen aufgrund vorliegender Messdaten aufgenommen von Multispektral-Scannern und ist
damit auch der menschlichen Wahrnehmung (bzw. der visuellen Interpretation) überlegen. (ALBERTZ,
2001, S. 161).
Die unterschiedlichen spektralen Eigenschaften einzelner Objektklassen werden in einem
Merkmalsraum (feature space) definiert und bilden einen Punkthaufen vieler einzelner Messwerte.
Abb. 2: Feature Space
(Quelle: Albertz, 2001, S. 162)
Im Idealfall lassen sich die Punkthaufen eindeutig abgrenzen und unterteilen den Merkmalsraum. Jeder
weitere Messwert kann nun automatisch einer der definierten Objektklassen zugeordnet werden. Das
Ergebnis ist eine vollständige thematische Kartierung des Rasterbildes.
In der Regel lassen sich die einzelnen Spektralbereiche aber nicht einfach trennen. Die Punkthaufen im
Merkmalsraum überschneiden oder berühren sich, das leidige Problem der Mischpixel tritt nur allzu
häufig auf.
Die gängigsten Algorithmen einer spektralen Mustererkennung können in eine unüberwachte- bzw.
überwachte Klassifizierungstechnik gegliedert werden.
2.4.1.1 Unüberwachte Klassifikation
Durch ein rein statistisches Verfahren liefert eine unüberwachte Klassifizierung (Cluster Analyse) eine
endliche Anzahl von Klassen ähnlicher spektraler Eigenschaften für das gesamte Bild, ohne dass
irgendetwas über die Bedeutung der einzelnen Objektklassen bekannt sein muss. Im seltensten Fall
wird eine unüberwachte Klassifizierung bereits das erwünschte Endergebnis bringen, ist aber eine rasch
erstellte erste Übersicht, wie viele Objektklassen überhaupt sinnvoll abgegrenzt werden könnten. Somit
dient diese, zumeist iterativ verwendete Methodik, zumeist als Vorverarbeitung für eine überwachte
Klassifikation.
Die Zuordnung der einzelnen Pixel erfolgt meist über nutzerdefinierte Kriterien. Einer der meist
verbreiteten Algorithmen für eine unüberwachte Klassifikation ist die „Iterative Self Organizing Data
Analysis Technique“ (ISODATA) (BOSSLER, 2002, S. 314). Die softwarespezifischen Eingabeparameter
für den Algorithmus können die maximale Anzahl der Cluster, Anzahl der Wiederholungen, maximale
25
Anteil an unveränderten Pixel pro Durchlauf, maximale Standardabweichung innerhalb eines Clusters
oder minimale Anzahl von Elementen eines Clusters sein.
2.4.1.2 Überwachte Klassifikation
Unter Einbeziehen von Vorwissen über die Zuordnung der einzelnen Objektklassen zu den Punkthaufen
im Merkmalsraum kann eine überwachte Klassifikation durchgeführt werden. Diese Vorinformation fließt
in Form von gut definierten Trainingsgebieten (zumindest 1 pro Objektklasse), die von einer
Feldbegehung oder anderen Datenquellen stammen können, in den Analyseprozess ein.
Trainingsgebiete werden als AOIs (Area of Interest) interaktiv am Bildschirm digitalisiert oder durch
spektrale- und räumliche Suchkriterien automatisch ermittelt. Sind die statistischen Charakteristika der
Trainingsgebiete fixiert, stehen verschiedene Algorithmen zur Klassifizierung zur Auswahl. Die 3 meist
verwendeten Methoden sind das Maximum-Likelihood-Verfahren (Verfahren der größten
Wahrscheinlichkeit), das Minimum-Distance-Vefahren (Verfahren der nächsten Nachbarschaft) bzw.
das Quader-Verfahren (Box Classifier od. Parallelepiped).
Ersteres berechnet aufgrund statistischer Kenngrößen der vorgegebenen Klassen die
Wahrscheinlichkeit, mit denen die zu klassifizierenden Pixel einer dieser Klassen angehören. Die
Wahrscheinlichkeitsfunktionen werden aus den Daten der Trainingsgebiete abgeleitet. Unter der
Annahme, dass die Messdaten der Pixel jeder Objektklasse im Merkmalsraum eine Normalverteilung
um den Klassenmittelpunkt aufweisen, wird jedes Pixel der Klasse mit der größten Wahrscheinlichkeit
zugewiesen. Das einfachere Minimum-Distance-Verfahren berechnet das Mittel der Messwerte in den
einzelnen Spektralkanälen für die Trainingsgebiete jeder Objektklasse und anschließend den Abstand
zu den Mittelpunkten für jedes zu klassifizierende Pixel.
Folgende Abbildungen beschreiben die 3 Verfahren, wobei jeweils ein 2-dimensionaler Merkmalsraum
mit Daten aus 2 Spektralkanälen (TM Band 3, TM Band 4) dargestellt wird.
(a) Maximum-Likelihood-Verfahren
Die
Abbildung
zeigt
Linien
gleicher
Wahrscheinlichkeit für die Zugehörigkeit von Pixel zu
einer der insgesamt 6 Klassen. Der zu
klassifizierende Punkt wird in diesem Fall der Klasse
„Agricultures“ zugeordnet. Das Maximum-LikelihoodVerfahren ist im Verhältnis rechenaufwendig, weist
dafür aber sehr gute Ergebnisse auf.
26
(b) Minimum-Distance-Vefahren
Das Bildelement wird jener Klasse zugeordnet, deren
Mittelpunkt (+) dem zu klassifizierende Punkt am
nächsten liegt, also in diesem Fall der Klasse
„Grassland“.
(c) Quader-Verfahren
Durch die Festlegung oberer und unterer Grenzen
der für eine Objektklasse gültigen Messwerte werden
rechteckige (bzw. verfeinerte) Abgrenzungen im
Merkmalsraum definiert. Das fragwürdige Pixel wird
der Klasse „Grassland“ zugeordnet.
Fällt der Punkt in keine Box, bleibt er unklassifiziert.
Abb. 3: Überwachte Klassifikation
(Quelle: Bossler, J. D. , 2002, S.313)
Das Maximum-Likelihood-Verfahren, das Minimum-Distance-Verfahren oder auch das MahalanobisDistance-Verfahren zählen zu den parametrischen Verfahren, basierend auf statistischen Parametern.
Das Quader-Verfahren wird der Gruppe der nicht-parametrischen Verfahren zugeordnet, die den
räumlichen Bezug eines Pixels innerhalb oder außerhalb einer Fläche im Merkmalsraum verwenden. In
der Praxis kommt es meist zu erheblichen Überschneidungen der Punkthaufen im Merkmalsraum.
Durch eine Hauptkomponenten-Transformation können im Vorfeld besser trennbare Daten abgeleitet
werden, speziell bei Daten mit einer größeren Zahl an Spektralkanälen.
Ein weiteres Problem liegt darin, dass die einzelnen Objektklassen in der Regel keine homogene
Ausprägungsform aufweisen. Eine Klasse (z.B. Waldflächen) kann unterschiedliche Formen (z.B.
Wuchshöhe, Dichte, Exposition) auf durchaus kleinem Raum aufweisen, die im Bild zu
unterschiedlichen Spektralwerten führen.
27
(a)
(c)
(a) Landsat TM Ausschnitt mit den Kanälen 2, 4
und 7. Im Bild werden mehrere Trainingsflächen
für verschiedene Klassen definiert, die jeweils
eine Punktwolke im Merkmalsraum einnehmen
(Vgl. (c)). Durch statistische Analyse werden
Linien
gleicher
Wahrscheinlichkeit
zur
Unterteilung des Merkmalsraumes abgeleitet. Als
Ergebnis erhält man eine thematische Karte (b).
(b)
Abb. 4: Ablauf einer Multispektral-Klassifizierung
(Quelle: Albertz, 2001, S. 168)
Das Hauptproblem der herkömmlichen Multispektral-Klassifizierung ist nach wie vor das häufige
Auftreten von Mischpixel. Für die Zuordnung dieser Pixel zu den Klassen gibt es verschiedenste
Möglichkeiten. Viel versprechende Lösungsvarianten finden sich im spectral unmixing Verfahren über
so genannte endmembership functions (vgl. BLASCHKE et al., 2000).
Insgesamt erzielen pixelbasierte Verfahren bei Daten mit gröberer Auflösung (30 m) sehr gute Resultate
mit Genauigkeiten von 85 bis 90 % (BLASCHKE, 2002a, S. 5).
2.4.2 Objekt-orientierte Methodik
Hoch auflösende Satellitenbilder stellen auch für die Klassifikation neue Ansprüche, denen die
herkömmliche pixelbasierte Methodik nicht mehr entspricht. Zwar ist das Auftreten der Mischpixel nicht
mehr so häufig, jedoch hat die Variabilität und das Rauschen innerhalb quasihomogener Klassen stark
zugenommen (vgl. SCHIEWE et al. 2001, zitiert in NEUBERT und MEINEL 2002).
Darüber hinaus fordert die hohe Auflösung mehr als nur eine statistische Bewertung der spektralen
Information. Herkömmliche Methoden lassen sich nicht mehr anwenden, wenn die homogenisierende
Grauwertglättung durch eine relativ grobe Auflösung nicht mehr gewährleistet ist. Dies ist dann der Fall,
28
wenn zu erfassende Objekte in den Grenzbereich der Pixelgröße fallen oder sogar darüber (EHLERS,
2002, S.18).
Neue, intelligentere Methoden erlauben das Miteinbeziehen von Mehrinformation (wie Textur, Gestalt
oder Nachbarschaftsbeziehungen) über den räumlichen Kontext der Bildelemente zueinander als Basis
zur Bildung homogener Objekte. Diese „intelligenten“ Verfahren bedienen sich wiederum der Vorteile,
die die menschliche Wahrnehmung innerhalb der visuellen Interpretation mit sich bringt, nämlich das
intuitive Erkennen von Formen, Mustern und Zusammenhängen aus einem Konvolut von
Bildelementen. Eine objektbasierte Klassifizierung besteht aus 2 Schritten – einer Segmentierung der
Daten (also die Gliederung des Bildes in Regionen bzw. sinnvoller Einheiten) und einer Klassifizierung.
Durch diese Mehrinformation können GIS-Funktionalitäten („grenzt an“, „ist in der Nähe von“) direkt in
den Klassifizierungsprozess integriert werden, wodurch schließlich eine echte Integration von GIS und
Fernerkundung erreicht werden kann (BLASCHKE, 2002, S.6).
Ein weiterer Vorteil dieser Methodik ist, dass durch Softwarelösungen mit entsprechend einfach zu
bedienenden Regelbausätzen (z.B. in der Software eCognition mittels Fuzzy Logic), eine Klassifizierung
mit gutem Ergebnis auch von einem Nicht-Fernerkundungsexperten getätigt werden kann.
Segmentierungsverfahren sind in der Bildverarbeitung keine Neuheit. Neu hingegen ist die Adaptierung
der Segmentierung für Anwendungen in der Fernerkundung mit Einbezug einer Klassifizierung.
Verschiedene Algorithmen betonen unterschiedliche Kriterien wie Homogenität innerhalb eines
Segments, Verschiedenheit/Trennstärke gegenüber räumlich angrenzender Segmente oder
Formhomogenität (Einfachheit von Segmentgrenzen vs. Fraktale Ausprägung). Einige der gängigsten
Algorithmen sollen im Folgenden kurz erläutert werden:
Abb. 5: Vergleich einer Abgrenzung eines Moors
Links: Landsat TM (Kanäle 5,4,3), Mitte: Pixelbasierte Klassifikation, Rechts: Segmentierung und Objektorientierte Klassifikation (Quelle: Blaschke, 2000)
2.4.2.1 Clusterbasierte Segmentierung
Die einzelnen Bildelemente werden durch Clusterbildung im Merkmalsraum so zusammengefasst, dass
innerhalb eines Clusters Homogenität der Pixel besteht d.h. die Pixel einer Klasse unterscheiden sich
möglichst wenig voneinander. Statistisch gesehen wird die Summe der Quadrate der Abweichung der
Pixelwerte von den Clustermittelwerten minimiert.
29
Der Vorteil der Methode liegt in ihrer Einfachheit. Innerhalb eines Segments wird die spektrale
Homogenität der Bildelemente nicht beachtet. Der größte Nachteil besteht darin, dass räumliche
Zusammenhänge bei der Segmentierung ebenfalls nicht beachtet werden.
2.4.2.2 Regionsbasierte Segmentierung (region-based)
Ähnlich dem Cluster-Verfahren basiert diese Methodik auf Ähnlichkeiten mit dem Unterschied, dass die
regionsbasierte Segmentierung nicht im Merkmalsraum, sondern im Bildraum und damit mit räumlichen
Zusammenhängen arbeitet. Innerhalb dieses Segmentierungsverfahrens findet man 2 typische
Vertreter: Die Region-growing-Methode und Split-and-Merge-Methoden.
Region-growing
Aus Ausgangssegmenten oder Einzelpixel (seed pixel, seed segments oder seeds [Saatzellen])
wachsen größere Segmente. Alle dem Ausgangssegment benachbarten Pixel werden auf
Ähnlichkeit über gewisse Schwellwerte geprüft. Ist die Ähnlichkeit groß genug, wird das Pixel dem
Segment zugeteilt. Kann das Pixel keinem Segment zugeteilt werden, beginnt an dieser Stelle eine
neue Saatzelle mit einem neuen Segment.
Der Bearbeiter beeinflusst den Vorgang durch die Lokalisierung der Saatzellen bzw. das Verfahren,
nachdem die Saatzellen gewählt werden und durch die Schwellwerte, die das Ähnlichkeitskriterium
bestimmen.
Split-and-Merge
Diese iterative Methode beruht auf der Zerlegung des Bildes in zunächst unzusammenhängende
Initialteile mit einheitlichen internen Eigenschaften und einer Zusammenfügung gleicher Teile. Der
Splitting-Prozess folgt der Quadtree-Methode – die Zerlegung des Bildes in Quadranten bzw.
Subquadranten. Ein Merge fügt schließlich die unterschiedlich großen Teilchen (Quadranten)
gleicher Eigenschaften wieder zusammen.
2.4.2.3 Kantenbasierte Segmentierung (edge-based)
Bei kantenbasierten Verfahren wird nicht nach Ähnlichkeiten, sondern nach Unterschieden bzw. starken
Gradienten (Diskontinuitäten) gesucht mittels verschiedener Operatoren, wie z.B. dem Sobel-Operator
oder Laplace-Operator. Die Kanten werden zu Gruppen zusammengefasst, wobei eine Homogenität der
Segmente bei rein kantenbasierter Segmentierung nicht automatisch gegeben ist. (SCHNEIDER et al.
1997, zitiert in BLASCHKE 2000).
30
2.4.2.4 Watershed-Segmentierung
Als Ausgangsbild dient ein Kantenbild, das mittels Gradientoperators hergestellt wird. Das Kantenbild
wird als dreidimensionale Oberfläche interpretiert. Für jedes Pixel wird in weiterer Folge ein
Abflussverhalten eines hypothetischen Regentropfens, der auf das Pixel fällt, simuliert. Die so
ermittelten Wasser-Einzugsgebiete werden als die gesuchten Segmente interpretiert.
Insgesamt gesehen erzielen objekt-orientierte Methoden bereits sehr gute Ergebnisse bei hoch
auflösenden Satellitenbildern, wobei dieser junge Ansatz Ziel zahlreicher Forschungen ist und
vermutlich auch in Zukunft sein wird (vgl. BLASCHKE 2000, S. 161 ff.).
2.4.2.5
Weitere Verfahren
Hierarchische od. baumförmige Klassifizierung
In einer hierarchisch angelegten Methodik (engl. Hierarchical Classification) wird das
Klassifikationsergebnis nicht in einem Schritt erreicht sondern entsteht aus einer Abfolge von mehreren
Einzelentscheidungen. Zu Beginn wird der Merkmalsraum interaktiv durch den Bearbeiter in einige
wenige, häufig nur 2 Klassen, unterteilt und anschließend nach bestimmten Regelwerken weiter
untergliedert. Ein wesentlicher Vorteil eines solchen Systems besteht darin, dass für jede Entscheidung
ein beliebiger Spektralkanal (d.h. der, für die jeweilige Fragestellung geeignetste) herangezogen
werden und somit verschiedene Daten miteinander verknüpft werden können.
Als Beispiel für eine hierarchische wissensbasierte Klassifizierung kann der Expert Classifier im
Softwarepaket Erdas Imagine genannt werden.
Abb. 6: Hierarchische Klassifizierung
Links: Trennung des Merkmalsraumes in die 2 Klassen Vegetation – Keine Vegetation, Rechts: Schematische
Verzweigung der Hierarchischen Untergliederung der weiteren Klassen (Quelle: Albertz, 2001, S. 167)
31
Neuronale Netze
Nach der Definition in Kap. 2.4 gehören Neuronale Netze (NN, engl. Neural Networks) zur Gruppe der
nicht-parametrischen Verfahren, da sie aus statistischer Sicht nichtlinearen Regressionsmodellen
entsprechen (BÄHR und VÖGTLE, 1998).
Als neuen Zweig der Forschung zur künstlichen Intelligenz fanden Neuronale Netze schon in den 80er
Jahren Einzug in den Bereich der Fernerkundung. NN arbeiten ähnlich dem natürlichen Vorbild, dem
menschlichen Gehirn, wobei mittels Modellierung und Verknüpfung von Einzelkomponenten (Neuronen
bzw. Modellneuronen) komplexe Eigenschaften wie Selbstorganisation, Trainierbarkeit, Fehlertoleranz
oder Generalisierung angestrebt werden. NN starten mit bestimmten Input-Daten (z.B. bekannte Klasse
der Landbedeckung) und erwarteten Outputs. Im Gegensatz zu hierarchischen Systemen müssen NN
aber trainiert und kalibriert werden, bis sie in einem Lernprozess als effizient bezeichnet werden
können.
Abb. 7: Information und Ablauf in einem typischen neuronalen Netz
NN können aus mehreren Ebenen bestehen, jede Ebene setzt sich aus mehreren Knoten zusammen. Input und
Output-Ebene formen die Initial- bzw. Endknoten mit einer oder mehreren versteckten Ebenen, die die
verarbeitenden Knoten beinhalten. (Quelle: Bossler, 2002)
Es wird angenommen, dass der Einsatz von NN in der Bildverarbeitung mit leistungsfähigen Computern
weiter ansteigen wird.
Im Zuge ihrer Lernfähigkeit haben NN einige Vorteile, die in der Bildverarbeitung ausgenützt werden
können: Da ein NN Daten mit begrenzter Erfahrung, basierend auf erlernten Beziehungen, verarbeiten
kann, kann es auch neu eingebrachte Daten verarbeiten, sofern diese den Originaldaten des
Trainingsdatensatzes ähneln. Dadurch, dass NN mittels bestimmten Input- und Output-Parametern
trainiert worden sind, funktionieren sie auch trotz fehlender Eingabeparameter und agieren daher auch
robuster als andere Verfahren. Eine Klassifikation mit NN beinhaltet auch einen bestimmten Anteil an
32
statistischer Analyse, zum Großteil Cluster-Analysen. In aneinander anschließenden Abläufen gleicher
Prozesse und Analysen verfeinern sich NN selbst und werden dadurch genauer und effizienter.
NN werden für verschiedene Applikationen verwendet (z.B. Landnutzungsklassifizierung, Change
Detection) und erzielen vor allem dort bessere Ergebnisse als herkömmlich statistische Methoden, wo
der Merkmalsraum komplexer ist und die Verteilung der Eingangsdaten nicht der angenommenen
Normalverteilung entspricht. NN können verschiedene Daten verarbeiten (z.B. von unterschiedlichen
Sensoren), a priori Wissen und realistische physikalische Randbedingungen in die Analyse mit
einbeziehen (BOSSLER, 2002).
Fuzzy Sets
Viele Systeme in der Natur weisen Merkmale auf, sodass die reale Situation oft nicht mehr eindeutig zu
erfassen und klar abgrenzbar ist. Bei Daten von Unbestimmtheit/Unschärfe nicht-stochastischer Art
bietet die Fuzzy-Theorie ein methodisches Werkzeug zu deren Formalisierung und Problemlösung. Die
Grundidee dabei ist, eine dem Kontext angemessene Unschärfe mittels einer geeigneten graduellen
Differenzierung quantitativ durch eine Menge von reellen Zahlen auszudrücken und damit operationabel
zu machen. Fuzzy Sets (unscharfe Mengen) sind das zentrale Element der Fuzzy-Theorie. Jedes Pixel
besitzt in dieser Methodik eine unscharfe Zugehörigkeit zu einer Klasse mit Werten zwischen Null (keine
Zugehörigkeit) und Eins (volle Zugehörigkeit) (vgl. WOLF, 2001).
Der Grundgedanken der Fuzzy-Logik kann auch für Planer sehr interessant sein. Konzepte wie „eher
urban“, „eher ländlich“, „gut erreichbar“ oder „ökologisch weniger wertvoll“ scheinen doch in der Praxis
aussagekräftig zu sein, obwohl „harte“ Entscheidungskriterien gefordert sein können (vgl. BLASCHKE,
1997).
Gängige Ansätze basierend auf Fuzzy Sets sind „possibilistic c-means clustering“ (PCM), „fuzzy cmeans clustering“ (FCM) oder „fuzzy supervised classification“.
Fuzzy Klassifikatoren erzeugen Bilder, die den Grad der Zugehörigkeit der Bildelemente zu
ausgewiesenen Klassen darstellen.
Die Notwendigkeit der Extraktion von Information aus Fernerkundungsdaten brachte eine Vielzahl von
verschiedenen Methoden hervor bzw. wird auch weiterhin Gegenstand der Forschung sein, speziell
durch die rasche Entwicklung hoch auflösender Sensoren. Ein weiterführender Ansatz, jener der
Multiple Classifier Systems (MCS), als Kombination einzelner Klassifikationsstrategien bzw. einzelner
Ergebnisse sei an dieser Stelle nur erwähnt.
33
2.5 Texturen
Bei der 3D- bzw. Computer-Animation (Computerspiele,
Visualisierung, Effekte, usw.) bezeichnet Textur das Bild,
welches auf der Oberfläche eines virtuellen Körpers dargestellt
wird; man spricht von Mapping. Ein Pixel der Textur wird als
Texel bezeichnet. Dabei können Texturen praktisch jede
Eigenschaft einer Oberfläche gezielt verändern.
Quelle: http://de.wikipedia.org/wiki/Textur
Texturen sind ein wichtiges gestalterisches Element, das 2D oder 3D Objekten ein realistischeres
Aussehen bzw. eine charakteristische Oberfläche geben kann. Mit der Technik des Texture-Mappings
werden Bilder auf eine Oberfläche projiziert, eine weit verbreitete Methodik in der Visualisierung. Die
drapierten Bilder lassen die Oberfläche zumeist dennoch als glatt erscheinen, weshalb weitere
Techniken entwickelt wurden, wie z.B. das Bump Mapping.
Abb. 8: Künstliche Felstextur ohne (links) bzw. mit Bump Mapping (rechts).
34
Durch Bump Mapping wird dem Beobachter ein geometrisch verändertes Erscheinungsbild
vorgetäuscht, indem die Richtung der Normalvektoren der Oberfläche mit Hilfe von Zufallsvariablen
leicht abgelenkt wird, ohne dass die Geometrie tatsächlich verändert wird. Der räumliche Eindruck
entsteht durch Helligkeitsunterschiede auf glatten Oberflächen. Der entscheidende Nachteil liegt in der
Speicherintensivität der Technik.
Als Texturen können nun verschiedenste Grafiken unterschiedlichster Formate dienen oder auch
Vektorelemente (z.B. Isolinien), die auf eine Oberfläche projiziert werden.
Allgemein unterscheidet man in der Geovisualisierung 2 Grundtypen der Texturen, nämlich künstliche
und natürliche Texturen.
2.5.1 Natürliche Texturen
Als natürliche Texturen werden zumeist photographische Aufnahmen oder Fernerkundungsbilder
bezeichnet, die den natürlichen Eindruck einer Landschaft, so wie das menschliche Auge sie
wahrnimmt, zumindest für einen bestimmten Maßstabsbereich wiedergeben, so, wie sie der Natur
entsprechen.
Abb. 9: Beispiel einer natürlichen Textur, Kombination Landsat TM/Spot
Das Drapieren von natürlichen Texturen auf ein DGM wird auch als „Image Drape“ bezeichnet.
35
2.5.2 Künstliche Texturen
Neben Luft- und Satellitenbildern werden in der Visualisierung auch noch zahlreiche künstliche Objekte
als Texturen eingesetzt. Gängige Softwareprodukte liefern in einer Objekt-Bibliothek zumeist viele
vorgefertigte Texturen für Landschaftsoberflächen, Bewuchs, Gebäude oder Himmelsobjekte.
Künstliche Texturen unterliegen zumeist mathematisch definierten Mustern und sind oft hierarchisch
aufgebaut. Mit geeigneten Operationen und Musterverläufen lassen sich schier unendlich viele Texturen
generieren, wobei einzelne Subelemente einer Textur wiederum selbst eine Textur sein können. Auch
natürliche Texturen können als Grundlage künstlicher Texturen fungieren. Zum Beispiel kann ein
(möglichst orthogonal aufgenommenes) Foto eines Waldbodens großflächig durch gezielte
Wiederholungen in beide Achsenrichtungen als künstliche Bodentextur verwendet werden. Genauso
lassen sich kleinräumige landwirtschaftliche Strukturen durch Verschachteln einzelner Bilder gut als
künstliche Texturen verwenden (vgl. Abb. 10).
Abb. 10: Textur für Ackerflächen
Links: künstliche Textur, rechts: Textur aus mehreren Einzelbildern (Orthophotos)
Billboard-Objekte
Vertikale Vegetationsstrukturen wie Wälder oder Einzelbäume werden innerhalb der gängigen
Softwarelösungen gerne als Billboard-Objekte verwendet. Grafiken von Einzelbäumen werden auf die
dreidimensionale Geländeoberfläche gesetzt und drehen sich immer mit dem Blickwinkel des
Betrachters mit, erscheinen also immer orthogonal zur Blickrichtung.
Somit erscheinen die 2-dimensionalen Objekte als 3-dimensional, wobei zusätzlich durch Schattierung
der Effekt noch verstärkt werden kann. Besonders im Bereich mittlerer Maßstäbe findet diese TextureMapping Technik ihre Anwendung, wenn der Detailgrad (Level of Detail) noch keine Einzelbäume
erkennen lässt.
36
Die Grafikformate, die für ein Billboard verwendet werden, müssen vorher entsprechend ausmaskiert
sein bzw. einen Alpha-Kanal unterstützen, der im Rendering transparent erscheint.
Abb. 11: 2D-Bilder als Billboard Objekte
2.6 Existierende 3D-Visualisierung basierend auf amtlichen Geodaten am
Beispiel der „Austrian Map“
Ein Ausgangspunkt der Überlegungen war die Austrian Map, Version 2.0, ein Produkt des BEV, das für
das ganze Bundesgebiet Karteninformation bzw. auch 3D-Inhalte anbietet. Die verschiedenen
Möglichkeiten der Darstellung, die unter dem Begriff „Höhendaten“ geführt werden, sind zu folgender
Abbildung aufgelistet.
3D-Funktionen der Austrian-Map 2.0
3D-Betrachtung mit Rot-Grün-Brille über
Anaglyphenbilder
Höhenprofil (Geländeschnitt) einer
gewählten Route
Plastische Darstellung als Schummerung
in der Landkarte (mit Karte)
Höhenrelief (Schattenplastische
Darstellung)
Perspektivansicht der Karte mit
Einstellung der Lichtquelle
Anzeigen von Höhenschichten in
gewünschten Farben und Intervallen
Abb. 12: Anaglyphenbild von Graz
(Quelle: Austrian Map, BEV)
37
Basis der Höhenangaben ist das DGM des BEV. Die stereoskopische Betrachtung durch eine
Anaglyphendarstellung (vgl. Abb. 12) ist die wohl einzige echte 3D-Darstellung im Sinne der
menschlichen Wahrnehmung. Schummerung und Höhenrelief sind plastische 2D-Ansichten des DGM,
die im Fall der Schummerung der Karte unterlegt werden. Die Höhenschichten sind eine andere
Darstellungsform des DGM, abgestuft nach individuellen Wertebereichen.
Dem aktuellen Produkt „AMAP Fly“, Version 4.0, wurde der nun als „statisch“ bezeichneten
perspektivischen Ansicht auch eine dynamische Ansicht hinzugefügt, die es erlaubt, sich interaktiv über
das Gelände zu bewegen.
Einer 3D-Visualisierung, wie sie in dieser Arbeit verstanden wird, kommt die Variante der perspektiven
Ansicht wohl am nächsten. In einem eigenen Viewer wird ein Kartenausschnitt perspektivisch
dargestellt, wobei die Entfernung und Blickrichtung des Beobachters sowie die Beleuchtungsrichtung
und die DGM Darstellung variiert werden können.
Als Texture-Mapping Element dient die digitale Österreichische Karte, die mit ihrem umfangreichen
Inhalt wohl kaum einer wünschenswerten Visualisierung gleichkommt. Die Geländeoberfläche erscheint
auffällig glatt, die Karteninformation wird natürlich stark verzerrt abgebildet und somit teilweise
unleserlich, vor allem die Situation.
Abb. 13: Perspektive Ansicht in der AMAP, Version 2.0
Die Darstellung der vorhandenen Information reicht also nicht aus, um eine geeignete
Landschaftsvisualisierung zu erreichen.
Wiederum liegt der Gedanke nahe, andere Geodaten als Grundlage zu verwenden, wie eben
Fernerkundungsbilder (vgl. Abb. 9) oder GIS-Daten bzw. eine sinnvolle Kombination von beiden.
38
3 Konzept einer Landschaftsvisualisierung
Für eine computerunterstützte 3D-Landschaftsvisualisierung mit planerischem Hintergrund steht heute
eine Vielzahl an Softwaremöglichkeiten zu Verfügung, die von der klassischen 3D-Anwendung über 3D
GIS-Lösungen bis zur High-End Lösung photorealistischer 3D Visualisierung reichen.
Die rasche Entwicklung von Systemkomponenten, insbesondere seitens der Computerspieleindustrie,
ermöglicht es heute aus technischer Sicht, fotorealistisch wirkende Landschaftsbilder am PC zu
generieren. Bisher ließen sich die verschiedenen Softwarelösungen im Wesentlichen danach
unterscheiden, ob fotorealistische Standbilder bzw. Animationen oder die Erstellung von Realtime
Umgebungen als Ziel gesetzt wurden. Dieser Unterschied wird mit fortschreitender Entwicklung in der
Computergrafik und Hardwareleistung zusehends hinfällig (PAAR et al., 2004). Die Integration von GIS,
Fernerkundung, hohem Detailgrad und Interaktivität ist heute also technisch möglich.
Appleton (2001) unterteilt demnach die Methoden der Visualisierung in 3 Hauptkategorien: Image
Draping, Photorealistisches Rendern und Virtuelle Welten. Abgesehen der Methodiken und Techniken
innerhalb des Visualisierungsprozesses sind noch einige weitere Überlegungen bezüglich der Software
bzw. Stärken und Schwächen in der Umsetzung relevant, wie:
Import von GIS Daten (als wichtige Grundlage der Geovisualisierung), Formate und Datentypen
Datenmanipulation und Zuweisen von Eigenschaften
Einfachheit um einen bestimmten Standpunkt zu simulieren
Zeiterfordernis für das Generieren eines erwünschten Outputs
Notwendigkeit der Nachbearbeitung
Vorhandensein von vordefinierten Elementen (Objektbibliotheken etc.)
Weitere Aspekte gelten natürlich den Anschaffungskosten, der Einarbeitungszeit, der geforderten
Hardware bzw. notwendiger anderer Software.
Besonders interessant erscheinen die Produkte von 3D Nature (vgl. PAAR et al, 2004; DUNBAR, 2003,
FELDES, 2003; APPLETON, 2001), das World Construction Set (WCS) bzw. Visual Nature Studio (VNS).
Diese Arbeit wurde mittels VNS 2 durchgeführt, weshalb im Folgenden die Software kurz vorgestellt
werden soll:
39
3.1 VNS - Softwarefunktionalität
Das aktuelle Produkt der amerikanischen Herstellerfirma 3D Nature LLC, das Visual Nature Studio 2
(VNS 2), ist zusammen mit den vorherigen Versionen wohl das weit verbreitetste Instrument zur 3D
Landschaftsvisualisierung, speziell in Kombination mit GIS Daten (GEIER at al, 2001).
DUNBAR et al. (2003) sprechen auch davon, dass nach einer eingehenden Recherche VNS das
geeignetste Softwarepaket für photorealistische Visualisierung sei, in diesem Fall speziell für forstliche
Anwendungen. Weiters wird festgehalten, dass in herkömmlichen GIS- und Fernerkundungssystemen
die Mittel der Visualisierung und Animation noch immer vergleichsweise rudimentär ausgeprägt sind.
Im Folgenden wird die allgemeine Abkürzung „VNS“ für das Produkt VNS 2 verwendet. Begriffe, wie sie
in der Terminologie von VNS gebraucht werden, sind (ausgenommen in Überschriften und Tabellenund Abbildungsbeschriftungen) in der gesamten Arbeit kursiv gehalten und können in einem Glossar als
Anhang bei Bedarf nachgeschlagen werden.
Visualisierung in VNS basiert auf einem digitalen Geländemodell, das mit verschiedenen Formaten
(ASCII, Binary, DXF – nicht aber ERDAS Imagine) importiert (bzw. als 3D Studio oder LightWave3D
auch wieder exportiert) oder künstlich hergestellt werden kann. VNS kann mittels einer Vielzahl an
implementierten Projektionen, Datum und Ellipsoiden einen direkten Bezug zur Erdoberfläche
herstellen. VNS eignet sich daher besonders gut für Anwendungen in der Geovisualisierung, wobei die
Softwarefunktionalität die Möglichkeit bietet, beim Import die Maschenweite des DGMs (und somit auch
den Detailliertheitsgrad des Geländemodells) zu verändern. 3D Nature bezeichnet VNS in einem
Handbuch sogar als GIS, wobei aber nur wenige GIS-Funktionalitäten vorhanden sind (keine Analyse
etc.), sondern vielmehr GIS Daten optimal integriert (bzw. teilweise manipuliert) und schließlich auch
visualisiert werden können. VNS unterstützt den Import von dxf-Dateien bzw. Esri Shapes, wobei die
GIS Komponente in einer interaktiven Abfrage der Attribute (Search Query), die direkt auf die Attribute,
die beim Import von VNS übernommen werden können, liegt. Es kann also statisch und dynamisch auf
Attributdaten von Vektoren zugegriffen werden, auch ein automatisches Update geänderter Dateien ist
möglich.
Großflächige Daten (DGMs wie auch 2D Bilder) können in sinnvolle Teilstücke gekachelt werden, um
die Rechenzeit möglichst klein zu halten. Das Herzstück der Visualisierung sind die so genannten
Ecosystems, die auf verschiedenen Regeln basierend auf einer bestimmten Grundlage einzelne
Elemente einer Landschaft bilden. Als Grundlage können Vektoren oder Rasterbilder (Color Maps)
dienen, wie z.B. eine Landnutzungsklassifikation aus einem Satellitenbild, wobei jede ausgewiesene
Klasse ein Ecosystem darstellt. Werden „nur“ gewisse globale Regeln zur Platzierung eines
Ecosystems eingesetzt (Rules of Nature), d.h., diese Regeln gelten nicht nur für einen ausgewählten
Bereich (wie z.B. einer bestimmten Klasse einer Kartierung), werden die Ecosystems in einer
Environment verwaltet, die globale Gültigkeit besitzt (d.h. für den gesamten Bereich des DGMs). Neben
dieser 3. Möglichkeit, ein Ecosystem zu platzieren gibt es noch eine 4., nämlich über Terraffectors, das
sind Vektoren, die direkt in das DGM eingerechnet werden und es somit interaktiv verändern können.
40
Abb. 14: Ecosystem „Nadelwald“
Abb. 15: Detailansicht
Ein Ecosystem kann nun verschiedene Regeln, verschiedene Materials beinhalten die von
unterschiedlichen Objekten als Overstory besetzt werden können.
Rules of Nature (exemplarisch):
Max. Slope: 45°
Min. Slope: 0°
Materials:
Pine forest leaf litter
Spruce Bare Ground
Overstory:
Pine forest leaf litter
3 verschiedene Typen von
Nadelbäumen als 2D Grafiken
Abb. 14 und Abb. 15 zeigen die Funktionalität eines Ecosystems am Beispiel der Klasse „Nadelwald“.
Die ausgewiesene Klasse „Nadelwald“ wird vereinfacht durch folgende Parameter definiert: Jedem
Material kann nun eine Overstory (bzw. auch Understory) zugeteilt werden, die selbst wieder aus
verschiedenen Objekten (2D Billboards oder 3D Objekten) bestehen können. Der auf das DGM
drapierte Grund der Materials (Ground Overlay) kann ein diskreter Farbwert oder eine Textur sein, wie
in diesem Fall. Die räumliche Verteilung der beiden Materials erfolgt entweder über einen Prozentwert
(zw. 0 und 100, wobei 0 nur das 1. Material zur Gänze beinhalten würde bzw. 100 nur das 2.) oder über
eine Textur, wie in obigem Beispiel.
Texturen werden in einem Texture Editor generiert, einem hierarchisch aufgebautem, komplexen
Werkzeug, das innerhalb VNS an sehr vielen Stellen eingesetzt werden und unterschiedlichste
Komponenten und Effekte (z.B. Farbe, Transparenz, Glanz, Reflexion etc.) steuern kann.
Verschiedene Komponenten (wie z.B. Terrafectors, Cloud Models, DEMs, Ecosystems, Lakes, Lights,
Skies, Snow Effects oder auch Search Queries) werden einzeln verwaltet und sind somit übersichtlich
editierbar. Neben den bereits angesprochenen Vektordaten unterstützt VNS auch eine Vielzahl an
gängigen Rasterformaten, standardmäßig wird Amiga .iff verwendet.
Das fertige Produkt einer Landschaftsvisualisierung mit VNS kann dann entweder eine 3D-Ansicht eines
unbewegten Standbildes oder eine 3D-Animation (über eine Animation der Kamera entlang eines
Flugpfades) sein. Mit Version 2 (bzw. WCS 6) liefert 3D Nature „Scene Express“ mit, ein weiteres
41
Feature, das den bisher größten Kritikpunkt an VNS verstummen lassen soll, nämlich die fehlende
Interaktivität. Nun sollte es möglich sein, die erstellte 3D Landschaft zu exportieren, z.B. als VRML,
Nature View, 3D Studio oder Lightwave.
Es existiert eine Vielzahl an speziellen Softwareprogrammen zur 3D-Landschaftsvisualisierung, die
Palette der Software-Familien (Gruppen existierender Produkte mit weitgehend ähnlicher Funktionalität)
reicht von integrierten 3D-GIS Visualisierungssystemen, „Terrain Viewer“ über Systeme zur
geologischen Modellierung und CAD-Systemen bis zu fotorealistischen Landschafts-Renderer.
(FUHRMANN et al., 2001). Viele Software-Lösungen weisen aber gewisse Mängel auf, die in der
Landschaftsvisualisierung aber als essentiell betrachtet werden müssen. Nach JÜNEMANN et al. (2001)
genügen die Produkte oft den fachlichen Ansprüchen nicht, es können keine großen Datenmengen in
Echtzeit abgebildet werden, es gibt keine überzeugende Vegetationsrepräsentation, es sind keine
Schnittstellen zu GIS und Datenbanken implementiert, es gibt keine Weiterentwicklung oder wie so oft
sind zu hohe Investitionskosten erforderlich. 3D Nature stellt mit WCS bzw. insbesondere VNS in
gewisser Weise eine Ausnahme dar, auch wenn der Renderer meist sehr zeitintensiv ist und eine
geeignete Hardware-Umgebung eine beinahe essentielle Voraussetzung darstellt.
42
3.2 Datenaufbereitung
Daten, die für den Visualisierungsprozess verwendet werden, müssen natürlich in einem Schritt der
Vorverarbeitung aufbereitet werden, je nach Anwendung und erwünschtem Qualitätsgrad der
Ergebnisse.
Für eine detaillierte Darstellungen der Datenaufbereitung für die Visualisierung sei auf andere Arbeiten
verwiesen (STELZL, 2001; FELDES, 2003). Dieses Kapitel dient eher einer kurzen Zusammenfassung der
erforderlichen Daten und ihrer Aufbereitung.
Für den Einsatz von Fernerkundungsbilddaten ist es notwendig, diese in eine bestimmte
Referenzgeometrie zu entzerren. Dies wird üblicherweise durch ein parametrisches Abbildungsmodell
der Satellitenbildaufnahme bewerkstelligt. Das initiale Abbildungsmodell wird mit den mitgelieferten
Sensordaten erstellt und mit Hilfe von Passpunkten optimiert. Mit einem DGM wird die
Satellitenbildszene in die gewünschte Kartengeometrie entzerrt (vgl. RAGGAM et al., 1999, S.31).
Digitale Geländemodelle werden nicht nur für die Entzerrung von Fernerkundungsdaten benötigt,
sondern spielen auch in der 3D-Visualisierung eine zentrale Rolle. Sie sind das Kernstück jeden 3DModells, gleichgültig ob 3D-Ansichten, virtuelle Flüge, Panoramen oder gar zeitabhängigen Animationen
von Gebirgen berechnet werden. Gegebenenfalls müssen DGMs von einem Koordinatensystem in ein
anderes transformiert werden bzw. mehrere DGMs zusammengefügt oder auch in ihrer Auflösung
verändert werden.
Als weiterer Schritt der Datenaufbereitung erfolgt die Klassifikation der Fernerkundungsbilder bzw. eine
Verifizierung der Ergebnisse, um damit eine möglichst effektive und sinnvolle Visualisierung
durchführen zu können.
Neben Fernerkundungsbildern gibt es auch noch andere Rasterbilder, die es gilt, entsprechend
aufzubereiten, wie z.B. digitale Kartenwerke oder Fotos, die als Texturen oder 2D Billboard-Objekte
eingesetzt werden.
Schließlich sollte an dieser Stelle noch das Erfassen der Vektordaten erwähnt werden, die eine nicht
unwesentliche Rolle im Visualisierungsprozess spielen.
Im Nahbereich werden in erster Linie individuelle 3D-Modelle eingesetzt werden, die im Allgemeinen
erst in einer externen Software erstellt werden müssen, ein arbeits- und zeitintensiver Prozess.
Die Visualisierung steht somit am subjektiven Ende der digitalen Bildverarbeitung, da sie sich
vorprozessierter Daten bedient, die ihrerseits bereits fertige Produkte im Verarbeitungsprozess
darstellen. Genau da liegt aber auch die Herausforderung der Softwareentwickler bzw. der Nutzer,
diese Vielfalt an Daten zusammenzuführen und entsprechend darzustellen.
43
Abb. 16: Konzept einer Landschaftsvisualisierung mit VNS
44
3.3 Rasterbasierte Visualisierung
Grundlage jeder 3D-Visualisierung ist ein DGM, das zumeist als regelmäßiges Raster mit
Höheninformation vorliegt. Als rasterbasierte Visualisierung wird hier jene Vorgangsweise bezeichnet,
die rein auf Rasterdaten basiert, d.h. Fernerkundungsbilder aller Art als natürliche Texturen bzw.
thematische Information (z.B. als Klassifikationsergebnissen von Satellitenbildern) als Grundlage zur
Landschaftsvisualisierung.
Eine rasterbasierte Methodik stößt natürlich unweigerlich an gewisse Grenzen, insbesondere an jene
der geometrischen Auflösung der Daten. Weniger problematisch erscheint dies, wenn Rasterbilder als
thematische Grundinformation vorliegen, entweder als GIS Datensatz einer objektorientierten
Klassifikation oder in Rasterform. Schwieriger gestaltet sich das Problem bei den natürlichen Texturen,
die nur gewisse Betrachtungshöhen in ausreichender Qualität zulassen, sodass der 3-dimensionale
Eindruck des 2-dimensionalen Bildinhaltes erhalten bleibt.
Abb. 17: Image Drape mit Satellitenbild (Auflösung 10 m).
Kameradistanz im Vordergrundbereich ca. 5 km, Hintergrund ca. 25 km. Kamerahöhe ca. 3200 m.
Die einfachste Form stellt ein Image Drape (vgl. Abb. 17) dar, das sich sehr gut für einen kleinen
Maßstab als Überblick einer Landschaft eignet und einen, für das menschliche Auge gewohnten
Raumeindruck erzeugt.
45
3.4 Vektorbasierte Visualisierung
Moderne Software wie VNS arbeitet nicht nur rasterbasiert, sondern unterstützt auch Vektordaten
unterschiedlicher Formate. Vektoren bringen eine Reihe von Vorteilen mit sich, die in der Visualisierung
mit VNS eingesetzt werden können. Besonders lineare Strukturen, die auch in der Natur als solche
wahrgenommen werden, wie Strassen oder Flüsse, lassen sich sehr gut mit Vektoren
veranschaulichen. In der VNS Terminologie sind sie für derartige Anwendungen sogar essenziell, da
viele Komponenten nur vektorbasiert sinnvoll verwendet werden können. Punkte, beispielsweise,
können Stützpunkte eines DGMs sein oder die Lage von 3D Objekten repräsentieren. Linien werden
speziell für Strassen und Flüsse eingesetzt und können so direkt ins DGM eingerechnet werden um
entsprechende Profile bzw. Laufflächen zu generieren. Schließlich können mittels Polygonen Hebungen
und Senkungen auf Basis eines DGM simuliert und somit auch anthropogene Geländeformen einfach
visualisiert werden.
Abb. 18: Vektorbasierte Visualisierung
Landnutzungsinformation kann ebenso bereits in Vektorform bereitgestellt sein (z.B. DKM, CLC2000)
und großflächig zur Visualisierung eingesetzt werden.
Auch wenn die Bodeninformation flächendeckend in Vektorform vorliegt, muss das nicht bedeuten, dass
eine rein vektorbasierte Visualisierung das Allheilmittel ist. Die Verwaltung der Vektoren in VNS
erfordert einige Überlegungen im Vorhinein bzw. erweist sich bei steigender Datenmenge als schwer
46
überschaubar. Mit steigender Datenmenge steigt auch die Rechenzeit und die Ergebnisse erscheinen
teilweise nur unerheblich besser, als bei der Verwendung von Rasterbildern als Grundlage.
Wie bei vielen anderen Anwendungen erscheint auch hier die Kombination der Daten, also eine hybride
Visualisierung, als ideale Lösung. In der Praxis richtet sich die Arbeitsweise nach der Verfügbarkeit der
Daten, die natürlich nur im Ausnahmefall mit der Wunschliste des Bearbeiters übereinstimmen. Man
kann also davon ausgehen, dass im erforderlichen Zeitraum nur bestimmte Daten zur Verfügung stehen
und alles weitere in erster Linie nach Kosten und Zeit bewertet wird.
3.5 „Automatisierte“ Visualisierung
Ziel vieler individueller Arbeitschritte ist es, diese möglichst automatisiert ablaufen zu lassen. Die
Visualisierung stellt hier keine Ausnahme dar, wobei sich der Aspekt der Geovisualisierung anbietet, um
Daten ähnlicher Struktur (im Idealfall standardisierte Daten) auf ähnliche Art darzustellen.
In der Praxis kann der Automatisierungsgrad im Normalfall nicht vollständig ausgeschöpft werden.
Einerseits gibt es keine Software, die über alle notwendigen Schritte verfügt, die im Vorfeld gemacht
werden müssen, um die Daten schließlich in gewünschter Weise zu verarbeiten. Dazu gibt es zu viele
Schnittstellen, die im Verarbeitungsablauf überwunden werden müssen bzw. eine sich konkurrierende
Industrie, die gerade davon lebt, sich von anderen zu unterscheiden. Auch wenn gewisse Standards
und Normen erreicht worden sind, wird noch genug Freiraum bleiben, der auch für zukünftige
Kompatibilitätsfragen sorgen wird.
Allein für diese Arbeit, nur den Teil der praktischen Umsetzung der Visualisierung betreffend, wurden
folgende Softwarepakete verwendet: VNS 2, ArcGIS, ArcInfo, Erdas Imagine, Photoshop und Adobe
Premiere. Daten, die für eine Visualisierung eingesetzt werden, kommen aus verschiedenen anderen
Arbeitsprozessen und sind im Regelfall für eine direkte Verwendung nicht gerade maßgeschneidert.
Die andere Seite betrifft die menschlichen Ressourcen, die in vielen Fällen zumeist stark eingeschränkt
sind. Damit ist weniger die fachliche Kompetenz gemeint, sondern die beschränkte Zahl von
Bearbeitern, die natürlich Nachteile mit sich bringt. Geovisualisierung beruht meist auf Einzelplatz GISund Visualisierungssoftwarekonzepten, so dass potentielle methodische bzw. technische Möglichkeiten
moderner Geovisualisierung nicht voll ausgeschöpft werden (MACEACHREN, BREWER, 2001)
Somit kann eine primäre Automatisierung nur bis zu einem gewissen Grad erreicht werden und wird
daher in der Kapitelüberschrift unter Anführungszeichen gesetzt. Ziel dieser Arbeit ist es aber auch,
einmal generierte Elemente (Ecosystems) auf homogene Klassen aus verschiedenen Klassifikationen
zu übertragen und somit in jedem weiteren Schritt einen erheblich größeren Grad der Automatisierung
zu erreichen.
47
3.6 Arbeitsumgebung
VNS ist für verschiedene System-Plattformen konzipiert. Tab. 9 zeigt die von 3D Nature empfohlenen
Systemvoraussetzungen bzw. die für diese Arbeit verwendete Hardware.
Mindestanforderungen
VNS 2
System
Prozessor
IBM-PC oder
kompatibel,
Windows 95,
Mac OS 8
Intel Pentium,
AMD Athlon,
PowerMac
Empfohlene
Spezifikation
-
Verwendete
Konfiguration
Windows 2000
Prozessor mit
1 GHz
Taktrate (oder
mehr)
AMD Athlon
XP,
2.2 GHz
RAM
Display /
Graphikkarte
Speicherplatz
256 MB
1024x768 Pixel
Auflösung,
16-24 Bit Farbtiefe
(true color)
5 MB auf jeder
Partition bzw.
zusätzlich jeweils 1
GB zur
Datenspeicherung
512 MB
bis 1 GB
(oder
mehr)
Beschleunigte
Open GL Video
Card
Einige GB an freiem
Speicherplatz
1.5 GB
Nvidia Quadro4
550 XGL, 64 MB
> mehrere GB
Tab. 9: Systemvorsaussetzung und verwendete Arbeitsumgebung
Es wurde schon davon gesprochen, dass innerhalb dieser Arbeit auf externe Software zurückgegriffen
werden musste, um den eigentlichen Prozess der Visualisierung zu komplettieren. Eine Auflistung der
dazu verwendeten Software gibt Tab. 10.
Software:
Arbeitsbereich
Verwendete Software
Betriebssystem
Windows 2000 (PC)
Bearbeiten von Fernerkundungsdaten, DGM
Modifikation
Erdas Imagine 8.6
Editieren von GIS Daten, DGM Modifikation
Arc GIS 9.0, Arc Info 9.0
Bereitstellung von Texturen, Pre- und
Postprocessing von 2D Rasterdaten
Photoshop CS
3D Visualisierung, virtuelle Flüge, Realtime
Export
VNS 2.55
Postprocessing, Generieren von Animationen
Adobe Premiere 6.0
VRML Viewer
Cortona 4.2
Nature View 1.60
Tab. 10: Zusammenfassung der verwendeten Software
48
4 Visualisierungsergebnisse der einzelnen Testgebiete
4.1 Dachstein-Tauern Region
Abb. 19: Gebietsabgrenzung Region Dachstein-Tauern
(Quelle: GIS Steiermark, verändert)
Das Testgebiet umfasst 2 Blätter der ÖK 1:50.000, nämlich Schladming (Blattnr.127) und Gröbming
(Blattnr. 128). Die genaue Abgrenzung in Bundesmeldenetz-Koordinaten, M31, kann folgender Tabelle
entnommen werden:
x
y
LL
468.500
234.000
UR
507.000
263.000
Tab. 11: Abgrenzung des Testgebietes Dachstein Tauern Region in BMN Koordinaten
Ausgangspunkt für die Visualisierung ist ein Klassifikationsergebnis von Satellitenbildern (Landsat-TM,
Spot) innerhalb des internationalen Projekts „ALPMON“ (Alpine Monitoring System) aus dem Jahr 2000.
Im Zuge der digitalen Bildverarbeitung erfolgten eine Geokodierung, eine radiometrische Korrektur,
topographische Normalisierung bzw. atmosphärische Korrekturen. Weiters wurde eine Bildfusion der
multispektralen Landsat-Daten mit den höher auflösenden panchromatischen Spot-Daten durchgeführt,
wobei das Endergebnis eine Auflösung von 10 m darstellt.
Die anschließende Klassifikation bediente sich aufgrund heterogener Charakteristika der
unterschiedlichen Testgebiete verschiedener Verfahren, in diesem Fall wurde eine überwachte
Klassifikation mittels Maximum-Likelihood-Verfahren angewandt. In manchen Testgebieten kamen
Hilfsmittel zum Einsatz, wie z.B. ein DGM oder verschiedene GIS Layer, einerseits, weil die
geometrische Auflösung der Satellitendaten für bestimmte Klassen ungenügend war, andererseits, um
den Klassifikationsprozess regelbasiert zu gestalten. Wasserkörper und Flüsse gestalteten sich als
problematisch. Erstere wurden aus der digitalen topographischen Karte extrahiert, Zweitere konnten
49
nicht klassifiziert werden aufgrund des hohen Anteils an Mischpixel in Zusammenhang mit der
Ufervegetation.
Aus der Klassifizierung der fusionierten Satellitendaten entstand ein Grauwertbild (16 bit) mit insgesamt
17 Klassen. Für die Visualisierung wurden 10, teilweise aggregierte, Klassen herangezogen, wie in
folgender Tabelle aufgelistet:
ALPMON classes
Sealed surfaces
Broad-leaved forest (aggregated)
Coniferous forest (aggregated)
Mixed forest (aggregated)
Grassland
Shrubs (juniperus, rhododendron)
rock/gravel/soil
Snow/ice
Wet land
Water
CORINE classes
1.1 Urban fabric
3.1.1 Broad-leaved forest
3.1.2 Coniferous forest
3.1.3 Mixed forest
2.3.1 Pastures
3.2.1 Natural grassland
3.2.4 Transitional woodland shrub
3.3.2 Bare rock
3.3.3 Sparsely vegetated areas
3.3.5 Glaciers and perpetual snow
4.1.1 Inland marshes
5.1 Inland waters
Tab. 12: Aggregierte Klassen und ihre Vergleichbarkeit mit CORINE-Klassen
CLC_ALPMON classes
112 Nicht durchgängig städtische Prägung
131 Abbauflächen
231 Wiesen und Weiden
243 Überw. Landw. Genutztes Land
311 Laubwälder
312 Nadelwälder
313 Mischwälder
321 Natürliche Grünflächen
322 Heiden und Moorheiden
324 Wald-Strauch-Übergangsstadien
332 Felsflächen ohne Vegetation
333 Flächen mit spärlicher Vegetation
335 Gletscher und Dauerschneegebiete
Tab. 13: CLC Klassen, wie sie tatsächlich im Testgebiet vorkommen
50
4.1.1 Visualisierung
4.1.1.1
Konzeption & Work Flow
Kap. 4.1 zeigt die grundlegende Methodik bzw. die praktische Umsetzung der Visualisierung mittels
VNS basierend auf Fernerkundungsdaten bzw. GIS-Daten. Bestimmte Softwarefunktionalitäten
erfordern bestimmte Datenformate. Allein diese Tatsache legt nahe, dass sowohl Fernerkundungsdaten
als auch GIS-Daten in gleicher Weise zur 3D-Visualisierung herangezogen werden sollten.
Kap. 4.2 baut auf den Ergebnissen von Kap. 4.1 auf und analysiert nun speziell die Möglichkeiten, die in
den amtlichen GIS-Daten liegen. Ausgangspunkt der Überlegung war der Einsatz von amtlichen GISDaten hinsichtlich automatisierter 3D-Landschaftsvisualisierung. In der Praxis stellte sich heraus, dass
vielmehr ein Bottom-Up als ein Top-Down Prinzip ans Ziel führt, d.h. man geht von der
flächendeckenden Information der Fernerkundungsdaten aus und überlagert diese mit den GIS-Daten
(vgl.Abb. 57).
4.1.1.2
Grundlagen
DGM
Für das gesamte Testgebiet wurde ein DGM mit einer Auflösung von 20 m verwendet. Detailansichten
bzw. gewisse vektorbasierte Elemente wie Terrafectors verlangen eine feinere Auflösung. In diesen
Bereichen wurden die jeweiligen DGM Kacheln entweder im VNS verdichtet oder kleinere Ausschnitte
des gesamten DGM mit höherer Auflösung als Teil des Importvorganges neu resampelt.
Color Map
Für die rasterbasierte Visualisierung kam die Klassifizierung der Satellitenszene zum Einsatz. Für den
Einsatz im VNS wurde ein 8bit Graustufenbild mit 18 Klassen generiert, die für die Visualisierung zu den
10 Klassen, wie in Tab. 12 angeführt, zusammengefasst wurden.
Für perspektivische 3D Darstellungen im kleinen Maßstab wurde ein Satellitenbild aus einer
Kombination aus Landsat TM und Spot mit 10 m Auflösung verwendet.
4.1.1.3
Aufbau & Konzept der Ecosystems
Für jede ausgewiesene Klasse wurde ein entsprechendes Ecosystem generiert, das die
Landschaftselemente im Testgebiet möglichst gut widerspiegeln sollte. Ziel dieser Arbeit war es aber,
nicht nur auf die lokalen Gegebenheiten einzugehen sondern vielmehr Ecosystems zu schaffen, die in
Zukunft rasch auf andere, ähnlich strukturierte Landschaftsausschnitte (speziell in Österreich)
anwendbar sind.
51
VNS verfügt über eine Palette an vorgefertigten Ecosystems und Texturen, die aber insbesondere auf
den Nordamerikanischen Kontinent zugeschnitten sind. Teilweise konnten einzelne Objekte verwendet
werden, modifiziert oder unmodifiziert, teilweise wurden eigene Objekte erstellt, speziell 2D Texturen
zur Vegetationsdarstellung.
Im Folgenden soll das Konzept eines Ecosystems anhand der zusätzlich generierten Klasse
„Unclassified“ exemplarisch genauer betrachtet werden:
„Unclassified“ beinhaltet alle jene Gebiete, die innerhalb der automatischen Klassifizierung keiner
Klasse zugeordnet werden konnten. Als Grund dafür kann in erster Linie Bewölkung bzw.
Schlagschatten durch Wolken oder hohe Reliefenergien genannt werden. Um diese Lücken zu füllen
wurde ein eigenes Ecosystem geschaffen, das in Höhenabhängigkeit die potentielle Landschaft
simuliert.
Ein Ecosystem ist ein zentrales Element innerhalb der Komponenten von VNS, das einen bestimmten
Typ von Bodenbedeckung (wie z.B. einer ausgewiesenen Klasse einer Landnutzungsklassifizierung)
repräsentiert. Dabei kann stockwerksartig ein Landschaftselement generiert werden, ausgehend von
einer untersten Schicht der Bodenbedeckung (Ground Overlay) und mehreren darauf aufgesetzten
Objekten (Understory, Overstory). Dies können verschiedene 2D Images oder 3D Objekte sein.
Abb. 20: Ecosystem Editor, VNS 2
Ecosystems können auf verschiedene Weise auf dem DGM platziert werden:
• Mittels einer Environment und Rules of Nature
• Auf Basis einer Color Map
• Gebunden an Vektoren
• Entlang eines Profil eines Terrafectors
52
Eine Environment ist die einfachste Art, Ecosystems zu platzieren. Alle ausgewählten Ecosystems
werden über das gesamte DGM verteilt (sofern die Environment nicht an einen Vektor gebunden ist),
nach den Regeln der Rules of Nature.
Gibt es eine vordefinierte Verteilung von verschiedenen Ecosystems, wie z.B. eine
Landnutzungsklassifizierung, kann diese sinnvoller Weise als Color Map verwendet werden. Der
Farbwert (bzw. eine Wertespanne) der einzelnen Pixel dient als Bezug zur Platzierung der Ecosystems.
Als dritte Möglichkeit kann ein Ecosystem an einen oder mehrere Vektoren geknüpft sein, als Hard Link
oder als Ergebnis einer gefilterten Suchoperation (Search Query). Überlappen sich die verschiedenen
Techniken innerhalb eines Projektes werden die Ecosystems in einer vordefinierten Hierarchie
gerendert. Vektorgebundene Ecosystems haben Vorrang gegenüber Color Maps, die Environment
bildet die unterste Stufe.
Die Rules of Nature ermöglichen eine natürliche Verteilung von Objekten und Texturen auf dem
Gelände. Basierend auf den Faktoren der Höhe, relativen Höhe (konkave und konvexe
Geländecharakteristika) und Hangneigung kann das Auftreten von Ecosystems sinnvoll eingeschränkt
werden.
Abb. 21: Ecosystems – Rules of Nature
Auf Ecosystems, die von einer Environment gesteuert werden, können sämtlich Rules angewandt
werden. Vektorgebundene Ecosystems und jene als Teil einer Color Map reagieren nur auf die Lateral
Limits.
Ecosystems werden von verschiedenen Materials aufgebaut, zumindest 1 Material muss pro Ecosystem
existieren. Der Material Gradient Driver regelt die Verteilung der einzelnen Materials, bestimmt also, wo
welches Material auf dem DGM erscheinen wird.
Die Verteilung erfolgt entweder diskret zwischen 2 Werten, zweier Prozentangaben (z.B. 0% und 100%)
oder textur-bedingt. In diesem Fall wurde eine Textur gewählt, die den dynamischen Parameter der
53
Höhe widerspiegelt, wobei der untere Wert auf 600 m, der obere auf 3000 m gesetzt wurde. Diese
Spannweite umfasst die gesamte Bandbreite der im DGM existenten Höhenwerte.
Abb. 22: Ecosystem – Material Gradient.
Von unten nach oben werden die 4 Materials „Wiese“, „Laubwald“, „Nadelwald“ und „Fels“ platziert mit fließendem
Verlauf (Full blend). Sämtliche Charakteristika der einzelnen Materials entsprechen denjenigen des jeweiligen
eigenständigen Ecosystems.
Den einzelnen Materials kann in Folge eine unterste Schicht der Bodenbedeckung (Ground Overlay) mit
verschiedenen Parametern bzw. eine Under- und Overstory zugeteilt werden.
Abb. 23: Ecosystems – Material & Foliage
Das Ground Overlay der einzelnen Materials besteht in diesem Fall aus einer zumeist einfachen Textur,
teilweise in Kombination mit detaillierten 2D Bildern, teilweise aus rein mathematisch definierten
Mustern als künstliche Textur.
Texturen werden üblicherweise im eigenen Texture Editor generiert, einem komplexen Werkzeug,
dessen Komponenten teilweise selbst wiederum von Texturen gesteuert werden können. (Überhaupt
54
können Texturen auf sehr vielseitige Weise im VNS eingesetzt werden. Wo immer das Symbol
bbbberscheint, kann die entsprechende Funktion durch eine Textur gesteuert werden.) Generell
bedeutet der Einsatz bzw. eine höhere Komplexität von Texturen auch höhere Renderzeit. Es wurde
daher versucht möglichst effizient mit Texturen zu arbeiten.
Im selben Fenster wird dem Material eine Over- und Understory zugeteilt. Als Overstory dienen
typischerweise 2D Images von Pflanzen und Bäumen oder echte 3D Objekte. Die Understory kann z.B.
den Unterwuchs bilden und verstärkt die räumliche Komponente eines Ecosystems. Gerade in dicht
bewachsenen Waldgebieten kommen die Komponenten der Understory und des Ground Overlays aber
erst im Bereich großer Maßstäbe bzw. aus entsprechender Perspektive zur Geltung, d.h. ausgehend
von der Zielssetzung kann mit diesen Elementen sehr sparsam umgegangen werden.
Abb. 24: Darstellung der Klasse „Unclassified“.
Nadelwald dominierend im unteren bis mittleren Hangbereich, nach oben hin auflösend mit alpiner Grasmatte
bzw. kahlem Fels. Kameradistanz im Vordergrundbereich ca. 1800 m.
Abb. 25: Ecotype Editor der Overstory für das Material „Laubwald“
55
Mit dem Ecotype Editor werden Over- und Understory editiert. Als Ecotypes werden die tatsächlichen
2D oder 3D Objekte bezeichnet, die einem Ecosystem zugeordnet werden. Ein Ecotype kann aus
einem einzelnen Objekt bestehen oder aus ganzen Gruppen (Groups), die wiederum verschiedene
Objekte enthalten können. Im Ecotype Editor können Parameter wie Dichte oder minimale und
maximale Höhe des Ecotypes gesetzt werden, Ecotype oder Gruppen-abhängig, mittels Texturen oder
anderen Parametern.
Jedes vorhandene Objekt innerhalb einer Gruppe kann auch selbst noch u.a. in Höhe und Dichte
modifiziert werden.
Weiters kann jedem Ecotype eine Dissolve Color zugeteilt werden, in diesem Fall nach gewünschter
Objekthöhe in Pixel, um die Renderzeit zu minimieren. Im obigen Beispiel werden alle Images für die
Overstory des Materials „Laubwald“ kleiner einer gerenderten Größe von 2 Pixel nicht mehr als 2D
Image dargestellt. Anstelle der 2D Grafiken tritt die Dissolve Color, die in diesem Fall aus einer
einfachen Textur besteht und für das Auge in diesem Größenbereich nicht mehr von einem Image
unterscheidbar ist.
Basiert die Platzierung von Ecosystems auf einer Color Map kann entweder ein diskreter Farbwert oder
ein Wertespanne dafür herangezogen werden.
Abb. 26: Ecosystem – Color Map
Ecosystems können auch einzeln oder als gesamte Environment in der VNS Component Gallery
abgelegt und so für weitere Projekte wieder verwendet werden.
Anhand der gezeigten Optionen und natürlicher Gesichtspunkte wurde jede Klasse mittels zumindest
eines Ecosystems modelliert. Basierend auf den 10 Klassen (plus der 11. Klasse „Unclassified“) konnte
das gesamte Arbeitsgebiet flächendeckend visualisiert werden.
56
Ein wichtiger Grundgedanke dabei war, dass mit dieser Grundlage großflächige Gebiete, die einer
ähnlichen oder im Idealfall sogar identen Klassifizierung unterliegen, sehr rasch und auf einfache Weise
visualisiert werden können, raster- oder vektorbasiert.
Ergebnisse, Probleme und weiterführende Gedanken aus der rasterbasierten Visualisierung sollen im
Folgenden ausführlicher behandelt werden:
4.1.1.4
Rasterbasierte Visualisierung
Ausgangsprodukt für die rasterbasierte Visualisierung war wie schon erwähnt die thematische
Information einer Satellitenbild-Klassifikation mit einer geometrischen Auflösung von 10 m. Bei einer
Visualisierung, die ausschließlich auf dieses Bild als Color Map zurückgreift, bedeutet das auch, dass
diese Grenze der Auflösung sich unweigerlich im Landschaftsbild widerspiegeln wird.
Je nach Maßstab, Kameradistanz und Blickwinkel ist der Effekt der Pixelgröße sichtbar. Dennoch hat
diese einfache Art der Landschaftsvisualisierung deutliche Vorteile. Im kleinen Maßstabsbereich reicht
es vielleicht noch aus, eine natürliche, aber eben 2-dimensionale Textur über das DGM zu legen. Durch
die relativ geringe Auflösung von 10 m aber wird hier recht rasch eine Grenze erreicht, die nun mittels
künstlicher Texturen bzw. 3D Objekten überwunden werden kann. Nicht nur im Vordergrundbereich,
sondern besonders am Horizont bzw. entlang markanter Geländelinien wird mittels künstlicher Texturen
der dreidimensionale Raumeindruck verstärkt bzw. wieder hergestellt.
Ein anderes Grundmerkmal der Visualisierung wird ebenso deutlich, wenn man die Ecosystems mit der
Rasterdarstellung der Klassifikation vergleicht, nämlich das intuitive Verständnis des Sachverhaltes.
Egal, ob die Klassifikation nun ein Graustufen- oder Farbbild ist – niemand außer den verantwortlichen
Sachbearbeitern selbst könnte ohne weitere Angaben (wie z.B. einer Legende) wohl sagen, worum es
sich hierbei eigentlich handelt.
Die Visualisierung der entsprechenden Landschaft jedoch ermöglicht es jedem Betrachter sofort einen
Bezug zu dem Gezeigten herzustellen, auch wenn der Detaillierungsgrad nicht der Wirklichkeit
entspricht. Intuitiv können verschiedene Klassen erkannt und vielleicht sogar richtig zugeordnet werden.
Bis zu diesem Zeitpunkt hätte es sich genauso gut um mikrogenetische Zellstrukturen oder einen
Designvorschlag für ein neues Brettspiel handeln können. Durch die entsprechende Visualisierung aber
bekommen die einzelnen Werte eine konkrete Bedeutung.
57
Abb. 27:
Landnutzungsklassifikation als
Image Drape.
Unterschiedliche Grauwerte
lassen verschiedene Inhalte
erahnen. Ohne weitere
Anhaltspunkte aber kann keine
konkrete Aussage über den
Bildinhalt getroffen werden.
Abb. 28: Satellitenbild als
natürliche Textur.
Im Vordergrundbereich beginnt
das Bild schon deutlich zu
„pixeln“, der dreidimensionale
Effekt geht verloren.
Abb. 29: Visualisierung mittels
künstlicher Texturen.
Vegetation, die scheinbar auf
dem DGM wächst, und 3D
Gebäude verleihen der
Landschaft ein 3-dimensionales
Aussehen. Die limitierende
Rastergröße spielt noch keine
große Rolle.
58
Diskussion der Ergebnisse
Anhand obiger Beispiele wird bei genauerer Betrachtung deutlich, dass eine Landschaftsvisualisierung
nur so gut sein kann, wie die Daten, auf denen sie beruht.
Trotz verschiedener Techniken wird die Bildauflösung bzw. der Bildinhalt vom bereits verwöhnten Auge,
gängige 3D Technologien betreffend, bemängelt werden. Lautet die Zielsetzung, einen möglichst
naturgetreuen virtuellen Blick auf die Landschaft zu ermöglichen, dann wird sie in diesem Fall wohl
kaum erreicht werden können. Lautet sie aber, einen bisher abstrakten Bildinhalt leicht verständlich
darzustellen, dann wurde dieses Ziel mit relativ geringem Aufwand mit Sicherheit erreicht.
Man sieht also, dass die Wahl der Datengrundlage eine entscheidende im Visualisierungsprozess ist,
was wiederum zum Anfang dieses Absatzes zurückführt.
Stellt man nun die Frage, „Kann man eine derartige Datenbasis zur Landschaftsvisualisierung
heranziehen?“, reicht ein einfaches „Ja“ sicherlich nicht als Antwort.
Neben der Datengrundlage und der Zielsetzung tritt vor allem die Frage des Maßstabes immer wieder in
den Vordergrund. Innerhalb der Geovisualisierung spricht man generell von kleinen, mittleren und
großen Maßstäben. (Eine genauere Betrachtung des Faktors Maßstab wird noch in Kap. 5.3 erfolgen.)
Die jeweiligen Bezeichnungen decken jeweils auf eine gewisse Spannweite von Bildmaßstäben mit
verlaufenden Grenzen ab, wobei es kein allgemeines Regelwerk gibt, sondern vielmehr wiederum die
Datengrundlage eine Rolle spielt. Satellitenbilder als Texturen werden je nach geometrischer Auflösung
vor allem in kleinen und mittleren Maßstäben Anwendung finden. Gerade bei perspektiven Ansichten ist
die Frage des Maßstabes ohnehin nicht leicht zu beantworten. Diesbezügliche Angaben müssen auf
einen bestimmten Bildbereich, z.B. den Bildvordergrund, bezogen werden. Wichtiger oder
aussagekräftiger erscheint in diesem Zusammenhang die Angabe von Kameraparametern,
insbesondere Kamerahöhe über Grund oder Distanzangaben.
Abb. 30: Natürliche Textur im
kleinen Maßstab
Kameraposition:
Höhe über Grund: 1820 m
Distanz Vordergrund: 3950 m
59
Abb. 31: Künstliche Textur,
kleiner Maßstab
Abb. 30 und Abb. 31 zeigen einen Vergleich von natürlicher und künstlicher Textur eines
Landschaftsausschnittes im Bereich eines kleinen Maßstabes.
Raumeindruck ist subjektiv und wird von jedem Menschen anders empfunden. Man könnte vermutlich
lange darüber diskutieren, ob die Darstellung mittels künstlicher Texturen hier einen Mehrwert darstellt,
oder an sich in diesem Maßstabsbereich ein qualitativ ausreichendes Fernerkundungsbild die bessere
Lösung ist. Verglichen mit dem „Soll-Zustand“ des Satellitenbildes liefert das einfache Modell aber eine
sehr anschauliche Nuance der Realwelt.
Anders verhält es sich mit Darstellungen im mittleren Maßstab. Mit abnehmender Kameradistanz oder
auch abnehmender Kamerahöhe über dem Grund erreicht das Fernerkundungsbild die natürliche
Grenze der 2-Dimensionalität bzw. der geometrischen Auflösung.
Künstliche Texturen können vor allem den Effekt der 3. Dimension ausnutzen und den Raumeindruck
verstärken. Die Grenze der geometrischen Auflösung der Datengrundlage kann zwar in einer rein
pixelbasierten Visualisierung in VNS mit verschiedenen Techniken verwischt werden, dennoch bleibt
diese limitierende Größe natürlich auch in den künstlich generierten Ecosystems erhalten.
Abb. 32: Natürliche Textur,
mittlerer Maßstab
Kameraposition:
Höhe über Grund: 310 m
Distanz Vordergrund: 370 m
60
Abb. 33: Künstliche Textur,
mittlerer Maßstab
Besonders an Klassengrenzen oder anhand von Streupixel fällt unweigerlich die orthogonale
Ausrichtung der Grenzlinien auf. Die einzige Alternative liegt in einer dementsprechenden Wahl der
Kameraposition und des Blickwinkels bei statischen 2D Bildern bzw. eines geeigneten Flugpfades bei
Animationen.
Abb. 32 und Abb. 33 verdeutlichen besonders die Grenzen der natürlichen Textur. Speziell im
Vordergrundbereich bzw. in der gesamten unteren Bildhälfte pixelt das Bild bereits stark. Im gesamten
Talbereich wird auch deutlich, dass es sich um ein 2-dimensionales Bild handelt.
Die künstliche Textur hält einer genaueren Betrachtung noch problemlos stand. Bei einer
Kameraposition wie dieser stellen auch Klassengrenzen kein Problem dar. Augenfällig werden sie aber
je orthogonaler der Blickwinkel auf das Gelände gerichtet wird. Die Datengrundlage der Klassifikation
hat gegenüber dem Fernerkundungsbild einen entscheidenden Nachteil für die Ecosystems, nämlich
die Grenzen zwischen den Klassen verlaufen hart und diskret. Die Pixelwerte des
Fernerkundungsbildes zeigen selbst in dieser Auflösung üblicherweise Mischfarben die den Grenzen
einen sanfteren Verlauf geben.
Die Ansicht in Abb. 33 scheint gegenüber Abb. 32 eigentlich sogar noch sehr weitläufig und distanziert,
die horizontale Entfernung zu der etwas dichteren Besiedelung etwas links der Bildmitte beträgt noch
ca. 2,5 km.
Abb. 34: Künstliche Textur, großer
Maßstab
Kameraposition:
Höhe über Grund: ca. 1 m
Distanz Vordergrund: 1,5 m
61
Abb. 34 wurde mit denselben Einstellungen und denselben Ecosystems gerendert, wie die Abbildungen
zuvor. Man kann also mit einer universalen Grundlage durch alle Maßstabsbereiche vernünftige
Ergebnisse erzielen. Bisher wurde auf andere Komponenten von VNS (z.B. Shadows oder Cloud
Models), die für eine fotorealistische Darstellung konzipiert sind, verzichtet, nicht nur, um die Renderzeit
zu verkürzen, sondern auch, um auf möglichst einfache Weise ein qualitativ ansprechendes Ergebnis
erzielen zu können. Klarerweise wird aber aus dieser menschlichen Perspektive die Frage des
Blickwinkels und der Kameraposition eine essentielle.
Abb. 35: Künstliche Textur,
großer Maßstab
Kameraposition:
Höhe über Grund: ca. 2 m
Distanz Vordergrund: 25 m
In Abb. 35 war die 20 m Auflösung des DGM nicht mehr ausreichend, um ein ansehnliches Bild zu
erzeugen. Die Dreiecksvermaschung wurde maximal verdichtet, der Blickwinkel zeigt erstmals echte
Einblicke in das Konzept der Under- und Overstory im bewaldeten Gebiet.
Im gesamten Arbeitsprozess zeigten sich besonders 2 Problembereiche der Geovisualisierung, nämlich
eine entsprechende Darstellung der Vegetation bzw. eine repräsentative Auswahl an 3D Objekten.
Die Darstellung der Vegetation wird in VNS zumeist mittels möglichst hochqualitativen 2D Images in der
altbewährten Billboard-Technik umgesetzt. Gerade für den Ostalpinen Raum aber gibt es in der VNS
Component Gallery wenig artentypische Bilder. Für diese Arbeit wurden einige typische Baumarten
generiert bzw. bestehende Bilder modifiziert. Um also die natürliche Vegetation bzw. das
morphologische Erscheinungsbild von Pflanzen gut abzudecken, wären idealer Weise mehrere Bilder
derselben Art in unterschiedlichen Wachstumsstadien (bzw. bei Bedarf auch in verschiedenen
Jahreszeiten) notwendig. Das Erstellen einer dementsprechenden Datengrundlage ist aber ein relativ
zeit- und arbeitsintensives Unternehmen.
Vegetation könnte auch mittels unterschiedlicher 3D Objekte visualisiert werden. Hierbei gilt selbiges,
wie schon zuvor erwähnt, und weiters noch der nicht unwesentliche Faktor der stark ansteigenden
Renderzeit bzw. Bedarf an Arbeitsspeicher, die eine solche Vorgangsweise sicher nur im Bereich
62
großer Maßstäbe mit Einzelobjekten zulassen. Auch die besten 2D Bilder von Bäumen und Sträucher
werden im Nahbereich irgendwann auch als solche enttarnt werden.
Auf den Ankauf von Drittprodukten bzw. vorgefertigten Objekten wurde in dieser Arbeit bewusst
verzichtet.
Was für die Vegetationsdarstellung (Im Sinne einer Billboard-Technik) gilt, gilt für 3D Objekte in noch
stärkerer Weise. Die vorhandenen Objekte sind zumeist sehr einfach aufgebaut und texturiert.
Es ist daher illusorisch und auch nicht Sinn der Software ein annähernd reelles Stadtmodell zu
erzeugen. Innerhalb dieser Arbeit wurden nur wenige einfache Modelle verwendet, die aber natürlich in
keinster Weise die lokalen Bauformen widerspiegeln.
Die rasterbasierte Visualisierung stößt unweigerlich auf zusätzliche Probleme, bebaute Strukturen zu
visualisieren, nämlich jene der Platzierung bzw. Ausrichtung der Objekte.
Innerhalb eines Ecosystems bilden 3D Objekte die Overstory. Dabei kann keinerlei Einfluss genommen
werden, auf welches der DGM-Dreiecke ein Objekt gesetzt wird. Weiters kann man den zuständigen
Algorithmus auch nicht davon abhalten, mehrere 3D Objekte auf dasselbe Dreieck oder benachbarte
Dreiecke zu setzen, und somit ineinander zu verschachteln. Die Ausrichtung erfolgt nach verschiedenen
Faktoren, in diesem Fall aber immer zufallsbestimmt. Ohne jegliche Ausrichtung sind alle Objekte in
eine definierbare Richtung orientiert.
Abb. 36: 3D Objekte zur
Darstellung bebauter Flächen
Schematische Darstellung mit 2
Gebäudetypen. Willkürliche
Platzierung auf dem DGM
erzeugt verschachtelte
Strukturen. Typ 1 (dunkelrotes
Dach) ist nach Zufallsvariablen
ausgerichtet, Typ 2 konstant
Richtung Norden.
Selbst wenn eine ausreichende Sammlung an 3D Objekten vorhanden wäre, könnten mit dieser rein
rasterbasierten Methodik bebaute Flächen immer nur schematisch und abstrahiert dargestellt werden.
Neben den Aspekten der Vegetation und 3D Objekten verdeutlicht dieses Beispiel besonders einen
schon angesprochenen Punkt, nämlich dass eine Visualisierung immer nur so gut sein kann, wie die
Daten, auf denen sie beruht.
Bei einer Datengrundlage mit einer geometrischen Auflösung von 10 m werden Objekte, die eine
kleinere räumliche Ausdehnung besitzen, klarerweise nicht erkannt. In erster Linie betrifft dies
63
linienhafte Elemente wie den Großteil des Verkehrs- bzw. Gewässernetzes. Selbst breitere Strukturen,
wie Autobahnen oder Hauptflüsse, zeigen unzusammenhängende Bänder von Pixel und können ohne
weitere Zusatzinformation nur rudimentär dargestellt werden.
Ecosystems, die auf einer Grundlage wie der verwendeten Klassifikation aufbauen, sind zumeist
Kompromisslösungen. Mittels möglichst wirklichkeitsnaher Wahl von Parametern wie den Rules of
Nature oder Texturen, die auf Geländehöhe oder Hangneigung basieren, wurde versucht, die Inhalte
der einzelnen Klassen der Realität anzupassen.
Die Klasse „Rock/Gravel/Soil“ kann eben nicht gleichgesetzt werden mit blanker Felsstruktur, weshalb
mehrere Materials, wie z.B. unterschiedliche spärliche Vegetation, in Abhängigkeit der Hangneigung
verwendet wurden.
„Sealed Surfaces“ beinhaltet die Gesamtheit an versiegelten Flächen, d.h. Teile von Straßenzügen,
Gebäude und umliegende Flächen und andere Freiflächen. Die Limitierung des Einsatzes der
Parameter für ein einzelnes Ecosystem würde in manchen Fällen 2 oder mehrere Ecosystems für 1
Klasse erfordern, um die Qualität der Ergebnisse in Richtung realistische Landschaftsvisualisierung zu
steigern.
Ein generelles Problem tritt auch in der Klasse „Wetland“ zu Tage, nämlich jenes der Streupixel in
Fernerkundungsklassifizierungen. Besonders in abgeschatteten Gebieten und nordexponierten
Hanglagen im alpinen Bereich begegnet man Pixel, deren Grauwert fälschlicherweise am ehesten der
Klasse „Water“ oder „Wetland“ zugeordnet wird. Mittels einer geeigneten Wahl der Parameter in VNS
können diese aber relativ leicht ausgefiltert werden.
Dennoch verdeutlicht all dies, dass eine „einfache“ Visualisierung nicht immer das gewünschte Resultat
erzielt, man könnte in diesem Zusammenhang auch von „wissensbasierter Geovisualisierung“
sprechen, d.h. also, mit entsprechendem Vor- oder Zusatzwissen an eine Geovisualisierung
heranzutreten. Dadurch wird der an sich relativ einfache Prozess arbeits- und zeitintensiv, weil die
Datengrundlage meist nicht den Anforderungen der Visualisierungssoftware entspricht.
Speziell durch das Fehlen von linienhaften Elementen liegt es nahe, andere, besser geeignete Daten
mit einzubeziehen, nämlich Vektoren.
4.1.1.5
Hybride Visualisierung
Der Begriff „hybrid“ wird im Zusammenhang mit Geovisualisierung eigentlich nicht verwendet, soll hier
aber stellvertretend für die Methodik und Technik der verwendeten Datengrundlage stehen, ähnlich der
Bedeutung eines „hybriden GIS“.
Gerade die Eigenschaft, Kartenprojektionen und Geokoordinaten richtig zu interpretieren bzw. eine
Kompatibilität mit GIS Daten macht VNS zu einem oft gewählten Werkzeug in der Geovisualisierung.
64
Neben CAD Formaten ist es in erster Linie das gängige Shape-Format, das in VNS verwendet wird,
speziell aus dem Grund, weil auch Attribute mit importiert werden und viele Elemente und Parameter
nicht nur textur-, sondern auch attribut-basiert gesteuert werden können. In der VNS Terminologie wird
dies als Thematic Map bezeichnet. Ähnlich der Platzierung von Ecosystems mittels Vektoren (vgl. Kap.
4.1.1.6) ist eine Thematic Map entweder als Hard Link oder als Ergebnis einer gefilterten Suchoperation
(Search Query) an einen oder mehrere Vektoren und Attribute gebunden.
Abb. 37 und Abb. 38 zeigen einen Teilausschnitt der rasterbasierten Methodik im Vergleich mit
Vektoren. Flussläufe werden im linken Bild überhaupt nicht erfasst, Straßenzüge erscheinen nur
andeutungsweise, wenn man mittels Zusatzinformation eben weiß, dass dort ein Straßenzug vorhanden
sein sollte.
Abb. 37: Rasterbasierte Ecosystems
Abb. 38: Ergänzende Vektordaten für ein Verkehrs(gelb) und Gewässernetz (blau)
Kameraposition: Höhe über Grund: ca. 450 m, Distanz Vordergrund: 320 m
Aus einer Kameraposition wie dieser würde es vielleicht ausreichen, Vektoren nur mit einfacher Farbe
und entsprechender Linienstärke zu rendern, wobei die Renderhierarchie voraussetzten müsste, dass
3D Objekte zumindest lagetreu platziert werden, um sich nicht mit Linien zu schneiden.
Im Nahbereich großer Maßstäbe werden linienförmige Vektoren mit Hilfe von Terrafectors gerendert.
Ein Terrafector ist ein Effekt der mittels eines Profiles direkt das DGM modifizieren kann. Damit lassen
sich konvexe und konkave Geländeformen erzeugen, wie ein Flussbett oder Straßendamm. Die
Bereiche zwischen 2 Profilpunkten können mit
Ecosystems besetzt und somit dem künstlich
generierten
Gelände
z.B.
eine
Wasseroberfläche
oder
Straßenbelag
aufgesetzt werden.
Abb. 39: Terrafectors
Kameraposition:
Höhe über Grund: ca. 40 m,
Distanz Bildmitte: 80 m
65
In Abb. 39 wurden exemplarisch für ein Strassen- und Flussnetz jeweils Terrafectors in gleicher Weise
benutzt. Das leicht u-förmige Flussprofil ist 20 m breit und ca. 2,5 m tief. Bis zu einem Profilpunkt in
etwa 2 m Tiefe wurde dem Terrafector ein relativ einfach texturiertes Ecosystem für die
Wasseroberfläche zugeordnet.
Analog dazu das Straßenprofil mit einem leichten Damm von 4 m Breite und 30 cm Höhe. Die ebene
Oberfläche ist mit einer Textur, die einer 2-spurigen Fahrbahn nachempfunden ist, überzogen.
Für diese Dimensionen ist das unterliegende DGM zu grob auflösend, die Dreiecksstruktur wurde
wiederum maximal verdichtet.
Für stehende und fließende Gewässer gibt es in VNS eigene Komponenten Streams bzw. Lakes, die
mittels Terrafectors (bzw. Area Terrafectors im Fall von Polygonen als Vektorgrundlage) fotorealistische
Effekte der Wasseroberfläche liefert.
Terrafectors wirken sich stark auf die Renderzeit aus, insbesondere in Kombination mit einem hoch
auflösenden DGM und Fractal Depth, Komponenten, die bei Visualisierung im großen Maßstabsbereich
eine wesentliche Rolle spielen.
Verschiedene Versuche haben gezeigt, dass ein sinnvoller Einsatz von Terrafectors nur für kleine,
ausgewählte Gebiete möglich ist, also für dementsprechend große Maßstabsfragen. Detailvisualisierung
ist zwar technisch möglich, effektiv aber zumeist eine Frage der Prozessorleistung und geht prinzipiell
genau entgegen der Zielsetzung einer möglichst automatisierten Visualisierung.
Eine Möglichkeit den Bedarf an Arbeitsspeicher beim Rendern zu limitieren ist Terrafectors fix in das
DGM einzurechnen (Freeze). Dadurch müssen die Terrafectors nicht jedes Mal beim Initialisieren
berechnet werden. Zu bedenken bleibt aber, dass die Qualität der „gefreezten“ Terrafectors allein der
DGM Auflösung entspricht, also ein möglichst hoch auflösendes DGM verwendet werden muss, was
wiederum den Vorgang des „freezens“ je nach Größe des Arbeitsgebietes und Anzahl an Vektoren
erheblich beeinträchtigt. Das modifizierte DGM ist folglich geometrisch hoch auflösend und beansprucht
seinerseits wiederum viel an Renderspeicher, d.h. eine derartige Vorgangsweise ist eher auf
Detailvisualisierung für kleinere Gebietsausschnitte anwendbar.
Abb. 40: Render Preview
Detailvisualisierung, großer
Maßstab
Für obige Abbildung wurde ein kleiner Teilausschnitt des ursprünglichen DGM importiert und auf eine
Auflösung von 1 m resampelt. Für eine vernünftige Darstellung der Strasse (bzw. des Terrafectors und
66
seinen 2 Ecosystems) musste eine Fractal Depth von mindestens 5 gewählt werden, d.h. die
tatsächliche Auflösung im gerenderten Bild beträgt etwa 3 cm. Rendern bedeutet in der Praxis meist
eine Kompromisslösung hinsichtlich Qualität und Rechenaufwand, daher beschränkten sich die
dargestellten Komponenten auf Strassen- und Gewässernetz bzw. DGM Kacheln im Blickfeld.
In der Praxis werden im Nahbereich nur jene Bildbereiche bzw. bildgebenden Elemente im Vordergrund
möglichst detailliert visualisiert. Auf Detailvisualisierung wurde im Rahmen dieser Arbeit aus bereits
genannten Gründen nicht weiter eingegangen.
Für das Testgebiet wurde exemplarisch ein GIS Datensatz für das Gewässernetz erstellt, ebenso ein
Teilausschnitt des Verkehrsnetzes.
Vektordaten und DGM-Kacheln werden in der Database verwaltet und können nach verschiedenen
Kriterien zu einem Layer zusammengefasst werden, d.h. die einzelnen Vektoren wurden ähnlich der
Shape-Grundlage zu einem Layer „Gewässernetz“ zusammengefasst. Vektorgebundene Komponenten
können in Folge über eine Search Query, die diesen Layer beinhaltet, allen Vektoren in einem Schritt
zugeteilt werden. In der Praxis zeigte sich immer wieder, dass zwar VNS nicht der limitierende Faktor
ist, aber die Prozessorleistung. (VNS hat theoretisch kein Limit seitens der Anzahl an importierten
Vektordaten. Ein absolutes Limit gibt es nur für die Anzahl an Knoten pro Vektorlinie, nämlich 32.000).
Ein anderes Kriterium stellte die Qualität der GIS Daten dar. GIS Daten werden meist individuell für
bestimmte Zwecke in einem bestimmten Maßstab erhoben. Das Gewässernetz wurde auf Basis der ÖK,
also einem Erfassungsmaßstab von 1:50.000, erstellt. Viele Vektoren weisen für eine Verwendung in
VNS zu wenige Einzelpunkte auf, um sich bei der Visualisierung optimal ans DGM anzupassen.
Abb. 41: Vektoren und Terrafectors
67
Beim Gewässernetz fällt dies besonders in Bereichen von Flussunterläufen auf, wo Flüsse aus dem
steileren Hangbereich in einen flacheren Talbereich gelangen und teilweise in einen anderen Fluss oder
See münden.
Abb. 41 zeigt einen See bzw. mehrere Flüsse (vektorgebunden und aufgebaut mit den Komponenten
Lakes und Streams), die von umliegenden Hängen im Tal entweder direkt in den See oder einen
Vorfluter münden. Jeweils auf der linken und rechten Seite des Sees kommen 2 Vektoren (mit roter
Farbe gekennzeichnet) zu liegen, die über der DGM-Oberfläche „schweben“. Die dazugehörigen
Terrafectors werden zwar richtig ins DGM eingerechnet, der Effekt Streams aber wird entlang des
dazugehörigen Vektors gerendert. Der Vektor auf der rechten Seite besteht aus nur 2 Punkten über
eine Länge von 514 m und liegt somit in allen Bereichen über dem DGM.
Vektoren können in VNS verdichtet werden, aber nur einzeln und nicht als beliebige Menge
gleichzeitig. D.h. um einen automatisierten Arbeitsprozess zu erhalten, müssten die Vektoren im GIS
verdichtet werden, wobei ein Mehr an Punkten auch ein Mehr an Renderzeit bedeutet.
Eine andere Möglichkeit wäre, zumindest fließende Gewässer auf einfachere und render-extensivere
Weise wie zuvor beim Straßennetz zu visualisieren, mittels Ecosystems entlang der Terrafectors. Im
mittleren und teilweise auch kleinen Maßstab ist diese Methodik durchaus zufrieden stellend, im
Detailbereich bringen die fotorealistischen Effekte der Komponente Streams qualitativ wesentlich
bessere Ergebnisse.
Vektoren des Gewässernetzes sollten auch nicht physisch durch die Polygone der stehenden
Gewässer verlaufen, weil sich ansonst die beiden Effekte überlagern und die entsprechenden Vektoren
der Flüsse entlang der Wasseroberfläche des Sees gerendert werden (vgl. Abb. 42).
Die Methodik mittels Ecosystems auf den Terrafectors anstatt Streams bietet den Vorteil, dass nun die
Textur der Wasseroberfläche direkt im Flussbett verläuft. Die nun „unterirdisch“ verlaufenden
Flussabschnitte innerhalb des See-Polygons lassen sich zwar weit besser kaschieren, sind aber immer
noch keine optimale Lösung (vgl. Abb. 43).
Abb. 42: Terrafector und Area Terrafector mit den
Komponenten Streams und Lakes
Abb. 43: Terrafectors ohne Streams, Area
Terrafector mit Lakes
Die besten Ergebnisse lieferten modifizierte GIS Daten, die jene Vektorabschnitte innerhalb von SeePolygonen nicht mehr beinhalteten.
68
Um einen optimalen Mündungsbereich zu visualisieren, sollten die Vektoren der Flüsse leicht
überständig in die Polygone der Seen münden. Wiederum ist dafür der Datensatz im GIS
dementsprechend für den Zweck einer Geovisualisierung aufzubereiten.
Die Variante der exakten Abgrenzung mittels Polygongrenzen (der Seen) liefert aber auch zufrieden
stellende Ergebnisse, wenn keine Darstellung im Nahbereich gefordert ist.
Zur Modellierung der Seehöhe der Seeoberfläche (Elevation) musste im GIS ein entsprechendes
Attribut generiert werden, auf das dann mit einer Thematic Map zugegriffen werden kann. Auf diese
Weise kann jedem Polygon derselbe Typ Lakes zugeordnet, mit individueller Elevation.
Beim Verkehrsnetz fiel auf, dass mit zunehmender Kameradistanz bzw. abnehmenden Neigungswinkel
Vektoren zusehends lückenhaft gerendert werden. Mit zunehmender DGM-Auflösung steigt auch die
Renderqualität der Terrafectors. Zusätzlich kann eine manuelle Verdichtung problematischer Vektoren
ebenfalls das Resultat verbessern.
Abb. 44: Vektoren & Terrafectors (1)
(Kameraposition: Höhe über Grund: ca. 3035 m, Distanz Bildmitte: 3920 m)
Abb. 45: Vektoren & Terrafectors (2)
(Kameraposition: Höhe über Grund: ca. 785 m, Distanz Bildmitte: 1450 m)
69
Abb. 46: Vektoren & Terrafectors (3)
(Kameraposition: Höhe über Grund: ca. 296 m, Distanz Bildmitte: 405 m)
Obige Abbildungen wurden mit denselben Renderparametern basierend auf unterschiedlicher DGM
Auflösung erzeugt. Die linken Abbildungen basieren auf einem 20 m DGM, die rechten auf einem höher
auflösenden 5 m DGM. Abb. 46 zeigt auch, dass das 20 m DGM zu grobmaschig ist, um den
Terrafector der Strassen einzurechnen bzw. zusätzlich auch die Fractal Depth erhöht werden muss.
Abb. 47: Renderergebnis, hybride Methodik
Rasterklassifikation als Datengrundlage. Vektordaten zur Platzierung von 3D Objekten bzw. Visualisierung
eines Gewässer- und Verkehrsnetzes.
70
Ein anderer Aspekt der Datenqualität betrifft die Kanten-Knotenstruktur von Vektoren gleicher Ordnung.
Umgelegt auf das Verkehrsnetz bedeutet das, dass der Kreuzungspunkt 2er Vektoren ein eigener
Knoten sein sollte, um zu gewährleisten, dass in diesem Punkt beide Vektoren die gleiche Höhe
besitzen. Ist dies nicht der Fall, werden Unregelmäßigkeiten beim Rendern auftreten und eine Art
Treppeneffekt generiert.
In der Praxis stellte sich aus heraus, dass es für den Einsatz von Vektoren in VNS nicht sinnvoll
erscheint, diese möglichst zusammenhängend zu digitalisieren, sondern in kleinen, sinnvollen
Einzelabschnitten.
Weniger die Limitierung der 32.000 Knoten pro Vektor, sondern die Möglichkeit, Vektoren für ein
bestimmtes Detailgebiet mittels einer Search Query zu selektieren, ist hierbei die entscheidende
Überlegung. Ist dies nämlich nicht möglich, werden beim Initialisieren des Rendervorganges für alle
aktivierten Vektoren Terrafectors gerechnet, und zwar unabhängig von der darunter liegenden DGM
Ausdehnung, was die Renderzeit und den Bedarf an Arbeitsspeicher drastisch erhöht.
4.1.1.6
Vektorbasierte Visualisierung
Die Verwendung von Vektoren zur Platzierung von Ecosystems bringt den entscheidenden Vorteil mit
sich, dass die qualitative Darstellung (im Sinne der Visualisierungs-Methodik) nicht mehr an einen
Maßstab gebunden ist, was die Datengrundlage betrifft. Als Beispiel dafür wurden die CORINE
Landcover Daten für das Testgebiet verwendet. Die vordefinierten Ecosystems sind relativ leicht auf die
Klassen der CLC Daten übertragbar. Inhaltlich, vom Bildinhalt bzw. Realitätsgrad der Geovisualisierung,
sind die beiden Datensätze natürlich in keinster Weise vergleichbar, da die CLC Ergebnisse
Landnutzung ab einer Größenordnung von 5 ha (d.h. umgerechnet einer geometrischen Auflösung von
ca. 223 m) enthalten.
Gegenüber pixelbasierter Visualisierung bieten vektorgebundene Ecosystems auch die Möglichkeit
eines Verlaufs der Intensität, d.h. mittels eines Edge Feathering Profile (einem Profil, das die
Entfernung vom Polygonrand bis zum Mittelpunkt auf der X-Achse bzw. die Intensität des Ecosystems
auf der Y-Achse repräsentiert) kann das Ecosystem, natürlichen Grundlagen nachempfunden,
„wachsen“. Auf diese Weise wurden z.B. Nadelwälder nicht hart von Grünflächen getrennt oder Alpine
Grasflächen gehen verlaufend in vegetationsfreien Fels über.
71
Abb. 48: Open GL View, VNS2
Overhead Ansicht eines
Teilausschnittes.
CLC Vektordaten (hellgrün)
Fliessgewässer (Türkis)
Seen (Dunkelblau)
Zu beachten ist dabei aber, dass der Verlaufs-Bereich nicht wie vielleicht vermutet in das angrenzende
Ecosystem übergeht, sondern einer gewissen Renderhierarchie folgt und die nächste vorhandene
Komponente zu Tage treten lässt, wie z.B. eine Environment oder einen Ground Effect.
Eine Alternative dazu ist die Polygonstruktur so zu verändern, dass sich die Polygone entsprechend
überlappen. Die Option der hierarchischen Renderstruktur setzt voraus, dass die darunter liegende
Komponente in ihren Materials gut mit jenen des angrenzenden Ecosystems übereinstimmt. Mittels
eines Ground Effects lässt sich dieses Vorhaben nicht immer global umsetzen, weil zumeist die
vorhandene Understory (z.B. bei Waldtypen) sich nicht mit dem Ground Overlay des Ground Effects
deckt und für die Materials eines Ground Effects keine Understory vorgesehen ist.
Abb. 49: Konzept eines Edge Feathering Profile
Ecosystems mit angepassten Materials
Kameraposition: Höhe über Grund: ca. 750 m, Distanz zur Ecosystemgrenze, Bildmitte: 900 m
72
Ecosystems ohne angepassten Materials
Ecosystems ohne Profile
In Abb. 49 ist das Konzept eines Edge Feathering Profile dargestellt. Zwischen den beiden Ecosystems
(in rot und blau) kommt im Bereich, in dem das Profil wirksam wird, der Ground Effect (gelb) durch. In
diesem Fall wurde ein Profil von 250 m Länge gewählt. In der Abbildung links unten setzt sich die
Overstory des Ecosystems im Talbereich gegenüber dem Ground Effect im Profilbereich deutlicher
durch, als in der Abbildung rechts oben. Die Abbildung rechts unten zeigt zum Vergleich das Ergebnis,
wenn kein Profil verwendet wird.
Neben Linien und Polygonen wurden auch Punktdaten verwendet, exemplarisch zur Platzierung von 3D
Objekten.
3D Objekte können entweder als Foliage Effect oder direkt über eine Search Query, basierend auf den
Vektorpunkten, platziert werden. Im Gegensatz zur rasterbasierten Methode wird durch Vektorpunkte
die lagerichtige Platzierung eines Objektes gewährleistet, der Nebeneffekt von willkürlich ineinander
verschachtelten Gebäuden wird eliminiert.
Ein Foliage Effect hat ähnlich einem Ecosystem einen eigenen Ecotype (Foliage Effect Ecotype). Für
die Abb. 50 und Abb. 51 wurden verschiedene Foliage Effects generiert mit jeweils einer Group mit
einem 3D Objekt, das nun verschiedene Parameter des 3D Objekts steuern kann, ohne das eigentliche
Objekt selbst zu verändern. Eine direkte Platzierung der Objekte mittels Search Queries „hardcodiert“
die Objekte zusehends, d.h. für jede spezifische Fragestellung muss eine eigener Klon desselben
Objektes verwendet werden.
Ein anderer entscheidender Vorteil der vektorbasierten Platzierung ist die Möglichkeit der Ausrichtung
der 3D Objekte. Ein Objekt kann z.B. nach einem bestimmten Vektor ausgerichtet sein, eine Methodik,
die aber nur für Einzelobjekte oder eine kleinere Anzahl sinnvoll gruppierter Objekte angewandt werden
kann. Für großflächige Gebiete mit vielen Punkten, die dasselbe 3D Objekt repräsentieren, macht dies
im Ausnahmefall vielleicht Sinn, kann aber im Sinne automatisierter Vorgehensweise nicht eingesetzt
werden. Die Möglichkeit ähnlich einer GIS Abfrage, z.B. jedes Objekt entlang des nächstliegenden
Vektors des Layers mit dem Straßennetz auszurichten, bietet die Software nicht.
Einige Eigenschaften der 3D Objekte selbst können über eine Thematic Map mittels Attributdaten
gesteuert werden, so auch die Rotation entlang der drei Achsen. Enthält die Datengrundlage der Punkte
73
ein Feld, das der tatsächlichen Ausrichtung des Objektes entspricht, kann über die Rotation ein
möglichst naturgetreues Ergebnis erzielt werden.
Abb. 50: Platzierung von 3D
Objekten (1)
Ausrichtung über Rotation mittels
einer Thematic Map mit den Werten
90 (Nord-Süd) bzw. 0 (West-Ost)
Kameraposition:
Höhe über Grund: ca. 744 m,
Distanz Bildmitte: 1198 m
Abb. 51: Platzierung von 3D
Objekten (2)
Zufallsgesteuerte Ausrichtung der
einzelnen Objekte im jeweiligen
Foliage Effect Ecotype.
Zufällige Rotationsparameter
können auch in den Eigenschaften
der 3D Objekte selbst definiert
werden. Sind beide Rotationseffekte
aktiv, ist keiner dominant, vielmehr
vermischen sich die Parameter.
Neben der Ausrichtung wurde auch der Gebäudetyp über ein entsprechendes Attribut gesteuert. In
diesem Fall wurden 6 verschiedene 3D Modelle verwendet, wobei jeder Foliage Effect mit einer Search
Query verbunden wurde.
Abb. 52 zeigt ein Renderergebnis basierend auf rein vektorieller Datengrundlage. Der gesamte
Talbereich entspricht einer einzigen Klasse aus den CLC Daten. Die Klasse Waldbedeckung wurde
mittels eines Edge Feathering Profiles an den Grenzlinien aufgelockert (vgl. Abb. 47).
74
Abb. 52: Renderergebnis, Vektorbasierte Methodik
Eine Zusammenfassung der Ergebnisse für die verwendeten Daten gibt folgende Tabelle:
Rasterbasierte Visualisierung:
Vorteile
Nachteile
Sehr einfach und schnell (wenn
einmal eine dementsprechende
Anzahl an Ecosystems erstellt
wurde).
Grenze der Visualisierung ist rasch erreicht mit der
geometrischen (Pixel-) Auflösung Datengrundlage.
Linienhafte Elemente gehen verloren, je nach Grundlage,
oder sind nur rudimentär vorhanden.
Für kleine und mittlere Maßstäbe
sehr gut geeignet, für große
Maßstabsfragen nur bedingt.
Im Nahbereich meist wenig realistisch, kritischer Punkt
dabei sind bebaute und besiedelte Flächen. „Landschaft“
kann unter Umständen noch zufrieden stellend dargestellt
werden.
Denkbare Optimierung:
Datengrundlage der Visualisierung
optimieren.
Diverse Optimierungen sind oft mit relativ großem Zeit- und
Arbeitsaufwand verbunden.
Hybride Visualisierung:
Vektoren ergänzen linienhafte
Landschaftselemente wie z.B. ein
Gewässernetz (plus stehende
Gewässer) oder Verkehrsnetz.
Datengrundlage muss für VNS optimiert werden. GIS Daten
werden meist zu einem best. Zweck in einem dafür
geeigneten Maßstab generiert.
D.h. sie sind meist nur bedingt zum Zweck der
Visualisierung nutzbar.
75
Gewisse Komponenten und
fotorealistische Parameter sind auf
Vektoren ausgerichtet und können
ohne sie gar nicht eingesetzt
werden.
Wiederum muss eine entsprechende Datenqualität
vorausgesetzt werden.
Kritische Aspekte treten z.B. auf bei:
Seen (Polygone)
- Mündungsbereich mit Flüssen.
- Höhenwert für die Ausbreitung der Wasseroberfläche
notwendig.
Flüsse (Linie)
- Oft zu wenig Punkte einzelner Vektoren, um Flusslauf dem
DGM anzupassen.
- Kreuzungspunkt mit Strassen oft ungenaue Geometrie.
Strassen (Linie)
- Kreuzungspunkte müssen eigener Knoten sein.
- Terrafector verlangt feineres DGM bzw. max. Fractal
Depth.
Realistischere Ergebnisse.
Höhere Renderzeiten bzw. bei zu großer Datenmenge (im
Sinne der Prozessorleistung) wird ein Rendern unmöglich.
Hohe Hardware-Anforderungen.
Denkbare Optimierung:
Vektordaten optimal aufbereiten
(Geometrie, Attributierung).
Diverse Optimierungen sind oft mit relativ großem Zeit- und
Arbeitsaufwand verbunden.
Vektorbasierte Visualisierung:
Verwendung unterschiedlichster
GIS Daten, CAD Daten.
Datengrundlage muss für VNS optimiert werden.
Große bzw. detaillierte Datensätze bedeuten meist „Overkill“
für die Visualisierung.
Lagegenaue Platzierung von
Einzelobjekten.
VNS ist in erster Linie auf den nordamerikanischen Raum
ausgerichtet, d.h. es besteht ein Mangel an passenden 3D
Objekten (bzw. auch 2D Bildern) in der Component Gallery,
insbesondere an Gebäuden. Die Erstellung passender 3D
Objekte in externer Software ist sehr zeitaufwändig.
Keine „Rasterisierung“ mehr im
Grenzbereich von Klassen, Verlauf
mittels Profilen möglich.
Teilw. problematisch, wenn auch eine Color Map verwendet
wird.
Abstimmung im Verlaufsbereich schwierig.
Tab. 14: Zusammenfassung der verschiedenen Visualisierungs-Methoden
76
4.2 Mallnitz – Hohe Tauern
Abb. 53: Übersichtskarte Mallnitz – Hohe Tauern
(Quelle: Kagis, Kärnten Atlas, verändert)
Das zweite Testgebiet beinhaltet Teile des Mallnitzbach- bzw. Winkelbachtales mit der Ortschaft
Mallnitz etwa im Ausschnittsmittelpunkt. Das gesamte Gebiet umfasst knapp 70 km², die genaue
Abgrenzung in Bundesmeldenetz-Koordinaten (M31) kann folgender Tabelle entnommen werden:
x
y
LL
434.405
202.235
UR
442.455
210.835
Tab. 15: Abgrenzung des Testgebietes Mallnitz - Hohe
Tauern in BMN Koordinaten
Abb. 54 zeigt einen Überblick über das Testgebiet. In der Bildmitte die Ortschaft Mallnitz mit
Blickrichtung Norden. Als Overlay dient ein auf 1 m resampeltes Geo-Tiff der originalen „pan-shaped“
Quickbird-Szene (resampelt auf 0,5 m Auflösung).
Abb. 54: 3D Ansicht des
Testgebietes
Natürliche Textur mit einer
Quickbird-Szene
Kameraposition:
Höhe über Grund: ca. 1170 m,
Distanz Bildmitte: ca. 4000 m
77
Die zu verwendende Datengrundlage entstammt einem Projekt zur Sicherung von Alpentransversalen
mittels Einsatz von Erdbeobachtung und GIS, namens „Hannibal“.
Die Zielsetzung definierte sich in einer Ergänzung der DLM und DKM Daten durch
Fernerkundungsdaten bzw. einem Konzept zur Integration der verschiedene Raster- und Vektordaten
für die Visualisierung.
Für des gesamte Testgebietes standen Daten aus 4 der 7 Objektbereiche des aktuellen DLM zur
Verfügung, nämlich „Verkehr“, „Siedlung“, „Gewässer“ und „Namen“. Die Bereiche „Siedlung“ und
„Namen“ beinhalten zu Zeit jeweils ausschließlich punktförmig definierte Objekte in einer Access
Datenbank. Neben anderen Attributen sind auch Rechts- und Hochwert als Gauß-Krüger Koordinaten
verspeichert.
Namen
Verkehr
F_CODE
ID
NAME
FEATURE_CODE
NAME
VW_BEZ
BUNDESLAND
ART
ÖK
VERW_BZ_NM
KURZBEZ
UTM
POL_GEM_NR
UTM50
HÖHE
POL_GEM_NM
ÖK50
ERFASS_ART
PLZ
MERIDIAN
AKTUAL_DATUM
ADRESSE
RECHTSWERT
BEARB_DATUM
HAUSNR
HOCHWERT
RECHTSWERT(X)
HAUSNR2
AKTUAL_DATUM
HOCHWERT(Y)
VORWAHL
ERFASS_ART
MERIDIAN
TELEFON
BEARB_DATUM
Tab. 16: Attribute des DLM der Objektbereiche „Namen“ und „Verkehr“
Die insgesamt 113 Features aus dem Objektbereich „Namen“ bzw. 48 Features des Objektbereiches
„Verkehr“ können in Form eines Punkt-Shapes für die Visualisierung herangezogen werden zur
Platzierung von entsprechenden 3D Objekten (wie z.B. auch 3D Schriften) oder 2D Billboards.
Eine direkte Anwendung von Attributen in VNS (z.B. in Form von Thematic Maps) erscheint als wenig
sinnvoll. Je nach Untersuchungsgebiet und –gegenstand können aber der Großteil der Attribute für
Search Queries verwendet werden, um z.B. alle Elemente einer bestimmten ÖK auszuwählen.
Interessanter im Sinne einer Landschaftsvisualisierung sind die Objektbereiche „Gewässer“ und
„Verkehr“, die nicht nur punktförmige, sondern auch linienförmige Elemente enthalten.
Objektbereich: Verkehr
Objektgruppe
Objektart
Straßen
Bahnen
Feature
Anz. an Features
Anz. d. Attribute
Bundesstraße
Linie
6
15
Landesstraße
Linie
16
15
Bezirksstraße
Linie
12
15
Normalspurbahn
Linie
20
13
78
Objektbereich: Gewässer
Objektgruppe
Objektart
Feature
Anz. an Features
Anz. d. Attribute
Fließende Gewässer
Fluss, Bach (Breite: > 20m)
Linie
2
12
Fluss, Bach (Breite: 5-20m)
Linie
30
12
Fluss, Bach (Breite: < 5m)
Linie
145
12
Bach, zeitweise wasserführend
Linie
129
12
fiktiver unterirdischer
Gewässerverlauf
Linie
13
12
Imaginäre Achse von Fluss
(Breite: > 20m)
Linie
1
12
Imaginäre Achse von Fluss
(Breite: < 5m)
Linie
1
12
Quelle
Punkt
16
12
Wasserfall
Punkt
5
12
Stehende Gewässer
See, Teich ( < 2km
Längenausdehnung)
Linie
38
11
Insel
Linie
1
11
Bauwerke für
Wasserversorgung
Wasserleitung, oberirdisch
Linie
1
12
Wasserleitung, unterirdisch
Linie
2
12
Reservoir
Punkt
10
12
Tab. 17: Attribute des Objektbereichs „Verkehr“
Alle DLM Daten lagen im Esri-Shape Format in Gauß-Krüger Koordinaten vor. Es wurde versucht, das
Preprocessing der Daten bzw. manuelles Editieren zu minimieren. Einige Arbeitsschritte waren im
Vorfeld aber unerlässlich, wie im Folgenden verdeutlicht.
-
Transformation aller Daten auf ein einheitliches Koordinatensystem (Bundesmeldenetz
M31), ausgehende vom DGM bzw. den vorhandenen Fernerkundungsdaten.
Gewässer:
- Generieren einer Polygonstruktur für stehende Gewässer.
- Bereinigen der Fließgewässer hinsichtlich Überschneidung der Vektoren mit
Polygonen der stehenden Gewässer (vgl. Kap. 4.1.1.5, Seite 73).
- Ableiten eines Höhenwertes für jedes Polygon der stehenden Gewässer.
- Verschneidung zwischen Fließgewässern und Straßen zum Generieren von VektorPunkten für die Platzierung von Brücken.
Die Erfassung der Features erfolgte großteils durch das BEV mittels Digitalisierung von Orthophotos
und Satellitenbildern mit einer Auflösung von > 2m (Attribut ERFASS_ART: 41) bzw. Digitalisierung von
KM-Unterlagen im Maßstab 1:25.000 und 1:50.000 (Attribut ERFASS_ART: 31).
Die Überlagerung beider Datensätze zeigte, dass sich durch den unterschiedlichen Maßstab der
Erhebung (die Genauigkeit der DKM entspricht grundsätzlich jener der analogen Katastralmappe
79
[Quelle: www.bev.gv.at]) auch Lageungenauigkeiten ergeben. Die Daten des DLM wurden im Einzelfall
manuell an die DKM angepasst.
Abb. 55: Lageungenauigkeiten
zwischen DLM und DKM
Eine Überlagerung der QuickbirdSzene mit DLM (gelb) und DKM
(weiß) Layern zeigt teilweise
markante Ungenauigkeiten im
Bereich einiger Meter.
Die DKM Daten standen nur für einen bestimmten Teilausschnitt des Testgebietes rund um den
zentralen Ort Mallnitz zur Verfügung (vgl. Abb. 56, kleines Bild links oben)
Alle DKM Daten wurden als AutoCAD DFX Files geliefert. VNS kann zwar DXF Daten direkt
importieren, doch ist der Import und Zugriff auf Attribute auf das Esri-Shape Format beschränkt,
weshalb eine Konvertierung der Daten vorgenommen werden musste.
Die Konvertierung wurde von der Firma Synergis mit der Software GeoOffice GIS Engine durchgeführt.
Insgesamt wurden 16 einzelne DFX Files in 11 verschiedenen Shape-Files überführt. Die GIS Engine
übernimmt alle Eigenschaften (ausgenommen Objektdaten) und Attribute aus den AutoCAD Daten und
filtert diese speziell nach den Attributen „Layer“, „Block“ und „Objekttyp“.
80
Abb. 56: Ausdehnung
der DKM Daten
Überlagerung der
Quickbird-Szene mit
Daten der DKM (gelb).
Die kleinere Abbildung
links zeigt die
Ausdehnung der DKM
Daten im Bezug auf
das gesamte
Testgebiet.
Die 11 Shape-Files gliedern sich in 4 Polygon-, 2 Linien- bzw. 5 Punkt-Shapes mit einer
unterschiedlichen Anzahl an Attributen.
Neben der schon angesprochenen Konvertierung in das Format Esri Shape wurden ähnlich den DLM
Daten noch einige andere Schritte im Preprocessing durchgeführt:
-
-
Transformation aller Daten auf ein einheitliches Koordinatensystem (Bundesmeldenetz
M31), ausgehende vom DGM bzw. den vorhandenen Fernerkundungsdaten.
Erweiterung der Attribute um ein namensgebendes Feld für die Database im VNS.
Beim Import von Vektordaten kann ein bestimmtes Attribut gewählt werden, dass für
die Benennung der einzelnen Vektorelemente der Database herangezogen wird. In der
Praxis zeigte sich, dass ohne ein gewisses System die Database mit der Anzahl der
enthaltenen Objekte rasch unübersichtlich wird.
Editieren von Attributen, die direkt als Thematic Map verwendet werden sollen.
Limitieren der Vektordaten (z.B. der Grundstücksgrenzen auf sinnvolle räumliche
Einheiten)
Ableiten von Mittelpunkten der Gebäude-Polygone zur Platzierung von 3D Objekten.
Entsprechend der Render-Hierarchie in VNS bzw. einem 3-dimensionalen Aufbau der Realwelt wurde
ausgehend von der modifizierten Vektorgrundlage die Modellierung folgendermaßen konzipiert:
81
Abb. 57: Bottom-Up-Konzept der Modellierung für das Testgebiet Mallnitz
Ausgangsbasis bildete ein DGM bzw. davon abgeleitete Modelle mit unterschiedlicher geometrischer
Auflösung. Für Overviews und kleinmaßstäbige Ansichten kam ein 50 m DGM bzw. das 90 m SRTMDGM zum Einsatz. Im mittleren Maßstab wurde ein 10 m DGM verwendet, für Detailansichten ein auf 2
m resampeltes DGM.
82
Der nächste „Layer“, praktisch der Bildhintergrund für jenen Bereich, der nicht von den Vektordaten
abgedeckt wird, bestand aus den bereits vordefinierten Ecosystems basierend auf der
flächendeckenden Klassifikation von Fernerkundungsdaten. Die Spot 5-Klassifikationsergebnisse
lieferten insgesamt 18 Klassen (inkl. einer Klasse „Unclassified“), die nun an die vorhandenen
Ecosystems angepasst werden mussten, im Sinne einer möglichst automatisierten Anwendung.
Für die Zuordnung der Ecosystems in der Color Map wurde letztlich ein 24 bit Graustufenbild
verwendet. Das in Abb. 58 verwendete Overlay ist eine äquivalente 24 bit Farbdarstellung der
Klassifikationsergebnisse.
Detailinformation kam in weiteren Stufen von den Daten der DKM bzw. DLM. Als zentraler Layer der
DKM wurde die darin enthaltene Bodennutzungsinformation der einzelnen Polygone zur Definition der
Ecosystems verwendet. Ergänzend dazu lieferte die DLM Daten zu linienförmigen Elementen, wie dem
Straßen- und Gewässernetz, bzw. auch davon abgeleitete flächenhafte Information der stehenden
Gewässer.
Als letzte Stufe könnte nach der eigentlichen Modellierung noch alle Komponenten und Parameter
zusammengefasst werden, die für einen fotorealistischen Effekt der fertigen Renderergebnisse
verantwortlich sind, wie z.B. die selbstredenden Komponenten Cloud Model, Lights, Shadows oder
Skies.
4.2.1 Diskussion der Ergebnisse
4.2.1.1
Fernerkundungsdaten
Die Klassifikationsergebnisse der Spot 5 Szene weisen eine Pixelauflösung von 10 m auf, so, wie schon
die Klassifikation im Testgebiet zuvor. Aus diesem Grund ist die Anwendung dieser Grundlage innerhalb
von VNS auch für beide Testgebiete gut vergleichbar. Es zeigten sich im Prinzip dieselben Vor- und
Nachteile dieser Methodik, wie schon in Kapitel 4.1.1.4 erläutert.
Nach der Evaluierung der 18 Klassen (bzw. einer Homogenisierung hinsichtlich der weiteren
Datengrundlagen des DLM und der DKM) und der Anpassung an die bestehenden Ecosystems kann
sehr rasch mit wenig Aufwand eine flächendeckende Visualisierung im kleinen und auch mittleren
Maßstabsbereich erfolgen.
Ähnlich der Daten des ersten Testgebietes weist auch die Klassifikation des zweiten Gebietes
großflächige Lücken auf, einerseits durch begrenzte Area of Interests, d.h. nicht der gesamte Ausschnitt
des Testgebietes unterlag der Klassifikation, andererseits durch Einflüsse wie direkte Bewölkung oder
Wolkenschatten.
83
Abb. 58: Spot 5 Klassifikation, 24 bit
Farbdarstellung
Mittels einer geeigneten Environment lässt sich aber auch
diese fehlende Informationen (in Abb. 58 mit schwarzer Farbe
dargestellt) sinngemäß sehr einfach ergänzen.
Das Fernerkundungsbild wurde als flächendeckende
thematische Grundlage zur Platzierung der bereits
generierten Ecosystems herangezogen. Durch die
Einbindung von Vektoren wurden einige Problembereiche
ausgeschlossen, wie die Modellierung bebauter Flächen oder
das
unzusammenhängende
Auftreten
linienhafter
Landschaftselemente,
wie
einem
Straßenoder
Gewässernetz (vgl. Kap. 4.1.1.4)
Tab. 18 zeigt die Attribute der Rasterwerte. Für die Color Map wurde ein 24 bit Graustufenbild bzw. die
File Pixel Werte verwendet. Genauso gut könnten aber auch die RGB Werte bzw. das 24 bit Farbbild
verwendet werden.
Histogramm
199040
254336
3968
15296
7936
38656
77376
0
10880
20800
20736
0
10496
19072
2624
4864
512
11520
Color
R
0
0
255
255
255
175
209
255
255
158
255
255
160
0
193
160
0
0
G
0
99
0
255
214
48
178
255
181
158
181
165
81
255
255
33
0
255
B
0
0
0
0
0
96
140
255
193
158
193
0
43
0
132
239
255
255
File Pixel
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Klasse
Unclassified
Wald
Veränderungen
Weide
Alpines Gras
Zwergstrauchheiden
Spärlich bewachsen
Schnee/Eis
Lockermaterial1
Fels
Lockermaterial2
Moor
Acker brach
Wiese/Acker
Wiese spärlich bewachsen
Versiegelte Flächen
Wasser
Diverse (Wege, Böschung, etc.)
Tab. 18: Rasterattribute der Klassifikation der Quickbird-Szene
Gegenüber den Alpmon-Daten weist diese Klassifikation andersartige Klassen auf, so z.B. eine einzige
Klasse „Wald“ oder mehrere spezifische Klassen im Hochgebirge wie „Lockermaterial“ oder „Spärlich
bewachsen“. 2 Klassen kommen im Testgebiet überhaupt nicht vor, nämlich „Schnee/Eis“ und „Moor“.
Hinter den Waldflächen ist die Klasse „Unclassified“ am häufigsten vertreten.
84
4.2.1.2
Vektordaten der DKM
Von den 4 Polygon-Shapes ist besonders jenes für die Visualisierung interessant, das unter anderem
auch die Flächennutzung beinhaltet.
FLAECHE
33,87
3685,14
762,65
4143,10
7,71
6429,30
21014,17
17415,26
4779,87
3580,92
5,86
1919,70
225,50
6118,17
UMFANG
23,29
263,51
109,78
404,03
13,69
355,87
1178,75
3222,69
312,87
459,01
18,03
204,42
130,64
503,21
BLOCK
FIG041
FIG047
FIG048
FIG051
FIG052
FIG054
FIG056
FIG059
FIG060
FIG062
FIG083
FIG086
FIG095
FIG096
NS
41
47
48
51
52
54
56
59
60
62
83
86
95
96
BEZ
Gebäude
Weide
Landw. gen. Grundfläche (LN)
Hutweide
Baufläche begrünt
Alpen
Wald
Gewässer fließend
Gewässer stehend
Ödland
Baufläche befestigt
Sonstige
Straßenanlage
Erholungsfläche
NS_RECHT
41
47
48
51
52
54
56
59
60
62
83
86
95
96
Anz. Polygone
344
2
347
9
318
5
105
4
3
12
38
5
101
4
Tab. 19: Auszug der Attribute für das Shape „Nfl.shp“ inkl. Summe der Polygone
Insgesamt enthält das Shape-File 1297 Features. Die Vektoren wurden in der VNS Database wieder zu
einem Layer zusammengefasst und nach dem Attribut „NS“ mittels Search Queries den einzelnen
Ecosystems zugeteilt.
Wie schon in Kap. 4.1.1.5 bemerkt, ist nicht die Database der limitierende Faktor für den Einsatz von
Vektoren, sondern die Prozessorleistung. Die Platzierung von Ecosystems erfordert (im Gegensatz zu
Terrafectors oder anderen Komponenten) nur geringe Rechenleistung, daher stellen die knapp 1300
Polygone kein Problem im Arbeitsprozess dar.
Gegenüber der Methodik der Platzierung von 3D Objekten basierend auf einem Punkt-Shape (vgl. Kap.
4.1.1.6) bietet die Klasse der Gebäude als Polygone andere Möglichkeiten, besiedelte Flächen zu
modellieren. Mittels Linien oder Polygonen können mit der Komponente Walls dreidimensionale
Oberflächen generiert werden. Eine Wall besteht aus 2 „Bauelementen“, dem Panel, das vertikale
Oberflächen aufzieht, und dem Roof für horizontale Flächen.
Die Höhe der Panels kann mit einer Thematic Map direkt aus der Attributtabelle entnommen werden,
sofern ein solches Attribut vorhanden ist. Für das Testgebiet wurde dafür manuell ein Attribut angelegt
(vgl. Abb. 59). Standardmäßig haben alle Panels dieselbe Farbe bzw. Eigenschaften, wie sie dem
Material zugeordnet werden. Aber auch die Diffuse Color des Panel Material kann auf eine Thematic
Map zurückgreifen. Eine Thematic Map kann, wie bisher verwendet, nicht nur mittels der Option Single
Value auf einen einzelnen Wert abzielen (wie z.B. ein Attribut „Höhe“ für die Gebäudehöhe), sondern
auch auf mehrere Data Channels. Somit könnte für jedes Polygon in der Attributtabelle ein bestimmter
RGB Farbwert (als 3 einzelne Attribute) verspeichert sein und als Thematic Map dem Panel übergeben
werden. Solche Attribute existieren natürlich in der DKM nicht und wurden ebenfalls manuell für einige
ausgewählte Polygone generiert (vgl. Abb. 60). Die Lage des Roofs kann ebenfalls über eine Thematic
85
Map gesteuert werden, sinnvoller Weise über dieselbe, die auch die Höhe der Panels bestimmt. Roofs
werden als horizontale Ebene zwischen den Vektorpunkten aufgebaut.
Abb. 59: Walls aus Gebäudepolygonen.
Gebäudehöhen werden aus Attributen übernommen, Schlagschatten im Vordergrund erhöhen die
Raumwirkung.
Eine andere Möglichkeit, ein Gebäude mit Walls aufzubauen, geht den umgekehrten Weg, nämlich
ausgehend vom Roof zum Boden. Hat man beispielsweise Vektoren der Dachlinien zur Verfügung bzw.
auch ihre Höhe, kann dies die Basishöhe sein und Panels erzeugt werden bis zum Schnitt mit dem
DGM. Auf diese Weise lassen sich auch andere Dachformen kreieren (vgl. Abb. 61), wenn z.B. auch
Punkte der Firstlinie bekannt sind oder automatisch abgeleitet werden können.
Der entscheidende Vorteil der Methodik, einen Gebäudegrundriss mit Polygonen und Walls zur
Modellierung zu verwenden, ist, dass sich die Grundgeometrie des Gebäudes in der 3D Ansicht
widerspiegelt. Das bedeutet also, dass sowohl Größe und Form wie auch Ausrichtung annähernd der
realen Situation entsprechen und daher einen wesentlich höheren Wiedererkennungswert besitzen, als
schematisch verwendete 3D Objekte.
Für klein- und mittelmaßstäbige Ansichten zeigte diese Methodik weit bessere Ergebnisse als jene in
Kap. 4.1.1.6, nicht zuletzt, weil Walls wesentlich geringere Renderzeiten erfordern, als 3D Objekte. Für
großmaßstäbige Detailansichten würde eine naturgetreue Darstellung ohnehin individuelle 3D Modelle
und Texturen verlangen.
86
Abb. 60: Farbzuordnung über eine Thematic Map
Die Polygone der Gebäude sind in gelb dargestellt.
Abb. 61: Modellieren von Walls ausgehend von einer
dreidimensionalen Dachform
Ebenfalls mittels Walls wurden entlang von Linienvektoren, die die Grundstücksgrenzen repräsentieren,
Zäune als künstliche Texturen platziert. Wiederum wurde manuell ein passendes Attribut angelegt, das
verschiedene Zauntypen unterscheidet.
Abb. 62: Walls als Zaun entlang von Grundstücksgrenzen.
Unterschiedliche Typen werden mittels geeigneter Attribute und Search Queries gesteuert.
Zusammenfassend kann man sagen, dass die Daten aus der DKM sehr rasch und einfach in die
Visualisierungssoftware VNS integriert und verwaltet werden können. Aufbauend auf passenden
Ecosystems und anderen Komponenten kann ein ansehnliches Ergebnis mit relativ geringem Aufwand
in relativ kurzer Zeit erzielt werden. Nicht zu vernachlässigen ist aber das Preprocessing der Daten, um
eine optimale Nutzung in VNS zu gewährleisten. Für kleinere Testgebiete kann das mitunter teilweise
manuell und ohne großen Aufwand geschehen, für großflächige Gebiete kann das aber wohl nicht mehr
gelten. Im Zuge dieser Arbeit wurde versucht, das Preprocessing möglichst automatisiert abzuwickeln,
was zumindest für verschiedene Verschneidungen einzelner GIS Layer möglich ist. Schwieriger
gestaltet sich die Aufgabe aber bei der Verwendung von Attributen. Beinahe alle Attribute können in
VNS zur Filterung der Daten (Search Query) herangezogen werden um z.B. aus einer Menge von
Polygonen eine Teilmenge nach bestimmten Eigenschaften zu erhalten, mit der dann individuell
weitergearbeitet werden kann. Ein direkter Zugriff auf Attribute als konkreter Wert für bestimmte VNSParameter (über eine Thematic Map) setzt eine dementsprechende Struktur voraus, die im Falle
herkömmlicher GIS Daten kaum vorhanden ist. Alles, was manuell editiert werden muss, kann sehr
zeitintensiv sein, je nach Datenmenge und Zielsetzung.
87
4.2.1.3
Vektordaten des DLM
Wie schon in Kap. 4.1.1.5 dienten auch hier die linien- und flächenhaften Vektordaten als Grundlage für
Terrafectors bzw. Area Terrafectors, wobei wiederum gewisse Attribute zu Suchabfragen genutzt
werden konnten. Ein Überblick über die Verwendbarkeit der Layer und ihre Anwendung im VNS zeigt
folgende Tabelle.
Verw.
VNS
Search
Query
Thematic Map
Komponenten
Bundestraße
x
x
-
Tfx (Terrafector)
Landesstraße
x
x
-
Tfx
Bezirksstraße
x
x
-
Tfx
Normalspurbahn
x
x
-
Tfx
Fluss, Bach (Breite: > 20m)
x
x
-
Tfx, Stream
Fluss, Bach (Breite: 5-20m)
x
x
-
Tfx, Stream
Fluss, Bach (Breite: < 5m)
x
x
-
Tfx, Stream
Bach, zeitweise
wasserführend
x
x
-
Tfx, Stream
fiktiver unterirdischer
Gewässerverlauf
x
x
-
-
Imaginäre Achse von Fluss
(Breite: > 20m)
x
x
-
-
Imaginäre Achse von Fluss
(Breite: < 5m)
x
x
-
-
Quelle
-
-
-
-
Wasserfall
-
-
-
-
See, Teich ( < 2km
Längenausdehnung)
x
x
-
Area Tfx, Lake
Insel
x
x
-
Ecosystem
Wasserleitung, oberirdisch
x
x
-
3D Object
DLM Objektart
Wasserleitung, unterirdisch
-
-
-
-
Reservoir
x
x
-
3D Object
Tab. 20: Zusammenfassung der Objektarten und ihre direkte Anwendbarkeit in VNS
„Verw. VNS“:
„Search Query“:
„Thematic Map“:
x…Daten wurden letztendlich für die Visualisierung verwendet
- …Daten wurden ins VNS importiert, waren aber für eine Visualisierung nicht geeignet
x…Die Attribute eigneten sich für Search Queries
x…Die Attribute eigneten sich direkt (ohne Preprocessing) für Thematic Maps
Wie schon bei den Daten der DKM konnte für alle verwendeten DLM Daten mittels Search Queries
entsprechendes Datenmanagement betrieben werden.
88
Von den amtlichen GIS Daten eignete sich aber keines der vorhandenen Attribute als direkte Grundlage
einer Thematic Map. Einzig die Wasseroberfläche für stehende Gewässer wurde aus einem Attribut
berechnet, das in derselben Art generiert wurde, wie schon in Kap. 4.1.1.5 angesprochen.
Vektordaten aus dem DLM stellen eine geeignete Ergänzung zu den flächenhaften Daten aus der DKM
und den Fernerkundungsdaten dar. Besonders die linienförmigen Elemente eines Landschaftsbildes
werden in VNS auch am effektivsten als solche modelliert.
Fließgewässer und das Verkehrsnetz wurden mit entsprechenden Terrafectors modelliert. Dabei
konnten bestimmte Attribute indirekt verwendet werden, die z.B. Aufschluss geben über die Breite eines
Flusses oder ein Normprofil eines Straßentyps. Für eine Search Query war z.B. auch die Lage einer
Strasse, ob ein Straßenabschnitt terrestrisch, auf einer Brücke oder in einem Tunnel liegt, interessant.
Abb. 63: DLM Daten mit Terrafectors modelliert
Mit den Vektorlinien als Overlay fungieren Polygone gleicher Nutzung der DKM (Gewässer fließend,
Gewässer stehend, Straßenanlage) in gleicher Weise als Hintergrund für die DLM Daten, wie die
Klassifikation der Satellitenszene für die DKM.
Der Klasse „Gewässer fließend“ kann z.B. ein Ecosystem, das entsprechende Ufervegetation, Steine
oder Sand beinhaltet, zugeordnet werden. Überall dort, wo der vom Terrafector modellierte Flusslauf
aus dem DLM nicht die gesamte Fläche des gleichartigen Polygons der DKM einnimmt, wird dieses
Ecosystem dann auftreten (vgl. Abb. 64).
89
Abb. 64: Überlagerung der DKM mit DLM Daten
Terrafector rendert über der Nutzungsart „Gewässer fließend“. Im linken Bild ist das darunter liegende Polygon der
DKM rot eingefärbt, im rechten Bild wurde ein entsprechendes Ecosystem für ein Bachufer verwendet.
Das Verkehrsnetz des DLM enthält nur bestimmte Straßentypen. Im gesamten Ortsgebiet von Mallnitz
sind keine Daten vorhanden, d. h. hier bilden die Polygone der DKM mit der Nutzungsart
„Straßenanlage“ das Verkehrsnetz. Teilweise spiegeln sich Straßenanlagen im DGM selbst wider und
erzeugen ein natürliches Hindernis für den Verlauf von Terrafectors, wie z.B. eine Unterführung der
Bahnlinie, die den Effekt des darüber laufenden Terrafectors unterbricht (vgl. Abb. 65).
Abb. 65: Natürliche Unterbrechung eines
Terrafectors
Die Form des DGM lässt eine Bahnunterführung
vermuten, tatsächliche Vektoren existieren im DLM
nicht.
Abb. 66: Plazieren eines 3D Objektes
Brücke basierend auf einem Vektorpunkt.
Abb. 65 und Abb. 66 zeigen die Notwendigkeit der Visualisierung von Brücken, die als Verschneidung
verschiedener GIS Layer als Punkt-Shape generiert wurden.
3D Objekte müssen individuell behandelt werden und können nicht automatisiert für alle Punkte
gleichzeitig dargestellt werden. Jedes Objekt muss im Endeffekt manuell an die bestehende Situation
angepasst werden, speziell in der Ausrichtung und Dimension. Die wichtigsten Parameter könnten aber
wiederum über Thematic Maps gesteuert werden. Wenn also ein entsprechendes Shape-File der
Punkte aller Brücken existieren würde, könnte auch dieser Vorgang automatisiert werden.
90
Schwierigkeiten in der Visualisierung ergeben sich dort, wo Polygone auf Terrafectors treffen, also
Straßen unterschiedlicher Methodik aufeinender treffen. Polygone lassen sich schwer mit den Profilen
der Terrafectors vereinbaren. Zusätzliche treten Ungenauigkeiten der Datensätze durch die
unterschiedliche Erfassungsmethode auf (vgl. Abb. 55). Im Einzelfall wurden die Straßenvektoren des
DLM and die DKM Daten angepasst. Die unterschiedlichen Straßentypen des DLM wurden mittels
passender Terrafectors modelliert, wobei besonders im Bereich von Schnitt- und Kreuzungspunkten auf
die Hierarchie bzw. Priority der jeweiligen Profile und Profilpunkte zu achten ist. Schwieriger ist die
Modellierung entlang von Vektoren, wenn z.B. eine Bundesstrasse in eine Landesstrasse übergeht.
Parameter der Profildimensionen von Terrafectors erlauben keine Anwendung von Thematic Maps,
allein mittels der vorhandenen Daten lässt sich kaum ein naturgetreuer, fließender Übergangsbereich
für Detailvisualisierung erreichen, vielmehr eine Mischung aus beiden Straßentypen innerhalb des
Wirkungsradius des gemeinsamen Vektorpunktes.
Die DLM Vektordaten ergänzen die flächenhafte Information aus der DKM im Regelfall sehr gut. Für das
Testgebiet wurden insgesamt 306 Vektoren für Fließgewässer und 54 Vektoren des Verkehrsnetzes mit
Terrafectors modelliert bzw. 31 Polygone mittels Area Terrafectors für stehende Gewässer. Mit dieser
vergleichsweise geringen Anzahl gab es keinerlei Probleme mit der Prozessorleistung, auch nicht bei
Verwendung des 2 m DGM und aller Terrafectors bzw. anderer speicherintensiver Komponenten.
Ausgehend von der Überlegung, dass sich die Daten in ihrer Geometrie und Lagegenauigkeit ergänzen,
ist eine Landschaftsvisualisierung für ein Gebiet dieser Größe durch alle Maßstäbe hin sicher denkbar.
Einzig die oft fehlenden Attributdaten, die wohl allein für die Visualisierung wichtig wären, erschwert die
Aufgabe.
Abb. 67: Fertiges Renderergebnis mit Cloud Models und Shadows im Bildvordergrund
91
4.2.1.4
Animation
Eine Animation kann als eine konstruierte Bewegtbildsequenz beschrieben werden, die dadurch
entsteht, dass Objekte in aufeinander folgenden Bildern derart variieren, dass bei entsprechender
Bildrate (24 - 30 Bilder pro Sekunde) der Eindruck einer fließenden Bewegung entsteht.
Der Begriff wird häufig synonym mit Video, Simulation oder Film gebraucht, wobei diese synonyme
Verwendung jedoch ungenau ist. In der Grafik spricht man jedenfalls von der Erzeugung von bewegten
Bildern (vgl. BUZIEK et al., 2000).
Das Prinzip der Erzeugung von Animationen liegt in so genannten Keyframes, einzelnen Bildern, die als
Stützpunkte einzelner Animationsparameter dienen. Die Animationsparameter der Bilder zwischen den
einzelnen Keyframes werden im VNS entsprechend interpoliert.
Abb. 68: Konzept einer Keyframe-basierten Animation
Keyframes Kf1 – Kf5…gelb, Kamerapfad…rot
Obige Abbildung zeigt das Konzept einer Animation in VNS. Entlang eines Vektors kann ein
Kamerapfad definiert werden, die Vertices dienen als Keyframes. An den Keyframes werden nun
verschiedene Parameter der Kameraposition bzw. des jeweiligen Target gesetzt. Der virtuelle Flug
startet bei Keyframe 1 (KF 1), mit dem Bild Nummer 1, und bewegt sich entlang der definierten
Keyframes (Nummer 2 bis 5) auf einer Spline-Kurve. Alle zeitabhängigen Parameter werden zwischen
92
den Keyframes entsprechend interpoliert. Als Einheit auf der Zeitachse dienen dazu entweder
Sekunden oder Frames.
Neben den Parametern der Kamera- und Targetposition verfügt VNS noch über eine Vielzahl anderer
Parameter, die zeitabhängig animiert werden können, wie z.B. Größe und Position von 3D Objekten,
Cloud Models, Maximale Höhe von Ecotypes, Höhe der Wasseroberfläche von Lakes, Lights oder Snow
Effects, um nur einige zu nennen.
Eine einfache und render-extensive Animation wurde mittels der Quickbird-Szene als natürliche Textur
durchgeführt.
Durch die relativ hohe Auflösung des Satellitenbildes von 1 Meter genügt in diesem Maßstabsbereich
ein grob auflösenderes DGM, um die Geländeoberfläche passend anzubilden. Es gibt auch sonst keine
Komponenten, die eine Verdichtung des DGM verlangen, daher können die Terrain Parameter
vernachlässigt werden. Ein Vorteil gegenüber künstlichen Texturen ist auch, dass natürliche
Beleuchtung bereits im Bild abgebildet ist und daher nicht animiert werden muss bzw. auf renderintensive Shadow Maps verzichtet werden kann.
Abb. 69: Ausschnitt der fertigen Animation (AVI Format, Windows Media Player, Version 9.0)
93
Das Testgebiet ist mit seinen rund 8 km Seitenlänge relativ klein für virtuelle Flüge, weshalb der
Kamerablick leicht über die DGM Grenze hinausgehen kann. Animieren von Haze als atmosphärischer
Parameter in entsprechender Entfernung kann dem mit unter auf einfache Weise entgegenwirken.
Die gesamte Animation (vgl. Abb. 69) besteht aus 850 Einzelbildern mit einer Bildrate von 25 Bildern
pro Sekunde (Gesamtzeit: 34 Sekunden) und benötigte auf einem etwas leistungsschwächeren
Rechner etwa 24 Stunden zum Rendern. Frames dieser Art benötigen auf dementsprechenden
Rechnern üblicherweise einige Minuten an Renderzeit.
Anders die Lage, wenn es sich um künstliche Texturen handelt. Je nach Kamerablickwinkel und
Qualität des zu erzielenden Ergebnisses kann die Renderzeit erheblich größer sein, speziell, wenn 3D
Objekte oder Shadow Maps eingesetzt werden. Terrafectors verlangen meist ein genaueres DGM bzw.
eine weitere Verdichtung der Terrain Parameter, ein wesentlicher Faktor hoher Renderzeiten.
Animationen mit künstlichen Texturen benötigen nicht selten 45 Minuten oder mehr für ihre Einzelbilder.
VNS kann eine Vielzahl an verschiedenen Bildformaten generieren oder direkt Video-Formate erstellen,
wie das Windows Standard Format AVI oder das von Apple lizenzierte Quick Time Format. Die
Animationen in dieser Arbeit wurden als unkomprimierte Einzelbilder gerendert und mittels Adobe
Premiere und verschiedener Codecs in ein entsprechendes Ausgabeformat umgewandelt.
Abb. 70: Ausschnitt einer Animation mit künstlicher Textur (AVI Format, Windows Media Player, Version
9.0)
94
4.2.1.5
Realtime Animation
Gegenüber der aufgezeichneten Animation, also einzelne Bilder, die nach dem Rendern auf einem
Datenträger gespeichert werden, stellt die Echtzeitanimation ganz andere Anforderungen und
Ansprüche an Hard- und Software bzw. auch den User.
Bei Echtzeitanimation erfolgt die Berechnung der Einzelbilder praktisch zeitgleich mit der Betrachtung
der Sequenz. Jedes Einzelbild muss innerhalb von 33 bis 40 Millisekunden erzeugt werden, um eine
übliche Bildrate von 24 bis 30 Bildern pro Sekunde zu erzielen (vgl. BUZIEK et al., 2000).
Der große Vorteil dieser Methodik liegt in der Interaktivität des Systems, das dem Anwender erlaubt,
sich auf individuelle Art und Weise durch die virtuelle Landschaft zu bewegen, nahezu in Echtzeit.
Abhängig vom jeweiligen Realtime Viewer bzw. dessen Benutzerfreundlichkeit kann dieser Vorteil für
ungeübte Anwender oft von Nachteil sein, gegenüber Animationen, und man verliert sich leicht
irgendwo im Modell. Echtzeitanimationen können daher natürlich auch nicht über Komplexität und
Fotorealismus von Animationen verfügen. Um die Anwendung zu optimieren gilt vielmehr der
Grundsatz: Keep it simple.
Ein entscheidender Kritikpunkt an fotorealistischen Landschaftsgeneratoren und speziell VNS war
bisher, dass es keine Möglichkeit gab, die generierten Landschaften zur Echtzeitanimation zu nutzen.
Mit dem Release von VNS 2 (bzw. World Construction Set 6) wurde auch das Zusatzmodul „Scene
Express“ angeboten, das nun genau dies ermöglichen soll, wobei folgende Datenformate unterstützt
werden:
Realtime Formate:
VRML (Virtual Reality Modeling Language)
VTP (Virtual Terrain Project)
NV (NatureView)
FLT (OpenFlight )
TXP (TerraPage)
Rapid Prototyping Formate:
STL (Stereo Lithography)
VRML-STL (Stereo Lithography as VRML)
3D Integrations-Formate:
3DS (3D Studio)
LWS (Lightwave)
MA (Alias Wavefront Maya)
DSC (Avid Softimage)
95
Von den Realtime Formaten ist VRML das einzige Format, das auch webbasiert eingesetzt werden
kann, als mittlerweile internationaler Langzeit-Standard. Ein Export in X3D ist seitens 3D Nature LLC zu
Zeit nicht vorgesehen, da man im Moment keinen entscheidenden Vorteil gegenüber VRML in der
Darstellung und Performance sieht.
Nature View wurde von 3D Nature LLC entwickelt, zur optimierten Darstellung von Echtzeitanimation in
einem eigenen Viewer NVE (Nature View Express).
Rapid Prototyping Formats wurden zur Herstellung von Modellen im Ingenieurswesen entwickelt, z.B.
zur Produktion von physischen Modellen der digitalen Oberfläche.
Export in gängige 3D Formate gab es auch schon zuvor mit der Komponente Scene Export. Scene
Express greift diese Funktionalitäten auf und erlaubt darüber hinaus weitere Optionen und Formate, um
ein Landschaftsmodell in andere 3D-Systeme zu exportieren und weiter zu bearbeiten.
Von besonderem Interesse in dieser Arbeit war der Export in die Formate VRML, nicht so sehr aus dem
Gesichtspunkt der Webapplikation, als der grundsätzlichen Möglichkeit und weiten Verbreitung des
Standardformates VRML, und NV. Ein wesentlicher Vorteil des NVE-Viewers ist, dass er lizenz- und
kostenfrei verwendet und auch weiterverteilt werden kann.
Scene Express exportiert die wesentlichen Landschaftselemente und Komponenten wie das DGM,
Textur, Foliage, Sky, 3D Objekte, Walls, Vektoren, Cameras. Lights und Haze – je nach Exportformat
mit unterschiedlichen Optionen. Des Weiteren gibt es noch Optionen, die Darstellung des Viewers
betreffend, z.B. die Einschränkung der Bewegung in Richtung der DGM Oberfläche oder Verwendung
von individuellen Bildern als Overlay, z.B. Firmenlogos oder Informationen über den Bearbeiter.
Abb. 71 und Abb. 72 zeigen unterschiedliche Ausschnitte (aus dem Testgebiet Mallnitz – Hohe Tauern)
und Exporteinstellungen. Abb. 71 beinhaltet ein relativ grob auflösendes DGM und ein entsprechendes
Flussnetz mit Terrafectors bzw. Gebäuden und umzäunte Grundstücksgrenzen als Walls im NVE.
Abb. 72 zeigt einen kleinen Detailausschnitt mit höherer Auflösung des Terrain (ca. 1 m) und der Textur
(ca. 0,2 m) mit den Ecosystems der DKM bzw. Gebäuden und Zäunen als Walls im Viewer Cortona,
Version 4.2.
96
Abb. 71: Teilausschnitt in Nature View Express (NVE), Version 1.60
Abb. 72: VRML Szene in Cortona 4.2
In der Softwaredokumentation von VNS wird darauf hingewiesen, dass zwar bereits herkömmliche
Grafik-Arbeitsplätze mehrere hundert-tausend texturierte Polygone in Echtzeit bewältigen können,
97
wobei von einer Bildrate von 15 Bilder pro Sekunde gesprochen wird, als Minimum zur Betrachtung in
Echtzeit. Weiters wird festgehalten, dass Realtime-Export ungleich mehr an Einschränkungen
gebunden ist, als andere Formate. Als grundsätzliche Überlegungen zur Performance-Optimierung
werden folgende Punkte empfohlen:
Minimierung der Komplexität des Geländemodells bzw. von 3D Objekt-Modellen. Je weniger
Details, desto schneller die Bildrate.
Minimieren der 2D Bilder als Foliage. Kompromiss zwischen Realismus und Interaktivität.
Minimieren der Texturauflösung, wo immer möglich.
Testen der Szenen auf verschiedenen Clients und Optimieren des Ergebnisses für den
Zielclient.
Insgesamt wurden über 100 verschiedene Versuche mit VRML und NV-Export durchgeführt. Es
empfiehlt sich, ein eigenes VNS Projekt für den Export zu verwenden, da einige Komponenten für den
Realtime Export teilweise erheblich modifiziert werden müssen.
VRML-Export funktionierte generell recht zufrieden stellend. Abhängig von Gebietsausschnitt und den
genannten Export-Parametern variiert die Performance und Dateigröße beträchtlich. Der Ausschnitt, wie
in Abb. 72 gezeigt, umfasst ca. 300 x 300 m und erreicht mit den hoch auflösenden Einstellungen eine
Dateigröße von rund 6 MB, für Webdarstellung natürlich kaum geeignet. Das gesamte Gebiet von 8 km
Seitenlänge produziert mit denselben Einstellungen ein File von rund 67 MB und ist selbst offline mit
dem verwendeten Rechner eigentlich nicht mehr zu bewältigen. Mit entsprechenden Qualitäts- und
Detailabstrichen lassen sich aber durchaus brauchbare Echtzeitmodelle generieren. Scene Express
ermöglicht mit dem Export nach VRML eine (beliebige) Anzahl an LODs (Level of Detail), abhängig von
der Kameradistanz, die sich auch auf die Dateigröße auswirkt.
Das Nature View Format zeigt im Vergleich zu VRML geringere Dateigrößen als Ergebnis und eine
unterschiedliche Darstellung hinsichtlich Texturen, die, je näher der Blickpunkt dem DGM kommt,
verschwommen wirken, gegenüber eines „Pixelns“ im VRML Modell, je nach Texturauflösung. Ein NVExport des gesamten Gebietes mit dem Satellitenbild als natürliche Textur lieferte ein Ergebnis mit guter
Performance im NVE und einer Dateigröße von etwa 8 MB. Auch der VRML Export mit denselben
Einstellungen brachte ähnliche Ergebnisse, auch hinsichtlich der Dateigröße. Der Export von Walls
erwies sich als problematisch und führte sehr oft dazu, dass die Szene im NVE nicht geladen werden
konnte. Die Verwendung von 3D Objekten anstelle von Walls für Gebäude funktionierte dagegen
problemlos. Gerade aber die Verbauung rund um den zentralen Ort Mallnitz aus der DKM erscheint als
besonders interessant in der Echtzeitanimation, vor allem als Modellierung mittels Walls. Das
Exportproblem, das anderen User-Erfahrungen nach kein Einzelfall ist, konnte bis Beendigung dieser
Arbeit auch seitens der VNS Usergroup nicht eruiert und behoben werden. Es bleibt abzuwarten, ob
eine nächste Version von NVE Abhilfe bringt.
98
5 Grenzen und Zielsetzung
Diese Arbeit befasst sich mit verschiedenen Geodaten und deren Nutzung zu einer möglichst
automatisierten Visualisierung mittels der High-End Visualisierungssoftware Visual Nature Studio 2.
Dabei wurde auf bereits bestehende Daten zurückgegriffen und versucht, diese im Sinne einer
automatisierten Anwendung mit vordefinierten Landschaftselementen, wie z.B. so genannten
Ecosystems, mit einem Minimum an Pre- und Postprocessing zu visualisieren. Einige Dinge wurden im
Zuge der Arbeit immer wieder augenfällig, die im Folgenden kurz behandelt werden.
5.1 Systemvoraussetzung
Tools wie VNS, speziell das Rendern von fotorealistischen Bildern, stellen bestimmte Ansprüche an die
Soft- und Hardware eines Rechners. Der für diese Arbeit verwendete Computer ist zwar nicht mehr der
neuesten Generation zugehörig, entspricht aber dennoch den Anforderungen, wobei man aber immer
wieder erkennen muss, dass gar nicht genug Rechenleistung vorhanden sein kann, um alle
erwünschten Resultate zu erzielen. Speziell das Rendern von Animationen ist besonders zeitintensiv,
selbst, wenn die Möglichkeit besteht, den Prozess auf mehrere Rechner aufzuteilen. Zeitdruck und
Abgabetermine können ein nicht unwesentlicher Faktor zur Qualitätssenkung sein. Einige Grenzen, an
die man innerhalb der Arbeit mit VNS stößt, entspringen nicht der Softwarefunktionalität selbst, sondern
gehen vielmehr auf die Leistungsfähigkeit des Rechners zurück.
5.2 Daten & Zielsetzung
Für diese Arbeit wurden verschiedene Fernerkundungs- und GIS Daten eingesetzt. Ausgehend von der
Überlegung, dass es für große Gebiete (z.B. bundesweit) homogene Datensätze gibt, ist der Gedanke,
diese weitgehend automatisiert zu visualisieren, nahe liegend.
Grundvoraussetzung für eine Landschaftsvisualisierung ist eine lückenlose, flächendeckende
Information. Es hat sich gezeigt, dass die amtlichen GIS-Daten diese Information nur bedingt liefern
können. Das DLM umfasst in erster Linie punkt- und linienförmige Objekte, der Ausbau auf einen
mehrklassigen Objekbereich „Bodenbedeckung“ ist noch Zukunftsdenken. Die DKM hingegen enthält
eine Vielzahl an Information, die aber gerade deshalb für Hard- und Software eine Art „Overkill“
darstellt. Die Kombination von Fernerkundungsdaten mit amtlichen GIS-Daten brachte deshalb sehr
anschauliche Ergebnisse, gemessen am Arbeitsaufwand und der Rechenleistung.
Fazit hierbei bleibt aber, dass eine Visualisierung nur so gut sein kann, wie die Daten, auf denen sie
beruht. Wichtig ist es, dass man sich bewusst ist, welche Daten man einsetzt (oder zu Verfügung hat)
und was für Output man davon erwartet bzw. vielmehr erwarten kann. Das Wesen der Visualisierung
liegt darin, Inhalte in graphischer Form sichtbar zu machen, also intuitiv verständlich. Geht man von
einer Fernerkundungsklassifikation aus, kann diese sehr rasch auf einfache Weise visualisiert werden,
allerdings mit der Limitierung der „natürlichen“ geometrischen Auflösung des Bildes. Im Grunde aber
passiert genau das, was die Aufgabe der Visualisierung ist. Jedes Pixel wird mit einem entsprechenden
99
Landschaftselement bestückt, Klassengrenzen bleiben im Allgemeinen scharf abgetrennt. Die
Zielsetzung, mittels derselben Daten eine möglichst realistische Landschaftsvisualisierung zu erreichen,
wird nur unzureichend mit entsprechenden Abstrichen erreicht werden können, wie es eben im Wesen
der Datengrundlage liegt. VNS verfügt zwar über verschiedene Techniken und Effekte, doch wird sich
an den grundlegenden Grenzen kaum etwas ändern.
Eine eigentlich ideale Ergänzung zu den Rasterdaten bieten nun Vektoren, die speziell linienhafte
Landschaftselemente modellieren und der Landschaft ein wesentlich realistischeres Aussehen
verleihen. Der Einsatz von Vektoren hat aber gezeigt, dass man oft gezwungen ist,
Kompromisslösungen zu finden, um das Datenvolumen hinsichtlich des Renderns noch bewältigen zu
können. Allein die Tatsache, dass es flächendeckend sehr genaue Vektordaten gibt, bedeutet eben nur
theoretisch, dass diese dementsprechend flächendeckend visualisiert werden können. Je nach
Verwendung der Vektoren, z.B. Linienvektoren als Terrafectors zur Modellierung des Gewässernetzes,
oder Polygone zur flächenhaften Platzierung von Ecosystems, wird irgendwann einmal eine die Grenze
der Rechenleistung erreicht werden.
Lange (2001) weist auch darauf hin, dass bei computergestützten dreidimensionalen Visualisierungen
üblicherweise mit einem nicht zu unterschätzendem manuellen Aufwand ein ganz spezifischer
Landschaftsausschnitt modelliert wird.
Es wurde gezeigt, dass verschiedene Geodaten zu einem bestimmten Zweck generiert werden und im
Normalfall, vor allem von ihrer Attributstruktur, keine ideale Voraussetzung für die Möglichkeiten in VNS
darstellen. Es müssten also bestimmte Voraussetzungen erfüllt sein, wie z.B. Homogenisierung
unterschiedlicher Datensätze hinsichtlich Geometrie- und Lagegenauigkeit, um die GIS-Kompatibilität
von VNS möglichst effizient nutzen zu können. Geht man aber von einer idealisierten Datenstruktur aus,
dann wird auch die Visualisierung befriedigende Ergebnisse liefern. Für großflächige Gebiete müssten
die Daten wohl in mehrere kleinere Projekte aufgeteilt werden, um das Datenvolumen in VNS noch
verarbeiten zu können. Ein Aspekt, der in all diesen Überlegungen mitspielt, aber noch nicht erwähnt
wurde, ist das immanente Problem des Maßstabes. Büscher (2004) bemerkt in einer Arbeit mit WCS,
dass die Qualität der erreichten Visualisierung oft von der Perspektive und dem Maßstabsbereich der
Abbildung abhängt.
5.3 Maßstab
Alles, was für das Datenvolumen und die Zielsetzung gilt, steht natürlich in engem Zusammenhang mit
der Frage nach dem Maßstab. In der Geovisualisierung trifft man eigentlich kaum auf konkrete
Maßstabszahlen, was ja bei perspektivischen Darstellungen nicht unbedingt zielführend ist. Vielmehr
wird von einem großen-, mittleren- und kleinen Maßstab gesprochen. Diese drei Maßstabsebenen
lassen sich in der 3D-Visualisierung in Abhängigkeit von der Sichtweite auch als Vordergrund,
Mittelgrund und Hintergrund dominierte Szene beschreiben (PAAR et al., 2004). Je größer aber der
Maßstab, desto mehr Details benötigen die bildgebenden Elemente und der Rechenaufwand steigt
beträchtlich.
100
Innerhalb dieser Arbeit wurde gezeigt, dass mit den verwendeten Daten eine recht anschauliche
Landschaftsvisualisierung im kleinen und mittleren Maßstab möglich ist, teilweise auch im großen
Maßstab. Zielt man jedoch wirklich auf fotorealistische Ergebnisse im großen Maßstab ab, braucht es
vor allem dementsprechend detaillierte 3D Modelle. Ein besonders schwieriger Punkt ist jene Klasse der
verbauten Flächen, wenn eben nur eine geringe Anzahl schematischer 3D Objekte zu Verfügung steht.
Hier bietet aber besonders der Einsatz von Walls in Zusammenhang mit Gebäudegrenzen aus der DKM
sehr gute Alternativen.
Generell kann man nicht davon ausgehen, dass ein Datensatz das gesamte Arbeitsgebiet durch alle
Maßstäbe hindurch abdeckt. Je nach Blickwinkel und Aufgabenstellung muss selektiert werden, was bei
Einzelbildern kein Problem ist, sehr wohl aber bei Animationen. Immer wieder wird die nun schon viel
strapazierte Grenze der Rechenleistung erreicht werden, die sich mit der Weiterentwicklung der
gängigen Computersysteme aber immer weiter noch oben schieben wird.
Der Begriff des Maßstabes spielt auch noch in anderen Überlegungen eine Rolle. In Zusammenhang
mit hoch auflösenden Satellitenbildern wie IKONOS findet man auch Begriffe wie „personal-scale“ (L.
JORDAN, 2000) oder „menschlicher Maßstab“ (PAAR et al., 2004). Lange (2003) spricht auch von einem
„ethischen Maßstab“ in Beziehung mit der Verantwortung gegenüber ungewollten oder gar
beabsichtigten Missbrauch, die mit einer bestimmten Darstellung eines Raumes verbunden sein kann.
Weiters betont Lange (2005), dass sich die Bearbeiter dessen bewusst sein müssen, dass
Visualisierungen kaum jemals für sich selbst sprechen, ungeachtet dessen, was sie selbst glauben. Es
wird oft vernachlässigt, dass begleitende Worte, geschrieben oder gesprochen, einen hohen Einfluss
darauf haben, wie visuelle Information wahrgenommen wird. Danahy und Hoinkes (1999) sprechen in
diesem Zusammenhang von kulturellen und gesellschaftlichen Werten, die damit bewusst transportiert
bzw. ausgeblendet werden können.
6 Diskussion und Ausblick
Im Zuge dieser Arbeit hat sich gezeigt, dass für automatisierte Abläufe bestimmte Voraussetzungen
gegeben sein müssen. Einerseits betrifft dies eine geeignete Arbeitsumgebung, Faktoren, die relativ
leicht beeinflusst werden können. Andererseits betrifft es die Datengrundlage, auf der die Visualisierung
aufbaut. Geodaten werden für bestimmte Zwecke generiert und auch meist dafür optimiert. Eine
Visualisierung, im Sinne einer High-End Software wie VNS, steht meist am Ende des gesamten
Verarbeitungsprozesses und ist weniger das Primärziel. Von allen derzeit am Markt erhältlichen
Softwareprodukten bietet VNS sicher die größte GIS-Kompatibilität und findet dadurch auch vielseitige
Verwendung in Planungsprozessen. Mit den zugrunde liegenden Daten stellt sich natürlich auch die
Frage der Zielvorstellungen, also welcher Betrachtungsmaßstab angestrebt wird, ob Standbilder,
Animationen oder Echtzeitanimation produziert werden sollten oder welcher Grad an Realismus dafür
notwendig ist.
101
Im Idealfall richten sich die Datengrundlagen nach den Ansprüchen der Zielsetzung, und nicht
umgekehrt. In dieser Arbeit stellte sich die Frage, welche Ergebnisse mittels Fernerkundungsdaten
erzielt werden können bzw. welche Möglichkeiten GIS-Daten bieten, wie eben das DLM bzw. die DKM,
die theoretisch für eine Visualisierung für große Gebiete flächenhaft vorhanden wären.
Bei den verschiedenen Daten hat sich gezeigt, dass der unterschiedliche Erhebungsmaßstab und die
damit einhergehende Qualität hinsichtlich Geometrie und Topologie bei näherer Betrachtung zu
Problemen in der praktischen Umsetzung führen. Ein anderes Problem liegt in der Attributstruktur
herkömmlicher Geodaten, die im Normalfall nicht in der Form vorliegen, dass sie sinnvoll und vor allem
effektiv für Thematic Maps in VNS verwendet werden können.
Geht man von einer idealisierten Datengrundlage bzw. von einem Minimum an manuellem Aufwand im
Preprocessing aus, kann der Prozess einer Geovisualisierung durchaus sehr rasch und teilweise
automatisiert erfolgen. Die letztliche Grenze liegt derzeit wohl bei der jeweiligen Leistung des
verwendeten Rechners.
Die Verwendung von Polygonen zur Platzierung von Ecosystems mit der DKM hat sich als relativ
render-extensiv präsentiert. Die Fortführung des DLM hinsichtlich einer flächendeckenden
Bodenbedeckungsinformation mittels Polygonen ließe hierbei einige neue Möglichkeiten offen,
großflächige Gebiete mit GIS-Daten anstatt (oder in Kombination mit) Fernerkundungsdaten zu
visualisieren. Mit der kontinuierlich fortschreitenden Entwicklung der Rechnerleistung von
herkömmlichen Computern sollten sich auch die Möglichkeiten mit VNS für größere Datenmengen
umsetzen lassen.
Eine 3D-Visualisierung mittels VNS kann aber nicht als Black-Box verstanden werden, die per
Knopfdruck aus einer Summe an Input-Daten den gewünschten Output erzielt. Automatisierung lässt
sich nur für bestimmte Arbeitsschritte unter eben in dieser Arbeit gezeigten Voraussetzungen erzielen.
Die Vor- und Nachteile der verschiedenen Datengrundlagen wurden klar aufgezeigt. In der praktischen
Umsetzung zeigte sich auch deutlich, dass, nicht nur durch die Softwarefunktionalität bedingt, Rasterund Vektordaten in Kombination eine ideale bzw. sinnvolle Datengrundlage bilden. Gleichzeitig wurde
auch aufgezeigt, dass Fernerkundungsdaten ein sehr einfaches Mittel darstellen, eine 3DLandschaftsvisualisierung durchzuführen, mit gewissen Qualitätsabzügen auch für großmaßstäbige
Fragestellungen. GIS-Daten sind aber für bestimmte Elemente gleichsam unerlässlich, auch wenn sich
das volle Potential der GIS-Funktionalitäten mit VNS durch die Struktur der bestehenden amtlichen GISDaten, ohne entsprechendes Preprocessing, nicht ausschöpfen lässt.
Der Nutzen und die Anwendung von Geodaten für 3D-Visualisierung, speziell in Kombination mit VNS,
ist in vielfältiger Weise dokumentiert (vgl. APPLETON, 2001; FUHRMANN, 2001; BUCKLEY und HUBER,
2002; MENG, 2003; ERVIN, 2003; DUNBAR et al., 2003; LOVETT et al., 2003; FELDES, 2003; BÜSCHER,
2004; VAN DER MAAREL, 2005).
Es ist zu erwarten, dass mit der ständig wachsenden Menge an Geodaten und der gleichzeitigen
Entwicklung der Möglichkeiten künftiger Computergenerationen, auch die Nachfrage bzw. der Nutzen
102
an einer entsprechenden Visualisierung steigen wird. Vor nicht allzu langer Zeit hat Google mit dem
Release von „Google Earth“ einen beachtlichen Schritt in Richtung Breitenwirksamkeit von
Geovisualisierung gesetzt.
Jordan (2000) meinte recht treffend, dass gegenüber jenem viel zitierten Bild, das mehr als tausend
Worte sagt, eine dreidimensionale Ansicht wohl ein ganzes Buch wert sein muss.
103
7 Literaturverzeichnis
3D-Nature, LLC (2001): Visual Nature Studio. Using VNS. 3D Nature LLC, Arvada, Colorado
80002, USA.
3D-Nature, LLC (2003): Visual Nature Studio 2. Using VNS. 3D Nature LLC, Arvada,
Colorado 80002, USA.
Albertz, J.. (2001): Einführung in die Fernerkundung – Grundlagen der Interpretation von
Luft- und Satellitenbildern, Wissenschaftliche Buchgesellschaft, Darmstadt, 249 S.
Andresen, T., Mott, C., Schüpferling, R., Zimmermann, S., Schneider, T. (2002):
Objektorientierte
Analyse
von
Fernerkundungsdaten
zur
Erfassung
aquatisch/terrestrischer Parameter, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS –
Neue Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 1-8
Appleton, K., (2001): Rural Landscape Visualisation from GIS Databases: A Comparison of
Approaches, Possibilities and Problems, In: GIS Research UK, 9th Annual Conference
(Quelle: http://enva2.env.uea.ac.uk/e173/papers/gisruk01/gisruk2001.html)
Appleton, K., (2001): Computer visualisation of planning proposals – comments from
interviews with local authority planning officers and others, IBG Conference 2001 –
Whitlingham path project (Quelle: http://www.uea.ac.uk/~e173/planners.html)
Asche, H., (1999): Geoinformatik, unveröffentlichtes Vorlesungsskriptum, Universität
Potsdam, Institut für Geographie: Abteilung Geoinformatik (Quelle: http://www.unipotsdam.de/u/Geographie/geoinfo/lehre/download/download.html)
Bähr, H. P., Vögtle, T. (Hrsg.) (1998³): Digitale Bildverarbeitung – Anwendung in
Photogrammetrie, Kartographie und Fernerkundung, Wichmann Verlag, Heidelberg, 360
S.
Bill, R. und Zehner M. L. (2001): Lexikon der Geoinformatik – Herbert Wichmann Verlag,
Heidelberg, 312 S.
Bishop, D., (2005): Visualization for Participation: The Advantage of Real-Time? Paper zur
6. Internationalen Konferenz zu Neuen Technologien in der Landschaftsarchitektur –
“Trends in Realtime Landscape Visualization and Participation”, Anhalt, 2005, 13 S.
(Quelle: http://www.masterla.de/conf/)
Blaschke, T. (1997): Unschärfe und GIS: "'Exakte'" Planung mit unscharfen Daten?
Schrenk, Manfred (Hg): Computergestützte Raumplanung - Beiträge zum Symposium
CORP 97; Selbstverlag des Institutes für EDV-gestützte Methoden in Architektur und
Raumplanung der TU Wien. S. 39-51.
104
Blaschke, T. (2002): Fernerkundung und GIS – Neue Sensoren – innovative Methoden,
Wichmann Verlag, Heidelberg, 264 S.
Blaschke, T. (2002b): Objektextraktion und regelbasierte Klassifikation von
Fernerkundungsdaten: Neue Möglichkeiten für GIS-Anwender und Planer, In: 5.
Symposium „Computergestützte Raumplanung“ – CORP 2000, S. 153-162
Blaschke, T., Gläßler, C., Lang, S. (2002a): Bildverarbeitung in einer integrierten
GIS/Fernerkundungsumgebung – Trends und Konsequenzen, In: Blaschke, T. [Hrsg.]:
Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag,
Heidelberg, S. 1-8
Blaschke, T., Lang, S., Lorup, E., Strobl, J., Zeil, P. (2000): Object-oriented image
processing in an integrated GIS/remote sensing environment and perspectives for
environmental applications, In: Cremers, A. & Greve, K. (Hrsg.): Environmental
Information for Planning, Politics and the Public, Metropolis, Marburg, Volume II, S. 555570.
Bollmann, J. und Koch W. G. (2001): Lexikon der Kartographie und Geomatik, Band 1 und
2, Spektrum Akademischer Verlag, Heidelberg, Band 1: 451 S., Band 2: 455 S.
Booth, B., Mitchell, A. (2000), ESRI, Inc. (Hrsg.): ESRI ArcGIS Handbücher zur Software,
USA.
Bossler, J. D. (2002): Manual of Geospatial Science and Technology. London: Taylor &
Francis, 623 S.
Brandstätter, G. (1996): Digitale Bildverarbeitung. Unveröffentlichtes Vorlesungsskriptum.
Institut für Angewandte Geodäsie – Abteilung für Photogrammetrie und Fernerkundung
der Technischen Universität Graz.
Buchroithner, M. F., Schenkel, R. (2001): Kartographische Echt-3-D-Visualisierung – eine
Ergänzung zu flachen Karten, in: Buzin/Wintges (Hrsg.): Kartographie 2001 –
multidisziplinär und multidimensional, Beiträge zum 50. Deutschen Kartographentag,
Wichmann Verlag, Heidelberg, S. 55-64
Buckley, D., Huber, G., (2002): 3-D Visualization Supports Natural Reource Management at
Fort AP Hill, A Space Imaging White Paper, Colorado/USA, 2002, 10 S.
Büscher, O., (2004), Institut für Geoinformatik, Universität Münster (Hrsg.): Die 3DVisualisierung einer Lippeauen-Renaturierung mit dem World Construction Set (WCS) –
Möglichkeiten und Grenzen einer Visualisierungssoftware, Beitrag zur GIO „3DGeovisualisierung“. Münster, Online Publikation (Quelle: http://gio.uni-muenster.de/)
Buziek, G. / Dransch, D. / Rase, W. (Hrsg.), (2000): Dynamische Visualisierung.
Grundlagen und Anwendungsbeispiele für kartographische Animationen. Berlin /
Heidelberg: Springer-Verlag, 234 S.
105
Crawford, C., (2000): Virtualising the 3D Real World (6) – Effective Communication by
Realistic Representation, In: GIM International, 9/2000, S. 37-39
Danahy, J., Hoinkes, R., (1999): Visual Landscape – Schauen, Bewegen und Verknüpfen,
In: Garten + Landschaft, 11/1999 S.22-27
Dransch, D., (1997): Computeranimation in der Kartographie – Theorie und Praxis,
Springer- Verlag, Berlin – Heidelberg, 145 S.
Dunbar, M. D., Moskal, M. L., Jakubauskas, M. E., Dobson, J. E., Martinko E. A., (2003):
Computer visualization of forest cover change: Human impacts in northeastern Kansas
and natural disturbance in Yellowstone National Park, Paper zur 69. ASPRS Konferenz
in Anchorage, Alaska, 2003, 12 S. (Quelle: www.kars.ukans.edu/projects/visualization/
Papers/ASPRS2003_MDunbaretal.pdf)
Ehlers, M.. (2002): Fernerkundung für GIS-Anwender – Sensoren und Methoden zwischen
Anspruch und Wirklichkeit, In: Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue
Sensoren – innovative Methoden, Wichmann Verlag, Heidelberg, S. 10-23.
Ervin, S. M., (1999): Agenda für Landschaftsmodellierer – Steine auf dem Weg zum
Weltmodell, In: Garten + Landschaft, 11/1999 S. 18-21
Ervin, S. M., (2003): Trends in Landscape Modeling, In: Buhmann, E., Ervin, S. M. [Hrsg.]:
Trends in Landscape Modeling, Proceedings at Anhalt University of Applied Sciences
2003, Wichmann Verlag, S. 2-8
European Environment Agency (2002): CORINE Land Cover update I&CLC2000 project –
Technical Guidelines, 69 S. (Quelle: http://terrestrial.eionet.eu.int/CLC2000/#StatusMap)
Feldes, J. (2003): Vergleichsanalyse verschiedener Softwarepakete zur 3D-Visualisierung
von Geodaten. Unveröffentlichte Diplomarbeit. Institut für Angewandte Geodäsie –
Abteilung für Photogrammetrie und Fernerkundung der Technischen Universität Graz,
107 S.
Franzen, M., Kohlhofer, G., Jansa, J., Sindhuber, A., (1998): Ergänzung und Fortführung
des Digitalen Landschaftsmodells des BEV mit Fernerkundung, In: VGI –
Österreichische Zeitschrift für Vermessung und Geoinformation, 3/1998, S. 161-166
Fuhrmann, S., Kraak, M. J., (2001): Geovisualisierung – Einführung in das Thema, In:
Kartographische Nachrichten, 4/2001, S. 173 f.,
Fuhrmann, S., Schmidt, B., Berlin, K., Kuhn, W., (2001): Anforderungen an 3DInteraktionen in geo-virtuellen Visualisierungsumgebungen, In: Kartographische
Nachrichten, 4/2001, S. 191-195
106
Gartz, K. H., (2003): 3D Visualisierung und Interaktion, (Quelle: http://www.lichtfalle.de)
(Quelle:www.lichtfalle.de/Kino/grundlagen/pdf%B4s/05%203DVisualisierung%20und%20Interaktion.pdf)
Geier, B., Egger, K., Muhar, A. (2001): Integrierte 3D-Visualisierungs-Systeme für die
Landschaftsplanung: Konzepte und Marktrealität, In: 6. Symposium „Computergestützte
Raumplanung“ – CORP 2001, S. 231-235,
Geldermans, S., Hoogenboom, M., (2001): GIS Visualization – The Killer Application?, In:
Geoinformatics, October 2001, S. 6-9
Hake, G., Grünreich, D., Meng, L., (2002): Kartographie – Visualisierung raum-zeitlicher
Informationen, 8. Auflage, de Gruyter, Berlin, 604 S.
Hirschmugl, M. (2002): Automatisierte Bildsegmentierung von Nutzungsstrukturen in der
Fernerkundung, Unveröffentlichte Diplomarbeit. Institut für Geographie und
Raumforschung der Karl Franzens Universität Graz.
Jensen, R. J. (2000): Remote Sensing of the environment – an earth resource perspective,
Prentice-Hall, Inc., New Jersey, 544 S.
Jobst, M., (2004): Benutzerschnittstellen in der multimedialen 3D Kartografie – eine
Gegenüberstellung, In: 9. Symposium „Computergestützte Raumplanung“ – CORP
2004, S. 579-584
Jordan, L., (2000): Virtualising the 3D Real World (4) – Web Accessible Viewing Next Step
for GIS, In: GIM International, 7/2000, S. 38-41
Jünemann, P., Paar, P., Rekittke, J., (2001): Landschaftsplanung: Verbreitung und Einsatz
von 3D-Visualisierungswerkzeugen in der Planungspraxis, In: Kartographische
Nachrichten, 4/2001, S. 200-204,
Koch, B., Harm, J., (2001): Remote Sensing and spatial data for the establishment and
visualisation of 3D computer landscape models as basis for visual impact assessment,
In: GeoBIT/GIS – Zeitschrift für raumbezogene Informationen und Entscheidungen,
12/2001, S. 41-48
Kraak, M. J., (2002): Some Aspects of Geovisualization, In: Geoinformatics, December
2002, S. 26
Kretzler, E., (2003): Nah an der Realität, In: Garten + Landschaft, 9/2003 S 38-39.
Lange, E., (2001): Prospektive 3-D-Visualisierungen der Landschaftsentwicklung als
Grundlage für einen haushälterischen Umgang mit der Ressource Landschaft, In: Natur
und Landschaft, 12/2001, S. 513-519
107
Lange, E., Schroth, O., Wissen, U., Lange, E., Schmid, W., (2003): Anforderungen an
Visualisierungstools zur Partizipation der Öffentlichkeit bei der Bewertung der
Landschaftsentwicklung, In: 8. Symposium „Computergestützte Raumplanung“ – CORP
2004, S. 553-556
Lange, E., (2005): Issues and Questions for Research in Communicating with the Public
through Visualizations, Paper zur 6. Internationalen Konferenz zu Neuen Technologien
in der Landschaftsarchitektur – “Trends in Realtime Landscape Visualization and
Participation”, Anhalt, 2005, 11 S. (Quelle: http://www.masterla.de/conf/)
Lovett, A., Hermann, S., Appleton, Katy., Winter, T., (2003): Landscape Modeling and
Visualisation for Environmental Planning in Intensive Agricultural Areas, Paper zur 4.
Internationale Konferenz zu Neuen Technologien in der Landschaftsarchitektur –
“Trends
in
Landscape
Modeling”,
Anhalt,
2003,
9
S.
(Quelle:
http://www.masterla.de/conf/)
MacEachren, A. M., Brewer, I. (2001): Kollaborative Geovisualisierung zur
Wissensgenerierung und Entscheidungsunterstützung, In: Kartographische Nachrichten,
4/2001, S. 185-191
McEachren, M., Kraak, M. J.,
(2001): Research Challenges in Geovisualization, In:
Kartographische Nachrichten, 4/2001, S. 204-207
Meng, L., (2003): Rahmenbedingungen beim Einsatz von Geovisualisierungsmethoden und
-techniken, In: Deutsche Gesellschaft für Kartographie e.V. (Hrsg.): Kartographische
Schriften, Band 7 – Visualisierung und Erschließung von Geodaten, Seminar GEOVIS
2003, Kirschbaum Verlag, Hannover, S. 3-11
Neubert, M., Meinel, G. (2002): Segmentbasierte Auswertung von IKONOS-Daten –
Anwendung der Bildanalyse-Software eCognition auf unterschiedliche Testgebiete, In:
Blaschke, T. [Hrsg.]: Fernerkundung und GIS – Neue Sensoren – innovative Methoden,
Wichmann Verlag, Heidelberg, S. 109-117
Olbrich, G., Quck, M., Schweikart, J. (2002): Desktop Mapping – Grundlagen und Praxis in
Kartographie und GIS, 3. Auflage, Springer Verlag, Berlin, 309 S.
Paar, P., Schroth, O., Wissen, U., Lange, E., Schmid, W., (2004): Steckt der Teufel im
Detail? Eignung unterschiedlicher Detailgrade von 3D-Landschaftsvisualisierung für
Bürgerbeteiligung
und
Entscheidungsunterstützung,
In:
9.
Symposium
„Computergestützte Raumplanung“ – CORP 2004, S. 535-541
Palmer, J., (2003): Research Agenda for Landscape Perception, In: Buhmann, E., Ervin, S.
M. [Hrsg.]: Trends in Landscape Modeling, Proceedings at Anhalt University of Applied
Sciences 2003, Wichmann Verlag, S. 163-172
Pocock, L., Rosebush, J., (2002): The Computer Animator´s Technical Handbook, Morgan
Kaufmann Publishers, San Francisco, 464 S.
108
Raggam, J. et al. (1999): RSG in ERDAS IMAGINE. Remote Sensing Software Package
Graz.
Field
Guide.
RSG
Release
3.23.
JOANNEUM
RESEARCH
Forschungsgesellschaft mbH. Graz.
Reed, C., (2000): Virtualising the 3D Real World (5) – Importance of Data Integration and
Rendering to Map Visualisation, In: GIM International, 8/2000, S. 50-53
Sallet, E. (2002): Fachwörterbuch Fernerkundung und Geoinformation, Wichmann Verlag,
Heidelberg, 350 S.
Schauppenlehner, T. (2002): Interaktive Landschaftsvisualisierung auf Basis von VRML in
Entwurfs- und Entscheidungsprozessen, Unveröffentlichte Diplomarbeit. Institut für
Freiraumgestaltung und Landschaftspflege der Universität für Bodenkultur Wien
Schiewe, J., Tufte, L. (2002): Potenzial regionen-basierter Verfahren für die integrative
Auswertung von GIS- und Fernerkundungsdaten, In: Blaschke, T. [Hrsg.]:
Fernerkundung und GIS – Neue Sensoren – innovative Methoden, Wichmann Verlag,
Heidelberg, S. 43-52
Stelzl, H. (2001): Der multimediale digitale Wanderführer. Unveröffentlichte Diplomarbeit.
Institut für Angewandte Geodäsie – Abteilung für Photogrammetrie und Fernerkundung
der Technischen Universität Graz.
Stelzl, H., Raggam, H., Sacherer, O., Almer, A., (2004): Automatisierte 3D-Visualisierung
von Geoinformation zur Unterstützung der Feuerprävention im mediterranen Raum, In:
Strobl/Blaschke/Griesebner (Hrsg): Angewandte Geoinformatik 2004 – Beiträge zum 16.
AGIT-Symposium Salzburg, Wichmann Verlag, Heidelberg, S.644-649
Van der Maarel, H., (2005): Building and Modelling a City in 3-D – Visualisation of
Apeldoorn, The Netherlands, In: Geoinformatics, Januar/Februar 2005, S. 14-17
Wolf, W., (2001): Raumbezogene Bewertungsmöglichkeiten auf der Grundlage von Fuzzy
Sets und ihre Implementierung im GIS SPANS, Online-Publikation am Geographischen
Institut der Humboldt-Universität zu Berlin. (Quelle: http://www.geographie.hu-berlin.de/)
Zehner, B., Kümpel, H. J. (2001): Immersive Visualisierungstechniken bei der
geophysikalischen Erkundung des Untergrundes In: Kartographische Nachrichten,
4/2001, S. 196-200
109
Internetlinks
Link
Zugriffszeitraum
http://terrestrial.eionet.eu.int/CLC2000
08/2004, 11/2005
http://www.caf.dlr.de/caf/anwendungen/projekte/projekte_nutzung/corine/
08/2004, 11/2005
http://www.umweltbundesamt.at/umwelt/raumordnung/flaechennutzung/corine/
08/2004, 11/2005
http://www.unipotsdam.de/u/Geooekologie/forschung/landschaftsplanung/projekt_3dvisu.html
08/2004
ftp://edcftp.cr.usgs.gov/pub/data/srtm
05/2004
http://www.dlr.de/srtm
05/2004
http://www.op.dlr.de/~hounam/srtm-website_de/beschreibung.html
05/2004
http://www.digitalglobe.com/about/imaging.shtml
05/2004
http://www.spot.com/html/SICORP/_401_444_445_.php
05/2004
http://www.spotimage.fr/html/_167_.php
05/2004
http://landsat.gsfc.nasa.gov/
05/2004
http://geo.arc.nasa.gov/sge/landsat/landsat.html
05/2004
http://www.eduspace.esa.int/eduspace/subtopic/default.asp?document=299&la
nguage=de
05/2004
http://www.bev.gv.at
04/2004, 11/2005
http://www.esri.com
04/2004, 08/2004
http://www.gis.steiermark.at/
http://www.3dnature.com
http://de.wikipedia.org/
05/2004
02/2004, 11/2005
05/2004
110
8 Anhang
Abkürzungsverzeichnis
ASCII
American Standard Code for Information Interchange
BEV
Bundesamt für Eich- und Vermessungswesen
BMN
Bundesmeldenetz
CAD
Computer Aided Design
CLC
Corine Land Cover
DKM
Digitale Katastralmappe
DLM
Digitales Landschaftsmodell
DXF
Drawing Exchange Format
GIS
Geographisches Informationssystem
NN
Neuronale Netze
ÖK
Österreichische Karte
SAR
Synthetic Aperture Radar
SRTM
Shuttle Radar Topography Mission
ViSC
Visualization in Scientific Computing
VNS
Visual Nature Studio
VR
Virtual Reality
VRML
Virtual Reality Modeling Language
WCS
World Construction Set
VNS Glossar
Area Terrafector
VNS Component. Verschiebungseffekt, der eine Änderung der
DGM Oberfläche bewirkt, also mittels eines definierbaren
Vertikalprofiles direkt in das Geländemodell eingerechnet wird.
Grundlage für den Effekt eines Area Terrafectors sind
geschlossene Polygone.
Cloud Models
VNS Component zum Generieren von natürlicher Bewölkung.
Color
Kombination von 3 Werten aus einer Attributtabelle zur
Steuerung einer Thematic Map.
Color Map
VNS Component. 2D Bilder, die zur Platzierung von Farbe
oder Textur auf einem DGM verwendet werden. Jedes Pixel
repräsentiert einen bestimmten Bereich auf dem
Geländemodell.
Component
Jeder Effekt, der für sich alleine steht und als solcher
gespeichert werden kann, wird in VNS als „Component“
111
bezeichnet.
Component Gallery
Sammlung von allen verfügbaren Components. VNS weist
eine gewisse Menge an vorgefertigten Components in einer
Bibliothek auf, die geladen werden können und sofort
verwendbar sind.
Data Channels
Art des Inputs, wie auf Attribute in einer Thematic Map
zugegriffen wird (entweder als Single Value oder Color)
Database
Menü zur Verwaltung von Vektoren und DGM Kacheln.
DEMs
Digital Elevation Model, VNS Component, die alle DGMKacheln enthält.
Dissolve Color
Farb- oder Texturwert, der einem Ecotype zugeordnet wird
und diesen ab einer vordefinierten Darstellungsgrenze (z.B.
kleiner 3 Pixel) beim Rendern ersetzt.
Ecosystem
VNS Component. Grundelement der Visualisierung in VNS,
bestimmtes Landschaftselement bzw. Bodenbedeckung.
Ecotype
Over- oder Understory eines Materials eines Ecosystems. Ein
Ecotype kann aus einzelnen Foliage-Elementen oder Groups
bestehen.
Ecotype Editor
Menü zum Bearbeiten von Ecotypes.
Edge Feathering Profile
Profil, das die Intensität (bzw. den Effekt) von
vektorgebundenen Components steuert, ausgehend vom
Rand hin zum Mittelpunkt des Vektors.
Elevation
Parameter zur Steuerung der Seehöhe der Oberfläche der
VNS Component Lakes.
Environment
VNS Component. Sammlung von Ecosystems, die nach den
Rules of Nature auf das gesamte DGM angewandt wird,
sofern sie nicht an bestimmte Vektoren gebunden ist.
Foliage
Als Foliage werden 2D Bilder oder 3D Objekte bezeichnet, die
auf dem Geländemodell platziert werden können.
Foliage Effect
VNS Component zur Platzierung von Foliage.
Foliage Effect Ecotype
Ecotype eines Foliage Effects, vergleichbar mit einem Ecotype
eines Ecosystems.
Fractal Depth
Konzept zur Verdichtung der DGM Maschenweite innerhalb
der Terrain Parameter. Fractal Depth 0 bedeutet, dass beim
Rendern die geometrische Auflösung verwendet wird, die das
gerade aktive DGM aufweist. Eine Erhöhung der Fractal Depth
um 1 bewirkt das Teilen eines DGM-Quadrates (Pixels) in 2
Dreiecke und verfeinert somit das Modell. Absolutes Maximum
ist eine Fractal Depth von 7. Je höher die Fractal Depth
gesetzt wird, desto mehr Rechnerleistung benötigt das
Rendern.
Freeze
Option bei Terrafectors und Area Terrafectors, den
Verschiebungseffekt dauerhaft in das DGM einzurechnen und
112
nicht mit jedem Render aufs Neue berechnen zu lassen.
Freeze verwendet automatisch eine Fractal Depth von 0.
Ground Overlay
Farb- bzw. Texturgebung verschiedener VNS Components, zu
unterst liegende Schicht bei z.B. Ecosystems. Ein Ground
Overlay kann ein einfacher Farbwert oder eine Textur sein
bzw. auf einer Thematic Map basieren.
Group
Element eines Ecotypes. Ein Ecotype kann aus einzelnen
Foliage-Elementen oder Groups bestehen. Eine Group kann
eine beliebige Anzahl an Foliage-Elementen enthalten.
Hard Link
Option einer Search Query, die die gefilterten Objekte mit
einem oder mehreren Vektoren verknüpft, also starr verbindet.
Haze
Parameter der Component „Atmosphere“ zur Erzeugung von
Nebel- und Dunsteffekten.
Keyframe
Schlüsselbild in einer Animation.
Lakes
VNS Component zum Generieren von stehenden Gewässern,
oft in Verbindung mit Area Terrafectors.
Layer
Zusammenschluss von unterschiedlichen Elementen in der
Database zu einer funktionellen Einheit.
Lights
VNS Component, die die Ausleuchtung der Landschaft
kontrolliert.
Material
Grundelemente von verschiedenen VNS Components, z.B.
Ecosystems. Ein Ecosystem kann aus mehreren Materials
bestehen, die nach bestimmten Kriterien innerhalb des
Ecosystems verteilt platziert werden.
Material Gradient Driver
Der Material Gradient Driver spezifiziert, welche Materials
innerhalb einer Component wie verwendet werden.
Nature View (NV)
Format zur Echtzeitanimation, entwickelt von 3D Nature LLC
zur optimierten VR Darstellung von VNS Szenen.
Nature View Express
(NVE)
VR Viewer von 3D Nature LLC zur Darstellung von NV
Szenen.
Overstory
Eine Overstory (oder Understory) ist ein Material Ecotype,
dass Foliage auf einem Material „wachsen“ lassen kann.
Panel
“Bauelement” einer Wall.
Priority
Priorität zwischen einzelnen Elementen derselben
Component, die eine Hierarchie beim Rendern festlegen.
Roof
“Bauelement” einer Wall.
Rules of Nature
Methode, wie VNS Foliage und Texturen auf natürlich Art und
Weise auf dem DGM verteilt.
Scene Express
Erweiterung von 3D Nature LLC zu VNS 2 bzw. WCS 6, das
verschiedene Optionen zum Export von Echtzeitformaten
ermöglicht.
Search Query
Suchabfrage zur Filterung von Daten, die in der VNS
Database enthalten sind.
113
Single Value
Einzelner Wert aus einer Attributtabelle, der eine Thematic
Map steuert.
Skies
VNS Component zur Generierung eines natürlichen Himmels.
Snow Effects
VNS Component, die verschiedene Schneeeffekte steuert.
Streams
VNS Component zum Generieren von fließenden Gewässern,
oft in Verbindung mit Terrafectors.
Target
Ziel, auf das eine Kamera gerichtet sein kann.
Terrafectors (Tfx)
Verschiebungseffekt, der eine Änderung der DGM Oberfläche
bewirkt, also mittels eines definierbaren Vertikalprofiles direkt
in das Geländemodell eingerechnet wird.
Grundlage für den Effekt eines Terrafectors sind Vektorlinien.
Terrain Parameter
VNS Component, das verschiedene Optionen enthält, die die
Darstellung des DGM beim Rendern beeinflussen, wie z.B.
Fractal Depth.
Texture Editor
Komplexes Werkzeug zum Generieren von Texturen, die auf
vielfältige Weise bei verschiedenen eingesetzt werden
können.
Thematic Map
Eine Thematic Map erlaubt einen direkten Zugriff auf Attribute
von Vektoren, um bestimmte Elemente (wie z.B. Wuchshöhe
oder Dichte von Ecotypes) von Components dynamisch zu
steuern.
Understory
Eine Overstory (oder Understory) ist ein Material Ecotype,
dass Foliage auf einem Material „wachsen“ lassen kann.
Walls
VNS Component zum Generieren von dreidimensionalen
Oberflächen mittels Vektoren.
114