Loidl, Claus: Wearable Computer und Unorthodoxe Ein

Transcription

Loidl, Claus: Wearable Computer und Unorthodoxe Ein
Technische Universität Graz
Institut für Informationsverarbeitung
und Computergestützte neue Medien
Diplomarbeit aus Telematik
Wearable Computer
und Unorthodoxe Ein-/Ausgabegeräte
Ing. Claus Loidl
Betreuer
Dipl. Ing. Christof Dallermassl
Begutachter
Dr. Dr. h. c. mult., O. Univ. Prof. Hermann Maurer
Graz, März 2004
Widmung
Diese Arbeit ist meinen Eltern Inge und Hannes Loidl für Ihre jahrelange Unterstützung
gewidmet.
i
I hereby certify that the work reported in this thesis is my own and that work performed
by others is appropriately cited.
Signature of the author:
Ich versichere hiermit wahrheitsgemäß, die Arbeit bis auf die dem Aufgabensteller bereits
bekannte Hilfe selbständig angefertigt, alle benutzten Hilfsmittel vollständig und genau
angegeben und alles kenntlich gemacht zu haben, was aus Arbeiten anderer unverändert
oder mit Abänderungen entnommen wurde.
ii
Danksagung
Ich danke den Mitarbeitern des IICM um Professor Hermann Maurer für ihre stets
sehr freundliche und tatkräftige Unterstützung in der Zeit am Institut. Besonderer Dank
gebührt dabei Christof Dallermassl, der mich bei meiner Diplomarbeit ausgezeichnet unterstützt und motiviert hat und von dessen Wissen ich sehr profitieren konnte.
Außerdem bedanke ich mich bei der Firma Puls-Elektronic , die sofort bereit war, uns ein
GPS-Gerät (E-Trex Summit) für die Projektumsetzung zu leihen, welches wir anschließend
für das Institut auch noch günstig erwerben konnten.
Meinen Eltern, Inge und Hannes Loidl, möchte ich an dieser Stelle für ihre Liebe und
finanzielle Unterstützung während des Studiums meinen innigsten Dank aussprechen.
Derselbe Dank gilt auch meiner Schwester Sylvia. Schließlich bedanke ich mich bei meiner
Freundin Birgit, die mich im Laufe dieser Arbeit sehr oft motiviert hat, und immer ein
Ohr für meine Probleme offen hatte, auch wenn es manchmal anstrengend war.
iii
Kurzfassung
Das Diplomarbeitsthema besteht eigentlich aus zwei unterschiedlichen Teilgebieten der
Computerwelt, welche jedoch sehr stark miteinander verbunden sind.
Als Erstes wird das Thema ”Unorthodoxe Ein-/Ausgabe-Geräte” behandelt. Hier stellt
sich gleich die Frage, wann man eigentlich von einem ”normalen” (herkömlichen) E/AGerät spricht und wann von einem ”unorthodoxen” (ungewöhnlichen) E/A-Gerät die Rede
ist. Im Grunde ist es eine zeitveränderliche und wohl auch subjektive Definition. Da ja
bekanntlich die heute ungewöhnlichen Geräte, morgen schon fast Altertumswert besitzen.
Deshalb ist es sehr interessant, einige Entwicklungen und Forschungsthemen näher zu
betrachten und mögliche Tendenzen zu diskutieren.
Das zweite Thema mit dem sich diese Arbeit auseinandersetzt, ist der sogenannte ”Wearable Computer”. Mann darf jedoch nicht irrtümlicher Weise die wörtliche Übersetzung
”Tragbarer Computer” darunter verstehen. Es ist viel mehr als nur ein einfacher PC in Miniaturausführung gemeint. Es werden oft auch die Begriffe ”Ubiquitous (allgegenwärtig)
Computing” oder ”Pervasive (überall vorhanden) Computing” verwendet. Ein Wearable
Computer ist ein allgegenwärtiges, unauffälliges und natürlich intelligentes Gerät. Die
Aufgabe der Hard- und Software liegt nicht nur darin, dem Benutzer die richtige Information zum richtigen Zeitpunkt zu liefern. Vielmehr soll einem der Wearable Computer
lästige Aufgaben abnehmen, ebenso werden neue Anwendungen von ihm übernommen,
wie zum Beispiel die Kontrolle der Vitalfunktionen, um bei Auffälligkeiten automatisch
den Arzt zu informieren. Durch all diese Hilfestellungen wird man sich mehr auf die wesentlichen Dinge konzentrieren und diese besser erledigen können. Über diese und weitere
Anwendungen, Probleme die dabei auftreten, bekannte Lösungen Hardware die angeboten
wird und über Zukunftsvisionen wird diese Arbeit Informieren.
Zur praktischen Veranschaulichung und zur besseren Einsicht in die Problemwelt des ”Ubiquitous Computing” wurde der sogenannte ”VTG - Virtual Tourist Guide” entwickelt.
Dieser besteht aus einem ”Global Positioning System (GPS)”, einem tragbaren Computer
sowie einer Anbindung an das Internet. Der ”VTG” bekommt dabei Position und Richtung vom GPS, schickt diese Daten an einen Server, der seinerseits Objektdaten die er
durch Scannen einer Karte erhält, an den Client zurückschickt. Dieser hat neben ersten Informationen über Objekte in seiner Blickrichtung nun die Möglichkeit direkt Information
über diese im Internet abzufragen. Der Prototyp wird mit einem einfachen Laptop getestet
an dem ein ”ETrex Summit” GPS von Garmin angeschlossen ist, und die geographischen
Daten liegen zum Testen lokal in einer MySql–Datenbank.
iv
Abstract
Everyday computing without interfering the user respectively not be perceived, is the aim
of many development– and research–departments.
To get from a normal desktop PC to a ”Wearable Computer” and achieving also a compact
format it requires unconventional input and output devices. This thesis will give a brief
overview about existing input and output devices and then go into more detail about
recent developments and their applications. Basically you can split the work into two
sections.
The first part gives an overview about ”Unorthodox InputOutput Devices”. Different ways
of input or output data and the applied technologies of using them will be discussed.
The second part of the thesis will expand on the ”Wearable Computing” concept in more
detail with the main emphasis on the basic ideas and developments. In addition examples
of applications and projects developed in this area will be given, such as the practical
use of a portable information system with position and direction dependent information
processing.
For an example of ”Wearable Computing”, problems and possible solutions for a Virtual
Tourist Guide (VTG) will be analysed and the technologies used to implement it will be
explained.
v
Inhaltsverzeichnis
1 Einleitung
1
1.1
Ziel der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2
Persönliche Motivation der Thematik . . . . . . . . . . . . . . . . . . . . .
2
1.3
Vorausgehende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.4
Kapitel-Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2 Unorthodoxe Ein-/Ausgabegeräte
2.1
4
Eingabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.1.1
Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.1.2
Zeigegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3
Handschrifterkennung
2.1.4
Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.5
Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.6
Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.7
Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.8
Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 22
2.1.9
Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26
. . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2
Ausgabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1
Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30
Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.2
Haptische Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
vi
INHALTSVERZEICHNIS
vii
Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3
2.2.3
Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.4
Gerüche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 Wearable Computing
3.1
37
Einführung Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 37
3.1.1
Was ist Wearable Computing? . . . . . . . . . . . . . . . . . . . . . 37
3.1.2
Die Betriebsarten des Wearable Computing
3.1.3
Die Eigenschaften des Wearable Computing . . . . . . . . . . . . . 40
. . . . . . . . . . . . . 39
3.2
Geschichtlicher Rückblick
. . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3
Tragbarkeit: Tragekomfort . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4
Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4.1
Energiespeicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.2
Energieerzeugung und Energieverbrauch . . . . . . . . . . . . . . . 46
3.5
Störfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.6
Projekte im Wearable Computing . . . . . . . . . . . . . . . . . . . . . . . 50
3.6.1
Wearable im Tourismus . . . . . . . . . . . . . . . . . . . . . . . . . 51
Cyberguide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
ArcheoGuide – Virtueller Reiseführer . . . . . . . . . . . . . . . . . 56
Deep Map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Mobiles GEO-WWW . . . . . . . . . . . . . . . . . . . . . . . . . . 58
Touring Machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Mobile Journalist Workstation . . . . . . . . . . . . . . . . . . . . . 60
Indoor/Outdoor Collaboration . . . . . . . . . . . . . . . . . . . . . 61
REAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.7
3.6.2
Wearable Computing als Produktivitätsfaktor . . . . . . . . . . . . 64
3.6.3
Wartung von Flugzeugen . . . . . . . . . . . . . . . . . . . . . . . . 64
Forschung im Bereich ”Wearable Computing” . . . . . . . . . . . . . . . . 65
3.7.1
Digital Life Consortium . . . . . . . . . . . . . . . . . . . . . . . . 65
3.7.2
Technische Universität Darmstadt . . . . . . . . . . . . . . . . . . . 65
3.7.3
Universität Bremen (TZI) . . . . . . . . . . . . . . . . . . . . . . . 67
3.7.4
Technische Universität Linz (Software Group) . . . . . . . . . . . . 69
3.7.5
Frauenhof IPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
INHALTSVERZEICHNIS
3.8
viii
Philosophische Betrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4 Projekt - Virtual Tourist Guide (VTG)
83
4.1
Projektidee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2
Bildformate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2.1
DXF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.2
Shapefile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.2.3
SVG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3
Kartenmaterial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4
Positionsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.1
GPS–Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Historisches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Grundprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Messmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Fehlereinflüsse und Genauigkeit . . . . . . . . . . . . . . . . . . . . 99
Galileo - Europäisches Satellitennavigationssystem . . . . . . . . . . 103
4.5
Realisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.5.1
Objektdatenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . 104
4.5.2
VTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.5.3
GPSTool . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.5.4
Mapserver . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Algorithmus für Objektsuche
4.5.5
. . . . . . . . . . . . . . . . . . . . . 113
Testumgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5 Schlußworte
116
6 Anhang
117
6.1
Linkliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.1.1
Akademie & Forschung . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.1.2
Arbeitskreise & Symposien . . . . . . . . . . . . . . . . . . . . . . . 118
6.1.3
Unorthodoxe Ein-Ausgabegeräte . . . . . . . . . . . . . . . . . . . . 118
Tastatur und Maus . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Display
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
GPS und Karthografie . . . . . . . . . . . . . . . . . . . . . . . . . 119
INHALTSVERZEICHNIS
ix
Kleidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Verschiedenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.1.4
Bibliography
Wearable Computer
. . . . . . . . . . . . . . . . . . . . . . . . . . 120
121
Abbildungsverzeichnis
2.1
Verschiedene ungewöhnliche E/A-Geräte . . . . . . . . . . . . . . . . . . .
5
2.2
Twiddler Einhandtastatur . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.3
Flexible Tastatur aus Stoff als PDA Keyboard verwendet . . . . . . . . . .
9
2.4
Tastatur auf einer Krawate . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2.5
Wasserdichte flexible Keyboards . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6
Ergonomische Tastatur ”Professional II” von Datahand . . . . . . . . . . . 10
2.7
Scheibentastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.8
Trackball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.9
Eine Ringmaus mit Dreipunkt–Bewegungserkennung . . . . . . . . . . . . 12
2.10 Eine weitere Version der Ringmaus, jedoch mit Kabel . . . . . . . . . . . . 12
2.11 Funktionsweise und Handhabung des Finring . . . . . . . . . . . . . . . . . 13
2.12 Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic” . . . . . . . . . 13
2.13 Beispiele von Touchscreen-Anwendungen . . . . . . . . . . . . . . . . . . . 15
2.14 Handschrifterkennung mit Stift und mit Sensorleiste . . . . . . . . . . . . . 15
2.15 Arbeiten mit einem Tablett . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.16 Datenhandschuh mit Fingernagelsensor . . . . . . . . . . . . . . . . . . . . 21
2.17 Nicht nur eine tragbare Tastatur ist der sogenannte Scurry . . . . . . . . . 21
2.18 Computer als Parka getarnt . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.19 Pullover mit Kopfhörer am Kragen und Bedientasten am Ärmel . . . . . . 24
2.20 Schmuck als Versteck für E/A–Geräte . . . . . . . . . . . . . . . . . . . . . 26
2.21 Schmuck als Versteck für E/A–Geräte . . . . . . . . . . . . . . . . . . . . . 27
2.22 Thad Starner mit einem HMD von MicroOptical [Mic99] . . . . . . . . . . 29
2.23 HMD von MicroOptical
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.24 Direkte Retinaprojektion von Microvision [Mic03] . . . . . . . . . . . . . . 31
2.25 Einer der ersten Foliendisplays . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.26 Foliendisplay mit Farbdarstellung . . . . . . . . . . . . . . . . . . . . . . . 32
x
ABBILDUNGSVERZEICHNIS
xi
2.27 Blu; Konzept von Lunar Design [Des01] . . . . . . . . . . . . . . . . . . . . 33
2.28 Displays verschiedenster Art . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.29 Designsstudie eines Bedufters . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1
Modell MA-IV von Xybernaut mit HMD und Armtastatur . . . . . . . . . 38
3.2
Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3
Körperenergiequellen im Überblick. Die Gesamtenergie je Aktion ist in
Klammern angegeben. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4
Designermodell eines Kleidungsstückes und eines HMD . . . . . . . . . . . 50
3.5
Ausschnitt eines Gebäudeflügels mit verschiedenen Sensoren bzw. Zellen . . 54
3.6
Teil einer hierarchischen Struktur für Gebiete . . . . . . . . . . . . . . . . 54
3.7
Darstellung eines virtuellen Denkmals in der realen Umgebung . . . . . . . 56
3.8
Aufbau des Archeoguide–Systems . . . . . . . . . . . . . . . . . . . . . . . 57
3.9
MARS System im Einsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.10 Aufbau des MARS Prototypen . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.11 Der mobile Journalist mit Informationsanzeigebeispiel . . . . . . . . . . . . 62
3.12 Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.13 Ausrüstung der Navigationshilfe . . . . . . . . . . . . . . . . . . . . . . . . 63
3.14 Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers . . . . . . 64
3.15 Modell des Talking Assistant . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.16 Systemarchitektur des Talking Assistant . . . . . . . . . . . . . . . . . . . 67
3.17 Schema der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.18 Elemente der Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.19 Forschungsbereiche der Software Group . . . . . . . . . . . . . . . . . . . . 70
3.20 Räume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 72
3.21 Räume mit Anzeige der anwesenden Personen . . . . . . . . . . . . . . . . 73
3.22 Schema des Systems von CONTEXT . . . . . . . . . . . . . . . . . . . . . 77
3.23 Der ”Context–Aware” Internetkoffer . . . . . . . . . . . . . . . . . . . . . 78
3.24 Komponenten von ROOMWARE . . . . . . . . . . . . . . . . . . . . . . . 80
4.1
Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.2
Zylindrische Abbildung [HG94] . . . . . . . . . . . . . . . . . . . . . . . . 89
4.3
Transversale Zylinderprojektion [Wer95] . . . . . . . . . . . . . . . . . . . 89
ABBILDUNGSVERZEICHNIS
xii
4.4
Die 3 Meridianstreifen des Gauß-Krüger-Systems [Wer95] . . . . . . . . . . 90
4.5
GKM und BMN im Vergleich [Wer95] . . . . . . . . . . . . . . . . . . . . . 91
4.6
Ein Ausschnitt der Katasterdaten der Grazer Innenstadt . . . . . . . . . . 91
4.7
Schematischer Aufbau eines GPS Empfängers. [See89] . . . . . . . . . . . 96
4.8
Mehrwegeffekt [See96] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.9
Unterschiede in der Satellitengeometrie [Wel86] . . . . . . . . . . . . . . . 102
4.10 Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.11 Architektur der Softwareumgebung . . . . . . . . . . . . . . . . . . . . . . 105
4.12 Objektdaten Definition mit Hilfe von ”AutoCAD Map” . . . . . . . . . . . 106
4.13 ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts) 108
4.14 Darstellung der Daten einer Abfrage im Browser . . . . . . . . . . . . . . . 109
4.15 Aufbau der Datenbank für den VTG . . . . . . . . . . . . . . . . . . . . . 111
4.16 Datenbank mit angezeigten Propertyeinträgen . . . . . . . . . . . . . . . . 113
4.17 Approximation des Blickfeldes durch Rechtecke . . . . . . . . . . . . . . . 114
4.18 Ablauf einer Objekterkennung . . . . . . . . . . . . . . . . . . . . . . . . . 115
Tabellenverzeichnis
3.1
Werte von herkömmlichen Energiequellen und dem Energieverbrauch einzelner Rechner. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2
Energieverbrauch bei verschiedenen Aktivitäten.
4.1
Datenbankfiles die aus den Shapefiles erzeugt werden.
4.2
Fehlerquellen und Fehlergößen bei der GPS–Positionsbestimmung.
xiii
. . . . . . . . . . . . . . 47
. . . . . . . . . . . 92
. . . . 101
Kapitel 1
Einleitung
Der Computer als ständiger Wegbegleiter ohne störend aufzufallen bzw. gar nicht bemerkt
zu werden, ist schon seit längerem das Ziel einiger Forschungs- und Entwicklungsabteilungen. Um jedoch von einem PC am Schreibtisch zu einem wearable Computer zu gelangen, bedarf es außer einer kompakteren Bauweise auch noch unkonventioneller Ein- und
Ausgabegeräte, neuer Software und vor allem vieler neuer Ideen zur Anwendung dieser
innovativen Technologien.
Mit dieser Arbeit soll ein Überblick über bereits am Markt befindlicher Geräte und Applikationen verschafft werden, aber auch weitere Entwicklungen in diesem Bereich sollen
gezeigt werden. Weiters wird die Frage gestellt, welche Einsatzgebiete denkbar wären und
welche bereits Realität sind.
1.1
Ziel der Arbeit
Die vorliegende Arbeit versucht einen möglichst breiten, theoretischen sowie praxisorientierten Überblick der zu diesem Zeitpunkt bekannten Entwicklungen und Forschungen im
Bereich des Umbiquitous Computing zu geben. Der Überblick soll dabei folgende Punkte
umfassen:
ˆ Geschichtlicher Rückblick
ˆ Produkte die bereits Kommerziell erhältlich sind
ˆ Prototypen von neuen Entwicklungen
ˆ Zukunftsvisionen
ˆ Praktische Anwendungen
ˆ Veranschaulichung anhand des Projektes ”VTG - Virtual Tourist Guide”
ˆ Schlußfolgerungen
Es soll in den angeführten Punkten auf praxisbezogene Problemstellungen eingegangen
werden. Auftretende Schwierigkeiten, sowie Stärken und Schwächen der angesprochenen
1
KAPITEL 1. EINLEITUNG
2
Produkte und Anwendungen sollen diskutiert werden und als Grundlage für den Einstieg
in diese Thematik dienen. Ein Resümee, der aus der Untersuchung und praktischen Arbeit gewonnenen Erkenntnisse sowie ein Ausblick auf die zu erwartenden Entwicklungen
werden diese Arbeit beschließen.
1.2
Persönliche Motivation der Thematik
Neben der Faszination die der weite Bereich des Umbiquitous Computing bietet, war für
mich die hervorragende Unterstützung von Seiten des Institutes (IICM) und im besonderen von Christof Dallermassl ein wesentlicher Motivationsfaktor.
Die vielen, zum Teil sehr unterschiedlichen Anwendungsmöglichkeiten und die damit verbundenen Problemstellungen mit denen man immer wieder konfrontiert wird, machen das
Arbeiten in diesem Bereich der Computertechnologie sehr abwechslungsreich.
Alleine im Praktischen Teil dieser Arbeit war man einer Vielzahl von sehr unterschiedlichen Problemen gegenübergestellt. Schon die Überlegung, welche sinnvollen Anwendungen denn realisiert werden könnten, führte zu der Erkenntnis, dass zwei Köpfe gemeinsam,
mehr Ideen hervorbringen als zwei Personen die für sich selbst darüber nachdenken. Neben programmiertechnischen Problemen, trugen auch noch theoretische Fragestellungen
wie Koordinatensysteme und deren Transformation, zu einem interessanten Arbeitsalltag
bei.
”Diese Technologien haben nicht nur eine Zukunft, sie haben auch eine Gegenwart, und
dies impliziert ihre Geschichte”
1.3
Vorausgehende Bemerkungen
Es wurde versucht immer eine Referenz zu den angeschnittenen Thematiken zu geben, um
eine Vertiefung in gewisse Bereiche durch weitere Literatur zu ermöglichen. Die deutschsprachige Begriffswelt der Telekommunikation und Informationstechnologie orientiert sich
sehr stark an den äquivalenten englischen Begriffen. Aufgrund der rasanten Entwicklung
der beiden Bereiche ist die Rechtschreibung vieler neuer Begriffe im Deutschen noch nicht
geklärt. Soweit der DUDEN bereits eine genaue Rechtschreibung für ein verwendetes Wort
vorsieht, wird sie in dieser Arbeit berücksichtigt. Im Zweifelsfall wird auf die englischsprachige Form des Wortes eins-zu-eins zurückgegriffen, wie etwa beim Begriff Wearable
Computer.
Englischsprachige Begriffe wurden ohne spezielle Anpassung an die deutsche Sprache übernommen, da sie die Sache naturgemäß vom Ursprung her besser beschreiben.
Diese Arbeit versucht sehr sachbezogen an die diskutierten Themen heranzugehen und
persönlich gemachte Erfahrungen einzubringen. Im Falle der theoretischen Untersuchung
wurden die Dokument-Adressen zitierter Autoren und Verweise auf allgemeine Informationsquellen angegeben. Die Leser der PDF-Version dieser Arbeit kommen in den zusätzlichen Genuß, gewohnter Hyperlinks und eines mit PDF-Bookmarks realisierten Inhaltsverzeichnisses.
KAPITEL 1. EINLEITUNG
3
Erklärung zum Programmcode:
Der Kommentar zu den abgedruckten Listings behandelt immer die wesentlichen Punkte
der diskutierten Problemstellung und nimmt keinen Bezug auf allgemeine Eigenschaften
der eingesetzten Programmiersprache. Diese Arbeit setzt ein grundsätzliches Verständnis
der Programmentwicklung und Kenntnisse in zahlreichen Programmiersprachen voraus.
Zu den Sprachen zählen etwa Java, JavaScript und HTML.
1.4
Kapitel-Übersicht
Kapitel 1 Einleitung:
Allgemeine Erklärung des Diplomarbeits-Themas. Begründung der Motivation zu diesem Projekt. Und vorausgehende Bemerkungen über den Inhalt und den Aufbau dieser
schriftlichen Arbeit. Bezug auf Arbeiten welche sich mit den hier behandelten Themen
befassen.
Kapitel 2 Unorthodoxe Ein-/Ausgabegeräte:
Für verschiedene Anwendungen, in unterschiedlichen Umgebungen, bei anderen Voraussetzungen braucht man immer wieder spezielle Eingabegeräte und Ausgabegeräte. Welche
Arten es gibt und vor allem die unorthodoxen Ausführungen sind Thema dieses Kapitels.
Ebenfalls werden Technologien die man dabei verwenden kann vorgestellt.
Kapitel 3 Wearable Computing:
Es gibt bereits unendlich viel an Information und Arbeiten im Bereich ”Wearable Computing”. In diesem Kapitel wird eine kleine Einführung und ein Überblick über die wesentlichen Bereiche dieses Themas gegeben. Was man eigentlich unter ”Wearable Computing”
versteht und wie die geschichtliche Entwicklung in diesem relativ jungen Forschungsgebiet
aussieht. Auf Technologien die man dabei einsetzt wird hier ebenfalls eingegangen.
Kapitel 4 Projekt - Virtual Tourist Guide (VTG):
Dieses Kapitel beschreibt das Projekt VTG – Virtual Tourist Guide. Es werden der Aufbau des Projektes und die aufgetretenen Schwierigkeiten angesprochen. Auch eingesetzte
Technologien werden aufgezeigt und kurze Erläuterungen der Spezialgebiete wie GPS,
Karthographie und verwendete Bildformate werden erläutert.
Kapitel 6 Anhang:
Hier findet man eine Linkliste mit URLs für alle angesprochenen Themenbereiche. Diese
Liste stelle die während dieser Arbeit gesammelten Bookmarks dar, wobei darauf geachtet wurde, daß nur die zum Zeitpunkt der Fertigstellung dieser Arbeit erreichbare Links
angeführt sind.
Kapitel 2
Unorthodoxe Ein-/Ausgabegeräte
Es stellt sich gleich einmal die Frage, wann ein E/A–Gerät eigentlich unorthodox ist.
Liegt es daran, daß es selten verwendet wird, oder ist der Grund weshalb man es als
ungewöhnlich bezeichnet der, daß es neu ist und anders funktioniert als bisher verwendete
Geräte. Das Aussehen ist mit Sicherheit ein Bestandteil der einem zu der Bezeichnung
unorthodox führt. Somit ist jedoch gezeigt, daß ungewöhnliche E/A-Geräte bei häufiger
Verwendung zu gewöhnlichen Gegenständen werden. Es ist also eine Gewohnheitssache,
denn schon das häufige Sehen eines Gerätes macht es für uns zu einem gewöhnlichen
Gegenstand.
Damit soll gezeigt werden, daß einige der in Folge angeführten unorthodoxen E/A-Geräte
nur zum Zeitpunkt des Verfassens der Arbeit auch als solche bezeichnet werden können.
In naher Zukunft werden wohl einige dieser Geräte als eher gewöhnlich bezeichnet werden. Deshalb sollte man die Bezeichnung ”unorthodox” für diese Geräte auch als zeitlich
begrenzt ansehen.
Zu Beginn der Computer–Programierung war eine Tastatur noch eine Zukunftsvision, es
wurden Verbindungen gesteckt oder Schalter umgelegt, um einen Code einzugeben. Eine
Spracheingabe klang wohl damals ziemlich futuristisch, um nicht zu sagen utopisch. Nach
der Tastatur als Eingabegerät und einem Monitor als Anzeigegerät, war die Maus ein willkommenes Hilfsmittel um schnell und einfach in graphischen Oberflächen zu navigieren.
Heutzutage ist es gar nicht mehr so einfach sich einen Überblick über die verschiedensten
Keyboards, Maus-Arten, Joysticks, usw. zu machen. Auch eine durch die Spieleindustrie
sehr bekannt gewordene Technologie, das so genannte Force–Feedback, wird bereits vielseitig eingesetzt. Es kann jedoch durch spezielle Einsatzgebiete immer noch als unorthodox
bezeichnet werden. Bei dieser Technik wird eine Gegenkraft oder ein Vibrieren erzeugt.
Dies kann man für verschiedenste Anwendung nutzen. Zum Beispiel um für Blinde das
Navigieren am Desktop zu erleichtern oder überhaupt zu ermöglichen. Eine Vibration
kennzeichnet dabei das Bewegen über ein Objekt und mit einer Gegenkraft läßt sich der
Bildschirmrand erkennen.
Ein unorthodoxen E/A–Gerät zu erzeugen ist auch möglich indem man eine bekannte
Funktionalität (Mikrofon, Display, Tastatur,...) in einen ebenso alltägliche Gegenstände
integriert. Ein Beispiele dafür währen das Mikrofon in einer Halskette, ein Miniaturlautsprecher in einem Ohrring, ein Display in der Armbanduhr oder eine Tastatur am Ärmel
einer Jacke aufgenäht.
4
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
5
In weiterer Folge werden einige dieser Möglichkeiten gezeigt (Twiddler, Stofftastatur,
Fingermaus, Foliendisplay, HMDs,. . . )
Abbildung 2.1: Verschiedene ungewöhnliche E/A-Geräte
2.1
Eingabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
2.1.1
Tastatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.1.2
Zeigegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.3
Handschrifterkennung
2.1.4
Spracherkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.5
Datenhandschuhe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.6
Dexterous manipulators . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.7
Datenanzug . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.1.8
Elektronische Stoffe und Sensoren . . . . . . . . . . . . . . . . . . . 23
2.1.9
Elektronischer Schmuck . . . . . . . . . . . . . . . . . . . . . . . . 26
. . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.10 Video . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
2.2
6
Ausgabegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2.1
Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
HMD mit Display . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
HMD mit Retinaprojektion . . . . . . . . . . . . . . . . . . . . . . 30
Display-Folien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Weitere Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2.2
Haptische Geräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Force Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Tactile Feedback . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3
2.1
2.2.3
Audio–Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.4
Gerüche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Forschung und Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . 35
Eingabegeräte
In nicht all zu ferner Zukunft wird eine Maschine seinem Nutzer die Wünsche von den Lippen oder den Augen ablesen oder nur der Berührung des Nutzers folgen, bevor dieser in der
Lage ist sein Anliegen überhaupt auszudrücken. Ein wirklich ”intuitives” User Interface
eines Computers oder Kommunikationsgerätes wird es dem Nutzer ersparen, eine Sprache
zu finden, die dem Gerät verständlich ist. Die intuitivste Art, wie wir mit einer Maschine
kommunizieren wird sich stark unterscheiden bei Nutzern (bedingt durch z.B. Kultur,
Erziehung und mögliche Behinderungen), Anwendungen (z.B. einfache Befehle oder Texteingaben, Auswahlmöglichkeiten sowie komplexe Kombinationen) und Umwelteinflüsse
(z.B. mobil oder stationärer Einsatz, Störeinflüsse, Rauschen sowie Lichtverhältnisse).
User Interfaces wurden auf verschiedenste Weise verbessert, um die Mensch–Maschine
Interaktion zu vereinfachen. Nachdem DOS Applikationen die ersten Pull–down Menüs
und Dialoge anboten, ermöglichen Windows verwandte User Interface bereits einen umfassenderes Portfolio von grafischen Elementen, wie z.B. Icons, Scrollbars, überlappende
Fenster, und der grafischen Eingabe über die Standard Maus. Erst in letzter Zeit wird
die Spracheingabe eine vertretbare Option, um Wünsche von den Lippen der Nutzer abzulesen. Dennoch ist die Spracheingabe nur brauchbar für ganz bestimmte Steuerungs–
und Eingabeaspekte. Beispielsweise eignet sich die Spracheingabe nicht wirklich für grafische Eingaben, wie die Cursorsteuerung. Genauso wenig funktioniert die Spracheingabe
in überfüllten Räumen, da Hintergrundgeräusche das sichere Erkennen von Sprache behindern. Auch die unterschiedliche Aussprache und Akzente stellen eine Herausforderung
an die Entwicklung dar. Joysticks und andere haptische Geräte erhöhten die Vielseitigkeit
von Eingabenmedien ohne einer Komplettlösung für Jedermann oder jeder Anwendung
gerecht zu werden. Die Verwendung der Blickposition und Blickbewegungen auf dem Computermonitor ergänzen eine weitere Dimension von Eingabemodi. Es ist aber gerade das
Zusammenspiel mehrerer Eingabegeräte in einem multi–modalen Verbund, welches das
User Interface wirklich intuitiv macht. Dies wird unterstützt durch die Abänderung des
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
7
GUI oder Operationssystems.[Tei01]
Eingabegeräte dienen zur Kommunikation mit dem Computer, der die Eingaben des Benutzers entgegennimmt, diese auswertet und entsprechend darauf reagiert. Alle benutzten
Eingabegeräte zusammen sollten dem Benutzer eine möglichst realitätsgetreue und intuitive Steuerung ermöglichen. Dabei sollten die Steuerungsmodule praktisch ”unsichtbar”
sein, das heißt sie sollten den natürlichen Bewegungsablauf so wenig wie möglich behindern und nicht zu spüren sein. Leider erlaubt dies der heutige Stand der Technik noch
nicht. Eine ”Natürlichkeit” ist nur in einem sehr begrenzten Rahmen möglich.
Gedankeneingabe durch einen Computerchip unter der Haut ist wohl eine Vision. Ohne
Visionen wäre Amerika wohl nie entdeckt worden und der Mensch nie auf den Mond
geflogen.
Viele Projekte werden sehr geheim gehalten bzw. die Details der Funktionsweise wird aus
geschäftlichen Gründen nicht immer an die Öffentlichkeit weitergegeben. Da sich jedoch
sehr viele Menschen darüber den Kopf zerbrechen wie Mensch–Maschiene–Kommunikation
funktionieren könnte, sind wohl die grundsätzlichen Möglichkeiten bekannt.
Welche Art von Information kann der Mensch erzeugen bzw. verarbeiten?
ˆ Bilder
ˆ Schrift
ˆ Zeichen
ˆ Gerüche
ˆ Ton (Sprache, Musik, Geräusche)
ˆ Tastsinn
ˆ Gedanken
ˆ ...
Der Computer kann nur digitale Zustände verarbeiten, das heißt es ist ihm egal wie die
Information aufgenommen wird, er braucht nur das passende Interface dafür, das ihm die
Daten richtig aufbereitet. Solche Interfaces, in diesem Fall Eingabegeräte, können verschiedenste Informationen aufnehmen und in digitale Signale umwandeln. Eine Tastatur zum
Beispiel wandelt das Drücken auf eine Taste in einen Zahlenwert um, der in digitaler Form
an den Computer gesendet wird. Dieser wiederum interpretiert dieses digitale Signal, mit
Hilfe einer Treibersoftware, zum Beispiel als Buchstaben ”X”. Die Kunst liegt also darin,
die in beliebiger Form vorliegende Information in digitale Information umzuwandeln.
In weiterer Folge, werden einige ”Informationswandler”, wenn man sie so bezeichnen
möchte, vorgestellt.
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
2.1.1
8
Tastatur
Ein sehr einfaches und sehr oft eingesetztes Eingabegerät ist die Tastatur. Ursprünglich
verwendet um geistige Information mit Hilfe einer mechanischen Tastatur (Schreibmaschine) auf Papier zu verewigen. Nach vielen Jahren in denen diese Technologie verwendet
wurde, kam es erst duch den Elektronikboom zu wirklichen Neuerungen in der Entwicklung von Texteingabegeräten.
Um zumindest eine Hand für weitere Tätigkeiten frei zu haben wurde die sogenannte
”Einhandtastatur” entwickelt. Es gibt viele Varianten, wobei der Twiddler wohl die bekannteste Version darstellt. Der Twiddler ist eine Kombination aus Tastatur und Maus,
der mit einer Hand bedient werden kann. Er erlaubt die Bedienung bei jeder Handposition
und eine ausreichend hohe Eingabegeschwindigkeit (bis zu 60 Wörter pro Minute). Die Tastenbelegung ist gänzlich konfigurierbar und somit auf individuelle Vorlieben einstellbar.
Beim Twiddler können Tastenkombinationen zur Eingabe von ganzen Strings definiert
werden. Es stehen über 4000 dieser Kombinationen zur Verfügung. Das Standardmapping
des Twiddlers beinhaltet gebräuchliche englische Buchstabenkombinationen wie ”ing”,
”ed”, ”the”, ”ion”, etc. . Dies kann mit gebräuchlichen Wörtern, einer Email–Adresse,
oder der URL der eigenen Homepage belegt werden. Zusätzlich zur Tastenbelegung kann
auch die von manchen Programmen verwendete Worterkennung nach Eingabe weniger
Buchstaben verwendet werden. Diese und weitere Hilfsmittel ermöglichen eine schnelle
Eingabe (siehe Abbildung 2.2).
Abbildung 2.2: Twiddler Einhandtastatur
Beim ”flexiblen Keyboard” werden dünne Sensoren und die zugehörige Elektronik in einen
wasserfesten, verformbaren Stoff eingearbeitet (siehe Abbildung 2.3).
Somit kann man die Tastatur zusammenlegen oder zum Beispiel auf ein Kleidungsstück
aufnähen. Es kann mit dieser Methode die Tastatur auch direkt in Kleidung eingearbeitet
werden (siehe Abbildung 2.4).
Es kann zum Beispiel auch Kunststoff verwendet werden um die Tastatur gegen Wasser
und Schmutz zu schützen (siehe Abbildung 2.5).
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
9
Abbildung 2.3: Flexible Tastatur aus Stoff als PDA Keyboard verwendet
Abbildung 2.4: Tastatur auf einer Krawate
Näheres zu elektronischen Stoffen wird in Abschnitt 2.1.8 gezeigt.
Die folgende Variante einer ergonomischen Tastatur ist jedoch relativ klobig und in dieser
Form eher nicht zur Verwendung bei Wearable Systemen geeignet (siehe Abbildung 2.6).
Die ”Professional II” ist eine Tastatur–Maus–Kombination. Die genaue Funktionsweise
des Produktes kann man auf der Webseite der Firma ”Datahand”1 finden. Es ist auch ein
etwas teures Spielzeug und wird deshalb auch kaum ein Massenprodukt werden.
Eine andere Art Text einzugeben ist die in Folge beschriebene ”Scheibentastatur” (siehe
Abbildung 2.7).
Die Zeichen und Symbole sind in Kreisform angegeben. Nun kann zum Beispiel mit einem
Stift, Text auf einem Touchscreen eingegeben werden, ohne dass dazu eine herkömmliche
Tastatur benötigt wird. Durch diese Anordnung der Zeichen ist es möglich, von einem Zeichen zum Anderen zu gelangen, ohne den Eingabestift anzuheben oder ungewollt falsche
Zeichen einzugeben. Dadurch ist eine schnellere Eingabe möglich als dies mit der Abbildung einer herkömmlichen Tastatur zu schaffen ist.
1
http://www.datahand.com/flashsite/home.html
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
10
Abbildung 2.5: Wasserdichte flexible Keyboards
Abbildung 2.6: Ergonomische Tastatur ”Professional II” von Datahand
2.1.2
Zeigegeräte
Die ”Maus” war die logische Entwicklung zur Navigation in einem GUI (Graphical User
Interface). Graphische Benutzer–Schnittstellen ermöglichen eine schnelle Interaktion mit
dem Computer. Über die alltäglichen Formen einer Maus auch wenn sie kabellos ist oder
statt der Rolle über einen Infrarotaufnehmer zur Bewegungserkennung verfügt, muß man
hier wohl keine Worte verlieren.
Weil man mit der Maus doch einen gewissen Platz auf dem Schreibtisch zum Hin- und
Herschieben benötigt, wurde der sogenannte ”Trackball” entwickelt. Dieser hat die gleiche
Funktion wie eine Maus und ist ebenso konstruiert, bis auf den beweglichen Teil (ein
kleiner, drehbar gelagerter Ball) der beim Trackball nach oben weist. Der Zeiger auf
dem Bildschirm wird durch Drehung des Balls mit der Hand verschoben. Vor allem bei
tragbaren Computern ersetzt man damit die Maus.
Für hohe Präzision sorgt Beispielsweise der TrackMan Marble FX von Logitech. Der VierTasten-Trackball basiert auf der patentierten, optischen Marble-Technologie die eine hohe
Präzision und eine wartungsfreie Handhabung ermöglicht. Auf dem großen Trackball sind
Punkte in einem willkürlichen Muster angeordnet. Dieses Muster wird durch eine kleine
Linse auf einem Sensor erfaßt und übertragen. Das Bild wird von 93 unabhängigen Zellen,
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
11
Abbildung 2.7: Scheibentastatur
die durch ein neuronales Netzwerk verbunden sind, über 1000mal/Sekunde analysiert. Die
Informationen über die Bewegung werden dann an einen Mikroprozessor übertragen, der
die Cursor-Bewegungen auf der x- und y-Achse berechnet. Das System arbeitet auch noch
wenn Teile des Sensors verschmutzt oder beschädigt sind. Das neue Design ermöglicht die
Steuerung des Balles von zwei Seiten: wahlweise mit den Fingern oder mit dem Daumen und Zeigefinger. Zusammen mit der Software ”MouseWare” wird unter anderem das
Scrollen und Zoomen mit einem einzigen Mausklick möglich (siehe Abbildung 2.8).
Abbildung 2.8: Trackball
Interessanter ist hingegen schon die sogenannte ”Ringmaus” wie sie in den folgenden
Bildern zu sehen ist (siehe Abbildung 2.9, 2.10 und 2.11). Durch das Tragen am Finger
ist auch eine dreidimensionale Auswertung möglich.
In Abbildung 2.9 ist ein System zur dreidimensionalen Positionsbestimmung der Maus
durch drei Sensoren zu sehen. Diese Methode könnte man natürlich auch bei Wearable
Computern einsetzen, indem man die Sensoren am Körper positioniert und die Maus vor
sich bewegt.
Eine andere Version ist die kabelgebundene Ringmaus mit Bewegungssensoren in der Maus
integriert.
Noch einfacher in der Anwendung ist eine Neuentwicklung welche die Bewegung der Maus
mit Beschleunigungssensoren abnimmt und die Informationen via RF–Interface an die
Empfangseinheit schickt, die ihrerseits am USB–Port angeschlossen wird. Der Empfangsbereich liegt bei 1–3 Meter, mit der optionalen Antenne sogar bis zu 8 Meter. Der mittlere
Button dient zum Aktivieren und Deaktivieren der Maus, die beiden anderen haben die
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
12
Abbildung 2.9: Eine Ringmaus mit Dreipunkt–Bewegungserkennung
Abbildung 2.10: Eine weitere Version der Ringmaus, jedoch mit Kabel
selbe Funktion wie der linke und rechte Button einer herkömmlichen Maus (siehe Abbildung 2.11). Um die Maus zu verwenden, hält man sie in horizontaler Position und durch
kurzes drücken des mittleren Button wird die Maus aktiviert. Nun wird eine Drehbewegung zur Seite bzw. nach Vorne oder Hinten erkannt und der Cursor am Bildschirm bewegt
sich entsprechend. Je größer der Drehwinkel, desto schneller bewegt sich der Cursor. Um
die Mausbewegung zu beenden klickt man erneut auf den mittleren Button. Auch optisch
ist diese Maus durch ihre verschiedenen farblichen Ausführungen recht annehmlich (siehe Abbildung 2.11). Mehr Information zum Produkt Finring–Maus erhält man auf der
Webseite der Firma Bosswave 2 .
Noch näher am Begriff ”Ringmaus” ist die in einem echten Ring integrierte Maus. Diese
wird später im Abschnitt ”Elektronischer Schmuck” 2.1.9 gezeigt.
Eine andere Variante ist die sogenannte ”Hands Free Mouse”. Cursersteuerung mit einfachen Kopfbewegungen ist eine Grundidee dieser Mausgattung. Durch eine Kontrolleinheit
am Monitor (Signalsender und Schnittstelle zum PC) und Sensoren am Kopf (drei Sensoren erkennen unterschiedliche Signalstärken), kann eine Bewegung aufgenommen und
interpretiert werden. Die Maustaste kann durch einen Druckluftschalter (ausgelöst durch
ein kurzes blasen in ein Röhrchen zum Drucksensor) oder durch einen beliebigen Taster,
welcher an der Kontrolleinheit angeschlossen wird, ersetzt werden. Dies ist eine Möglich2
http://www.bosswave.com/mouse/finring/index.shtml
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
13
Abbildung 2.11: Funktionsweise und Handhabung des Finring
keit wie man ohne Hände den Curser am Computerbildschirm steuern kann (siehe Abbildung 2.12). Zum Beispiel können Körperbehinderte mit einer am Bildschirm dargestellten
Tastatur einen Computer vollständig bedienen. Es gibt auch Produkte die man wie einen
Kopfhörer oder ein Stirnband am Kopf tragen kann. Somit ist die Verwendung mit einem
Wearable Computer ebenfalls möglich (siehe Abbildung 2.12).
NaturalPoint TrackIR, Mousamatic und HeadMaster Plus sind Beispiele für kommerziell
erhältliche Produkte 3 .
Abbildung 2.12: Kopfmaus ”HDMaster” und Stirnbandmaus ”Mousamatic”
Es ist nicht nötig überall am Bildschirm die gleich hohe Auflösung zu benutzen, da das
Auge nur im Fokus scharf sieht. Man könnte also vom Brennpunkt startend nach außen
3
http://www.worklink.net/mice.htm
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
14
hin immer geringere Auflösung benutzen, ohne daß dies der Benutzer merken würde. Das
bedeutet wiederum Performancegewinn. Um diesem Problem entgegenzukommen wurde
das ”Eye tracking” entwickelt, das in vier Grundtechniken eingeteilt wird:
ˆ limbus tracking: Die Grenzlinie zwischen Iris und Limbus ist sehr scharf und kann
deshalb leicht identifiziert werden. Auf der Brille des Benutzers sind Infrarot-LEDs
und Photo-Transistoren angebracht, um durch Reflexion an der Iris und des Limbus
auf die Blickrichtung zu schließen. Dieses System ist ziemlich genau (Fehlerquote
zwischen 1o und 3o ).
ˆ image tracking: Hier werden Kameras die das Auge filmen verwendet. Die Bilder
werden miteinander mit verschiedenen Techniken verglichen und bearbeitet um auf
die Blickrichtung zu schließen. (Fehlerrate ca. 1o )
ˆ electro–oculography (EOG): Seitlich an den Augen sind Elektroden positioniert, um
das Potential zwischen Cornea und Retina zu messen (15 Mikrovolt – 200 Mikrovolt). Dieses System ist sehr unzuverlässig, weil es Muskelzuckungen und externe
elektrische Interferenzen nicht berücksichtigen kann.
ˆ corneal reflection: Photo–Transistoren analysieren die Reflexion von abgestrahltem
Licht an der konvexen Cornea. Dieses System verspricht eine ziemlich hohe Genauigkeit (Abweichung 0,5o – 1o ) ist jedoch sehr aufwendig zu kalibrieren. Ein weiteres
Problem ist die Augenflüssigkeit, die die Reflexion beeinflußt.
Das Eye Tracking kann natürlich auch zur Navigation am Desktop benutzt werden.
Für die direkte Eingabe mit den Fingern oder ähnlichem auf dem Bildschirm selbst gibt
es sogenannte Touchscreens. Diese Monitore können die Stellen wo sie berührt werden
lokalisieren und ein entsprechendes Signal an den Rechner weiterleiten. Mit speziell dafür
ausgelegten Programmen kann eine sehr einfache Benutzerführung aufgebaut werden. Unangenehm ist die permanente Verschmutzung solcher Bildschirme, auch bei Bauarten wo
ein Kontakt des Fingers mit der Oberfläche gar nicht nötig ist. Die Abgrenzung der
Eingabefelder muß auf die Größe der Finger abgestimmt sein (also nicht zu klein), um
Fehleingaben zu vermeiden. Touchscreens sind häufig staub– und wasserdicht ausgeführt
und eignen sich daher für eine rauhe Umgebung wie zum Beispiel in der Gastronomie oder
in der industriellen Fertigung. Die Bedienung ist so einfach, daß auch völlig unerfahrene
Benutzer Informationen damit abrufen können (siehe Abbildung 2.13). Viele Details zu
diesem Thema sind unter der Webadresse der Firma 3M zu finden4 .
Der ”Lichtgriffel” oder besser bekannt unter dem englischen Begriff ”Light-Pen”, ist vor
allem für Anwender die nur gelegentlich am Computer arbeiten gut geeignet. Es ist leichter
Eingaben zu machen indem man direkt auf bestimmte Stellen des Bildschirms zeigt, als
sie mit der Maus anzuwählen. Diese Lichtgriffel sind nicht größer als ein Kugelschreiber.
In ihrer Spitze befinden sich optische Sensoren, deren Meßwerte zum Computer geschickt
werden. Der kann aus einem Vergleich der vom Lichtgriffel eintreffenden Signale und den
Signalen die er zum Bildschirm sendet berechnen, auf welche Stelle des Bildschirms der
Lichtgriffel deutet. Mit einer kleinen Taste am Lichtgriffel kann dem Computer signalisiert
werden, daß er den Befehl ausführen soll, auf dessen Symbol der Lichtgriffel gerade deutet.
4
http://www.3m.com/3MTouchSystems/
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
15
Abbildung 2.13: Beispiele von Touchscreen-Anwendungen
2.1.3
Handschrifterkennung
Eine moderne Variante der Dateneingabe sind Systeme bei denen mit einem besonderen
Stift auf eine Unterlage geschrieben wird, die den Weg des Stifts auf der Oberfläche
darstellen und digital umsetzen kann. Es gibt auch Stifte die bereits Sensoren integriert
haben und die Bewegung direkt aufnehmen und verarbeiten können, sowie via Bluetooth
oder ähnlichem die Daten gleich an den Computer, PDA, Wearable Computer oder ans
Faxgerät schicken (siehe Abbildung 2.14 links). Ähnlich wie bei der Spracheingabe ist eine
Art Lernprozess hilfreich, um die Erkennung einer Handschrift zu verbessern. Vor allem
für kleine, tragbare Rechner ist diese Art der Eingabe günstig, weil man dabei auf eine
Tastatur völlig verzichten kann. Die Schreibfläche ist dann gleichzeitig der Bildschirm.
Abbildung 2.14: Handschrifterkennung mit Stift und mit Sensorleiste
Eine weitere Variante ist die Sensorleiste, welche die Bewegung eines Stiftes in einem
bestimmten Arbeitsbereich erkennt und die Information zur Verarbeitung an den PDA
schickt, oder direkt eine Nachricht über das Mobiltelefon versendet (Siehe Abbildung 2.14
rechts).
Ähnlich funktionieren auch die sogenannten Digitalisiertabletts, auf denen mit einem Stift
oder einer speziellen Maus verschiedenste Eingaben gemachen werden können (Siehe Abbildung 2.15). Sie können zur Auswahl von bestimmten Befehlen genutzt werden, die auf
eine Schablone (Menüfeld) aufgemalt sind. Das Digitalisiertablett lokalisiert dabei, an
welcher Stelle auf dem Tablett eine Berührung mit einem besonderen Stift stattgefunden
hat.
Eine andere Rolle spielen Digitalisiertabletts bei der direkten Eingabe von Daten, vorzugsweise von geographischen Karten. Man zielt dabei einzelne Punkte mit einer Art
Fadenkreuz an und drückt dann eine Taste. Die X– und Y–Koordinaten dieses Punkts
werden dann automatisch auf mehrere Stellen genau gespeichert. Vorher muß allerdings
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
16
Abbildung 2.15: Arbeiten mit einem Tablett
eine entsprechende Justierung stattfinden. Am häufigsten verwendet wird eine derartige
Eingabe bei Konstruktionsbüros, Grafikfirmen, oder Architekten.
2.1.4
Spracherkennung
Bis vor kurzem war Spracherkennung (engl. speech recognition) nur Realität in Science–
Fiction Filmen. Für Mister Spok vom Raumschiff Enterprise ist es selbstverständlich,
seine Anweisungen dem Bordcomputer im wahrsten Sinne des Wortes zu diktieren. Der
legendäre Computer HAL aus ”2001 – Odyssee im Weltall” entwickelte seine Fähigkeiten
sogar so weit, dass er von den Lippen lesen konnte.
Zugegeben – ganz so weit ist es noch nicht. Dennoch haben Spracherkennungssysteme in
der letzten Zeit gewaltige Fortschritte gemacht und sind mittlerweile neben Maus und
Tastatur zum gleichberechtigten Eingabeinstrument geworden. Das gilt sowohl für das
Erfassen von Texten und Daten wie auch für das Steuern des PC. Die neue Generation
der Spracherkennungsprogramme ermöglicht auch Otto–Normalverbraucher eine völlig
neue Arbeitswelt.
Der Ausspruch ”Computer – bitte zum Diktat” ist heute bereits Realität geworden.
Ein kurzer geschichtlicher Rückblick zeigt die rasche Entwicklung dieser interessanten
Mensch–Maschine–Schnittstelle.
Seit den sechziger Jahren wird in den Labors unterschiedlichster Firmen intensiv an Spracherkennungssystemen geforscht und entwickelt. Bis zu Beginn der achtziger Jahre reichten das Wissen und die technischen Möglichkeiten gerade aus, um Systeme zu konstruieren
die maximal einige hundert Einzelwörter erkennen konnten. Danach ist die Entwicklung
so rasant vorangekommen, dass eine Erfolgsmeldung die andere ablöste.
1984 wurde ein Spracherkennungssystem vorgestellt, das mit Hilfe eines Großrechners
in einem mehrere Minuten dauernden Rechenvorgang etwa 5.000 englische Einzelwörter
erkennen konnte.
Im Jahre 1986 haben Wissenschaftler des IBM Forschungslabors in Yorktown Heights,
USA, den Prototyp ”Tangora 4 für Englisch, entwickelt. Bei diesem System war es durch
spezielle Mikroprozessoren möglich, die komplizierten Verarbeitungsschritte der gesprochenen Sprache auf einem Arbeitsplatzrechner in Echtzeit durchzuführen. Das bemerkens-
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
17
werte an diesem System war, dass es bereits eine Kontextprüfung beinhaltete.
Seit 1988 wurde im Wissenschaftlichen Zentrum Heidelberg der Prototyp für die deutsche
Version von ”Tangora” entwickelt. Einsatz fand dieses System in der Medizin zum Diktieren von radiologischen Befunden, im Gerichtswesen für juristische Gutachten und im
Büro für die allgemeine Geschäftskorrespondenz.
Im Dezember 1992 wurde die ”Tangora–Technik” erstmals in einem Produkt unter dem
Namen ”ISSS” (IBM Speech Server Series) verfügbar gemacht.
Ende 1993 wurde ein neues Produkt, das auf der ”Tangora–Technologie” basiert, angekündigt. Der Preis war geradezu eine Sensation. Während alle bisherigen Lösungen
über 10.000¿ gekostet hatten, wurde das IBM Personal Dictation System, das kurze Zeit
später in IBM VoiceType Diktiersystem umbenannt wurde, für unter 1.000¿ auf den
Markt gebracht. Dieses System war eine reine PC-Lösung und damit auch für den breiten
Massenmarkt bestimmt.
Eine andere Lösung und das erste Spracherkennungssystem für den tragbaren PC wurde
1984 von der Firma Dragon Systems in Newton, Massachusetts, entwickelt.
Die erste kontinuierliche Philips Spracherkennung wurde 1993 vorgestellt und 1994 implementiert.
Es folgte 1997 das Produkt Speech Magic, welches Client/Server fähig ist, und 1998 ein
Konsumentenprodukt namens FreeSpeech98.
Lernout & Hauspie ist der vierte Spracherkennungshersteller. Die ersten Produkte in
deutscher Sprache sind seit Ende November 1998 verfügbar.
Große Technologieunternehmen wie IBM oder Philips haben das riesige Marktpotential
erkannt und investieren seit Jahren beträchtliche Summen in die Perfektionierung der
Spracherkennung. Gleichzeitig kommen neue Anbieter wie Dragon Systems und Lernout
& Hauspie auf den Markt und beschleunigen das Innovationstempo weiter. Der eigentliche Gewinner dieses Wettlaufs ist der Verbraucher, der für immer weniger Geld eine
immer bessere Software erhält. Umfragen zeigen das überwältigende Interesse an diesem Thema. Ein Großteil der PC–Anwender kann sich vorstellen, in der nächsten Zeit
ein Spracherkennungssystem anzuschaffen. Interessanterweise setzen aber nur sehr wenige
eine Spracherkennung im produktiven Alltag bereits ein.
Woher rührt diese beträchtliche Diskrepanz zwischen einerseits breitem Interesse und
andererseits nur geringer Verwendung? Es wird für viele Interessenten immer schwieriger,
sich angesichts der Vielzahl der angebotenen Systeme einen aktuellen und objektiven
Überblick zu verschaffen. Und selbst die Lektüre eines noch so umfangreichen Testberichts
ist kein Ersatz für das eigene Ausprobieren und Testen der verschiedenen Programme. Nur
so kann jeder selbst entscheiden, ob sich Spracherkennung nutzbringend einsetzen lässt.
Die jahrzehntelange Grundlagenforschung in der Spracherkennung ist in letzter Zeit wesentlich vorangekommen. Für die allgemeine Textverarbeitung, die Telekommunikation
und den Zugriff auf Datenbanken sowie beim Dialog mit Expertensystemen wird zur Zeit
an besonders leistungsfähigen Spracherkennungssystemen geforscht.
Gesprochene Sprache ist eines der wichtigsten menschlichen Kommunikationsmittel. Da
die Sprache für uns selbstverständlich ist, machen wir uns über sie normalerweise keine
Gedanken. Für uns Menschen ist es einfach, Wörter und Sätze zu verstehen. Könnte die
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
18
natürlich gesprochene Sprache von Computern verstanden werden, würde dies nicht nur
den Mensch-Maschine-Dialog erleichtern, sondern auch neue Einsatzgebiete des Computers erschließen.
Am Entwicklungsprozess einer Spracherkennungslösung sind unter anderem beteiligt:
ˆ Programmierung und Computertechnik
ˆ Phonetik
ˆ Linguistik
ˆ Mustererkennung
ˆ künstliche Intelligenz
Mit einem automatischen Spracherkenner wird versucht, das menschliche Sprachverstehen
nachzuahmen. Neben Tastatur und Maus dient nun das Mikrofon als weitere direkte
Eingabemöglichkeit dazu, Daten in den Computer einzugeben.
Spracherkennungssysteme lassen sich in zwei grundsätzlich verschiedene Gruppen unterteilen. Die eine dient zur Steuerung von Maschinen durch ”Sprachbefehle”, die andere
wird zum Erfassen von ”gesprochenem Text” eingesetzt.
Die Spracherkennung zur ”Steuerung und Befehlseingabe” bildet die Eine Gruppe von
Systemen. Steuerungssysteme verfügen in der Regel über einen stark beschränkten Wortschatz, da meist nur wenige Befehle zur Steuerung benötigt werden und kein direkter
Kontakt zum spracherkennenden Computer bestehen muss. Somit sind auch indirekte
Eingaben wie zum Beispiel über ein Telefon möglich. Sie finden vor allem Anwendung
beim sogenannten ”Telefon-Banking”. Es sind aber auch Datenbankrecherchen via Telefon möglich.
Sprachsteuerungen mit Kontakt zum Computer finden vor allem Anwendung als Steuerungssysteme, die mittels sprachlich gegebener Befehle Geräte und Maschinen bedienen
beziehungsweise steuern.
Die andere Gruppe bilden Spracherkennungssysteme zur ”Texterfassung”. Bei der Spracherkennung werden gesprochene Wörter in geschriebenen Text umgewandelt. Diese Systeme müssen in der Regel über einen sehr großen Wortschatz verfügen, damit zufriedenstellende Erkennungsergebnisse erreicht werden können. Manche Systeme können den
Text in Echtzeit erfassen, bei anderen muss der Vorgang der Umwandlung von Sprache in
Text in einem sogenannten ”Stapel-Betrieb” (Batch-Job) erfolgen. Systeme die in Echtzeit
arbeiten, können den Text unmittelbar nachdem er gesprochen wurde, auf dem Bildschirm
des Spracherkennungscomputers anzeigen.
Ein weiteres Unterscheidungskriterium befasst sich mit der Frage, ob zur Spracherkennung
eine diskrete Sprechweise erforderlich ist, also jedes Wort für sich gesprochen werden muss,
oder ob der Text kontinuierlich diktiert werden kann, wie es beim normalen Sprechen
üblich ist.
Beim kontinuierlichen Sprechen sind fast alle Wörter lückenlos aneinandergereiht. Dem
Menschen fällt es beim Zuhören leicht, die einzelnen Wörter zu unterscheiden. Für eine Maschine ist es um ein Vielfaches schwieriger einen zusammenhängenden Redefluss
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
19
zu strukturieren und in einzelne Wörter zu zerlegen. Das System muss in Echtzeit entscheiden, an welcher Stelle Wörter zu Ende sind. Der schon bei Systemen für diskret
gesprochene Sprache sehr hohe Rechenaufwand wird bei Systemen die kontinuierlich gesprochene Sprache erkennen sollen, um ein Vielfaches übertroffen. Durch die kontinuierlich
steigende Leistungsfähigkeit der PCs ist es den Labors jedoch gelungen ein System zu entwickeln, welches das Diktieren ohne Pausen zwischen den einzelnen Wörtern zulässt. Diese
Systeme sind mittlerweile mit einem riesigen Gesammtwortschatz und ebenfalls sprecherunabhängig verfügbar.
Ein sprecherunabhängiges System kann von jeder beliebigen Person ohne Training genutzt werden. Bei Texterfassungssystemen muss differenziert werden, ob sich die Sprecherunabhängigkeit auf den Wortschatz oder auf das gesamte Spracherkennungssystem
bezieht. Bei einem Spracherkennungssystem ohne mitgelieferten sprecherunabhängigen
Wortschatz, muss jeder Benutzer der mit dem System arbeiten möchte seinen persönlichen Wortschatz erst aufbauen. Aus jedem Wort das der Benutzer diktiert, muss der
Rechner ein Referenzmuster erzeugen. Erst wenn der selbst aufgebaute Wortschatz repräsentativ genug ist, können ausreichend gute Erkennungsergebnisse erreicht werden.
Dadurch dauert die Einarbeitungszeit für jeden Benutzer sehr lange und die Produktivität wird zunächst stark absinken. Solche Systeme sind heute nicht mehr üblich. Ein
mitgelieferter sprecherunabhängiger Wortschatz ist somit sehr sinnvoll, da dieser nur noch
an die Sprechweise des Benutzers angepasst und nicht erst eingegeben werden muss. Die
am häufigsten verwendeten Wörter sind in solch einem Wortschatz bereits enthalten und
mit Referenzmustern hinterlegt. Sie werden nur noch an den Sprecher adaptiert. Zum Beispiel lernt das System ob der Sprecher ”wichtig”, ”wichtich”, oder gar ”wischtisch” sagt.
Man stelle sich einmal vor, ein Österreicher, ein Deutscher und ein Schweizer sollten vom
System sofort und ohne Initialtraining erkannt werden. Dies ist selbst für einen Menschen
schwierig, da die regionalen sprachlichen Eigenheiten der Sprecher sehr verschieden sein
können. Ein System das nicht auf die zusätzlichen Kommunikationsmittel des Menschen
(z. B. Gestik, Mimik), zurückgreifen kann, wäre hoffnungslos verloren.
Ein Anpassungstraining ist aufgrund der heutigen sprecherunabhängigen Systeme zwar
nicht mehr notwendig, aber aufgrund unserer individuellen Aussprache sehr empfehlenswert. Man erzielt dadurch von Anfang an eine weitaus höhere Erkennungsgenauigkeit.
Bereits heute können auf dem PC basierende Diktiersysteme in vielen Bereichen effektiv
eingesetzt werden, wobei die Arbeit noch folgenden Beschränkungen unterliegt:
ˆ Ein Kopfbügelmikrofon (Headset), durch das man an den Computer gebunden ist,
ist immer noch notwendig.
ˆ Ein Training der Systeme ist wegen der unterschiedlichen Dialekte und Akzente fast
unumgänglich.
ˆ Es ist unmöglich eine 100%–ige Erkennungsgenauigkeit zu erreichen.
Es gibt viele Spekulationen wie Spracherkennungssysteme in der Zukunft implementiert
und realisiert werden können. Das große Ziel wird natürlich sein, die oben genannten Beschränkungen zu beseitigen. Die Dialekte und Akzente scheinen die Programme immer
besser in den Griff zu bekommen: Bei einigen neuen Spracherkennungsprogrammen wird
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
20
der Benutzer in sogenannte Cluster eingeteilt. Durch ein ”Mini-Training” mit einigen wenigen Sätzen zum Nachsprechen wird der Benutzer in das Cluster männlich, weiblich,
Jugendlicher, Kind usw. eingeteilt. Zur Verbesserung der Erkennungsgenauigkeit trägt sicherlich auch ein größeres Vokabular bei. Bringt ein Spracherkennungshersteller ein neues
Produkt auf den Markt, enthält dieses gegenüber der Vorgängerversion meist auch ein
größeres Vokabular. Außerdem wird daran gearbeitet, die PC-Steuerung so effektiv zu
gestalten, dass Tastatur und Maus durch die Sprache völlig ersetzt werden können. Die
Spracherkennung wird in Zukunft eine noch wichtigere Rolle spielen. Kann ein Computer Sprache wirklich verstehen, so sind Dialoge zwischen Mensch und Computer möglich.
Denkbare Anwendungen wären zum Beispiel der elektronische ”Kiosk” oder die automatische Übersetzung in beliebige Sprachen, wie es das mit dem Europäischen IT–Preis
ausgezeichnete ”Talk&Translate” von Linguatec gezeigt hat.
Die Einführung der Spracherkennung ist in gewisser Weise mit der Integration der Maus
vergleichbar. Als die ersten Computer mit einer Maus ausgerüstet wurden, gab es kaum
Software die durch eine Maus bedient oder gesteuert werden konnte. Auch die Integration in das Betriebssystem verursachte zunächst Probleme. Heute ist praktisch jede Anwendung mit der Maus zu bedienen. In den modernen Betriebssystemen mit grafischer
Oberfläche wird die Maus standardmäßig voll unterstützt.
In einer ähnlichen Situation befindet sich derzeit die Spracherkennung auf dem PC.
Zunächst noch skeptisch betrachtet und kaum in einer Anwendung integriert, wird in
Zukunft die Bedeutung der Spracherkennung stark zunehmen und bald nicht mehr aus
dem täglichen Arbeiten mit dem Computer wegzudenken sein. Doch nicht nur auf allen
PCs wird diese Lösung realisiert.
Spracherkennung ist auch für viele andere Geräte denkbar. Man stelle sich einmal vor,
man könnte einem elektronischen Notizbuch einen Texte einfach diktieren ohne einen PC
zu benutzen. Oder Sie bräuchten die Bedienungsanleitung des Videorecorders nicht mehr
auswendig zu lernen, weil Sie ihm sagen können wann er einen Film aufnehmen soll. Auch
das ”connected car”, eine Autostudie bei der fast alles mit der Sprache zu bedienen und
zu steuern ist, wird bald keine Zukunftsmusik mehr sein. Beim Autofahren sind Hände,
Augen und Beine beschäftigt. Die Sprache ist das einzige freie Medium dem keine Grenzen
gesetzt sind.
Körperlich schwerbehinderten Menschen, die keine Tastatur bedienen können, ermöglicht
sie schon heute eine Erweiterung ihrer Arbeits– und Kommunikationsmöglichkeiten. Besonders die Hersteller von Betriebssystemen arbeiten intensiv an der Verbesserung von
Spracheingabesystemen [LH02].
Für eine genauere Studie der Funktionsweise und Problematiken bei der Spracheingabe
siehe Linkliste im Anhang unter Punkt 6.1.3 .
2.1.5
Datenhandschuhe
Zu den wirklich tragbaren Eingabegeräten zählt der sogenannte Datenhandschuh. Es gibt
verschiedenste Ideen, die Hand– bzw. Fingerbewegungen als Steuerung oder Dateneingabe
zu verwenden. Einige Datenhandschuhe sind mit fiberoptischen Sensoren ausgestattet die
es ermöglichen, alle Bewegungen der Finger aufzufangen. Zusätzlich kann ein Tracker an
der Brust des Benutzers befestigt werden, um die Position und Orientierung der Hand
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
21
berechnen zu können.
Ein Vertreter dieser Art von Dateneingabe ist der sogenannte ”Nailglove”. Sensoren am
Fingernagel erkennen quasi einen Tastendruck ohne das wirklich eine Tastatur benötigt
wird (Siehe Abbildung 2.16).
Abbildung 2.16: Datenhandschuh mit Fingernagelsensor
Der Scurry ist ein tragbares Eingabegerät von Samsung, das es dem Benutzer ermöglicht
in der Luft zu schreiben. Biologische Feedback–Schemas (Visuelles, Kraft– und Sound–
Feedback) sind in den Scurry integriert. Es besitzt sogenannte ”MEMS” Bewegungssensoren, mit denen beim Tragen des Scurry die Winkelgeschwindigkeit der Hand und die
Beschleunigung der Fingerbewegung gemessen werden. Die dadurch erhaltenen Sensorsignale werden dann, wie bei anderen Eingabegeräten, als Handbewegung bzw. Finger–Klick
Information verarbeitet.
Die Technologie des Scurry ist anwendbar bei Wearable Computer, Handheld Gerät, virtuellen Anwendungen, Tele–Operationen, Computerspiele, Remote–Controller, als Zeigegerät, INS (Inertial Navigation System) und als Eingabegerät (Motion–Translator) für
beeinträchtigte Personen.
Die folgende Abbildung 2.17 zeigt zwei varianten des Scurry. Ein funktionstüchtiges Gerät
(links) sowie ein Studie wie dieses Gerät noch aussehen könnte (rechts).
Abbildung 2.17: Nicht nur eine tragbare Tastatur ist der sogenannte Scurry
Links zu weiteren Informationen findet man unter ”Tastatur” in der Linkliste im Anhang
unter Punkt 6.1.3 .
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
2.1.6
22
Dexterous manipulators
Für einige Anwendungen wird höchste Präzision gefordert. Da der Datenhandschuh oft
nicht effizient genug ist, wurde zum Beispiel der Hand Master entwickelt. Mit Hilfe von Potentiometern werden Winkelbewegungen der Finger aufgefangen. Pro Finger sind 4DOF5
möglich, für die ganze Hand also 20DOF. Weiters sind diese Geräte mit einem Force Feedback ausgestattet. Sie sind weit genauer als Datenhandschuhe. Die Fehlerquote liegt bei
ca. 1o ; beim Datenhandschuh 5o -10o .
Schließlich sind jedoch die derzeitigen Systeme relativ unbequem und man kann die Hände
auch nur sehr eingeschränkt für andere Arbeiten einsetzen.
2.1.7
Datenanzug
Zu einer Weiterentwicklung des Datenhandschuhes zählt der Datenanzug. Wie der Name
schon sagt, ist der Benutzer mit einem mit Sensoren bestückten Anzug bekleidet. Mit einer
minimalen Anzahl von Sensoren ist das Festhalten aller Bewegungen des ganzen Körpers
möglich. Auch hier ist der Tragekomfort nicht wirklich für den Alltag zu gebrauchen,
außerdem dauert das Anlegen eines solchen Datenanzuges länger als das Anziehen einer
handelsüblichen Jacke und Hose. Anwendungen gibt es relativ viele, zum Spielen, aber
auch zum Produzieren von Computerspielen, Filmen oder Trainingsgeräten. Zum Beispiel
könnte man mit einem Datenanzug die Schlagbewegung eines Golfspielers aufnehmen
und sie mit der Bewegung einem Profispielers vergleichen. Damit kann man Fehler leicht
erkennen und korrigieren.
Eine moderne Art eines Datenanzuges wird im nächsten Abschnitt gezeigt. Mit Hilfe von
neuen Technologien und speziellen Stoffen, werden nicht nur einzelne Sensoren sonder auch
Ein/Ausgabegeräte und bald auch ganze Computer in Kleidungsstücke integriert. Trotz
der ganzen Technik die in so einem Kleidungsstück steckt, soll der gewohnte Tragekomfort
erhalten bleiben.
2.1.8
Elektronische Stoffe und Sensoren
Eine Tastatur eingenäht in die Hose, ein Handy in der Krawatte, eine Fernbedienung in
der Couchlehne. Dies alles soll demnächst dank des Elektro–Stoffes des britischen High–
Tech Unternehmens Electrotextiles6 Realität werden. Der leitende Elektro–Stoff sei laut
Hersteller strapazfähig, waschbar, leicht und kostengünstig.
Dass bestimmte Elektro–Stoff–Geräte nur benutzbar sein werden, wenn man das passende
Kleidungsstück trägt, ist laut Aussage des Unternehmens nicht von Bedeutung. ”Langfristig werden sowieso alle Kleidungsstücke mit persönlichen Elektrogeräten ausgestattet
sein.”
Spielzeuge mit weichen Elektroteilen zum Beispiel wären für Kinder weniger gefährlich. In
einem mit Elektro–Stoff ausgestattetem Flugzeug könnte die Besatzungsmannschaft auf
5
Dreidimensionale Objekte haben 6 Freiheitsgrade (DOF–degrees of freedom): Die drei Positionskoordinaten (x, y und z) und Angaben zur Orientierung (z.B. neigen, schwenken und drehen von Winkeln).
6
http://www.electrotextiles.com
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
23
einem Bildschirm sofort erkennen, ob alle Passagiere den Sicherheitsgürtel angeschnallt
hätten. Darüber hinaus gibt es viele Möglichkeiten im Bereich des Gesundheitswesens. Der
Elektro–Stoff könnte etwa bei Krankenbetten das Wundliegen verhindern, indem Sensoren
mögliche Wundstellen im Voraus identifizieren.
Manches davon lässt sich schon kaufen, beispielsweise eine Sportjacke mit aufblasbaren
Luftkammern. Wem zu kalt wird, der legt sich damit schnell eine zusätzliche Isolierschicht
zu. Die Notärzte der Universitätsklinik Regensburg tragen bereits eine Weste, die mit Mikrofon, Computer und einer Sendeeinheit verbunden ist. Der Arzt kann die Patientendaten
schon am Ort diktieren und sie direkt in die Notaufnahme senden.
Die Eidgenössisch–Technische Hochschule Zürich hat ein Armband entwickelt, das Blutdruck und Temperatur erfasst und in kritischen Fällen gleich an das Krankenhaus übermittelt. Ideal zum Beispiel für Skifahrer ist eine Art Kragen mit Mobiltelefon, das sich
über einen kleinen Griff einschalten lässt. Gewählt wird mit Spracherkennung.
Die vom Bochumer Klaus–Steilmann–Institut entwickelte ”Smart Wear Weste” mit Taschencomputer und Sendeeinheit wurde schon von Journalisten bei der Deutschen Leichtathletik–
Meisterschaft in Wattenscheid getestet. ”Denkbar ist, dass die Fans während der Fußballweltmeisterschaft 2006 mit einer solchen Weste in den Stadien die Ergebnisse der anderen
Spiele erhalten”.
Einen ernsteren Hintergrund hat die vom selben Institut entwickelte Kinderkleidung mit
SOS-System. Wenn ein Kind in eine Notsituation kommt, kann es mit einem Klettverschluss einen Sender aktivieren, der die Eltern auf dem Mobiltelefon benachrichtigt.
Purer Luxus ist schließlich das ”Joy Dress” der römischen Designerin Alexandra Fede.
In einem eleganten violetten Abendkleid sind Vibrationsflächen eingearbeitet, die auf
Knopfdruck den Rücken der Trägerin massieren – und auf diese Weise lange Stehpartys
erträglicher machen sollen. 7
Computer zum Anziehen, das ist ein Stichwort, bei dem man schnell an Bilder aus
Science–Fiction–Filmen denkt. An Menschen mit installierten Maschinen, merkwürdigen
Sichtgeräten vor den Augen und drahtlosen Steuerknüppeln in der Hand. All dies wurde nun tatsächlich in vielen Variationen beim internationalen Symposium für Wearable
Computers in Seattle präsentiert. Für die Forscherelite dieses Fachgebiets gab es beim
alljährlichen Treffen auch eine Modenschau. Auf einem improvisierten Laufsteg wurde ein
ganz unscheinbarer Parka präsentiert, der von Ingenieuren des Unternehmens Infineon
entwickelt wurde und nicht nur wärmt, sondern mit dem integrierten MP3–Player auch
digitale Unterhaltung bietet. In die Fasern der Jacke sind Drähte verwoben, die alle Einzelelemente verbinden: Player, Kopfhörer, dazu die Bedienungstasten und Lautstärkeregler
auf dem linken Jackenärmel. Viel Beifall gab es bei der Präsentation für den Musikparka
auch deshalb, weil er sich von anderen eher bizarren Kleidungsstücken und Accessoires
abhob. Und die Digitalkleidung ist nicht nur tragbar, sondern auch optisch erträglich.
(siehe Abbildung 2.18)
Abbildung 2.19 zeigt eine änliche Variante als Pullover.
Was bisher noch Wunschvorstellungen sind, könnte schon bald Wirklichkeit werden. Kleidung, die mitdenkt und ihren Besitzern das Leben erleichtert.
7
http://www.stern.de/index.html?id=325102
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
24
Abbildung 2.18: Computer als Parka getarnt
Abbildung 2.19: Pullover mit Kopfhörer am Kragen und Bedientasten am Ärmel
An ”intelligenten” Textilien wird eifrig getüftelt, wie ein Forschungsprojekt des ChipHerstellers Infineon und der Deutschen Meisterschule für Mode in München zeigt. Techniker und angehende Designerinnen entwickelten gemeinsam Sportbekleidung mit integriertem MP3–Player. Nanoelektronik mache dies möglich, erläutert Sönke Mehrgardt,
Technologie–Vorstand von Infineon. Ein Chip mit atomfeinen Kohlestoff–Fasern, die nur
einen zehnmillionstel Millimeter messen, wird mit einer Schutzhülle ummantelt, mit elektrisch leitfähigem Gewebe verbunden und dann eingenäht. Im Bereich von Nanometern
geht es um Größenverhältnisse von Molekülen, also der Verbindung von Atomen. Ein
Kohlenstoffatom hat einen Durchmesser von etwa 0,15 Nanometern.
In einem Pullover versteckt sich ein Audio–Modul mit einem Multimedia Card Platz für
Musikdaten. Am linken Ärmel findet sich unter aufgenähten Stoffstreifen das Bedienfeld, auf der Brust ist ein Mikrofon zur Sprachsteuerung angebracht. Und aus dem bunt
geringelten Rollkragen baumeln Kopfhörer. Die Energie stammt aus einem winzigen Thermogenerator, der Körperwärme in Strom umwandelt. Diese und weitere Ideen schwirren
in den Köpfen der Forscher.
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
25
Es wird geschätzt, dass solche ”smart textiles” zuerst für Freizeit und Unterhaltung zum
Einsatz kommen. Schon bald wird man solche Produkte auf den Markt erwerben können.
Die Chips bringen zwar hohe Leistung, aber auch praktische Probleme, wie Hitzeerzeugung und hohen Stromverbrauch mit sich. Das technische Material ist extrem empfindlich
und bruchgefährdet.
Um Technik sinnvoll mit Mode zu verknüpfen, muss ein normaler Umgang mit der ”tragbaren Elektronik” möglich sein. Dazu gehören Waschen und Reinigen ebenso wie bequemes Sitzen oder Liegen. Und auch ”kluge” Kleidung muss es aushalten, mal in den
Rucksack gestopft zu werden. Die Technik ist zwar schon sehr klein, aber noch nicht als
textile Faser verfügbar. Trotz Elektronik braucht die Kleidung die gewohnten Eigenschaften wie luftdurchlässig und atmungsaktiv zu sein. Außerdem darf die Technik nicht vor
dem Stoff den Geist aufgeben.
Ein anderes Problem ist derzeit noch der Preis. Die Prototypen kosten rund fünf Millionen
Euro. Aber in der Chipbranche schmelzen die Preise rasch auf ein erschwingliches Niveau
zusammen. Für die Marktreife sicherte sich Infineon bereits zwölf Patente auf elektronische
Textilien.
Es gibt unzählig viele Anwendungsmöglichkeiten für ”wearable electronics”. Textilien, die
Blutdruck oder Puls messen, Kinder–Kleidung die den Eltern zu Hause anzeigt wo die
Kleinen herumtollen, T-Shirts die darüber informieren welche Laune der Träger hat, oder
Kleider die auf Wunsch die Farbe wechseln.
Möglich wäre auch, Hemd oder Bluse mit Sicherheits– und Identitätskarten auszurüsten.
Die Tür zum Büro ginge morgens nur auf, wenn der richtige Mitarbeiter davor steht.
Der Computer schaltete sich schon ein, während man noch die Jacke ablegt. Dabei wären
allerdings noch ein paar unangenehme Begleiterscheinungen aus dem Weg zu räumen.
Als Besitzer möchte man sich nicht jeden Morgen gegenüber seinem Hemd ausweisen.
Viele elektronische Kleidungsstücke wären nötig, um nicht jeden Tag dasselbe tragen zu
müssen. Eine Lösung dafür wäre nur ein Hemd, das sich selbst wäscht – und hoffentlich
auch bügelt ([Pre02]).
Wenn man noch eine Schritt weiter geht, könnte man sich auch folgende Situationen
vorstellen.
ˆ Die Sonne brennt. Keine Sorge, das neue T-Shirt macht Eincremen überflüssig.
ˆ Das Herz rast. Ruhig Blut, das Hemd zeigt an, welche Tablette einzunehmen ist.
ˆ Die Waschmaschine läuft. Kein Problem, der Wollpullover regelt die Temperatur in
der Trommel selbst.
Unendlich viele Ideen wie diese schwirren in den Köpfen von Visionären, einige davon
wird man bestimmt einmal in den Boutiken wiederfinden.
Links zu weiteren Infomationen findet man in der Linkliste im Anhang unter punkt 6.1.3
.
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
2.1.9
26
Elektronischer Schmuck
Schmuck, der im weiteren Sinne ja auch zur Kleidung gehört, ist ein ideales Versteck
für Eingabegeräte sowie Ausgabegeräte. Die Miniaturisierung elektronischer Geräte ist
bereits in Bereiche vorgestoßen in denen es kein Problem mehr darstellt, zum Beispiel
einen Kopfhörer in einen Ohrring, ein Mikrophon in eine Halskette oder eine Kamera in
einer Brosche unter zu bringen.
Abbildung 2.20: Schmuck als Versteck für E/A–Geräte
Mit der sogenannten Nanotechnologie werden künftig immer mehr Geräte in unseren Alltagsgegenständen platz finden, und das mit bei weitem weniger Energiebedarf als bisher.
Das größte Problem ist dabei die drahtlose Übertragung der Information von und zu den
Geräten. Die Übertragung bedingt immer eine Sende– bzw. Empfangselektronik mit dazugehöriger Sende– und Empfangseinheit (Antenne, IR–LED,. . . ), welche einen relativ
hohen Energieverbrauch aufweisen. Beispiele für ”Elektronischen Schmuck” sind in Abbildung 2.20 zu sehen, wobei man ihn rein optisch nicht wirklich von ”normalen” Schmuck
unterscheiden kann.
2.1.10
Video
Kameras als Eingabegeräte werden immer kleiner und besser, aber wichtig ist auch, was
man mit dem Bild/Ton Informationen anstellt. Daten sind nur so gut wie ihr Informationsgehalt und die nötige Information aus Videodaten zu bekommen ist eine große
Herausforderung für die Forschung.
Nicht das Herausfiltern von Information, sondern die Aufzeichnung von bereits vergangenem Geschehen, ist der Dienst den das Produkt ”DejaView” leistet. Eine tragbare Kamera
zeichnet auf Knopfdruck die jeweils vergangenen 30 Sekunden auf. Durch die DejaView
CAMWEAR 100 können Websites mit Hoppala–Videos gespeist werden, oder Videos von
Verkehrsunfällen können zur Beweissicherung beitragen. Man kann aber auch einfach das
elektronische Familienalbum erweitern. Die Anwendungsmöglichkeiten sind schier unbegrenzt. Das Objektiv des Gerätes ist so klein und leicht, dass es an Brillengestellen oder
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
27
Kopfbedeckungen angebracht werden kann. Ein Kabel führt zu einem zirka Zigarettenschachtel großen Gerät, das man zum Beispiel am Gürtel befestigen kann oder einfach in
die Tasche steckt (siehe Abbildung 2.21).
Abbildung 2.21: Schmuck als Versteck für E/A–Geräte
Das kleine Gerät schreibt ununterbrochen Daten in einen Zwischenspeicher, wobei die
jüngste Information die jeweils älteste ersetzt. Betätigt der User einen Knopf, wird der
Zwischenspeicher auf eine im Gerät enthaltene Speicherkarte im MPEG-4 Format geschrieben. Es werden 30 Bilder pro Sekunden mit 320x240 Pixel Auflösung und 24 Bit
Farbtiefe gemacht, und auch der Ton wird dazu aufgezeichnet. Eine Akkuladung soll laut
Hersteller DEJA VIEW acht Stunden Betrieb ermöglichen.8
Das Gerät verfügt auch über einen USB-Anschluss, über den die kleinen Videos auf Computer überspielt werden können. Mit dem Modell 200XP können bis zu vier Stunden
Video und Ton aufgezeichnet werden. Die Bildqualität ist aber dabei nicht besser. Wer
über einen entsprechend ausgerüsteten PDA verfügt, kann auch nur das Objektiv mit
eingebautem Mikrofon samt Kabel erwerben und seinen tragbaren Computer als Aufnahmegerät nutzen.
2.2
Ausgabegeräte
Genau wie bei den Eingabegeräten, wird auch bei den Ausgabegeräten eifrig geforscht und
entwickelt. Von Lampen als Informationsanzeigeinstrument bei Computern ist man schon
weit entfernt, obwohl in vielen Bereichen die Lampen oder LED–Anzeigen noch einen
hilfreichen Dienst verrichten, und vor allem durch ihre Leuchtkraft und günstigen Produktionskosten überzeugen. Nach dem TFT–Bildschirme bereits für jederman erschwinglich geworden sind, ist der letzte schrei wohl der ”flexible Bildschirm”. Dazu aber etwas
später.
Neben der optischen Anzeige von Information, gibt es eine reihe anderer Ausgabeformen
die der Mensch als nützliche Information aufnehmen kann. Zum Beispiel die akustische
8
http://www.mydejaview.com
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
28
Ausgabe von Tönen, Musik oder Sprache. Auch die Erzeugung von verschiedensten Düften
wird bereits mit viel eifer erforscht.
2.2.1
Displays
Die bekanntesten Vertreter werden grundsätzlich in zwei Technologien eingeteilt.
ˆ CRT(cathode ray tube–Kathodenstrahlröhre) Displays basieren auf der konventionellen Fernsehertechnologie.
ˆ LCD (liquid crystal diode) Displays sind eine relativ neue Technologie und ihre
Produktionskosten daher noch immer relativ hoch.
Eine vielversprechende Technologie sind sogenannte Plasmamonitore. Sie vereinigen alle
Vorteile der beiden vorher genannten Technologien, sind aber sehr viel teurer.
Es gibt Projekte, bei denen versucht wird, mit Hilfe von Lasern das Bild direkt auf die
Retina zu projizieren. Ziel ist es, eine Auflösung von 4000 x 3000 und einem FOV9 von
100o zu erreichen (siehe HMD mit Retinaprojektion 10).
3D-Brillen – Auf einem herkömmlichen Monitor werden Stereobilder dargestellt. Mit
dem Monitor synchronisiert, öffnet und schließt die 3D-Brille mit hoher Frequenz
abwechselnd die rechte und die linke Seite der Brille. So erfährt der Benutzer dreidimensionale Bilder. Alternativ zum Monitor werden auch Projektionswände verwendet.
Surround Displays – Eine sehr attraktive Alternative zum normalen Desktop-Monitor
sind große Projektionsschirme. Sie bieten keine besseren Bilder, aber ein weitaus
größeres Blickfeld. Ein totales Eintauchen in die virtuelle Welt ermöglichen CAVEähnliche Displays. Der Benutzer ist umgeben von vielen Flat Screens.
Binocular Omni Oriented Monitors (BOOM) – Entwickelt und kommerzialisiert von
den Fake Space Labs, stellen BOOMs eine Vereinigung von mechanischen Trackern
und der stereoskopischen Bildwiedergabetechnologie dar. Zwei kleine Monitore sind
am Ende eines mechanischen Arms befestigt. Der Benutzer ergreift das Ende des
Arms und muß die Monitore immer vor Augen führen. Diese sind jedoch nicht tragbar und führen zu einer eingeschränkten Bewegungsfreiheit des Benutzers.
Head Mounted (Coupled) Displays (HMD) – Ein HMD ist ein Gerät das am Kopf
des Benutzers befestigt wird. Es besteht aus zwei CRT oder LCD Monitoren die
vor den Augen des Benutzers plaziert sind. Für Virtual Rality Anwendungen wird
dem Benutzer das Bild in Abhängigkeit seiner aktuellen Position und Orientierung,
welche durch einen Tracker ermittelt wird, dargestellt. Der Benutzer sieht also sein
Umfeld von seiner Position aus.
9
field of view – Blickwinkel
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
29
HMDs können in opaque und see–through HMDs eingeteilt werden. Opaque HMDs
füllen das gesamte Blickfeld mit Bildern der virtuellen Welt aus. Sie können bei Anwendungen benutzt werden, die eine eigene künstliche Welt erschaffen (z.B. Walkthroughs, Spiele, ...). See–through HMDs werden dann benutzt, wenn die Realität
mit 3D-Objekten überlagert wird (z.B. Augmented Reality).
Name
Typ
Sim Eye
see-through
CyberMaxx
opaque
EyeGen3
opaque
i-glasses!
opaque/seethrough
Art
CRT
LCD
CRT
LCD
Auflösung
FOV
(H x V)
1,3M Pixel
60o x 40o
180K Pixel
60o x 53o
123,25K Pixel
35o x 30o
180K Pixel
30o horizontal
Preis
( )
200.000
800
10.000
800
¿
HMD mit Display
Der von MicroOptical Corporation10 entwickelte Head-up Display bedeutet einen weiteren
Schritt in Richtung Tragekomfort und Alltagstauglichkeit. Es ist ein unauffälliger Display,
welcher auf eine conventionelle Brille aufgesteckt werden kann, oder sogar in das Glas
eingeschliffen wird. Es ist wohl eines der leichtgewichtigsten und ein sehr ergonomisches
Gerät und somit ein wirklich praktischer HMD (siehe Abbildung 2.22).
Abbildung 2.22: Thad Starner mit einem HMD von MicroOptical [Mic99]
Man kann diesen Display in normale Augengläser, Sicherheitsbrillen, militärische Brillen,
usw. ohne Probleme einbauen. Man benötigt nur ein paar Milimeter Glas, um ein von
der Seite (Bügel) pojiziertes Bild in das Auge umzulenken. Der konventionelle HMD
positioniert einen Display vor das Auge, MicroOptical jedoch teilt das Problem in zwei
Teile, die Bilderzeugung und die Bildpräsentation, um einen möglichst unauffälligen HMD
zu erzeugen. Es wird der miniatur LCD in einen der beiden Bügel eingebaut oder in ein Lförmiges Opticmodul welches man auf den Bügel aufsteckt. Das Bild wird auf eine winzige
vor dem Auge platzierte LinsenSpiegel Kombination projiziert und von dort direkt in das
10
http://www.microopticalcorp.com/
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
30
Auge reflektiert. Diese LinsenSpiegel Kombination befindet sich auf einem transparenten
Gestänge (siehe Abbildung 2.23 links) oder wird direkt in das Brillenglas integriert (siehe
Abbildung 2.23 rechts).
Abbildung 2.23: HMD von MicroOptical
MicroOptical arbeitet mit acitve-matrix LCDs und active-matrix elektroluminiscierenden
Displays. Diese Ausführung wiegt 30 Gramm bei der Ansteck-Version und 100 Gramm bei
der integrierten Version. Sie benötigt 50 bis 80 milliwatt, inclusive ihrer LED Lichtquelle.
Ihr virtuelles Bild can zwischen 60cm und unendlich eingestellt werden und das diagonale
Sichtfeld liegt zwischen 12 und 15 Grad.
Anwendungen wären zum Beispiel das Bild einer Nachtsichtkamera eingeblendet in die
Brillen eines Soldaten, ein Feuerwehrmann mit einer speziellen Kamera um durch den
Rauch zu sehen, ein Taucher um durch verschmutztes Wasser zu tauchen. Oder man sieht
einfach seinen Lieblingsfilm oder Computerbildschirm während eines Fluges oder einer
Zugfahrt.
”It’s easy to build something you’re going to look at for a minute, but for something
you may look at for an hour, that’s a different story.”, sagt Chief Executive Officer Mark
Spitzer von MicroOptical.
HMD mit Retinaprojektion
Der Retina scanning Display ist ein HMD mit direkter Retinaprojektion. Hierbei wird das
virtuelle Bild über lichtbrechende und lichtreflektierende Elemente direkt in die Retina
des Auges projiziert. Mann kann dabei auch das virtuelle Bild dem reellen Bild überlagern
und das resultierende ins Auge einblenden. Drei Strahlen mit den Grundfarben werden
dabei fokusiert um ein farbiges Bild zu erhalten. Der resultierende Lichtstrahl wird dann
wie beim Fernseher punktweise, Zeile für Zeile, direkt in das Auge projiziert. Bei der
Lichtquelle handelt es sich natürlich um eine sehr leistungsarme Quelle, um das Auge
nicht zu verletzen (siehe Abbildung 2.24).
Display-Folien
Eine neue Errungenschaft ist der sogenannte ”Foliendisplay”. Diese Art von Display besteht aus einer dünnen, biegsamen Folie und ist deshalb für ganz neue Einsatzgebieten
verwendbar. Einen der ersten dieser Gattung zeigt Abbildung 2.25, dieser hat nur die
Möglichkeit schwarze Farbe auf grauen Hintergrund darzustellen.
Aufregender sind da schon die nächsten zwei Prototypen eines Farb–Foliendisplays. Abbildung 2.26 zeigt links einen Röhren–Rechner mit aufrollbaren Bildschirm und Sprachein-
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
31
Abbildung 2.24: Direkte Retinaprojektion von Microvision [Mic03]
gabe anstatt einer Tastatur. Rechts ist die Verwendung als Landkarte dargestellt. Hier
stehen alle Funktionen einer GIS–Anwendung zur Verfügung, von der Zoom–Funktion bis
zum Anzeigen aktueller Daten via Internetverbindung.
Mit dieser Technologie können natürlich auch Plakatwände bestückt werden, um bequem
über das Internet die Werbeeinschaltung steuern zu können. Oder man stelle sich vor
dieser Stoff kann in Kleidungsstücke eingearbeitet werden. Das Militär hätte eine ideale
Tarnbekleidung, durch eine Kamera wird die Umgebung analysiert und das entsprechende
Tarnmuster auf der Kleidung angezeigt. Wenn man vom Golfplatz zum Abendessen geht,
wählt man anstatt des Poloshirts einfach den Abendanzug ohne sich um zu ziehen. Ein
Kreislaufproblem kann direkt optisch angezeigt werden. Zum Beispiel als rasendes Herz
auf der Brust. Auch zum Anzeigen einer Straßenkarte auf einer Jacke wäre ein solcher
Stoff geeignet (siehe Abbildung 2.27).
Diese und noch viel mehr neue Anwendungsgebiete wird man mit dieser Technologie
finden.
Weitere Displays
Es können bereits eine Vielzahl von Displays auch für kommerzielle Zwecke produziert
werden. Kleine, flexible, leichte, elegante,. . . einige Displays mit diesen Eigenschaften zeigt
Abbildung 2.28).
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
32
Abbildung 2.25: Einer der ersten Foliendisplays
Abbildung 2.26: Foliendisplay mit Farbdarstellung
2.2.2
Haptische Geräte
Zwei Typen von haptischen Eindrücken die vom Menschen wahrgenommen werden können
sind:
ˆ kinesthetic (Force) Feedback – Muskeln, Gelenke und Sehnen werden Kräften ausgesetzt.
ˆ tactile Feedback – beinhaltet Feedback über die Haut, wie zum Beispiel den Tastsinn.
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
33
Abbildung 2.27: Blu; Konzept von Lunar Design [Des01]
Force Feedback
Um das Natürliche in VR–Systemen hervorzuheben und zu unterstützen, wurden viele Geräte (Datenhandschuh, Dexterous Manipulators, Joysticks, ...) mit Force Feedback
ausgestattet. Zusätzlich wurden Geräte entwickelt, die bestimmte Körperteile stimulieren
sollen.
Tactile Feedback
Tactile Feedback ist viel sensibler als Force Feedback. Deshalb ist natürlich auch die
Herstellung und Entwicklung viel aufwendiger. Die Simulation kann zum Beispiel durch
vibrierende Module, aufblasbare Blasen oder electrorheological fluids (Flüssigkeiten, deren
zähflüssiger Zustand sich bei Erhöhung eines angelegten elektrischen Feldes erhöht), die
sich zum Beispiel direkt unter der Oberfläche eines Datenhandschuhes befinden. Zur Zeit
ist es leider noch nicht möglich die gesamte Bandbreite an Informationen, die wir über
die Haut aufnehmen können, zu manipulieren. Es ist zum Beispiel möglich die Oberfläche
virtueller Gegenstände zu simulieren, aber nicht deren Struktur.
2.2.3
Audio–Ausgabe
Der proportionale Anteil des Hörsinns beträgt ca. 20% der menschlichen Wahrnehmung
(Tastsinn 1%). Deshalb ist es sehr wichtig, in einem VR-System möglichst reale Soundverhältnisse darzustellen. Dabei müssen folgende Punkte beachtet werden:
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
34
Abbildung 2.28: Displays verschiedenster Art
ˆ Weg vom geräuschauslösenden Punkt bis zum Ohr
ˆ eventuelle virtuelle Hindernisse
ˆ Echos
ˆ Geometrie virtueller Objekte
ˆ Oberflächenstruktur der virtuellen Objekte
ˆ die Form des äußeren Ohres des Benutzers
Drei Punkte sind zur erfolgreichen Simulation einer akustischen Umgebung notwendig:
Sound Generation – Die Geräusche können entweder generiert oder gesampled sein,
die dann playback abgespielt werden.
Spatial propagation – Dies ist die teuerste und rechenintensivste Stufe. Hier müssen
alle, den Ton beeinflussenden Faktoren, analysiert und berechnet werden (z.B. Echo).
Mapping of parameters – Letztendlich müssen die einzelnen berechneten Geräusche
mit Hilfe von Filtern kombiniert werden und dann an den Mann gebracht werden.
Die Ausgabe geschieht meistens durch ein Dolby Surround System.
2.2.4
Gerüche
Das kalifornische Unternehmen DigiScents und der Schweizer Dufthersteller Givaudan
arbeiten an der Duftausgabe, die beiden wollen zusammen das Internet mit duftenden
E-Mails und Webseiten aufmischen.
Nötig ist dazu ein kleines Gerät, dass wie der Drucker an den PC angeschlossen werden
kann. Sender von E-Mails und Master von Webseiten lösen durch entsprechende Programmierung beim Öffnen der Post oder der Seite einen Impuls aus, der dem Bedufter
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
35
Abbildung 2.29: Designsstudie eines Bedufters
am Empfängergerät meldet, welche Mischung verlangt wird. Eine Düse sprüht dem Leser
der eMail den gewünschten Duft ins Gesicht (siehe Abbildung 2.29).
Beim Gerät von Givaudan [Giv03] öffnen sich Röhrchen mit verschiedenen Riechsubstanzen, computergesteuert genau nach dem gewünschten Rezept. Ein Gas bläst die verschiedenen Parfumdämpfe zu einem Ventil. Die einzelnen Duftnoten werden gemischt und
treten als neue Kreation aus einer Öffnung hervor. Man geht davon aus, dass man mit
20 bis 40 Basisstoffen im Prinzip alle beliebigen Düfte mischen kann. DigiScents [Dig03]
arbeitet an einem kleinen Duftverströmer, der in Lautsprechergröße dezent neben dem
PC platziert werden kann. Die komplizierte Technologie des automatischen Duftmischers
auf Miniaturformat zu bringen, ist eine Aufgabe, die DigiScents sich gestellt hat und bald
gemeistert haben will.
Die Firma ”TriSenx” hat bereits ein Gerät mit dem Düfte und Geschmäcker ausgedruckt
werden können auf den Markt gebracht. Ähnlich wie bei einem Tintenstrahldrucker ist das
Gerät mit verschiedenen Patronen ausgerüstet. Diese enthalten verschiedene chemische
Substanzen, die dann je nach Bedarf zusammengemixt werden und per Druckkopf die
entsprechenden Duftnoten auf Faserkarton auftragen. Damit kann dann bei der Internet–
Pizza–Bestellung vorher an der Pizza gerochen werden.
”TriSenx” will den ”Duft-Drucker” auch für essbares Papier tauglich machen, sodass
verschiedene Geschmäcker hergestellt werden können. [Tri03]
2.3
Forschung und Entwicklung
Eine der wichtigsten Herausforderungen für die Wissensgesellschaft ist derzeit die Schaffung intelligenter Benutzerschnittstellen, die den natürlichen Kommunikationsstil von
Computerlaien akzeptieren und so unterstützen, daß eine für den Menschen intuitive
und benutzergerechte Mensch-Technik-Interaktion entsteht. Die starke Zunahme an ITAnwendungen in allen Lebensbereichen verursacht einen Bedarf an effektiveren, effizienteren und natürlicheren Schnittstellen, um den Zugriff auf Information und Anwendungen
zu erleichtern. Dieser Bedarf wird weiter gesteigert durch die rasch zunehmende Komplexität der IT-Systeme und durch die immer geringere Zeit, welche den Benutzern zum
Ausführen von Aufgaben und das Erlernen von Bedienkonzepten zur Verfügung steht.
Im Leitprojekt SmartCom (Arbeitskreis zur Schaffung intuitiver User–Maschine Kom-
KAPITEL 2. UNORTHODOXE EIN-/AUSGABEGERÄTE
36
munikation) werden Konzepte für die Entwicklung völlig neuartiger Formen der MenschTechnik-Interaktion erprobt. Diese Konzepte werden die bestehenden Hemmschwellen von
Computerlaien bei der Nutzung der Informationstechnologie abbauen und so einen Beitrag
zur Nutzerfreundlichkeit und Nutzerzentrierung der Technik in der Wissensgesellschaft liefern. Das Ziel von SmartKom ist die Erforschung und Entwicklung einer selbsterklärenden,
benutzeradaptiven Schnittstelle für die Interaktion von Mensch und Technik im Dialog.
Das Vorhaben wird von der Vorstellung geleitet, die Vorteile sprachlich dialogischer Kommunikation zu verschmelzen mit den Vorteilen graphischer Bedienoberflächen und gestisch
mimischen Ausdrucks. Das Ergebnis soll eine höherwertige Benutzerschnittstelle sein, die
die natürlichen menschlichen Sinne in größerem Umfang als bisher berücksichtigt. SmartCom soll damit einen wichtigen Schritt zur Entwicklung einer auf den Menschen zugeschnittenen Informationstechnologie darstellen [Sma03].
Kapitel 3
Wearable Computing
3.1
3.1.1
Einführung Wearable Computing
Was ist Wearable Computing?
Mobile Computing ist eines der aktuellen Schlagworte moderner Informationstechnologie. Bislang wurde unter diesem Begriff die Mitnahmemöglichkeit von Notebooks und
Handhelds mit entsprechend angepasster Software bzw. Betriebssystemen verstanden.
Dem gegenüber stehen neueste Entwicklungen, die ein echtes Tragen von Rechnersystemen am Körper ermöglichen und die Metapher ”Wearable Computing” prägen. In diesem
Zusammenhang steht der Begriff der Hardwear für eine neue Generation von Computersystemen. Sie ermöglicht den mobilen Einsatz unter extremen Bedingungen und in neuen
Anwendungsgebieten. Diese sprachgesteuerten Rechner unterstützen den Benutzer zum
Beispiel bei Arbeiten wie Inventur, Inspektion und Wartung komplexer Anlagen oder bei
der Aufnahme von Daten im freien Gelände. Also in solchen Bereichen in denen herkömmliche Personal Computer unhandlich und dadurch schlecht zu verwenden sind.
Der Einsatz solcher Rechnersysteme ist dann produktivitätssteigernd, wenn der Anwender
beide Hände zum Arbeiten frei haben muss, keine Abstellfläche zur Verfügung hat und
bei seiner Tätigkeit dennoch auf die Unterstützung durch Computer angewiesen ist.
Ein wesentliches Merkmal dieser neuen Computersysteme ist der Umfang der Hardwareausstattung, die bei minimaler Baugröße der Leistungsfähigkeit eines Desktop Computers entspricht. Ihre Leistungsfähigkeit unterscheidet diese Systeme damit erheblich von
herkömmlichen PDA oder Handheld Computern und ermöglicht damit eine Fülle neuer Anwendungen. In den USA haben große Unternehmen der Luftfahrtindustrie und der
Automobilbranche das Potential dieser Technologie bereits erkannt und setzen diese tragbaren Systeme ein (siehe Abbildung 3.1).
Der Nutzen dieser neuen Technologie ist dabei in zwei Ebenen zu sehen. Auf der einen Seite
können durch die Erschließung neuer Anwendungsbereiche, neue Wege zur Steigerung der
Produktivität erschlossen werden. Auf der anderen Seite bietet diese neue Technologie
Raum für die Entwicklung neuer Produkte und Dienstleitungen.
Bis heute ist der ”Personal Computer” seinen Namen nicht gerecht geworden. Unter einem
37
KAPITEL 3. WEARABLE COMPUTING
38
Abbildung 3.1: Modell MA-IV von Xybernaut mit HMD und Armtastatur
Wearable Computer darf man viel mehr verstehen als ein Gerät zur aktiven Benutzung.
Die meisten Computer stehen an einem Arbeitsplatz und werden eine verhältnismäßig
kurze Zeit von Ihren Besitzern interaktiv benützt. Notebooks haben uns zwar mobiler
gemacht, sind jedoch in ihrer Funktion noch immer sehr stark von der Benutzerinteraktion abhängig. Wearable Computing soll diese Vorstellungen eines Personal Computer ändern. Ein Wearable Computer soll häufiger getragen werden als Augengläser oder
Kleidung, und er soll mit dem Anwender situationsabhängig interagieren. Mit Head–Up
Displays, unorthodoxen Eingabegeräten, personal wireless local area networks und eine
Menge anderer ”context sensing” und Kommunikationswerkzeugen, kann der Wearable
Computer als ein intelligenter Assistent agieren. Aufgaben selbstständig durchzuführen
und das auch ohne zuvor vom Benutzer dazu aufgefordert zu werden, wird durch Anwendungen wie dem ”Remembrance Agent”, ”Augmented Reality” oder ”Intellectual Collectives” erreicht. Programme die Erinnerungsfunktionalität aufweisen, einem Anwender
dadurch viele Nebensächlichkeiten abnehmen können und ihn somit unauffällig viel Zeit
und Mühen ersparen, sind Projekten die bereits Entwickelt werden und zum Teil schon
im Einsatz sind.[MIT03]
Auch in Europa hat ”Wearable Computing” bereits eine Plattform gefunden. Eine Reihe
von Anwendern erarbeiten zusammen mit Technologie–Unternehmen und Universitäten
innovative Lösungen auf der Basis tragbarer Computer. Diese Arbeit soll dazu dienen, den
Nutzen der Technologie in unterschiedlichen Anwendungen aufzuzeigen und eine Übertragbarkeit bereits existierender Lösungen auf neue Problemstellungen zu diskutieren.
Steve Mann, einer der Vorreiter im Bereich Wearables, definiert den Begriff ”Wearable
Computing” wie folgt.[Man98]
Wearable computing facilitates a new form of human–computer interaction comprising
a small body–worn computer (e.g. user–programmable device) that is always on and al-
KAPITEL 3. WEARABLE COMPUTING
39
ways ready and accessible. In this regard, the new computational framework differs from
that of hand held devices, laptop computers and personal digital assistants (PDAs). The
”always ready” capability leads to a new form of synergy between human and computer,
characterized by long–term adaptation through constancy of user–interface.
3.1.2
Die Betriebsarten des Wearable Computing
Ein Wearable Computer ist also ein Computer der in die Umgebung des Benutzers eingebettet ist, vom Benutzer kontrolliert wird und der immer und überall eingeschalten
und funktionsbereit ist. Das wichtigste ist, das der Wearable dem Benutzer immer zur
Verfügung steht und zu jeder Zeit und in jeder Situation Kommandos aufnehmen und
verarbeiten kann. Notwendig ist auch eine möglichst flexible Konfigurierbarkeit bzw. Erweiterungsfähigkeit dieser Geräte. Das ist der Unterschied zu anderen tragbaren Geräten
wie Radios, Uhren, Brillen oder ähnlichem. Wearable Computing wird über seine drei
grundsätzlichen Betriebsarten und durch seine sechs fundamentellen Eigenschaften definiert.
ˆ Constancy:
Der Computer läuft ununterbrochen, und ist immer bereit mit dem Benutzer zu
kommunizieren. Anders als ein Hand–Held Gerät, Laptop oder PDA, muß ein Wearable nicht zuerst geöffnet und eingeschaltet werden um ihn zu verwenden. Der
Signalfluss zwischen Mensch und Computer läuft kontinuierlich um ein ständiges
User–interface bereit zu stellen.
ˆ Augmentation:
Bei der traditionelle Anwendung des Computers liegt das Hauptaugenmerk beim
Computer. Wearable Computing, wie auch immer, ist darauf ausgerichtet, dass der
Computer im Hintergrund steht. Zusammengefasst heißt Wearable Computing, dass
der Benutzer ganz unterschiedliche Dinge macht während er mit dem Computer
arbeitet, aktiv oder passiv. Somit soll der Computer den Intellekt vergrößern, oder
die Sinneswahrnehmungen verbessern.
ˆ Mediation:
Anders als Hand–Held Geräte, Laptops und PDAs, kann uns der Wearable Computer unabhängig machen. Es ist nicht notwendig uns komplett zu verschließen, aber
das Konzept erlaubt uns eine viel größere Unabhängigkeit als traditionelle tragbare
Computer. Hier gibt es zwei Aspekte dieser Unabhängigkeit:
– Solitude: Es kann als Informationsfilter dienen und somit die von uns unerwünschten Dingen abblocken. Ob es ungewollte Werbung ist oder einfach
der Wunsch existierende Medien (z.B.: Werbetafeln von Katzenfutter) mit anderen Medien (z.B.: Palmers–Werbung) auszutauschen. Das Wearable Computing erlaubt uns auch auf einfache Weise die Wahrnehmung unserer Umgebung
zu ändern.
– Privacy: Mann kann auch Information die unseren Privatbereich verlässt,
blocken oder verändern. Auch andere Technologien wie zum Beispiel Desktop
KAPITEL 3. WEARABLE COMPUTING
40
Computer, können uns dabei helfen unsere Privatsphäre mit Programmen wie
Pretty Good Privacy (PGP) zu schützen. Die Achilles–Verse dieser Systeme ist
jedoch die Schnittstelle zwischen Benutzer und Gerät. Es ist generell bei weiten
einfacher für einen Angreifer diesen Link zwischen uns und dem Computer zu
attackieren, als die Verbindung von unserem Computer und einem Anderen.
Somit kann das Wearable Computing eine neue Art von Privatsphäre erzeugen,
da er quasi ständig getragen wird. Somit besteht schon alleine eine viel geringere Möglichkeit einer Attacke auf die Hardware selbst. Weiters wird durch die
Synergien zwischen Mensch und Computer, das direkte Attackieren, wie zum
Beispiel das über die Schulterschauen beim Eingeben eines Passwortes via Tastatur, erschwert. Schließlich ist es auch viel einfacher sich gegen das Abhören
von Radiofrequenz–Emissionen zu schützen. Zum Beispiel wenn der Wearable
in einer Unterwäsche integriert wird und die darüberliegende Kleidung durch
eine spezielle Behandlung wie das Aufdampfen einer Metallfolie, das Durchdringen dieser Emissionen verhindert. Durch diesen direkten Kontakt kann der
Computer auch eine Vielzahl an physiologischen Daten des Benutzers erfassen
und nutzen.
3.1.3
Die Eigenschaften des Wearable Computing
Folgende Eigenschaften machen einen Wearable erst zu dem was er sein soll.
ˆ Keine eingeschränkte Aufnahmefähigkeit des Benutzers:
Er schneidet sie nicht von der realen Welt ab, wie es Beispielsweise ein Virtual Reality Game macht. Man kann seine Aufmerksamkeit auf andere Dinge lenken während
man den Wearable benutzt. Es ist also eine sekundäre Aktivität, die verbesserte
sensorische Möglichkeiten zur Verfügung stellt.
ˆ Keine Einschränkungen für den Benutzer:
Man kann andere Dinge tun während man ihn benutzt. Zum Beispiel kann man
Text schreiben während man joggt, etc.
ˆ Wahrnehmbar vom Benutzer:
Er kann jederzeit Ihre Aufmerksamkeit haben wenn sie es möchten. Immer und
Überall steht das Gerät zu Ihrer Verfügung. Das Ausgabemedium steht immer für
den Benutzer bereit.
ˆ Kontrollierbar durch den Benutzer:
Man kann jederzeit die Kontrolle übernehmen.
ˆ Aufmerksamkeit gegenüber der Umwelt:
Der Wearable reagiert und handelt situationsbezogen (situational awareness). Damit
ist gemeint, dass er abhängig von Zeit, Ort und anderen Parametern unterschiedlich
Prozesse ausführt. Zum Beispiel wenn man am Abend die Wohnung betritt, schaltet
er automatisch das Licht ein und am Tag wenn es hell ist nicht. Wenn ich eine Person
treffe, durchsucht er automatisch die Datenbank nach einer Übereinstimmung mit
KAPITEL 3. WEARABLE COMPUTING
41
dieser Person und gibt die nötigen Daten wie Name, Beruf, Thema des letzten
Gespräches,. . . aus.
ˆ Kommunikation mit anderen:
Er kann als Kommunikationsmittel verwendet werden. Man kann über den Wearable
kommunizieren oder ihn als zusätzliche Kommunikationshilfe benutzen (Visitenkartenaustausch; während ich dem Arzt sage was mir weh tut, übermittelt er meine
Krankengeschichte und aktuelle physiologische Daten wie Herzrythmus, Sauerstoffgehalt im Blut,. . . )
ˆ Immer bereit:
Möglicherweise im sleep modus aber niemals abgeschalten.
ˆ Persönlich:
Mensch und Computer sind gänzlich miteinander verbunden.
ˆ Unauffällig:
Man kann ihn so adaptieren, dass er als echte Erweiterung des Gehirns und des
Körpers agiert. Nach einiger Zeit vergisst man das man ihn trägt.
ˆ Privat:
Niemand kann ihn beobachten oder kontrollieren wenn man es nicht wünschen.
3.2
Geschichtlicher Rückblick
Der erste Versuch einen PC zum ständigen Wegbegleiter zu machen, war der Sprung vom
Desktop zum Laptop, von vielen auch als Schlepptop bezeichnet. Anfangs waren diese
nur für Betuchte und für Geschäftsleute erschwinglich, heute liegt der Preis eines Laptops
annähernd bei dem eines PC’s.
1665 Robert Hooke The next care to be taken, in respect of the Senses, is a supplying of
their infirmities with Instruments, and as it were, the adding of artificial Organs to
the natural. . . and as Glasses have highly promoted our seeing, so ’tis not improbable,
but that there may be found many mechanical inventions to improve our other senses
of hearing, smelling, tasting, and touching.[Hoo65]
1960 Heilig patentierte einen stereophonic Television Head–Mounted Display (HMD).
Gefolgt von seinem Patent für den ”Sensorama Simulator” (US Patent #3,050,870)
1962.[Rhe91]
Manfred Clynes prägte erstmals den Begriff ”Cyborg” in einer Geschichte mit dem
Titel ”Cyborgs and Space” erschienen im Astronautics (September 1960). Diese Geschichte wurde im Buch ”The Cyborg Handbook” von Chris Hables Gray nochmals
abgedruckt.
1967 Bell Helicopter Company experimentierte mit HMDs die Bilder von servogesteuerten Kameras erhielten. Bei einem war eine Infrarotkamera angeschlossen die sich an
der Unterseite eines Militär–Hubschraubers befand, um den Piloten die Möglichkeit
zu geben bei Nacht zu landen.[Com67]
KAPITEL 3. WEARABLE COMPUTING
42
1968 Douglas Engelbart stellte das NLS System (oN Line System) mit einem ”One–
Handed Chording Keyboard” vor. Das System beinhaltet unter anderem eine One–
Handed Chording Keyboard, word processing, outline processing, split windows,
hypermedia, mouse, shared documents, e–mail filtering, desktop conferencing, annotation of shared documents, interactive sharing, quarter sized video sharing, turn
taking, und network information.
1981 Steve Mann packte einen 6502 Computer (wie im Apple–II verwendet) in einen
robusten Rucksack um seine Photoausrüstung damit zu kontrollieren. Der Display
war ein Kamera–Sucher CRT, der auf einem Helm befestigt war. Dieser konnte 40
Zeilen Text darstellen. Zur Texteingabe benutzte er sieben Mikroschalter die in den
Griff des Blitzlichtes eingebaut waren. Das gesamte System wurde von normalen
Batterien versorgt.
1984 William Gibson schrieb ”Neuromancer”. Dieses Buch gründete das Genre von Cyberpunk, die düstere Zukunft der Menschen mit Computerimplantaten.
1987 Der Film Terminator zeigt aus der Sicht des Terminator–Cyborg, die Überlagerung
von grafischer Information über das Bild der realen Welt.
1989 Private Eye HMD von Reflection Technology wird kommerziell angeboten.[Tec89]
1990 Gerald Maguire und John Ioannidis demonstrierten das ”Elektronische Notebook
für Studenten”.[MI90]
1991 Doug Platt baut seinen ”Hip–PC”
CMU Team entwickelt den VuMan 1.[Tea91] http://www.cs.cmu.edu/afs/cs.
cmu.edu/project/vuman/www/home.html
Mark Weiser stellt die Idee von ”Ubiquitous Computing” im Scientifitc American
vor. Eine Welt in der die meisten alltäglichen Dinge computerisierte Teile eingebaut
haben.[Wei91]
1993 Thad Starner beginnt mit dem dauerhaften Tragen seines Computers. Im Juni haben Doug Platt und Thad Starner begonnen das erste System für Starner, mit einem
Private Eye Display und einem Twiddler Keyboard, zu bauen. Einige Ausbaustufen
später wurde daraus der Wearable Computer ”Tin Lizzy” des MIT.[PS93]
BBN beendete im Herbst das Pathfinder System, ein Wearable Computer mit GPS
und einem Strahlungsspür–System.
Thad Starner schrieb die erste Version des Remembrance Agent(RA). Der RA war
ein automatischer assoziativer Speicherzugriff, der relevante Files, zum gerade eingegebenen Text auf einem Wearable, von einer Datenbank abruft. Dieser RA wurde in
den Emacs integriert, und später von Bradley Rhodes noch weiterentwickelt.[Sta93]
Feiner, MacIntyre, und Seligmann entwickelten das KARMA (Knowledge–based
Augmented Reality for Maintenance Assistance). Der Benutzer trägt einen Private
Eye Display über einem Auge und konnte somit die reale Welt mit der virtuellen
überlagern. KARMA hat Wireframe Schematas überlagert und legte Instruktionsangaben über alles was zu reparieren war. Zum Beispiel hat ein Wireframe über
einem Drucker erklärt wie das Papier zu wechseln ist.[FMS93]
KAPITEL 3. WEARABLE COMPUTING
43
1994 Mik Lamming und Mike Flynn Entwickelten ”Forget–Me–Not”, ein Wearable Gerät
das Interaktionen zwischen Leuten und Geräten aufnimmt und speichert diese Information in einer Datenbank zur späteren Abfrage.
Erster Wrist Computer (Computer am Unterarm) mit Half–Keyboard von Edgar
Matias und Mike Ruicci von der Universität von Toronto.[MR94]
DARPA begann mit der Entwicklung von Modulen für Wearables. Unter anderem
Computer, Radios, Navigationssysteme, Mensch–Computer–Interfaces, usw. welche
militärisch als auch kommerziell Anwendbar sind.
Im Dezember Entwickelte Steve Mann die ”Wearable Wireless Webcam” und begann
das Übertragen von Bildern ins Internet, die er mittels einer Head Mounted Camera
machte.
1996 DARPA sponsert ”Wearables in 2005” Workshop. Dieser Workshop brachte Visionäre der Industrie, Universität und des Militärs zusammen.
Konferenz für Wearable Computing wo 204 Forscher, Akademiker, unabhängige Laboratorien sowie Leute aus der Industrie teilnahmen. Einige Verkäufer von Displays,
Spracherkennungssystemen und voll funktionsfähigen Wearable Computers nahmen
ebenfalls teil.
1997 Fashion Show von Studenten der UNI Paris und Prof. Alex Pentland vom MIT
Boston, mit dem Ziel den engen Zusammenhang zwischen Kleidung und Wearable
Computing zu zeigen.
October 13 – 14; Erstes IEEE Internationales Symposium für Wearable Computers
in Cambridge1 .
1998 Internationale Konferenz für Wearable Computing. ICWC–982 , Fairfax VA, May
1998
2001 7th Annual International Conference on Mobile Computing and Networking. ACM
SIGMOBILE 3
2002 ”Wearable computing to defeat terrorism”. Diese Schlagzeile im ”The Register”4 ,
löste eine rege Diskussion über die Möglichkeiten des ”Wearable Computer” zur
Terrorbekämpfung aus.
Spätestens im Jahre 2000 wäre es nicht mehr nötig besondere Entwicklungsschritte im
”Wearable Computing” heraus zu heben, da sich dieser Bereich in der Forschung und
Entwicklung bereits wie ein Virus verbreitet hat. Es wird an allen Ecken und Enden über
neue Techniken und Anwendungsmöglichkeiten nachgedacht, außerdem werden immer
mehr Symposien abgehalten, um sich untereinander auszutauschen.
1
http://iswc.gatech.edu/wearcon97/default.htm
http://www.icwc.edu
3
http://www.research.ibm.com/acm sigmobile conf 2001/index.html
4
http://www.theregister.co.uk/content/54/24328.html
2
KAPITEL 3. WEARABLE COMPUTING
3.3
44
Tragbarkeit: Tragekomfort
Die heute erhältlichen Wearable Computer Systeme haben bereits ein akzeptierbar geringes Gewicht, wobei noch bei weitem keine Rede von Tragekomfort ist. Neben der CPU–
Einheit ist die Stromversorgung ein Teil der das Gesamtgewicht stark erhöht. Der nächste
Schritt in Richtung Unauffälligkeit ist die Verwendung der Kleidung als Versteck bzw. zur
Komfortsteigerung. Kleidung bietet angefangen von Sensoren (Thermometer zur Messung
der Körpertemperatur) über die Energieversorgung (Solarzellen an der Jackenaußenseite)
bis hin zu eingebrachten Leiterbahnen (keine Kabeln unterm Hemd) viele Möglichkeiten
das Wearable Computing unauffälliger zu machen. Neben der Möglichkeit den Wearable
in der Kleidung zu verstecken, liegt auch ein Hauptaugenmert in der Miniaturisierung.
Man versucht zum Beispiel einen Kopfhörer in einen Ohrring zu bekommen, einen Ring
als Maus zu verwenden, in einer ganz normalen Brille einen Display zu integrieren und
vieles andere mehr. Es gibt bereits Versuche Computer–Chips direkt in den Körper zu
implantieren, um die Funktionsfähigkeit und die Verträglichkeit zu studieren. Das Einsetzen eines Herzschrittmachers war der erste Schritt in diese Richtung. Man darf also damit
rechnen, daß der Benutzer eines Wearable Computer in Zukunft nicht mehr als solcher
erkannt wird, da sich die Geräte an unser Aussehen anpassen werden. Die Frage bleibt,
ob wir uns nicht selbst verändern werden. Es liegt ja nicht in der Natur des Menschen mit
einem nicht erkennbaren Computer zu sprechen, um vielleicht eine e–mail zu diktieren
oder ihn zu fragen vor welchen Gebäude man gerade steht und er Information darüber,
direkt aus dem Internet als virtuelle Überlagerung vor das Auge projiziert.
Aus einfachen Kleidungsstücken werden ”smart objects”, die wegen ihrer spezifischen Position am Körper eine Aufgabe im persönlichen Computernetz zugewiesen bekommen.
Die Schuhe werden zur Energieerzeugung oder als Empfänger benutzt. Brillen beherbergen Bildschirme. Kappen bilden als höchster Punkt Sende– und Empfangsstation für die
Daten. Smarte Unterwäsche und Oberbekleidung kontrollieren den Gesundheitszustand
und regulieren die Körpertemperatur über den Temperaturwechsel der Kleidung. Die Bilder der Beauty–Show zeigen Entwürfe für derartige Kleidungsstücke.[MIT ]
3.4
Energie
Wearable Computer Systeme benötigen im Betrieb gespeicherte Energie, die im Normalfall von Akkus bereitgestellt wird. Es ist durch den begrenzten Energievorrat jedoch
nötig, die vorhandenen Systeme auf ihren Energieverbrauch hin zu optimieren und die zur
Verfügung stehenden Komponenten optimal zu nutzen. Die größten Energieverbraucher
sind bei einem Wearable System die CPU, der Bildschirm und die Festplatte. Natürlich
sollten daher Strategien zur Optimierung des Energieverbrauches bei diesen Komponenten
ansetzen. Bei Sekundärspeichern kann man durch die Verwendung eines DRAM–Cache
den Energieverbrauch um bis zu 50% verringern, da ein großer Teil der Energie beim
Hochfahren der Festplatte verbraucht wird.
Im Gegensatz zu Wearable Systemen, werden Prozessoren bei herkömmlichen Computersystemen (Desktop) vor allem auf Leistung und Taktfrequenz ausgelegt. Erst seit dem
Einzug tragbarer Geräte wird auch bei der Entwicklung von Prozessoren auf geringeren
Energieverbrauch Rücksicht genommen. Eine Möglichkeit Energie einzusparen besteht
KAPITEL 3. WEARABLE COMPUTING
45
darin, die Taktfrequenz zu senken oder unbenutzte Teile des Prozessors ganz wegzuschalten, indem man die Taktfrequenz auf Null setzt. Man kann den Prozessor sogar ganz
abschalten wenn er sich im Leerlauf befindet. Dieser Vorgang wirkt sich auch positiv auf
die Energiebilanz der restlichen Hardware aus. Auch das so genannte Remote–Prozessing
ist hier ein Stichwort. Dabei werden die Daten über ein Netzwerk zu einem Hostrechner
verschickt, welcher die Daten auswertet und das Ergebnis zurück sendet.
Zu den größten Energieverbrauchern unter den Hardware–Komponenten gehört noch immer der Bildschirm. Hier würde vom Umgebungslicht abhängige Beleuchtungsstärke des
Bildschirms viel Energie einsparen. Auch ein Sensorsystem das erkennt, ob ein Benutzer
den Bildschirm betrachtet und ihn dann aktiviert, wäre denkbar.
Nicht nur bei der Hardware, sonder auch bei der Software gibt es viele Ansätze um
Energie einzusparen. Erst durch ein gutes Zusammenspiel zwischen Hard- und Software
kann man die besten Ergebnisse erzielen. Prinzipiell wird ein Energiemanagement auf
Betriebssystemebene die meisten Vorteile besitzen. Unterstützt wird dies durch eine grobe
Vorgabe des Anwenders, welcher eine der möglichen Energiesparmaßnahmen auswählt.
Ein weiterer Punkt zur Energieeinsparung ist das sogenannte Remote–Processing. Darunter versteht man die Bearbeitung von einem oder mehreren Tasks durch einen entfernten Server (z.B. Kompilieren eines großen Programms oder das Lösen eines komplexen
Gleichungssystems). Der Wearable Computer schickt also den entsprechenden Task zum
Server, dieser ermittelt die geforderten Ergebnisse und sendet diese wieder zum Wearable zurück. In der Zwischenzeit kann der Client andere Tasks abarbeiten oder in den
Idle–Mode gehen (zum Beispiel die Festplatte und den Bildschirm abschalten). Remote
Processing zahlt sich jedoch nur aus, wenn die Applikation mehr als 1% der gesamten
Akkuenergie verbraucht. Denn für die Übertragung der Daten wird bereits mehr als 1%
der Akkuenergie benötigt. Es kann gezeigt werden, dass durch Remote–Processing von
großen Tasks, bis zu 50% und mehr an Energie eingespart werden können.[FPSS01]
Die Reduktion des Energiebedarfs durch verminderte Datengenauigkeit ist ebenfalls eine interessante Möglichkeit. Zum Beispiel ist es in manchen Fällen nicht störend , die
Farbinformationen bei einem Video wegzulassen.
Derartige Möglichkeiten wurden in Form einer Studie am Institut für technische Informatik an der TU–Graz untersucht. Dabei wurden zuerst die gewählten Applikationen
getrennt untersucht und im weiteren die Effekte bei gleichzeitigem laufen.
Bei der Spracherkennungsanwendung kann durch ein eingeschränktes Vokabular, ein einfacheres Spracherkennungsmodell und Remote Recognition eine Energieeinsparung von
bis zu 60% erreicht werden. Beim Remoteverfahren wird am Client ein Wort erfasst und
dieses dann zum Server zur Auswertung gesandt und das Resultat wiederum dem Client
übergeben.
Bei der MapView–Anwendung wurde versucht, durch das weglassen von Detail–Informationen
und Detail–Darstellungen sowie einem verwendeten Powermanagement (Disk im Standby), Energie einzusparen. Hier konnte eine Einsparung von bis zu 66% erreicht werden.
Einen wesentlichen Unterschied macht auch die Betrachtungsdauer des Users.
Durch Powermanagement und JPEG–Kompresion konnten beim Web–Browser der Verbrauch bis zu 26% reduziert werden.
Beim Überspielen und Darstellen eines Video in verschiedenen Encoding–Qualitäten wur-
KAPITEL 3. WEARABLE COMPUTING
46
de schließlich bei einem Video in mittlerer Qualität, durch Powermanagement und reduzierter Fenstergröße eine Einsparung von 30% möglich.
Die Resultate zeigen also ein zum Teil doch erhebliches Einsparungspotential. Da diese
Werte unter bestimmten Voraussetzungen im Labor entstanden, ist das Ergebnis der Verringerung der Datengenauigkeit bei Verwendung eines Wearable Computer Systems zu
hinterfragen. Bei gewissen Umgebungsbedingungen wird man auf eine gewisse Datengenauigkeit nicht verzichten können, wie zum Beispiel bei der Spracherkennung. Generell
ist zu sagen, dass die gleichzeitige Applikationsausführung das Einsparungpotentiale verringert. [FPSS01]
Die interne, vom Stromnetz unabhängige, Energieversorgung kann durch Batterien, Akkus, solarzellen oder Brennstoffzellen erfolgen.
3.4.1
Energiespeicher
Akkumulatoren verleihen mobilen Geräten eine Unabhängigkeit vom Stromnetz. Die Gebrauchsdauer verringert sich pro Aufladung stetig gegenüber Batterien der gleichen Größe.
Am meisten Verbreitete Akkus sind der Nickel–Cadmium (NiCad), Nickel–Metall–Hydrid
(NiMH) und die Lithium-Ionen Akkus.
Der Nachteil von Nickel–Cadmium Akkus ist der Memory–Effekt bei unvollständig entladenen Akkus. Das bedeutet, dass die Akkus sich merken, wie weit sie entladen wurden
und beim nächsten Einsatz sich trotz kompletter Aufladung ihre Gebrauchsdauer verringert. Sie sollten deshalb immer ganz entladen werden, wenn dies möglich ist. Man kann
diese bis zu 1000 mal wiederaufladen.
Nickel–Metal-Hydrid Akkus haben pro Kilogramm eine 50% höhere Leistungsfähigkeit
als NiCad Akkus. Sie sind etwa doppelt so teuer als NiCad Akkus, haben dafür eine 50%
längere Gebrauchsdauer und auch keinen Memory–Effekt.
Lithium–Ionen Akkus haben eine noch höhere Energiedichte (bis 15% pro Kilogramm
über NiMH Akkus) und sind dabei noch sehr leicht. Sie haben ebenfalls keinen Memory–
Effekt sind jedoch wesentlich teurer als NiMH Akkus. Verwendet werden sie vor allem in
Handys und PDAs.
Die Lithium–Polymer Variante ist durch die Bauweise aus Kunststoff (Polymer) variabel
formbar. Somit kann bei mobilen Geräten eine kompaktere Bauforme erzielt werden. Der
Nachteil steckt in der Vielzahl an unterschiedlichen Akkuformen, dadurch werden diese
Akkus teurer als Serienprodukte.
3.4.2
Energieerzeugung und Energieverbrauch
Es wird intensiv versucht, auch an nicht ganz so praktischen Methoden wie der Energieerzeugung durch Atem- oder Blutdruck, durch Körperwärme, sowie Finger– und Gliederbewegung zu forschen. Laptops und PDAs sind durch ihre Batteriekapazität in ihrer Betriebsdauer sehr limitiert. Es gibt für derartige Energieverbraucher auch keine alternative
Energieerzeugung, um einen längeren Betrieb zu gewährleisten. Durch neue Technologien
werden Geräte mit immer geringeren Energiebedarf entwickelt und im gleichen Moment
werden die Energiequellen immer leistungsfähiger. Wenn der Verbrauch niedrig genug
KAPITEL 3. WEARABLE COMPUTING
47
ist, kann man durch alternative Energieerzeugung eine ununterbrochene Versorgung eines
Wearable Computer Systems ermöglichen. Folgende Tabelle 3.1 zeigt verschiedene alltägliche Energiequellen und den Energieverbrauch herkömmlicher Computergeräte.[Sta00]
Energie Quellen
AA Alkali Batterie: 104 J
Camcorder Batterie: 105 J
Ein Liter Treibstoff: 107 J
Kalorien: 4.19 J
(Diät) Kalorien: 4190 J
Durchschnitt bei einer Diät: 1.05 x 107 J
Computer Energieverbrauch
Desktop (ohne Monitor): 102 W
Notebook: 10 W
Embedded CPU Board: 1 W
Niedrigenergie Mikrocontroller Chip: 10−3 W
Durchschnittlicher Verbrauch über 24 Stunden: 121 W
Tabelle 3.1: Werte von herkömmlichen Energiequellen und dem Energieverbrauch einzelner
Rechner.
Bei der Energieerzeugung durch Körperwärme spielt die Umgebungstemperatur eine wesentliche Rolle. Bei 20 Grad kann zum Beispiel eine Umwandlungs–Effizienz von 5,5%,
bei 27 Grad nur 3,2% erreicht werden. Die mögliche Energieausbeute liegt beim Sitzen
etwa bei 3–5 Watt. Tabelle 3.2 zeigt den Energieverbrauch bei verschiedenen Aktivitäten
einer Person.[Sta00]
Activity
Kilocal/hr
sleeping
70
lying quietly
80
sitting
100
standing at ease
110
conversation
110
eating meal
110
strolling
140
playing violin or piano
140
housekeeping
150
carpentry
230
hiking 4 mph
350
swimming
500
mountain climbing
600
long distance run
900
sprinting
1400
Watts
81
93
116
128
128
128
163
163
175
268
407
582
698
1048
1630
Tabelle 3.2: Energieverbrauch bei verschiedenen Aktivitäten.
Untersucht wird auch die Energiegewinnung durch das Atmen, wo man jedoch nur sehr
bescheidene Ergebnisse erzielen kann. Mehr als etwa 0,5 Watt scheint hier nicht möglich
zu sein.
Um etwa selbstversorgende, medizinische Sensoren zu betreiben, denkt man an die Energiegewinnung durch den Blutdruck. Wahrscheinlich ein schwieriges aber durchaus denkbares Unterfangen.
KAPITEL 3. WEARABLE COMPUTING
48
Die maximale Energieerzeugung einer Armbewegung beträgt 60 Watt. In der Energieerzeugung durch Körperbewegung liegt wohl die größte Chance ein selbstversorgendes
System zu verwirklichen. Eine innovative Möglichkeit die Bewegungsenergie zu nutzen,
ist die Verwendung von piezoelektrischen Materialien. Eine derartige Kleidung wäre nicht
viel schwerer als herkömmliche Kleidung. Entsprechend flexible Materialien haben zwar
eine noch geringe Effizienz (11%), man kann jedoch gespannt auf die neuen Entwicklungen
in diesem Bereich warten.
Das Gehen ist eine der Aktivitäten mit dem größten Energieaufwand. Auch hier können
piezoelektrische Materialien zum Einsatz kommen die bereits 5 Watt an Energie beim
normalen Gehen erzeugen können. Durch die Verwendung von Rotationsgeneratoren verspricht man sich eine Energiegewinnung von bis zu 10 Watt an verfügbarer Energie. Abbildung 3.2 zeigt eine Skizze mit einem in einen Schuh eingebauten Piezzoelement und
einem Rotationsgenerator.
Abbildung 3.2: Schuh mit eingebauten Piezzoelement und Rotationsgenerator als Energieerzeuger.
Eine weitere Möglichkeit ist die Nutzung des Luftwiederstandes während des Gehens. Da
jedoch die Effizienz bei maximal 3% liegt, im Vergleich zur zuvor erwähnten Möglichkeit,
die eine Effizienz von 50% erreicht, ist die Sinnhaftigkeit dieser Energiequelle wohl sehr
in Frage gestellt. Alle angesprochenen Energiequellen des menschlichen Körpers sind in
Abbildung 3.3 zusammengefasst.
Energieerzeugung durch Fingerbewegung (Tastendruck) wird ebenso wie die Energiegewinnung durch öffnen und schließen eines Laptopdeckels als mögliche Energiequelle untersucht. An Brennstoffzellen auf Methanolbasis arbeitet zum Beispiel Motorola. Nach
Meinung der Forscher soll diese Form der Energiequelle bis 2005 Marktreife erreichen
und das 10–fache an Energie liefern wie ein wiederaufladbarer Akku mit gleicher Größe.
Sie haben außerdem den Vorteil einer geringen Abmessung und die integrierte Elektronik ermöglicht auch eine Erhöhung der Ausgangsspannung. Somit kann zum Beispiel ein
Notebook mit nur einer Zelle betrieben werden.
KAPITEL 3. WEARABLE COMPUTING
49
Abbildung 3.3: Körperenergiequellen im Überblick. Die Gesamtenergie je Aktion ist in Klammern angegeben.
3.5
Störfaktoren
Störfaktoren spielen hier natürlich auch eine große Rolle. Einerseits dürfen sich die viele
Geräte die sich auf engsten Raum befinden, nicht gegenseitig stören bzw. Dritte nicht
stören und auch nicht von ihnen gestört werden. Andererseits müssen sie gegen äußere
Angriffe geschützt sein und gleichzeitig einen sicheren Weg zur Kommunikation nach
außen besitzen.
EMV (Elektromagnetische Verträglichkeit) und Datensicherheit spielen hier also ein wesentliche Rolle.
Auch darf die Gerätschaft dem User nicht unangenehm auffallen, oder noch besser, er
sollte sie gar nicht bemerken. Das bedeutet, die Kleidung muß genau so leicht sein wie
normale Kleidung, genauso strapazierfähig und funktionell. Und natürlich muß sie auch
noch gut aussehen (siehe Abbildung 3.4).
Darüber hinaus kann auch das Wechseln oder Aufladen von leeren Akkus sehr störend
sein. Um dies zu verhindern, muss der Energieverbrauch sehr niedrig gehalten werden und
alternativen wie Solartechnik, Energiegewinnung durch Körperbewegung oder Körpertemperatur eingesetzt werden.
Oft werden Kleidungsstücke unter Freunden oder Geschwistern getauscht. Es muss also
KAPITEL 3. WEARABLE COMPUTING
50
Abbildung 3.4: Designermodell eines Kleidungsstückes und eines HMD
auch der Träger erkannt werden, um persönliche Informationen nicht an falsche Personen
weiterzugeben oder personenbezogene Daten richtig auszuwerten.
Es gibt situationsbezogene Funktionalitäten die dem User zur Verfügung stehen müssen,
ohne das er selbst etwas dafür tun muss. Beim Sport zum Beispiel eine genaue Herz–
Kreislauf–Analyse für eine spätere Auswertung der Trainingsdaten. Bei einem Geschäftsgespräch die Aufzeichnung der Fakten oder des ganzen Gesprächsinhaltes mit Namen und
Bild der beteiligten Personen. Oder beim Betreten des Flughafengebäudes die virtuelle
Navigation zum richtigen Gateway.
Alle diese Dinge müssen dem Benutzer ohne sein Zutun zur Verfügung stehen.
Ortsbezogene Anwendungen müssen immer über genaue Positionsdaten verfügen, um richtig funktionieren zu können. Natürlich ist es von der jeweiligen Anwendung abhängig wie
genau die Positionsdaten sein müssen, aber es gibt noch kein System das immer und
überall die exakten Daten liefert. Somit ist ein gut funktionierendes Zusammenspiel verschiedener Systeme notwendig, um eine ungestörte Funktionstüchtigkeit zu gewährleisten.
3.6
Projekte im Wearable Computing
Die Vision vom ”computing anytime, anything, and anywhere” wird durch die Miniaturisierung immer leistungsfähigerer mobiler Computersysteme zunehmend greifbar. Aber
ein mobiler Computer alleine löst noch keine Probleme. Der Nutzer und seine Anwendungsprobleme bestimmen im Wesentlichen jene Anforderungen die an erfolgreiche, mobile Lösungen gestellt werden. In diesem Sinn werden Entwicklungen vorangetrieben, die
eine Unterstützung mobiler Tätigkeiten und Arbeitsprozesse ermöglichen, für die der Einsatz herkömmlicher Informations– und Kommunikationstechnologien bisher kaum möglich
oder nicht wirtschaftlich war, und die in der Gesamtbetrachtung Anwender und Anwendung in den Vordergrund stellen. Die Anwendungsbereiche die man dabei betrachtet,
erstrecken sich von industriellen Anwendungen (z.B. Produktion, Inbetriebnahme, Inspektion, Wartung) bis hin zu Anwendungen, die Massenmarkttauglichkeit besitzen (z.B.
KAPITEL 3. WEARABLE COMPUTING
51
neuartige Kommunikationskonzepte für den mobilen Informationsaustausch). Zielrichtung
ist die Unterstützung von Tätigkeiten, die nicht am Schreibtisch erfolgen, sondern notwendigerweise in der realen, gegenständlichen Welt angesiedelt sind, an verschiedenen Orten
oder in der Bewegung durchgeführt werden und die volle Aufmerksamkeit des Benutzers
erfordern.
3.6.1
Wearable im Tourismus
Die Tourismusbranche hat für sich schon längst das Internet als Vertriebsplattform entdeckt. Auch viele Reisende nutzen dieses Medium, um sich über Reisemöglichkeiten zu
informieren, um Reisen zu buchen, um sich einen Eindruck vom Reiseziel zu machen oder
sogar, um zu Hause am PC verschiedene Aktivitäten für den Aufenthalt zu planen und
vorzubereiten. Doch nicht jede Reise wird so vorbereitet und die meisten Urlauber entscheiden sich erst vor Ort und häufig ganz spontan für das tägliche Programm. In dieser
Situation möchte niemand allgemeine Reiseinformationen haben, sondern spezielle ortsbezogene Angebote, die möglichst genau den eigenen Vorlieben und Möglichkeiten entsprechen. Unter dem Stichwort ”Location Based Services” wird an Angeboten gearbeitet, die
neben ortsbasierten Informationen insbesondere auch ortsbasierte Dienste wie Reservierungen, Kartenvorbestellungen usw. anbieten. Kommerziell umgesetzt werden derartige
Services zum Teil bereits für den Zugriff per Handy und WAP, doch die Informationsdarstellung und die Interaktion mit diesem Gerät ist sehr eingeschränkt, so dass hier noch
Verbesserungen erforderlich und auch zu erwarten sind. Die Vorlieben und Interessen von
Besucher einer WWW–Seite beispielsweise werden heute bereits ermittelt.
Eine andere wünschenswerte Funktion, die für Touristen überaus wichtig ist und die ein
mobiles, tragbares Computersystem erfüllen kann, ist die Orientierungshilfe in einem unbekannten Gebiet. Fahrzeuge werden heute standardmäßig, zumindest bei einigen Marken, mit einem Navigationssystem ausgestattet, das den Fahrer durch unbekannte Straßen
und unter Berücksichtung der aktuellen Verkehrssituation schnell zu ihrem Ziel lotst. Ein
solches System ist auch für Fußgänger nützlich und zwar sowohl im Freien als auch in
Gebäuden. Technisch ist zur Lösung dieser Problemstellung die Integration verschiedener geografischer Positionsbestimmungssysteme in ein umfassenderes Modell erforderlich
sowie die Entwicklung einer dem jeweils eingesetzten Endgerät angemessenen Informationspräsentation und eines möglichst intuitiven Interaktionskonzepts.
Über die reine Navigations– und Orientierungshilfe hinaus können Wearable Computer
sehr gut als ”mobile Informationssysteme” eingesetzt werden, die speziell auf den individuellen Benutzer hin optimierte, orts- und kontextbezogene Informationen bereitstellen
bzw. aktiv anbieten. Touristen können multimediale Informationen als Text, Bild und
Video und insbesondere in dreidimensionaler grafischer Form dargeboten werden und
sollen mit AR–Technologie direkt in ihr Sichtfeld eingeblendet werden. Mögliche Anwendungssysteme sind Campus–Informationssysteme, virtueller Reise– bzw. Museumsführer
und so weiter. Die technologischen Herausforderungen sind groß, insbesondere die AR–
Registrierung, das heißt die punktgenaue visuelle Überlagerung der Blickrichtung des
Benutzers mit 3D–Informationen in Echtzeit, stellt ein noch nicht gelöstes Problem dar,
an dem intensiv gearbeitet wird. Für den kommerziellen Einsatz muss natürlich genügend
Content bereitgestellt werden. Außerdem müssen die bereitgestellten Informationen thematisch und ortsbezogen (Location Aware) so miteinander in Bezug gebracht werden, dass
KAPITEL 3. WEARABLE COMPUTING
52
sie für jeden Benutzer entsprechend seines Profils gefiltert dargeboten werden können.
Der Begriff ”Location–Awareness” kann als Positionsbewußtsein übersetzt werden und
damit als Sammelbegriff für alle Systeme betrachtet werden, die sich ihrer Position in der
realen Welt bewußt sind. Ein ”Location–Aware” System ist also in der Lage seine Position
in der realen Welt zu ermitteln und entsprechend der jeweiligen Position zu agieren.
Der Begriff ”Location–Service” bezeichnet ein besonderes Location–Aware System, das
Informationen über die physische Position von georteten Objekten zur Verfügung stellt.
Geortete Objekte beinhalten die beim System angemeldeten mobilen Objekte, deren Position mit Hilfe von Ortungssytemen bestimmt werden können und Objekte mit festen,
bekannten Positionen. Beispiele für solche Objekte sind Menschen, Computer, Telefone
und Fahrzeuge. Ein ”Location–Service” bietet zwei grundlegende Funktionen an. Er erstellt eine Liste von allen an einer bestimmten Position georteten Objekte und er liefert
die bekannte Position eines georteten Objektes. Auf diese Dienste aufbauend können auf
einfache Weise eine Vielzahl an Location–Aware Anwendungen entwickelt werden. Die
Grundlage hinsichtlich der Funktionalität und der Struktur eines ”Location–Service” bildet das verwendete Modell für Positionen der physischen Welt.
Bei der Entwicklung eines ”Location–Service” sind viele Aspekte zu berücksichtigen. Aus
diesem Grund muss man ein ”Location–Service” formal spezifizieren, um dessen Design
und Realisierung zu erleichtern. Zu diesem Zwecke werden verschiedene Positionierungsmodelle betrachtet, wobei die Hauptunterscheidung in ”symbolische” und ”geometrische”
Modelle für Positionsangaben erfolgt. Ein symbolisches Modell wird aus für den Menschen
lesbaren Bezeichnern gebildet wie etwa ”Marktplatz.Graz.Austria” während ein geometrisches Modell auf Erdvermessungen beruht wie beispielsweise geographische Koordinatensysteme. Aus dieser Betrachtung folgt der Schluß, dass nur ein hierachisch angeordnetes, kombiniertes Modell allen geforderten Anforderungen an ein Positionierungsmodell
genügt.
Ein weiterer wesentlicher Aspekt im Zusammenhang mit einem ”Location–Service” ist
die Sicherheit der Benutzer hinsichtlich ihrer Privatsphäre. Der Hintergrund dieser Problematik ist der verständliche Wunsch vieler Menschen, daß die Verfolgung jeder ihrer
Schritte durch beliebige andere Personen verhindert werden muß. Zu diesem Zwecke kann
man zum Beispiel den Zugriff durch drei Ebenen beschränken um so eine möglichst feine
Unterteilung der Zugriffsrechte zu erzielen. Die erste Ebene erlaubt die Einschränkung
des Zugriffs von Personen auf andere Personen wenn diese sich in bestimmten Gebieten
aufhalten. Die zweite Ebene erlaubt die Beschränkung des Details der Sichtbarkeit indem
exakte Positionsangaben durch ungenauere Positionen ersetzt werden. Die Einschränkung
in welcher Form ein Objekt innerhalb eines Gebietes für Personen sichtbar sein soll ist
anhand der dritten Ebene spezifizierbar.[Leo98]
Die Grundlage für location–aware Applikationen ist die Möglichkeit zur Bestimmung der
Positionen von mobilen Objekten wie beispielsweise von Personen, Fahrzeugen und ähnlichem. Dies ist in der Regel nur möglich mit Hilfe eines Ortungssystems, wie es auch
für andere Aufgaben wie zum Beispiel die Schiffs- und Flugzeugnavigation verwendet
wird. Aus der Fülle der vorhandenen Systeme muß entsprechend den Anforderungen einer Location–Aware Applikation das am besten geeignete, oder eine Kombination mehrerer Systeme ausgewählt werden. Ein Idealsystem, das allen nachstehend aufgelisteten
Anforderungen gleichermaßen gerecht wird, ist leider nicht verfügbar.
KAPITEL 3. WEARABLE COMPUTING
53
ˆ dreidimensionale Ortung (z. B. geographische Länge und Breite, Höhe)
ˆ weltweite Verfügbarkeit bei annähernd gleich hoher Genauigkeit
ˆ Unabhängigkeit der Nutzung von Ort und Zeit (z.B. innerhalb und außerhalb von
Gebäuden)
ˆ unbegrenzte Zahl der gleichzeitigen Nutzer
ˆ hohe Genauigkeit der Standortbestimmung (in der Größenordnung ± 1 m oder
besser)
ˆ kontinuierliche, schnelle und automatische Lieferung des Ortungsergebnisses
ˆ keine Beeinträchtigungen der Mobilität
ˆ kostengünstig auf der Seite der Nutzer
Es wird zwischen folgenden Ortungssystemen unterschieden.
ˆ Satellitenbasierte Ortungssysteme (GLONASS, NAVSTAR–GPS, GALLILEO, Differential–
GPS (DGPS),. . . )
ˆ Bodengestützte Funk–Ortungssysteme
ˆ Zellenbasierte Ortungssysteme (Zellulare Funknetzwerke (z.B. GSM), Zellulare Infrarot–
Netzwerke)
ˆ Relative Ortungssysteme
ˆ Beobachtung fester Computerarbeitsplätze
Die für satellitenbasierte Ortungsssysteme verwendeten Prinzipien werden neben anderen
auch für bodengestützte Funk–Ortungssysteme verwendet. Diese werden derzeit hauptsächlich
für die zivile See– und Luftfahrt eingesetzt und besitzen in diesen Ausführungen bei der
Positionsbestimmung eine Ungenauigkeit zwischen einigen hundert Metern bis zu einigen Kilometern. Diese Positionsgenauigkeit ist für Location–Aware Anwendungen in der
Regel ungenügend.
Im Gegensatz zu den beiden ersten Ortungssystemen, die kontinuierliche Positionsangaben
in Form von Werten liefern, melden zellenbasierte Systeme diskrete Positionen in der Regel
in Form von Zellenbezeichnern. Ein Zellenbezeichner kennzeichnet innerhalb des Systems
eindeutig eine Zelle, die einem bestimmten Gebiet der realen Welt zugeordnet ist (siehe
Abbildung 3.5).
Der große Nachteil zellenorientierter Modelle ist das Fehlen von Beziehungen zwischen den
verschiedenen Zellen bzw. Zonen. Eine naheliegende Möglichkeit Zellen bzw. abstrakte
Gebiete in Relation zu setzen ist die hierarchische Ordnung entsprechend den geographischen Positionen und Größen der Gebiete. Das Ergebnis ist eine hierarchische Struktur
vergleichbar mit Domänen. Abbildung 3.6 zeigt einen Teil einer solchen Struktur für das
in Abbildung 3.5 enthaltene Beispiel.
KAPITEL 3. WEARABLE COMPUTING
54
Abbildung 3.5: Ausschnitt eines Gebäudeflügels mit verschiedenen Sensoren bzw. Zellen
Abbildung 3.6: Teil einer hierarchischen Struktur für Gebiete
Die Verwendbarkeit von Infrarot zur Datenübertragung beschränkt sich auf kurze Entfernungen, wie sie typischerweise nur innerhalb von Gebäuden vorkommen. Für die Nutzung
innerhalb von Gebäuden spricht allerdings, daß Infrarot–Netzwerke keine der gewöhnlich
verwendeten und damit kostbaren Frequenzen des elektromagnetischen Frequenzspektrums benötigen. Bei zellularen Funknetzwerken ist das von ihnen überdeckte Gebiet,
ähnlich wie bei den zellularen Infrarot-Netzwerken, in Zellen aufgeteilt. Die Position eines
Nutzers ist die Zelle, in der er sich zur Zeit befindet. Die Ausdehnung dieser Zellen ist
aber im Vergleich zu den bei zellularen Infrarotnetzwerken durch die größere Reichweite
zumeist deutlich größer, so daß sie auch für eine Verwendung außerhalb von Gebäuden in
Frage kommen. Allerdings sinkt durch die größere Ausdehnung der Zellen die Genauigkeit, mit der die Position eines Benutzers bestimmt werden kann, so daß die resultierenden
Positionsbestimmungen unter Umständen zu ungenau werden. Eine Steigerung der Positionsgenauigkeit ist unter Umständen bei sich überlappenden Zellen durch den Empfang
KAPITEL 3. WEARABLE COMPUTING
55
der Signale mehrerer Zellen in Verbindung mit der Messung der Signalstärken möglich.
Die bisher betrachteten Systeme könnten auch als absolute Ortungssysteme bezeichnet
werden. Sie bestimmen die aktuelle Position unabhägig von vorherigen Positionen. Dem
gegenüber benötigen relative Ortungssysteme, auch als bordautonome Systeme bezeichnet, die vorherige Position zur Bestimmung der neuen Position mit Hilfe der von ihnen
gemessenen Positionsveränderungen. Diese Positionsveränderungen setzen sich gewöhnlich aus Geschwindigkeit, Richtung oder der Strecke zusammen, und werden zum Beispiel von Tachometern, Kompassen, Höhenmessern und Trägheitsnavigationssensoren ermittelt. Das große Problem dieser Systeme ist die Tatsache, daß sich die unvermeidlich
auftretenden Fehler summieren und daraus resultierend die Positionsbestimmungen zunehmend ungenauer werden. Aus diesem Grunde werden relative Ortungssysteme in der
Regel nur in Kombination bzw. als Ergänzung von absoluten Ortungssystemen verwendet. Der Vorteil dieser kombinierten Systeme ist darin zu sehen, daß bei kurzzeitiger
Nichtverfügbarkeit des absoluten Systems die Positionsbestimmung mit Hilfe des relativen Systems fortgeführt werden kann.
Ist ein Nutzer wenig mobil, sondern befindet sich die meiste Zeit an fest stehenden Computerarbeitsplätzen, ist eventuell überhaupt keine spezielle Hardware zur Bestimmung
der Position nötig, wie dies in den zuvor erwähnten Systemen schon der Fall ist. Für die
Zuordnung des Nutzers zu einer bestimmten Position, seinem aktuellen Arbeitsplatz, wird
nur eine Identifikation des Nutzers durch den Arbeitsplatz benötigt. Dies geschieht bei
vielen Systemen bereits durch die Authentifikation des Nutzers durch Benutzername und
Paßwort. Es reicht also völlig aus, den Zugang zu Computerarbeitsplätzen zu beobachten und die jeweils vorhandenen Nutzer mit den festen Positionen der Arbeitsplätze zu
verknüpfen.
Wearable Computing Systeme werden unter anderem dadurch charakterisiert, dass sie
proaktiv und immer im Wahrnehmungsbereich der Benutzer sind. Für den Bereich Tourismus bedeutet diese Eigenschaft, dass der Benutzer sich seine Informationen nicht immer
selbst beschaffen muss, sondern systemgesteuert angeboten bekommen kann. Ein proaktives Computersystem im Tourismus muss die ortsbezogenen Angebote mit dem Profil der
Benutzer abgleichen und weitere Kontexte (z.B. den aktuellen Aufenthaltsort, die Uhrzeit, die bisherigen Aktivitäten usw.) mit einbeziehen, um sinnvolle Empfehlungen geben
zu können. Context–Awareness und Benutzermodellierung (user modeling) sind erforderlich, um diese Anforderungen zu erfüllen. Außerdem muss noch untersucht werden, wie
Proaktivität und die daraus resultierende Interaktion zu gestalten ist.
Von einer anderen Perspektive aus gesehen kann ein Wearable Computer, der mit einer
Videokamera und anderen Aufzeichnungsmöglichkeiten ausgestattet ist, auch als ”Reisetagebuch” verwendet werden und so dem Benutzer zur Erinnerungsunterstützung dienen.
Kommerziell verfügbar sind bisher nur Wearable Online–Berichterstattungssysteme (z.B.
von ART+COM), die allerdings von der erforderlichen Hardwareausstattung her für Touristen bzw. für den persönlichen Gebrauch noch ungeeignet sind.
In der Folge werden Forschungsprojekte und Prototypen beschrieben, die sich mit der
Entwicklung von mobilen Informationssystemen befassen.
KAPITEL 3. WEARABLE COMPUTING
56
Cyberguide
Im Rahmen einer 1995 am College of Computing in Atlanta gegründeten Projektgruppe
namens ”Furture Computing Environments (FCE) Group” wird versucht, das Aussehen
von zukünftigen Anwendungen für mobile Umgebungen vorherzusagen. Sie vertreten dabei
die Meinung, daß zukünftige mobile Rechnerumgebungen Kontextinformationen wie beispielsweise die jeweilige Position, für ein größeres Spektrum an Diensten für den Benutzer
benötigen. Zur Untersuchung dieser These wurde im Rahmen des Projektes Cyberguide
eine Reihe von Prototypen eines mobilen positionsbewußten Routenführers für Touristen
entwickelt [AAH+ 96]. Diese Prototypen verwenden die aktuellen und die vorherigen Positionen um ein Höchstmaß an Funktionalität entsprechend eines richtigen Routenführers
zu bieten. Diese Funktionalität setzt sich aus vier Bereichen zusammen, die bei der den
Prototypen gemeinsamen Architektur als vier größtenteils unabhängige Teile entworfen
wurden. Der erste Teil dient der Positionsbestimmung eines Benutzers durch die Verwendung von Sensoren verschiedener Ortungssysteme. Für die Darstellung von Umgebungskarten mit einer Markierung der jeweiligen Position des Benutzers ist der zweite Teil der
Prototypen zuständig. Die Bereitstellung von Informationen zu ausgewählten Objekten
der realen Welt aufgrund von Benutzeranfragen wird durch den dritten Teil erledigt. Der
letzte Teil dient der Kommunikation zwischen den sich in einem bestimmten Gelände
aufhaltenden Personen mit Hilfe von Nachrichten.
ArcheoGuide – Virtueller Reiseführer
Für Touristen ist es oft schwer, sich den ursprünglichen Zustand von zerstörten oder
beschädigten Baudenkmälern vorzustellen. Ein neues Touristen–Informationssystem soll
virtuell zeigen, wie aus Ruinen wieder prächtige Bauwerke entstehen. (Siehe Abbildung
3.7)
Am Fraunhofer Institut für graphische Datenverarbeitung Darmstadt hat man unter dem
Projektnamen ArcheoGuide ein sogenanntes ”geographisches Touristen–Informationssystem”
entwickelt, welches virtuelle Reisen in die Vergangenheit wichtiger Baudenkmäler ermöglicht.5
Abbildung 3.7: Darstellung eines virtuellen Denkmals in der realen Umgebung
5
http://www.igd.fhg.de/igd-a4/projects/archeoguide/
http://archeoguide.intranet.gr/
KAPITEL 3. WEARABLE COMPUTING
57
Das Touristen-Informationssystem zeigt den früheren Zustand zerstörter oder beschädigter Gebäude, aber auch standortbezogene aktuelle Informationen. Es ist zum Beispiel ein
Modell des Heidelberger Schlosses verfügbar. Die erste Version des Systems besteht aus
einem kleinen und leistungsstarken Rechner, den sich Touristen am Gürtel festschnallen
können. Auf den Kopf setzen sie ein ”Headset” mit Kamera, Monitor und Mikrofon. Die
Darstellung des virtuellen Gebäudes erfolgt in 3D in Abhängigkeit vom Blickwinkel des
Benutzers. Über die Kamera erkennt das System, wo der Nutzer gerade hinschaut und
liefert Informationen zu diesem Blickwinkel. Auf dem Monitor erstehen die Bauwerke
virtuell wieder auf. Mittels halbdurchlässigen Display überlagert das computergenerierte
Bild die reale Sicht, ohne sie vollständig zu verdecken. Eine Sprachsteuerung des Systems
soll möglich sein. Auch ein Routenplaner ist als Zubehör geplant, genauso wie das Angebot, ein Hotelzimmer zu reservieren. Der Aufbau des Archeoguide ist in Abbildung 3.8 zu
sehen.
Abbildung 3.8: Aufbau des Archeoguide–Systems
Die neueste Hardware stammt von der Firma N–Vision und ist eine Art Fernglas. Sie ist
handlicher als die erste Version, denn der Nutzer muss kein Gestell mehr aufsetzen. Er
hält sich das Gerät bei Bedarf vor die Augen, sonst hängt der virtuelle Führer um den
Hals. Auch zu dieser Ausführung gehört ein kleiner Rechner für den Gürtel. Hardware für
derartige Anwendungen wird immer handlicher und wird bald einmal in die Hosentasche
passen.
Weitere ähnliche Projekte kann man auf der Projektseite des Frauenhofer Institut für
KAPITEL 3. WEARABLE COMPUTING
58
graphische Datenverarbeitung finden.6
Deep Map
Das European Media Lab (EML), Heidelberg, und internationale Universitäten und Forschungsgruppen entwickelten zusammen den sogenannten Deep Map.7
Das System fungiert als personalisierter, virtueller Stadtführer mit Navigationshilfe, geführtem Rundgang und Hintergrundinformationen zu den besuchten historischen Plätzen.
Der Person, die es benutzt, kann es einen persönlich zugeschnittenen Rundgang bieten.
Der Tourist kann dem System gesprochene Anweisungen geben und weitreichende Fragen stellen, welche anhand der Informationen aus der enthaltenen multimedialen Datenbank und der implementierten künstlichen Intelligenz beantwortet werden. Die Ausgabe erfolgt über gesprochenen oder visuell angezeigten Text, Bilder oder Grafiken (multimedial und der Realität überlagernd). Die Sprachsteuerung bietet also eine intuitive
Interaktion und der Benutzer kann somit die Vor–Ort–Simulationen des Systems steuern. Ferner besitzt Deep Map eine umfangreiche historische Datenbank, so dass virtuelle
Zeitreisen durchgeführt werden können. Darüber hinaus können mit dem umfangreichen,
intelligenten Geo–Informationssystem ”Was-Wäre-Wenn”–Analysen für die Stadtplanung
vor Ort durchgeführt werden. Es ist also eine Multimedia Datenbank, die nicht nur 3DInformationen, sondern auch umfangreiche historische und demographische Informationen
gespeichert hat.
Mobiles GEO-WWW
Ein Projekt des Instituts für parallele und verteilte Rechner der Universität Stuttgart,
Forschergruppe NEXUS.8
Es wird angenommen, dass 80% aller Informationen einen Raumbezug haben. Dieser Ortbezug soll nun in den unfangreichen ortslosen Informationsraum des WWW übertragen
werden, um auch Informationen ortsbezogen zu filtern.
Filterung und Bereitstellung von Informationen und Diensten anhand des aktuellen Ortsbezugs des Benutzer ist die Intention bei diesem Projekt.
In diesem Projekt geht es um die Entwicklung einer Plattform für ortsbezogene Anwendungen, die beliebigen Anwendungen Zugriff auf ein Modell der Welt bietet. Dieses
Modell enthält Objekte wie Gebäude, Straßen oder auch mobile Benutzer und ”virtuelle
Litfasssäulen”, die als Metaphern für ortbezogene Informationen oder Informationsdienste
dienen. Sensoren ”beobachten” die reale Welt und passen das Modell laufend der realen
Welt an, mittels Aktoren können wiederum Geräte auf Zustandsänderungen des Modells
reagieren. Bei der ”virtuellen Litfasssäule” handelt es sich einerseits um ein virtuelles Objekt, das nur als Datenstruktur in einem Rechner existiert. Andererseits sind solche Objekte realen Orten in der Stadt zugeordnet, zum Beispiel dem Hauptbahnhof, den Museen
oder Hotels. Das besondere daran, es können nicht nur Informationen abgerufen werden,
sondern auch Interaktionen mit Dienstleister stattfinden. Der Zugriff auf diese räumlich
6
http://www.igd.fhg.de/igd-a4/projects/
http://www.eml-development.de/
8
http://www.nexus.uni-stuttgart.de/
7
KAPITEL 3. WEARABLE COMPUTING
59
bezogenen Angebote erfolgt über tragbare Computer oder intelligente Funktelefone. Der
Vorteil ist hier die drastische Reduzierung der angebotenen Informationsmenge.
Touring Machine
Als ”Touring Machine” wird ein Campus–Informationssystem der Columbia Universität,
Institut für Computer Wissenschaft, bezeichnet.9
Das Campus–Informationssystem unterstützt den Benutzer dabei, Orte, Plätze und Gebäude
auf dem Gelände zu finden. Es ermöglicht einem, Informationen über interessante Dinge
abzufragen, zum Beispiel zu Gebäuden, Statuen etc. . Abhängig von der Position und
Orientierung des Benutzers wird ihr Blick auf die reale Welt mit entsprechenden textuellen Informationen überlagert. Die Eingabe der Anfragen erfolgt über das Auswählen von
Hyperlinks (angezeigt im HMD als Flagge) mit dem Kopf (durch fixieren einer Flagge,
wechselt sie ihre Darstellung, sodass der Benutzer sieht, zu welchem Thema er etwas auf
dem Handheld sehen wird). Für die Menüauswahl aus der HMD–Anzeige wird das Trackpad am Handheld mit einer Gestensprache benutzt. Das Display in der Hand zeigt ein
anderes Bild als das HMD. Es zeigt zum Beispiel die Homepage der Fakultät, vor der
ein Benutzer gerade steht. Es wird für Darstellungen benutzt, die eine gute Auflösung
erfordern. Es gibt immer eine Korrespondenz zwischen der Anzeige im HMD und der auf
dem Handheld. Das System kann auch als Orientierungshilfe verwendet werden, indem
der Benutzer auf dem Handheld ein Gebäude wählt, das er erreichen will. Ein im HMD
eingeblendeter Kompass gibt ihm dann die Richtung an, in die er gehen muss.
Der Benutzer erhält am richtigen Ort die richtige ausführliche Information, wenn er die
angebotenen und visuell angezeigten Informationensquellen aktiviert. Die beiden Displays
zeigen jeweils die Information, für die sie besonders geeignet sind, das Handheld–Gerät
zum Beispiel die hochauflösenden Bilder, das HMD nur Markierungen, die die Sicht auf
das reale Objekt überlagern und anzeigen, dass es weiterführende Informationen gibt.
MARS (Mobile Augmented Reality Systems) ist ein Prototyp der Columbia Universität,
der aus einem Hard– und Softwaresystem besteht. Es stellt eine ortsabhängige Informationspräsentation mit multimedialer Navigationsunterstützung dar. (Siehe Abbildung 3.9)
Der Computer befindet sich im Rucksack (im Prinzip kann ein beliebiger Computer eingesetzt werden). Am Kopf zu tragendes binokulares see–through 3D–Display, das mit einem
Tracker zur Ermittlung der Orientierung des Kopfes des Benutzers ausgestattet ist. Ein
DGPS–System wird verwendet, um die Position des Benutzers zu lokalisieren. Ein Handheld 2D–Display mit Stifteingabe, das drahtlos mit dem Rucksackcomputer verbunden
ist, dient als Eingabegerät. Der Handheld ist auf der Rückseite mit einem Trackpad ausgestattet. Eine Kamera in Höhe des rechten Auges zeichnet auf, was der Benutzer sieht.
Das Blockschaltbild des Mars–Systems ist in Abbildung 3.10 zu sehen.
Softwareseitig wurde die selbst entwickelte Plattform COTERIE eingesetzt, die ein verteiltes System ist und sich für verschiedene Betriebssystemplattformen eignet. Ein selbstentwickelter Http–Server ergänzt das System.
9
http://www1.cs.columbia.edu/graphics/projects/mars/touring.html
KAPITEL 3. WEARABLE COMPUTING
60
Abbildung 3.9: MARS System im Einsatz
Mobile Journalist Workstation
Ein weiteres Einsatzgebiet des MARS–Systems wird durch die Erweiterung um einen
Kopfhörer und einer drahtlosen Vernetzung erreicht. Ortsabhängige, multimedial präsentierte Informationen (historische und architekturbedingte) sowie eine multimediale Navigationsunterstützung helfen den mobilen Journalisten bei seiner Arbeit.10 (Siehe Abbildung 3.11)
Das Campus–Informationssystem ”Touring Machine” wurde um die Präsentation zusätzlicher multimedialer Informationen (Ton, Text, Bilder, Videos) erweitert. Die Information
wird positionsabhängig präsentiert und durch die Darstellung einer Flagge (oder eines anderen ikonographischen Labels) im computergenerierten Bild visualisiert. Diese sind mit
einem Hyperlink hinterlegt und können selektiert und damit aktiviert werden. Als Eingabemedium kann die Kopfbewegung dienen, aber auch das Trackpad und die Stifteingabe
auf dem Handheld sind möglich. Unterschiedliche Eingabegeräte ermöglichen also dem
Benutzer, nach Belieben eine situationsabhängige Auswahl zu treffen.
Der aktuelle Prototyp zeigt dem Benutzer ”Situated Documentaries”. Zur Zeit sind es
multimediale Dokumente über die 68er Studentenrevolution, über das unterirdische Tunnelsystem und über die frühe Geschichte des Campus der Columbia Universität. Gezeigt
werden diese Dokumente zum Teil im HMD (Rekonstruktionen alter Gebäude), das heißt
sie überlagern das reale Bild, oder auf dem hochauflösenden Handheld (z.B. Videos).
Auf dem Handheld–Gerät läuft ein eigener Web–Server, als Oberfläche wird ein einfacher Browser verwendet. Für die Visualisierung eines 360Grad–Rundumbildes wird das
See–Through–Display mechanisch in ein opaques Display verwandelt. Die verschiedenen
Eigenschaften der Displays werden also ausgenutzt, um eine optimale Darstellung der
jeweiligen Information zu erreichen.
Die Datenbank mit allen Informationen ist im Rucksack–Computer gespeichert. Der Web–
Browser des Handhelds kann jedoch über eine drahtlose Verbindung auf weitere Informationen im Internet zugreifen.
10
http://www1.cs.columbia.edu/graphics/projects/mars/mjwSd.html
KAPITEL 3. WEARABLE COMPUTING
61
Abbildung 3.10: Aufbau des MARS Prototypen
Dies ist auch der Unterschied zum Projekt ”VTG”(siehe Kapitel 4) in dieser Arbeit,
wo sämtliche Information auf einem Server liegt und dort für die Darstellung am Client
aufbereitet wird.
Indoor/Outdoor Collaboration
Ebenfalls von der Columbia Universität stammt das Projekt ”Indoor/Outdoor Collaboration”. Dies ist eine neuerliche Erweiterung des MARS–Systems und zwar um eine
multimediale und multimodale Kommunikation– und Kollaboration–Möglichkeit mit Experten. Die Anbindung eines mobilen AR–Systems (Augmented Reality System) an ein
Indoor Multi–User AR–System war die Aufgabe dieses Projektes. Ebenfalls Verwendung
finden hier die ortsabhängige Informationspräsentation sowie und die multimediale, positionsabhängige, visuelle Überlagerung der realen Welt mit virtuellen 3D-Informationen.11
(Siehe Abbildung 3.12)
Das User–Interface für Indoor/Outdoor Collaboration ermöglicht es, einen Benutzer der
sich außerhalb der Gebäude mit dem mobilen AR–System bewegt, zu beobachten(überwachen) und gegebenen Falls von Experten remote zu unterstützen. Im Gegenzug kann der
mobile Benutzer seine Beobachtungen den Personen drinnen berichten. Für die verschiedenen zu erwartenden Situationen und Kombinationen wurde eine Infrastruktur geschaffen,
11
http://www1.cs.columbia.edu/graphics/projects/mars/marsUIs.html
KAPITEL 3. WEARABLE COMPUTING
62
Abbildung 3.11: Der mobile Journalist mit Informationsanzeigebeispiel
die es erlaubt, auf die gleichen Informationen, mit verschiedenen Personen gleichzeitig und
mit ganz unterschiedlichen Interfaces zuzugreifen. Darüber hinaus haben die verschieden
ausgestatteten Benutzer unterschiedliche Aufgaben in der Kollaboration, die mit entsprechenden Programmen unterstützt werden.
Abbildung 3.12: Ansicht des Campus mit Flaggen, Information und Links, sowie einer Routenanzeige
Die MARS–Hardware wird für das mobile AR–System um diverse andere, auch nicht–
mobile Computer für die Kooperationspartner (z.B. wearables, hand–held, stationary
desktop, stationary wall–sized, stationary immersive AR) ergänzt.
REAL
REAL entstand im Rahmen des Sonderforschungsbereichs 378 ”Ressourcenadaptive Kognitive Prozesse” am Lehrstuhl von Professor Wolfgang Wahlster an der Universität Saarland.
Navigationshilfen auf CD–ROM und GPS–Basis aus dem Autocomputer kennt man schon
länger, doch nun sollen auch Fußgänger in den Genuss der Navigationshilfen kommen. Im
Rahmen zweier Diplomarbeiten an der Saar Uni wurde im Fachbereich Informatik eines
der leichtesten und kleinsten Systeme dieser Art entwickelt. Eine Navigationshilfe für
Fußgänger (drinnen und draußen) durch kontextabhängige Informationspräsentation ist
das Thema im Projekt ”REAL”. Aufgespalten wurde dieses Projekt in die Unterprojekte
KAPITEL 3. WEARABLE COMPUTING
63
”IRREAL” (Navigation drinnen) und ”ARREAL” (Navigation draußen).12
Abbildung 3.13: Ausrüstung der Navigationshilfe
Es ist in der Lage, zum Beispiel Besuchern des Saarbrücker Campus den Weg zu weisen.
Die Hauptkomponenten des ARREAL–Systems sind ein leicht zu tragender Rucksack, ein
Miniatur–Monitor, der an der Brille des Benutzers befestigt werden kann und eine speziell
entwickelte Zweiknopf–Bedieneinheit. (Siehe Abbildung 3.13)
Eine besondere Schwierigkeit bei der Unterstützung von Fußgängern konnte mit ARREAL
überwunden werden. Während Autos an Straßen gebunden sind, bewegen sich Fußgänger
weitaus flexibler im Raum. Eine Besonderheit des REAL–Systems ist die Verbindung der
Navigation im Freien und in Gebäuden. Während sich REAL im Freien auf Satelliten zur
Ortsbestimmung verlässt, übernehmen diese Aufgabe im Gebäude spezielle Infrarotsender.
Mit dem schlauen Reisebegleiter im Gepäck soll sich der Fußgänger künftig überall zurechtfinden, auf dem Flughafengelände, im Firmenkomplex, in Innenstädten, egal ob er
sich gerade im Freien, in einem Gebäude oder einem öffentlichen Verkehrsmittel aufhält.
Außerdem reagiert REAL adaptiv auf die wechselnde Benutzersituation. Das heißt es
erkennt, ob es jemand eilig hat oder ob er nur gemütlich umherschlendert. Das Hilfesystem
passt je nach Ort und Geschwindigkeit die Art und Menge der präsentierten Information
automatisch an (langsam gehen āusführliche Informationen).
Neben der reinen Navigationsaufgabe unterstützt das System zum Beispiel Anfragen zu
Gebäuden in der unmittelbaren Umgebung des Benutzers. Eine einfache Zeigegeste mit
dem Bedienelement auf ein Gebäude genügt, um zusätzliche Infos abzurufen, etwa über
das Innenleben und die Funktion des Gebäudes.
12
http://w5.cs.uni-sb.de/real/
KAPITEL 3. WEARABLE COMPUTING
3.6.2
64
Wearable Computing als Produktivitätsfaktor
Der Einsatz mobiler Rechnersysteme erlaubt den Zugriff auf Planungsdaten vor Ort. Gerade bei der Inspektion in laufender Produktion ist es aus Sicherheitsgründen wichtig, dass
das Instandhaltungspersonal die Hände frei hat um einen sicheren Halt zu finden. Aus diesem Grund konnte sich für diese Aufgabe bisher noch keine Hardwarelösung durchsetzen,
die eine Datenerfassung und –auswertung vor Ort realisiert. Mit der mobilen Computertechnologie besteht nun die Möglichkeit, auch die Datenaufnahme direkt an der Anlage
wirkungsvoll zu unterstützen. Wesentliches Merkmal dieses Ansatzes ist das erheblich
stärkere Durchdringungspotential von Informationsfunktionalität, das durch die Tragbarkeit von Softwaresystemen und zusätzlicher intelligenter Sensorik produktivitätssteigernd
genutzt werden kann.
3.6.3
Wartung von Flugzeugen
Bereits erfolgreich eingesetzt wird der Wearable Computer in der Flugzeugwartung. Das
mitnehmen von schweren Wartungsbüchern ist dadurch nicht mehr nötig, und außerdem
hat der Mechaniker beide Hände für die Arbeit zur Verfügung. Schaltpläne oder Anweisungen zur Reparatur eines Schadens können über einen HMD angezeigt werden, und
mit der Unterstützung von einer Kamera kann man die Anweisungen auch an die richtigen Stellen projizieren, um sozusagen direkt auf Teile des Flugzeuges zu zeigen (siehe
Abbildung 3.14).
Abbildung 3.14: Reparatur eines Flugzeuges mit Hilfe eines Wearable Computers
KAPITEL 3. WEARABLE COMPUTING
3.7
3.7.1
65
Forschung im Bereich ”Wearable Computing”
Digital Life Consortium
Es gibt viele Forschungsaktivitäten an der MIT in Zusammenarbeit mit Unternehmen
und Studenten.
Das Digital Life Consortium13 ist ein Multi–Sponsor Forschungs–Consortium das im Januar 1997 gegründet wurde. 17 Fakultäten, über 90 Studenten und 55 Unternehmen der
ganzen Welt definieren gemeinsam die Forschungsthemen und arbeiten bei der Umsetzung der Projekte eng zusammen. Die vertretenen Firmen arbeiten in den Bereichen
Telekommunikation, Medien, Datenaustausch, Veröffentlichung, Verbraucher–Elektronik
und Computer. Es werden periodisch Workshops gehalten, um den Fortschritt der Arbeiten zu präsentieren. Zwei mal im Jahr werden an den ”Media Laboratories” sogenannte
”full–member meetings” abgehalten um die Forschungsinhalte abzustimmen.
3.7.2
Technische Universität Darmstadt
Mit den Herausforderungen des Ubiquitous Computing beschäftigt sich auch Prof. Dr.
Max Mühlhäuser vom Fachbereich Informatik an der Technischen Universität Darmstadt.
Endgeräte und Infrastrukturen sind Forschungsthemen für die man sich hier besonders
interessiert.
Seine Arbeitsgruppe arbeitet an den wichtigsten Herausforderungen des heranbrechenden
Zeitalters ubiquitärer vernetzter Computer, gegliedert nach dem S.C.A.L.E–Prinzip.
Folgenden Fragen stellt sich die Arbeitsgruppe.
ˆ Wie kann man eine globale Infrastruktur von Ein– und Ausgabegeräten ohne Konflikte gleichzeitig benützen?
ˆ Wie kann eine Person mehrere heterogene Ein– und Ausgabegeräte zur selben Zeit
verwenden, ohne verwirrt zu werden?
ˆ Wie kann die Privatsphäre in einer offenen Infrastruktur gesichert werden?
ˆ Wie kann eine bessere Personalisierung erreicht werden?
ˆ Wie können die Fähigkeiten von einzelnen Ein– und Ausgabegeräten beschrieben
werden, damit sie ohne manuelle Konfiguration über eine drahtlose Infrastruktur
zusammenarbeiten?
ˆ Wie können User–Interfaces beschrieben werden, damit sie mit beliebigen Geräten
funktionieren, ungeachtet des Types, der Größe und Form, . . . ?
ˆ Wie kann die Sicherheit garantiert werden (z.B. das Passanten nicht das Licht im
Wohnzimmer einfach ausschalten können)?
13
http://dl.media.mit.edu/
KAPITEL 3. WEARABLE COMPUTING
66
In einem Projekt werden Prototypen audio–basierter Endgeräte für Ubiquitous Computing entwickelt, sogenannte ”Talking Assistants (TA)” (Modell siehe Abbildung 3.15).
TAs sind sprachgestützte Headsets, die über Prozessor und Speicher, eine drahtlose Netzwerkanbindung (Bluetooth) sowie eine Kombination von Sensoren bzw. Aktuatoren zur
Handhabung von Kontextinformation verfügen. Letztere umfasst unter anderem Identität und Standort (hochgenaues IR–System) des mobilen Benutzers sowie die ungefähre
Blickrichtung (elektronischer Kompass und Neigungssensor).14 (Siehe Abbildung 3.16)
Abbildung 3.15: Modell des Talking Assistant
Zusammen mit einer verteilten Laufzeitumgebung unterstützen diese Geräte Anwendungen wie personalisierte Ausstellungsführer oder Labor– bzw. Wartungsassistenten. Spezielle Features wie die akustische Ausgabe von Information anstatt einer visuellen Ausgabe,
sollen die Augenfreiheit des Benutzers gewährleisten. Man versucht auch eine möglichst
Hand–freies Arbeiten zu ermöglichen. Nicht nur die Position des Benutzers sondern auch
seine Blickrichtung bestimmen die ”Location–Aware” Eigenschaft des Systems. Das Alter,
Interessen, verfügbare Zeit und eine Tour–Historie sind die Grundlage für eine personalisierte Unterstützung des Benutzers. Die Rechenleistung liegt in der Infrastruktur und
verhindert somit eine zu hohe Komplexität der Endgeräte beim User.
Das zweite Projekt, welches noch kurz vorgestellt wird, hat eine globale Infrastruktur für
Ubiquitous Computing namens MUNDO zum Ziel. MUNDO integriert enger fokussierte
Teilprojekte, darunter auch TA, in einer offenen Serviceplattform, welche insbesondere
WLAN–Hotspots und öffentliche Mobilfunknetze als koexistierende ”Trägerdienste” zu
integrieren erlaubt.15 Das Infrastrukturschema ist in Abbildung 3.17 zu sehen.
Die Infrastruktur wird in bestimmte Elemente, die in Abbildung 3.18 dargestellt werden,
aufgeteilt.
ˆ ME (Minimal Entity) ist ein Gerät im Besitz des Users mit digitaler Identität für den
14
15
http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/TalkingAssistant
http://www.tk.informatik.tu-darmstadt.de/Forschung/Poster/Mundo
KAPITEL 3. WEARABLE COMPUTING
67
Abbildung 3.16: Systemarchitektur des Talking Assistant
Vertrauensschutz und Sicherung durch biometrische Authetifizierung (z.B. Talking
Assistant).
ˆ US (User aSsociable) Benutzergeräte die von ME abhängen, personalisiert durch die
Verbindung mit dem User. US muß in der Umgebung von ME bleiben (z.B. Tablet
PC, Zeigegerät, . . . ).
ˆ IT (smart ITem) ist ein nicht zuweisbares Item (z.B. ein Raum).
ˆ WE (Wireless group Environment) Ad-Hoc Verbindung von ”personal Environments” (z.B. mehrere Kameras speichern auf eine Speicherbox).
ˆ THEY (Telecooperative Hierarchical ovErlaY network) Infrastrukturbasierende Vernetzung (z.B. Museums WLAN und Server Infrastruktur).
3.7.3
Universität Bremen (TZI)
Das Technologie-Zentrum Informatik (TZI) der Universität Bremen beschäftigt sich schon
seit längerer Zeit mit dem Thema der mobilen Informationsverarbeitung. Der Schwerpunkt liegt dabei auf den Potentialen von Wearable Computing in industriellen Anwendungen. Eine wichtige Aufgabe in diesem Zusammenhang ist die Auseinandersetzung mit
KAPITEL 3. WEARABLE COMPUTING
68
Abbildung 3.17: Schema der Infrastruktur
Abbildung 3.18: Elemente der Infrastruktur
Aspekten, die das große Innovationspotential neuartiger mobiler Technologien deutlich
offenlegen und wirtschaftlich verwertbar machen.
Das TZI entwickelt in diesem Zusammenhang spezielle Nutzungsmodelle und Technologien für den Einsatz von tragbaren Computern in der Inspektion.[TZI a]
”Location based Computing” bietet Services in Abhängigkeit der aktuellen Position des
Benutzers. Durch Identifikation bestimmter Markierungen (Bar–Codes, RF–Tags) kann
der tragbare Rechner Inspektionsobjekte, Baugruppen oder einzelne Teile automatisch
erkennen und sich neuen Situationen entsprechend anpassen.
”Neuartige Benuterschnittstellen” werden für Spezialanwendungen eingesetzt und entwickelt. Im industriellen Einsatz sind herkömmliche Bedienkonzepte wie Maus– und Tastatursteuerung häufig nicht anwendbar. Neben der Sprachsteuerung kommen hier auch
andere innovative Konzepte zum Einsatz, zum Beispiel die Steuerung über Körperhaltung,
Gesten und Bewegungen.
KAPITEL 3. WEARABLE COMPUTING
69
Das Projekt WinSpect hat gezeigt, dass mobile Informationsverarbeitung im praktischen
Einsatz immer auch eine weitreichende Auseinandersetzung mit den spezifischen Anforderungen des jeweiligen Anwendungsgebiets erfordert. Die Themenfelder welche hierbei
bearbeitet werden, berühren Disziplinen wie z.B. Ingenieurs–, Sozial–, Arbeits–, Wirtschaftswissenschaften, Psychologie, Kognitionsforschung und viele Bereiche der Informatik, aber auch Design, Bekleidungstechnik usw. . Um das Thema breit und interdisziplinär
bearbeiten zu können, hat das TZI das ”WearLab” initiiert, das als themenzentrierte institutsübergreifende Forschungsgruppe vorhandene Kompetenzen bündeln und anbieten
soll.[TZI b]
3.7.4
Technische Universität Linz (Software Group)
Unter der Leitung von Univ.-Prof. Mag. Dr. Alois Ferscha wird an der Technischen Universität Linz sehr viel im Bereich ”Pervasive Computing” geforscht. Ferscha ist nach
langjähriger Forschungstätigkeit im Bereich der Entwicklung von Software für verteilte
Systeme an der Universität Wien nun mit der Etablierung eines Forschungsschwerpunktes
”Pervasive Computing” als Professor an der Universität Linz beschäftigt. Seine Lehrtätigkeit umfasst unter anderem Softwareentwicklung, Embedded Systems und Telekooperation. Erfolgreiche praktische Anwendungen aus dem Bereich der Pervasive Computing Frameworks sind zum Beispiel ein Echtzeit–SMS–Notifikationssystem auf RFID Basis (Wienmarathon, Berlinmarathon), die Mehrbenutzerinteraktion auf ”Virtuellen Walls”[FS02],
Team–Awareness in WLANs (Wireless Campus Space)[Fer00] oder Embedded Webservices (”Internetkoffer”)[FVB02].
Im Wesentlichen beschäftigt man sich mit Software und Methoden in vernetzten Systemen. In der Grundlagenforschung setzt man sich mit den Themen Softwarearchitektur,
Algorithmen, Coordination und Interaktion von vernetzten Systemen im ”Mobile Computing” auseinander. Systemseitig wird in den Gebieten ”Wireless, Ad–Hoc Networking”,
”Wearable Computing”, ”Qualität von Services” und ”Performance Analyse” gearbeitet.
Tiefergehende Forschung wird in den Bereichen ”Awareness”, ”Intelligente Lösungen”,
”Software Services”, ”Natürliche Interfaces” und ”Smart Devices” betrieben. Die anwendungsorientierte Forschung hat das Kernthema ”Industrielle Anwendungen von Pervasive
Computing”. Das Aufgreifen von Problemen, Analysieren und Entwickeln von Lösungsansätzen in ”Multi–User Umgebungen”, ist die Faszination der sich das Team um Professor
Ferscha hingibt. Ferscha kommt aus dem Bereich Mehrprozess–Systeme und hat damit
ideale Voraussetzungen für die Komplexe Denkweise die diese Themen von jemanden abverlangen. Die Übersicht in Abbildung 3.19 zeigt die genauen Themengebiete an denen
die ”Software Group” arbeitet.[Gro03]
Die ”Software Group” bildet eine Forschungsgruppe innerhalb des Institut für Praktische
Informatik an der Johannes Kepler Universität in Linz. Multi–User Umgebungen im Mobile Computing, Ubiquitous Computing, Wearable Computing mit drahtloser Verbindung
untereinander und natürlich auch zum Internet, die Zusammenarbeit und das gemeinsame
Nutzen von Resourcen (group/workspace), ist ein Forschungsbereich dieser Gruppe. Weiters ist die Koordination und Interaktion sowie die Qualitäts– und Performance–Analyse
von solchen Systemen ein Spezialgebiet. Auf dem Gebiet ”Wireless Communication Systems And Communication Software” stellt man sich Themen wie Netzwerk–Protokolle,
Netzwerk–Architektur, Breitbandkommunikation und ähnliches.
KAPITEL 3. WEARABLE COMPUTING
70
Abbildung 3.19: Forschungsbereiche der Software Group
Dies ist die Grundlage für die praxisorientierte Forschung, in welcher man sich unter
Anderem folgenden Aufgaben widmet.
ˆ Context Computing [Fer02]
ˆ Multi–User Umgebungen [FVP+ 03]
ˆ Globale Netzwerke im Kommerziellen und Industriellen Alltag [Fer03]
ˆ Geräteunabhängige eServices [Fer01b]
ˆ Real–Time Multimedia Anwendungen
Das Projekt ”Context (Context Framework für Mobile Anwendungen)” setzt sich zum
Ziel, Methoden zur Handhabung von unstrukturierten Daten die von einer Vielzahl von
Sensoren und Aktoren erzeugt und untereinander bzw. mit Dritten ausgetauscht werden, zu definieren und analysieren. Hier spielt auf der einen Seite die Kommunikations–
Hardware (IEEE802.11b, Bluetooth, RFID) eine Rolle, auf der anderen Seite die Protokolle (TCP/IP, XML, SOAP, RDF) über die Daten ausgetauscht werden. Es stellt sich nun
die Frage, wie man zum richtigen Zeitpunkt die richtige (relevante) Information erfassen
kann und eine geeignete Repräsentation für diese semantischen Context Informationen
KAPITEL 3. WEARABLE COMPUTING
71
zu finden. Die Definition einer eigenen Regelsyntax ist nötig, um die Interaktion und
Ereignisbehandlung von heterogenen Geräten zu unterstützen.[Fer01a]
”COOPERATE” versucht eine multimediale Kooperationsumgebung für Teams, organisatorische Einheiten und Enterprises zu schaffen. Diese soll eine zu jederzeitige und ortsunabhängige Zusammenarbeit, Lehr– und Lernumgebung zur Verfügung stellen. Diese
mobilen Arbeitsplätze vereinen Augmented Reality und Ubiquitous Computing zu einer
virtuellen, allgegenwärtigen Arbeitsumgebung.[FPN+ 03]
Unter dem Projektnamen ”Pervasive Computing” wird an Konzepte und Design von mobilen und pervasiven Systemarchitekturen Entwicklungsmethodologien für koordinations
und interaktionsorientierten Anwendungen, kontextsensitiven Anwendungen, information appliances, smart systems, natürlichen Interfaces und qualitativeSystemevaluierung,
gearbeitet16 .
Mit dem Projekt ”RIPE” soll versucht werden, die Oberösterreichische IT–Industrie zu
einer der führenden auf dem Gebiet Pervasive Computing zu machen. Das Forschungsinstitut für Pervasive Computing wurde von der Oberösterreichischen Landesregierung
gegründet und soll zusammen mit dem Institut für Praktische Informatik und der IT–
bezogenen Industrie von Oberösterreich die Technologieplattform für praxisorientierte
Pervasive Computing Anwendungen bilden. Der Softwarepark Hagenberg bietet aus ökonomischer und organisatorischer Sicht die optimale Umgebung für die Zusammenarbeit
mit der technischen Industrie.17
Die Arbeit in technischen Forschungslabors verlangt durch die komplexen Arbeitsabläufe
ein großes Wissen über verschiedenste Laborgeräte und den Umgang mit gefährlichen
Substanzen. Weiters sind Experimente oft auf mehrere Arbeitsplätze oder Räume verteilt. Somit benötigen Laborassistenten mehr Unterstützung und Führung wenn sie mit
neuen Geräten oder unbekannten Experimenten konfrontiert werden, aber auch in täglichen Situationen bei ihrer Arbeit. Die Verwendung von mobile und Wearable computing
kann diese Prozesse visuell darstellen und unterstützen. Hardware und Software dafür zu
entwickeln, war die Motivation für das Projekt ”WearIT”.18
Die Software Group zeichnet sich verantwortlich für das bereits erwähnte Projekt Wireless Campus”, für das Konzept und die Implementierung einer drahtlosen Kommunikations Infrastruktur am gesamten Campus der Universität Linz. Ob in Hörsaal, Mensa, am
Uni-Parkplatz oder auf der Wiese im Universitätspark, die Nutzer des Österreich weit
einmaligen Projekts können jederzeit mit ihren Notebooks oder PDAs kabellos online gehen. Viele Studierende erhalten bereits über die am Campus flächendeckend installierten
HotSpots Zugang zum gesamten Datennetz der Universität. Neben der 220 WLAN Access
Points, einer VPN–Datenübertragung und einem auf LDAP basierendem Authentifizierungssystem, unterstützt eine Softwarelösung die Forschungsaktivitäten, die Lehre und
die Managementaufgaben am Campus, basierend auf Positiontechnologien (IEEE802.11b,
Bluetooth) und Identifikationstechnologien (IrDA, optische Marker).[Fer00]
Unter ”Awareness” versteht man in der Mehrbenutzer-Interaktionssoftware allgemein das
situative Wissen, das eine Gruppe von Benutzern individuell über sich, die gesamte Gruppe, die zu lösende Aufgabe und Gesamtzustand des Kooperationssystems haben. Die
16
http://www.soft.uni-linz.ac.at/Research/Projects/Pervasive Comp/
http://www.soft.uni-linz.ac.at/Research/Projects/RIPE/
18
http://www.soft.uni-linz.ac.at/Research/Projects/WearIT/
17
KAPITEL 3. WEARABLE COMPUTING
72
Erhebung, Interpretation, Filterung, Übertragung und Visualisierung von Information
darüber, wer gegenwärtig mit welchen Aktivitäten beschäftigt ist bzw. vor hat zu setzten,
wie diese zum Gesamtvorhaben beitragen, warum (mit welcher Motivation und Intention)
Benutzer bestimmte Aktivitäten wann setzen, ist eine zentrale Fragestellung im Design
von Gruppensoftware. Die Awareness–Funktionalität in Mehrbenutzersoftware ist zumeist
von der primären Softwarefunktionalität (z.B. Co-Editing, Document Sharing, Videoconferencing, virtuelle Meetings, etc.) entkoppelt, und stellt damit trotz enger Integration
eine eigenständige Softwarekomponente in solchen Systemen dar.
Am Institut für Praktische Informatik wurde in der Arbeitsgruppe von Prof. Alois Ferscha ein Awareness Softwareframework entwickelt, das neben den genannten Dimensionen
auch noch erklärt, wo sich ein Benutzer gegenwärtig befindet bzw. im Falle eines mobilen
Benutzers wohin er sich mit welcher (angenäherten) Geschwindigkeit bewegt (Location
Awareness). Dabei wird unter Nutzung der IEEE802.11b Wireless LAN Technologie die
geographische Position eines Benutzers ermittelt, in einer auf XML basierten Darstellung
bereitgestellt und von entsprechenden Applikationsprogrammen in der Folge benutzt. Zur
Veranschaulichung wurde die Webapplikation ”CampusSpace” entwickelt, die den Campus der Universität Linz mit seinen Gebäuden und Freiräumen als 3D-Modell abbildet,
in dem Benutzer (Studenten, Professoren, etc.), so sie diese Information freigeben, mittels einer Benutzerabstraktion (Avatar) dargestellt werden und somit für alle anderen
sichtbar sind (siehe Abbildung 3.20). Benutzer können im CampusSpace direkt und rasch
miteinander in Interaktion treten, wobei sowohl synchrone, asynchrone und mobile Kommunikationsmöglichkeiten unterstützt werden. Die einzige Systemvoraussetzung für den
Betrieb des CampusSpace ist der Zugang zum Internet mit traditionellen (Java-enabled)
Webbrowser als Clientsoftware.[FBN02]
Abbildung 3.20: Räume mit Anzeige der anwesenden Personen
Gegenwärtig wird das Awareness Framework in die Richtung pro–aktiver ortsabhängiger
Software weiterentwickelt, in der einem mobilen Benutzer noch während er unterwegs
ist vorbereitend Dienste am erwarteten Zielort zur erwarteten Ankunftszeit bereitgestellt
werden.
KAPITEL 3. WEARABLE COMPUTING
73
Forschung und Lehre profitieren gleichermaßen vom Einsatz der Drahtloskommunikation. Beispielsweise haben die Studenten während einer Lehrveranstaltung zusätzliche Interaktionsmöglichkeiten. Sie können Fragen elektronisch zum Rechner des Vortragenden
schicken, von wo aus sie sofort für alle Studenten sichtbar auf die Tafel projiziert werden.
Ein derartiges System existiert bereits an der Linzer Universität. Die technische Architektur ist in Abbildung 3.21 zu sehen.19 Die Kommunikation per Mobiltelefon (SMS) mit dem
Lehrveranstaltungsleiter ist jedoch kostenpflichtig und somit gerade für Studenten eher
hemmend. Es kann diese Kommunikation aber auch per Internet abgewickelt, und somit
eine entsprechend günstigere Variante geschaffen werden. Mit der entsprechenden Software kann man diese Idee noch weiter ausbauen, indem man den Studenten die Möglichkeit
bietet, von ihrem Platz aus elektronisch auf die Projektionsfläche zu zeichnen, um so ihre
Anliegen, Probleme oder Fragen verständlich zu vermitteln.
Abbildung 3.21: Räume mit Anzeige der anwesenden Personen
Man könnte auch Dokumenten direkt während der Lehrveranstaltung zur Verfügung
stellen oder untereinander austauschen. Zu jeder Lehrveranstaltung (Seminar, Vorlesung
Praktikum, ...) könnten die Studenten Wissen sammeln, auf ihren eigenen Rechnern speichern und anderen zugänglich machen. Anders als bei Webseiten wäre das ein verteiltes
Repository. Wissen könnte man thematisch oder nach Personengruppen klassifizien und
freigeben. Lehrveranstaltungen könnte man überall mitverfolgen, man kann also in der
Mensa, am Vorhof oder sogar in einer gleichzeitig stattfindenden Vorlesung sein.
Aufgrund des Wirkungsbereichs eines Access Points ist es als Nebeneffekt des drahtlosen
Kommunikationssystems möglich, eine ungefähre Angabe über den Aufenthaltsort einer
Person zu machen. Man kann also auf Wunsch am Campus ßichtbarßein oder nicht. Somit
19
http://www.soft.uni-linz.ac.at/Research/Projects/Wireless Campus/Technologie/Architektur/
KAPITEL 3. WEARABLE COMPUTING
74
können andere Personen über den Namen oder eine eindeutige Identifizierung herausfinden, ob sich eine Person am Campus befindet und wenn ja, wo sie sich im Moment aufhält.
Aber egal wo sich jemand gerade befindet, man ist mit Wireless Campus immer in der
Lage, der gesuchten Person Informationen zukommen zu lassen.
Es gibt bereits viele weitere Ideen, die sich am Wireless Campus verwirklichen ließen, und
die eine Verbesserung der Forschung und der Lehre nach sich ziehen würden.
Dieses Projekt ist der erste Schritt um die theoretische Forschung in der Praxis zu testen und Erkenntnisse daraus zu ziehen. Schrittweise wird man das Multiuser System so
erweitern, dass zum Beispiel Vorabinformation durch ”Pervasive Objects” erzeugt wird
einen User die benötigte Unterstützung zeitgerecht zukommen zu lassen (z.B.: Wer ist in
dem Raum den ich gleich betreten werden, kenne ich ihn und wenn ja, was haben wir
zuletzt besprochen). Ein lernendes Informationssystem zum Nutzen aller User sollte das
Ziel der Aufgabe sein. Das was Steve Mann bereits seit Jahren als Singluser praktiziert,
wartet darauf von einem Multiuser–System abgelöst zu werden. Vielleicht entwickelt sich
die Johann Kepler Universität zu einer Cyborg–City in der die Studenten und Lehrenden
nicht mit Laptop oder PDA, sondern mit Wearable Computern ihren Studienalltag und
Lehr– oder Forschungsauftrag nachgehen.
Viele Ubiquitous und Pervasive Computeranwendungen werden auch als Context–Aware
Anwendungen charakterisiert. Diese Anwendungen reagieren nicht nur auf ihre internen
Zustände und User–Interaktionen, sondern auch in Abhängigkeit mit dem in Verbindung
stehenden Context. Die Adaptivität einer Applikation oder eines Endgerätes auf die Zeit,
den Ort (location based services), die Person (personalized services) oder allgemein die Situation, in der die Anwendungen zum Einsatz kommen, wird unter dem Begriff ”Context”
zusammengefasst. Context–Modelle und entsprechende Context-Computing Softwareframeworks sind die Gegenstände der Forschung von kontextbezogene Technologien und
Anwendungen im Pervasive Computing. Der ”Context” einer Anwendung bzw. ”Context
Awareness” wird von A. K. Dey wie folgt erklärt.[DA00]
”Context is any information that can be used to characterize the situation of an entity.
An entity is a person, place or object that is considered relevant to the interaction between
a user and an application, including the user and applications themselves.
A system is context–aware if it uses context to provide relevant information and/or services to the user, where relevancy depends on the user’s task.”
Context–Aware Computing ist eher als Baustein für andere Bereiche, wie Ubiquitous
Computing, Ambient Computing oder Disappearing Computing zu sehen. Der Computer
soll in vielen Bereichen aus dem Bewusstsein der Benutzer verschwinden. Sie verrichten ihre Arbeit im Hintergrund mit möglichst wenig notwendiger Interaktion mit dem
Benutzer.[DA99]
Es müssen Lösungen für einige Frage die sich im Zusammenhang mit ”Context Aware”
Systemen stellen, gefunden werden.
ˆ Terminologie – Es wird ein einheitlicher Wortschatz benötigt um über ContextAwareness reden zu können.
ˆ Methoden – Wie entwickelt man Anwendungen mit Kontextbezug?
KAPITEL 3. WEARABLE COMPUTING
75
ˆ Repräsentation und Erfassung von Kontext – Wie wird Kontext intern repräsentiert?
ˆ Verschmelzen, Filtern, Interpretation und Vorhersage von Context – Mit
Kontext muss auch ”gearbeitet” werden können. Erst durch Kombination von verschiedenen Kontextarten ergibt sich ein mächtiges Werkzeug.
ˆ Skalierbarkeit – Wie kommunizieren die Anwendungen und potentiell tausende
von Sensoren, welche den Context erfassen?
ˆ Privacy – Es ist sicher nicht gewünscht, dass jeder immer meinen Standort weiss.
ˆ Anwendungsentwicklung – Werden neue Programmiersprachen benötigt, so wie
es bei SQL für Datenbankanwendungen notwendig war?
Es ist die Entwicklung von einigen Komponenten für eine ”Context Aware” Umgebung
nötig.
ˆ Kontext Sensoren – Hier sind nicht nur physikalische Sensoren gemeint, die Daten
wie Temperatur oder Zeit erfassen. Vielmehr ist auch hier hoher abstrakter Kontext wie der persönliche Terminkalender oder die Möglichkeiten sich fortzubewegen
gemeint.
ˆ Maße – Kontext kann in verschiedener Qualität geliefert werden. Positionierungssysteme arbeiten zum Beispiel mit einer Genauigkeit von Zentimetern bis hunderte
Meter.
ˆ Primäre Filter – Ein Erfassungssystem kann aus tausenden Sensoren bestehen.
Das System soll nicht mit unnötiger Information überflutet werden.
ˆ Fusionierungs Module – Kontextteile können von verschiedenen Sensoren kommen und machen erst nach Fusionierung Sinn.
ˆ Kontext Filter – Filter sind wichtig, da ein Anwendung zum Beispiel nicht daran
interessiert ist, wo sich jemand genau befindet, sondern nur, ob von demjenigen der
Raum betreten oder verlassen wurde.
ˆ Interpreter – Kontext kann für Schlussfolgerungen herangezogen werden. Wenn
zum Beispiel ein Hörsaal mit Zuhörern belegt ist, der Großteil ruhig sitzt und einer
spricht, könnte das auf eine Vorlesung hinweisen.
ˆ Anwendungen – Für das Design von Anwendungen werden neue Werkzeuge, Methoden und eventuell sogar Programmiersprachen benötigt.
In der Vergangenheit wurde an einer Vielzahl von Context–Modellen geforscht. Während
sich ältere Modelle hauptsächlich auf die Modellierung von einzelnen Applikationen oder
einer Applikationsklasse beschränken, sind generische Modelle von Interesse, wenn mehrere Applikationen vom Context profitieren können. Derzeitige Context–Modelle unterscheiden sich im Context den sie repräsentieren. Einige verwenden die aktuelle Situation des Benutzers (z.B. In einer Vorlesung), andere Modelle die physikalische Umgebung
KAPITEL 3. WEARABLE COMPUTING
76
(z.B. Standort). Die ersten Schritte in Richtung allgemeines Verständnis von Context
wurden publiziert, meistens mit Berücksichtigung der Identität, Zeit und Standort. Es
ist also nötig, einheitliche Context–Modelle, Darstellungs– und Query–Sprachen sowie
Ursachenalgorithmen zu entwickeln, die Context–Sharing und Interoperabilität von Applikationen erlauben.
Wichtig beim Context–Computing ist das Erkennen und Verarbeiten von Information im
Umfeld, da sie über die existierende Infrastrukturumgebung eines Gerätes Auskunft gibt.
Das Sammeln, die Transformation, Interpretation, die Versorgung mit Information und
deren Übertragung sind die Schlüsselelemente in der Entwicklung von smart environments
und smart applications. Information kann kontinuierlich oder in einmaligen Events zur
Verfügung gestellt werden. Dadurch sind natürlich auch zwei verschiedene Arten von
Context Sensing Mechanismen nötig (continuous sensing und event based sensing).[Fer02]
Kontinuierliche Informationsangebote werden nach Datenmenge und Wichtigkeit für das
Framework gefiltert. Solche Datenquellen stellen Information über den aktuellen Zustand
der realen Umgebung zur Verfügung, wie zum Beispiel Indikatoren wie Temperatur, Lichtverhältnisse, Verbindungsqualität,. . . . Diese Art von Information wird typischer Weise in
fixen Zeitintervallen gesampelt. Alternativ dazu kann auf Anfragen gesampelt werden.
Bei Web–basierenden Umgebungen können diese Daten mittels eines simplen HTTP Serverscript bereitgestellt werden. Dies ist ein einfacher Weg den aktuellen Wert abzufragen.
Andauernde Verbindungen können genutzt werden wenn Daten in fixen Intervallen gelesen
werden, um den Verbindungsoverhead zu minimieren (HTTP). Dies wird beispielsweise bei
WebCams, Statusanzeigen und ähnlichem genutzt. Kontinuierliche Datenquellen können,
durch das zur Verfügung stellen von einer Liste von WLAN–Geräten mit ihren MAC und
IP Nummern in Kombination mit ihren zugeordneten WLAN–Access Point, einen kompakten Überblick über aktive Geräte und ihre Position basierend auf einen definierten
Radius um einen Access Point geben.
Watchdog Mechanismen monitoren die Umgebung auf Events und ihre sofortige Registrierung im Framework. Eventbasierte Datenquellen stellen keine Systemstati zur Verfügung,
sondern geben Statusänderungen bekannt. Zum Beispiel beim Analysieren von Sensordaten. Durch ihr dynamisches Verhalten, können diese Events nicht über Standard–HTTP
Mechanismen ausgelesen werden. Statt dessen müssen solche Events, aktiv, durch das
Aufrufen von Eventhandler–Scripts am Webserver, ihre Daten den interessierten Parteien
zur Verfügung stellen.
Im Projekt CONTEXT von Prof. Ferscha werden RFID–Reader an Mobilen Geräten
(PDA) als eventgenerierende Datenquellen genutzt. Sobald ein Transponder das elektromagnetische Feld eines RFID–Readers bemerkt, werden dessen ID gelesen und zu einem
Event–Listener–Service am Framework–Server gesannt. Dort wird ein Updater–Prozess
aufgerufen, welcher die definierten Relationen abarbeitet und die nötigen Daten erneuert
und die Information zur Historie als auch zu einem Meldeprozess sendet. Dieser informiert
alle interessierten Parteien, dass eine Änderung im Raum (z.B. Office) statt fand (Schema
siehe Abbildung 3.22).[FVB02]
Ein anderes Thema ist die abstrakte Darstellung der Kontext–Information. Die Präsentation auf Basis des Resource Description Framework (RDF) zur Modellierung der Artifacts
Person, Ding und Ort als RDF–Resourcen, ist eine mögliche Technologie. In Kombination
mit RDF–Schema (RDFS), bietet RDF eine mächtige Syntax für die semantische Wissens-
KAPITEL 3. WEARABLE COMPUTING
77
Abbildung 3.22: Schema des Systems von CONTEXT
modelierung. RDF und RDFS basieren auf XML, einem Web–Standard zum Austausch
von Informationsdaten. Das RDF–Modell besteht aus drei grundsätzlichen Objekttypen
welche das Subjekt, Prädikat und Objekt–Tripel formen, auch RDF–Statements genannt.
Diese drei Objekttypen sind Resourcen, Eigenschaften und Statements. Jedes Objekt in
RDF wird Resource genannt. Dies kann eine einfache HTML–Seite sein, Daten wie Bilder und Graphiken im Web oder reale Objekte die nicht direkt ins Internet eingebettet
sind. Wie bereits erwähnt, werden Resourcen der realen Welt oft in Personen, Dinge
und Orte eingeteilt. Properties sind die spezifischen Attribute welche eine Resource, aber
auch ihre Beziehung zu anderen Resourcen, beschreiben. Jede Eigenschaft hat ihre eigene
Charakteristiken, wie zum Beispiel Werte welche übertragen werden und solche die nicht
übertragen werden. Die Basissyntax und Modellspezifikation von RDF beinhaltet nicht
diese spezifischen Property–Charakteristika. Zu diesem Zweck werden die RDF–Schema
Spezifikationen benötigt. Das Subjekt (Resource), Prädikat (Property) und der Property–
Wert (Objekt) Tripel, bilden ein RDF–Statement. Der Property–Wert kann ein Literal
sein, eine andere Resource oder ein URI zu einer anderen Resource.
RDF hat ein einfaches, aber leistungsstarkes Modell und Syntaxdefinition und ist daher
eine gute Wahl zum Darstellen und Liefern von Context Sensing Information. Weiters
ist es einfach, RDF–Statements (Subjekt, Prädikat und Objekt Tripel) von beliebigen
Datenbanken zu importieren oder exportieren. Ein weiterer wichtiger Aspekt sind die
Bemühungen ein Standardvokabular zur semantischen Datenbeschreibung zu etablieren.
Das hat insofern einen Vorteil, da man Standarddefinitionen für Properties wie Email,
Name, oder Datum verwenden kann.
Im Projekt CONTEXT wird ein Satz von grundlegenden Kontextinformationseigenschaften verwendet, um die Darstellung von location und containment awareness, Besitz und
Bindung von Personen zu Dingen und eine Historie dieser Eigenschaften zu handhaben.
KAPITEL 3. WEARABLE COMPUTING
78
Um zwischen den drei grundsätzlichen Typen von Objekten zu unterscheiden, wurden
folgende Grundeigenschaften verwendet.
ˆ Place
ˆ Person
ˆ Thing
Places halten Information über den Ort (location) und referenzieren zu einer Anzahl von
Objekten welche sich aktuell an diesem Ort befinden (Liste der Objekte = contains).
Um Veränderungen in der Inhaltsliste zu erkennen, ist das Aufzeichnen einer Historie
nötig (history tag = contained ). Einträge in die contained Property Liste haben zwei
Zeitstempel (startTime und endTime), welche die Periode spezifizieren, in der sich der
Eintrag in der contains Property Liste befand. Eine Person hält Information über den
aktuellen Aufenthaltsort in einem Scenario (isIn) und eine Liste von Objekten welche
im Besitz dieser Person stehen (ownerOf ). Zusätzlich gibt es eine Liste von früheren
Aufenthaltsorten (wasIn). Ein Thing hält Information darüber, ob es andere Objekte
beinhalten kann (canContain), wie zum Beispiel eine Tasche oder ein Rucksack. Falls es
andere Objekte beinhalten kann, hat es zusätzlich ein Informationstag contains und ein
contained Tag um die Objekte zu verfolgen. Weiters hat ein Thing ein Informationstag
über seinen Besitzer (owner ).
In zwei Anwendungsszenarien wurde die Integration dieser Kontext–Information in eine
RDF gezeigt. Dies sind der ”Context Aware Suitcase” oder auch Internetkoffer (siehe
Abbildung 3.23 genannt und die ”Electronic Object Tagging” Anwendung zum Erkennen
von Objekten in der Umgebung.[FVB02]
Abbildung 3.23: Der ”Context–Aware” Internetkoffer
Die Entwicklung von wireless devices die von smart digital environments umgeben sind,
macht es nötig, neue Methoden zur Erkennung und Darstellung von Kontextinformation zu entwickeln. Dies ist ein wichtiger Punkt in der Entwicklungen von Wearable bzw.
Pervasive Computing–Umgebungen. Um die Entwicklung von ”Context–Aware” Anwendungen zu unterstützen, sollten sich Softwareentwickler nicht darum kümmern müssen,
KAPITEL 3. WEARABLE COMPUTING
79
wie, wann und wo Kontextinformation entsteht. ”Context–Sensing” muss hingegen anwendungsunabhängig und die Kontextdarstellung für alle möglichen Anwendungen gleich
sein.
3.7.5
Frauenhof IPSI
Am Frauenhof Institut ”IPSI (Integrierte Publikations- und Informationssysteme)” forscht
man ebenfalls viel im Bereich Ubiquitous Computing. Unter der Leitung von Dr.Dr. Norbert A. Streiz wird im Forschungsbereich ”AMBIENTE – Smart Environments of the
Future” an verschiedenen Interaktionsmöglichkeiten gearbeitet.
Das Ambiente Lab dient als Testbett für ”Roomware”–Komponenten und für die Zusammenarbeit zwischen verteilten Roomware–Umgebungen mit kooperativer Software sowie
Audio– und Videokonferenz. Roomware besteht aus folgenden Komponenten.
ˆ ”CommChair” ist ein Drehsessel mit integriertem Computer für konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams.
ˆ ”Connec–Table” bezeichnet ein höhenverstellbares interaktives Pult für konzentrierte Einzelarbeit und interaktive Zusammenarbeit von Teams.
ˆ ”InteracTable” ist ein interaktiver Stehtisch, der als informelles Kommunikationszentrum in kooperativen Arbeitsumgebungen dient.
ˆ An einer 4,50 m breite und 1,10 m hohe interaktive elektronische Wand namens
”DynaWall”, können mehrere Personen auf neuartige Weise gleichzeitig mit Informationen interagieren.
ˆ Und schließlich noch ein in die Wand integriertes interaktives Plasma Display Panel
(PDP) mit dem Namen ”InforMall”.
Abbildung 3.24 zeigt wie diese Interaktionsgegenstände aussehen.
Die so genannten ”Roomware–Komponenten” und ”Smart Artefacts” werden sowohl in
die Umgebung integriert als auch als mobile Geräte realisiert. Um mit diesen interaktiven Kommunikations– und Kollaborationslandschaften zu arbeiten, sind Kompetenzen
in verschiedenen Bereichen nötig, wie zum Beispiel computerunterstützte Gruppenarbeit,
Interaktionsdesign und Mensch–Computer–Interaktion, Ubiquitous Computing und Sensorik.
Das IPSI versucht durch verschiedene Projekte, Hard– und Softwarekomponenten zu entwickeln die diesen Anforderungen genügen.
”InterSpace” ist ein Projekt das sich mit neuen Interaktionsformen für Gruppen in Ubiquitous Computing Umgebungen befasst. Hier stehen Fragen wie die ”Interaktion mehrerer und verschiedener Geräten”, ”Unterstützung von Zusammenarbeit”, ”Persönliche und
öffentliche Geräte” sowie die ”Integrierte Umgebungen: Benutzer, Geräte, Kontext” zum
Thema.
Statt universell einsetzbarer Maschinen werden Computer zu sogenannte ”Information
Appliances”, die auf einen bestimmten Anwendungszweck zugeschnitten sind. Ubiquitous
KAPITEL 3. WEARABLE COMPUTING
80
Abbildung 3.24: Komponenten von ROOMWARE
Computing–Umgebungen werden mit diesen Geräten ausgestattet. Dadurch ergeben sich
natürlich völlig neue Anforderungen an Benutzungsschnittstellen. Geräteunabhängige Interaktoren sind zu definieren, um eine koherente Benutzung zu ermöglichen.
Bei der Zusammenarbeit mehrerer Personen an einem einzigen Gerät, muss sichergestellt
werden, dass die Benutzungsschnittstelle so gestaltet sind, dass Interferenzen vermieden
werden.
Unterschieden wird zwischen Geräten zur persönlichen Benutzung (z.B.: PDAs) und
Geräte zur Unterstützung von Gruppenarbeiten wie zum Beispiel interaktive Bildschirme.
Gruppengeräte können natürlich auch für den Zugriff auf persönliche Informationen benutzt werden. Natürlich sind diese Geräte auch vom Kontext abhängig, wie zum Beispiel
vom Ort oder der Gegenwart anderer Personen. Wenn Informationen in Sitzungen erzeugt
werden, muss definiert sein, wer nach der Sitzung welche Zugriffrechte behält.
Es ist wichtig, dass Benutzer sich auf eine konsistente Benutzungsschnittstelle verlassen
können, die alle verfügbaren Geräte einschließt. Dies steht jedoch im Gegensatz zu der Forderung nach Schnittstellen, die auf die jeweiligen Geräte angepasst sind. Deshalb müssen
Interaktionsstile und Schnittstellenkonzepte entwickelt werden, die es ermöglichen, auf der
einen Seite abstrakt und unabhängig vom benutzten Gerät zu sein, und auf der anderen
Seite jedoch für diese Geräte zugeschnitten sind.
Im Rahmen des Teilprojekts ”InterSmArt” engagiert sich der Arbeitsbereich ”Ambiente”
in der Verbesserung der benutzerorientierten und ergonomischen Gestaltung von Smart
Artefacts. Gewonnene Erkenntnisse werden in Form von prototypischen Realisierungen
umgesetz. Dafür werden innovative Interaktionsformen entwickelt, die kohärente Erfahrungen bei der Verwendung von ”Smart Artefacts” ermöglichen.
Smartness kann sich auf die intelligente Anpassung von Interaktionen sowohl an Gegebenheiten der physikalischen Welt als auch deren Gegenstück im virtuellen Informationsraum
beziehen.
KAPITEL 3. WEARABLE COMPUTING
3.8
81
Philosophische Betrachtung
Das Thema Wearable Computing kann durchaus auch philosophisch betrachtet werden.
Eine interessante Arbeit gibt es von Birgit Richard, die eine relativ realistische Betrachtungsweise dieses Themas zeigt.
”Der Mensch zwischen Wearables und Cargo Kult” nennt sich ihr kritisches Werk über
die Verschmelzung von Technik und Mensch.20
Birgit Richard spricht von getragener Technologie, deren Konzept beinhaltet, dass Menschen digitale Informations– und Kommunikationstechnologien komplett am Körper tragen und so die Transformation des Personal Computing zum Body Computing vollziehen.
Der Computer wird zum unsichtbaren prozessierenden Kleid.
Die Entwicklung der Mode steht dem technologischen Fortschritt dabei um nichts nach.
Im Gegenteil, viele Ideen von Modekünstlern geben den Forschern Anhaltspunkte, wohin
sich der Kommerz dieser Produkte bewegen wird. Die Modebranche hat wohl auch mehr
Gespür dafür, was von den Konsumenten gefordert bzw. gewünscht wird.
Die Integration von Hightech Materialien und ein mit ”Cargo”, ”Utility” und ”Futuristik
Look” zu benennender Trend, der vor allem in den jugendlichen Szenen ihren Ort hat,
bieten einen interessanten Ausblick auf die zukünftige Integration von Technologie.[Ric98]
Technologie wird direkt an den Körper gebunden. Die Mobilität der Gegenstände beginnt mit technisch–medialen Erweiterungen wie dem Walkman und führt über kommunizierende, sendende und empfangende Geräte wie Pager oder WAP Handy, Uhren, wie
Swatch the Beep und PDAs zur vernetzten Online–Kleidung. Der Ursprung liegt wie
so oft in der militärischen Kleidung und der Arbeitskleidung. Wearables, wie sie vom
MIT und Neil Gershenfeld verstanden werden, sind Geräte die die Fähigkeiten des Menschen wesentlich erweitern sollen.[MIT] Die Entwerfer solcher Gegenstände gehen davon
aus, dass der Mensch und seine Sinne unterentwickelt sind und quasi mediale Prothesen
benötigen.[Ric98]
Richard ist der Meinung, dass die bedeutungsvolle Invasion des Technologischen durch
die harmlose Bezeichnung Kleidung abgelenkt werden soll. Andrew Ross beschreibt die
technologische Ideologie wie folgt.[And95a]
”Human–made object world becomes an alternative home of intelligence?”
Die smarte Intelligenz der Objekte ist kostengünstig und unterwirft sich programmierten
Strukturen.[And95b] Die Wearables zielen nur bedingt darauf ab, Menschen mit einer
Behinderung das Leben zu erleichtern, sind also nicht in erster Linie Prothesen. Die Zusammenfassung aller dieser Bemühungen um die tragbaren Gegenstände symbolisiert der
”Prototyp” Steve Mann, der bestückt mit verschiedenen technischen Verstärkungen als
menschlicher Cyborg Science Fiktion in die Realität verlagert. Seine ”Augmented Reality”
liegt noch weit hinter den fiktionalen Möglichkeiten zurück, die ein Cyborg in zeitgenössischen Filmen wie ”Terminator” längst hat. Wenn dieser ein Ziel anvisiert, werden Informationen über Orte, Waffensysteme und Personen auf seine Netzhaut projiziert.[Ste86]
Cyberliteratur dient aber auch als Zielvorstellung für Forschung und Entwicklung. Es ist
also nur eine Frage der Zeit, dass diese ”Cyborg–Technologien” in unser Leben Einzug
20
http://www.rz.uni-frankfurt.de/fb09/kunstpaed/indexweb/indexwszwei/wearable.html
KAPITEL 3. WEARABLE COMPUTING
82
finden.
Die technischen Voraussetzungen sind Miniaturisierung, Gewichtsreduktion und gemeinsame Standards zum Datenaustausch in einer vernetzbaren Umgebung. Durch die Vereinheitlichung der individuellen BodyNets entsteht eine Art Software–Uniform.
Als Träger eines Wearable muss der Mensch auf einer materiellen und einer immateriellen Form für seine Gesundheit Sorge tragen. Beide muss er gleichermaßen vor Viren
oder gewalttätigen Übergriffen schützen. Die smarte Kleidung benötigt also auch Updates, Reparaturen und Sicherheitsmaßnahmen. Sie muss zum Beispiel genäht werden,
fehlende Knöpfe oder geplatzte Nähte müssen geschlossen werden, um die Funktionalität
zu gewährleisten. Die elektronische Kleidung ist ein offenes System und damit nicht einbruchssicher und auch nicht vor Viren geschützt. Das Eindringen eines Wurms wie ”I love
you” könnte man als eine virtuelle Geschlechtskrankheit bezeichnen. Die Infektion findet
über die Kleidung statt, eine intelligente Kleidung sollte diese also abwehren können.
Um den Markt zu erobern wird es nicht genügen die Funktionalität und Kompatibilität
der Kleidung zu gewährleisten. Es ist vielmehr notwendig von der ursprünglichen Intention
der Unsichtbarkeit eines Wearables abzukommen und die ästhetischen Seiten zu entdecken
und ins Design einzubringen. Die Funktionalität alleine wird dem Kunden nicht genügen,
die Kleidung muss ihm auch gefallen und er sollte sich in ihr wohlfühlen. Das MIT versucht
Visionen für die Wearables von Designern entwerfen zu lassen und stellt die Ergebnisse
bei verschiedenen Shows zur Schau.[MIT ]
Nicht der Kleinstcomputer bringt die Integration von Technik in die Kleidung, wie im
Konzept der Wearables vorgesehen, sondern die Aufteilung von Funktionen auf viele kleine Geräte. Im Mittelpunkt des Cargo–Kults steht das Handy. Es ist modisch integrierbar,
wandelbar, aber auch gleichzeitig auf bestimmte Funktionen konzentriert. Die transportable und körpernahe Kommunikationsmöglichkeit wird zunächst an den Gürtel gehängt,
als reine Erweiterung also nicht in die Kleidung integriert. Das Mobiltelefon zeigt die
Richtung an, die Wearable Computing einschlagen müsste, um massenwirksam zu sein.
Schon die Wahl der richtigen Bezeichnung für das Tragen von Elektronik ist entscheidend,
um die Produkte nicht mit einem negativen Gefühl zu behaften. Das Tragen von ”Technologie” in der modischen Kleidung ist weniger mit direkter körperlicher Belastung, mit
Gewicht assoziiert, dagegen klingt ”Wearable Computing” nicht nur nach einer schweren
zusätzlichen Last, sondern sie erschwert dem Menschen den Alltag, weil die Hardware
transportiert werden muss.[Man98]
Kapitel 4
Projekt - Virtual Tourist Guide
(VTG)
Um die Probleme und Lösungsmöglichkeiten im Wearable Computing besser zu verstehen,
ist es notwendig eigene Erfahrungen in diesem Bereich zu sammeln. Dies war auch die
Motivation für das folgende Projekt, das zumindest eine dieser neuen Technologien beinhalten sollte. Spielereien sind zwar immer der erste Schritt für neue Produkte, aber einen
gewissen Praxisnutzen sollte die Anwendung schon mit sich bringen. Ein neues Ein– oder
Ausgabegerät wäre eine Möglichkeit gewesen, es fehlte dazu jedoch eine herausfordernde
Ideen. Ein anderer Ansatz ist es, ungewöhnliche Ein– oder Ausgabegeräte für eine neue
Wearable–Applikation zu verwenden. Dies war auch der Weg der eingeschlagen wurde und
somit der Startschuß zum Projekt ”VirTour” den virtuellen Touristenführer.
4.1
Projektidee
Was ist die Idee hinter diesem Projekt bzw. wozu soll diese Anwendung schießlich dienen?
Diese Frage soll an einem kleinen Beispiel veranschaulicht werden.
Man stelle sich vor, man ist in einer fremden Stadt und steht vor einem interessanten
Gebäude. Man streckt den Zeigefinger in Richtung des Gebäudes und fragt: ”Was ist
das?”. Kurz darauf flüstert einem ein elektronischer Fremdenführer, via Minilautsprecher,
Informationen über jenes Objekt ins Ohr und eine Kurzinformation wird einem über einen
HMD angezeigt. Zusätzlich wird der Kurzinformation eine URL hinterlegt, mit der man
mittels UMTS–Verbindung sofort weitere Informationen aus dem Internet abfragen kann.
Ein anderes Beispiel wäre der virtuelle Bergführer. Man stelle sich vor man ist wandern,
zeigt auf einen Berg und fragt: ”Welcher Berg liegt dort?”. Kurz darauf die Antwort: ”Der
große Donnerkogel; 1856m hoch; 2,5 Stunden Gehzeit von ihrer derzeitigen Position”. Und
vielleicht noch eine Navigationskarte mit den möglichen Routen und Jausenstationen.
”Mobile Computing” als Technologie für einen elektronischen Fremdenführer der dem Benutzer Informationen direkt aus dem Internet liefert. Eine GIS–Anwendung im ”Wearable
Bereich” die bestimmt in nicht all zu ferner Zukunft Realität sein wird.
Das Ortungssystem sollte dabei nicht nur die Position des Anwenders, sondern auch die
83
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
84
Ausrichtung feststellen können. Wenn nun Position und Richtung bekannt sind, stellt sich
nur noch die Frage der Entfernung zu einem bestimmten Objekt. Um eine Vereinfachung
zu schaffen, geht man von einem Sichtkegel aus, mit dem man einen bestimmten Blickbereich eingrenzt. Alle Objekt in diesem Kegel werden nach ihrer Entfernung zum Benutzer
sortiert und aufgelistet. Als zusätzliche Orientierungshilfe wird die aktuelle Position in
einer Karte dargestellt (siehe Abbildung 4.14 im Abschnitt 4.5.2).
Als geeignetes Bildformat zur grafischen Darstellung in einem Webbrowser, bot sich der
Grafikstandard ”SVG” an (siehe Abschnitt 4.2.3).
Beim Betätigen des Button ”Was ist das?” werden die Positionsdaten für die Berechnung
der Objektdaten zum Server geschickt. Dieser übergibt das Ergebnis wieder dem Client
(Web–Browser). Neben der Information des Objektnamens wird, falls vorhanden, auch
eine URL zu einer Internetseite angezeigt, wo man weitere Informationen zu den Objekten
finden kann. Es steht die Auswahl verschiedener Informationstypen zur Verfügung, die aus
der Datenbank geladen und im SVG–Bild angezeigt werden. Dies sind der Objektcode
(”MAPKEY”), der ”NAME”, die Beschreibung (”DESCRIPTIO”) und die ”URL” zu
einem Objekt. Weiters ist das Aus– und Einblenden von ”Text”, ”Shapes” und dem
Sichtkegel (”View Area”) im angezeigten SVG-Bild vorgesehen (siehe Abbildung 4.1).
Abbildung 4.1: Ablauf einer Objekterkennung
4.2
Bildformate
Die folgende Beschreibung ist lediglich eine allgemeine Vorstellung der verwendeten Formate und eine kurze Übersicht über deren Vorzüge und Anwendungsbereiche.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
85
Die hier vorgestellten Vektorgrafik Formate stehen im Zusammenhang mit dem Projekt
”VirTour”. Die Rohdaten für das Projekt lagen im ”.dxf–Format” vor. Diesen Daten wurden Zusatzinformationen hinzugefügt und über eine Koordinatentransformation wurden
die Objektdaten schließlich im ”Shape–File–Format” in der Datenbank gespeichert. Bei
einer Anfrage werden die betreffenden Objekte dann aus der Datenbank berechnet und
über einen Web–Browser als ”SVG–Grafik” dargestellt.
4.2.1
DXF
DXF ist ein Format für vektororientierte Programme und wurde von der Firma Autodesk
entwickelt. Daher kommt auch die vorwiegende Verwendung für CAD/CAM/CIM. Als
besondere Eigenschaft sei erwähnt, daß DXF auch dreidimensionale Objekte speichern
kann. Die Anzahl der Farben ist aber auf 8 bit beschränkt und unterstützt keine Kompression [Dal01]. DXF ist an sich für GIS–Anwendungen eher schlecht geeignet, da es
keine Möglichkeit bietet, Attribute zu räumlichen Objekten zu speichern.
4.2.2
Shapefile
Shapefiles speichern geometrische und beschreibende Information zu geometrischen Objekten. Den Shapefiles liegt eine sehr einfache Datenstruktur zu Grunde und Objekte
werden ohne topologische Beziehung gespeichert. Daraus ergeben sich für Shapefiles gewisse Vorteile gegenüber anderen Formaten, wie die schnellere Darstellungs– und Editierungsmöglichkeit. Sie brauchen zumeist weniger Speicherplatz und sind leicht zum Schreiben und Lesen. Shapefiles können Punkte, Linien und Flächen verwalten, wobei jede
Form immer als Menge von Punkten gespeichert wird. Bekannte Softwareprodukte die
mit diesem Format arbeiten, wären ”ARC–INFO” oder ”ArcView”.
Ein Shapefile besteht immer aus drei Dateien. Ein ”Main File”, ein ”Index File” und ein
”dBASE File”.
Das ”Main File” speichert die geometrische Information. In einem ”Main File” kann immer
nur eine Form gespeichert werden, zum Beispiel nur Punkte oder nur Linien. Insgesamt
gibt es in der Spezifikation vom Shapefile 14 verschiedene räumliche Formen, wobei aber
im Prinzip immer nur Listen von Eckpunkten gespeichert werden. Um die Einfachheit
der Datenorganisation im ”Main File” zu sehen, soll diese kurz erklärt werden. Das File
beginnt mit einem 100 byte ”Header”, der im wesentlichen den Typ der räumlichen Form
beinhaltet. Danach kommen immer ein 8 byte ”Record Header” gefolgt von einem ”Record
Content Bereich” verschiedener Länge. Im ”Header” steht jeweils die ”Record Number”,
welche wichtig ist für das ”dBASE File”, sowie die Länge des darauffolgenden Blocks. Im
”Record Contents Block” befinden sich dann die Koordinaten der Punkte sowie meistens
Koordinaten eines umgebenden Rechtecks des jeweiligen Objekts.
Das index–file ist von der Struktur her ähnlich dem main–file. Es besteht nur mehr aus
einem Header und 8 Byte langen Records, wobei das i´te Record nur den Offset des i´ten
Records im main file speichert sowie die Länge des Record Contents des i´ten Records im
main file.
Das dBASE file beinhaltet die beschreibenden Informationen zu den geometrischen Ob-
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
86
jekten. Die Beziehung zwischen den geometrischen Objekten und deren Attributen erfolgt
über die oben bereits erwähnte Record Number. Die Reihenfolge der Records im dBASE
und im main–file muß daher die selbe sein.
Letztes wichtiges Merkmal für Shapefile ist, daß die Bezeichnung der Dateinamen der drei
Files gewissen Richtlinien folgen muß. Alle drei müssen den selben Prefix haben und der
Suffix ist genau definiert. Folgendes Beispiel soll dies veranschaulichen.
Main File: kataster.shp
Index File: kataster.shx
dBASE File: kataster.dbf
Für eine sehr genaue technische Spezifikation sei auf [ESR01] verwiesen.
4.2.3
SVG
Scalable Vector Graphics (SVG) wurde entwickelt, um einen Standard für nicht–Rasterbilder
im Web zu ermöglichen. Das SVG–Format basiert auf XML und wurde von einer Arbeitsgruppe des World Wide Web Consortium (W3C) entwickelt. SVG ist eine Sprache, um
zweidimensionale Graphiken zu definieren, wobei drei Typen von Objekten zur Verfügung
stehen.
ˆ Vektor Graphiken (z.B. Linien, Kurven)
ˆ Bilder
ˆ Text
Diese Graphischen Objekte können gruppiert und darauf diverse Effekte angewandt werden, wie Transformation, Animation, Transparenz, Filtereffekte, usw.
SVG bietet gegenüber bekannten Rasterformaten wie GIF und JPEG eine Reihe von
Vorzügen, besonderes wenn es um Graphiken des Typs Zeichnung oder Illustration geht.
Als vektorbasiertes Format bietet es natürlich die entsprechenden Vorzüge. Skalierbare
Vektorgrafiken sehen bei jeder Auflösung gut aus, man kann beliebig einzoomen und sie
sehen weiterhin scharf und detailreich aus. Texte bleiben editierbar und durchsuchbar
und zumeist ergeben sich für SVG Grafiken kleine Dateigrössen, was einen Vorteil für die
Verbreitung über das Internet bringt.
Die Tatsache, daß SVG komplett XML–gestützt ist, bringt noch eine weitere Fülle von
Vorteilen:
ˆ Grafiken bestehen aus XML–Befehlen, die als Text auf einer Webseite eingegeben
werden, die aus HTML oder XML besteht. Es ist einfacher Programmiercode, es
gibt keine separaten Binärdateien die verwaltet oder abgelegt werden müssen.
ˆ Als Text lassen sich skalierbare Vektorgrafiken von Suchmaschinen indizieren und
von Anwendern mit dem Browser durchsuchen.
ˆ Als Text lassen sich skalierbare Vektorgrafiken auch nebenher erstellen, wie zum
Beispiel von Datenbankfunktionen. Daher ist es ein ideales Format für Diagramme
und Graphen, die auf unterliegenden Daten basieren.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
87
ˆ Als XML–gestützte Sprache unterstützt SVG komplett das DOM2 und ist daher
vollständig skriptfähig. Skalierbare Vektorgrafiken können auf Klicks und Mausbewegungen reagieren, Änderungen der Grafik oder anderer Objekte wie HTML–Text
oder andere Grafiken auslösen.
ˆ SVG ist vollkommen XML–konform und funktioniert unter allen Betriebssystemen,
Ausgabeauflösungen sowie Farbräumen.
[Ado01]
4.3
Kartenmaterial
”Unsere wichtigste Orientierungshilfe nach der Sonne ist die Karte” [Lin98].
Diese Aussage trifft nicht nur auf die klassischen Methoden der Orientierung zu, sondern
besonders auch auf den Einsatz von GPS. Die Karte bildet die Schnittstelle zwischen dem
Gelände in dem wir uns bewegen und dem Navigationsempfänger. Ohne den Bezug zur
Erdoberfläche und zur Karte ist GPS nur in sehr bescheidenem Ausmaß verwendbar und
für einen sinnvollen Einsatz nicht zu gebrauchen. Daher ist der Einsatz von GPS in einem
hohen Maße von der Qualität und dem Informationsgehalt der Karte abhängig.
Eine Karte ist nur dann verwendbar, wenn sie auch ein Bezugsystem aufweist, das in
gängigen GPS Empfänger eingestellt werden kann. Eine Karte kommt also nur dann für
eine GPS–Positionierung in Frage, wenn ihr Raumbezug zur Erde (die absolute Orientierung) ausreichend bekannt ist und sich aus ihr Koordinaten kartometrisch auswerten
lassen. Die Verwirrung um allgemeine Begriffe wie Ellipsoid, Kartendatum oder Abbildung ist aber groß. Die meisten GPS-Nutzer scheitern schon am Versuch, ihr Gerät mit
den notwendigen Parametern zu kalibrieren, was eine Verwendung der Kartengrundlage
erst möglich macht, und auch diverse Artikel in Zeitschriften bringen leider nicht immer
Licht ins Dunkel.
Die Bezeichnung des Ellipsoids ist die erste wichtige Information, die GPS braucht um
richtig zu rechnen. Dieses Ellipsoid ist das Kartendatum. Österreich und Deutschland
verwenden das Bessel-Ellipsoid, die Schweiz hat ein eigenes, ein Großteil der restlichen
Welt verwendet das Modell WGS84, besser bekannt unter der Bezeichnung UTM [Fab99].
Allein in diesen Zeilen werden Datum, Ellipsoid und Abbildungssystem in einen Topf
geworfen und auch falsch verwendet. Wie soll der Leser daraus die Grundlagen von Koordinatensystemen oder Abbildungen verstehen?
Die Lagekoordinaten einer Landesvermessung beziehen sich, aus mathematischen Gründen,
auf das geometrische Ellipsoid [HG94]. Mit einfachen Worten ausgedrückt ist der Ellipsoid
die angenäherte Form der Erdoberfläche. Der Bessel–Ellipsoid basiert auf den Erdmaßen
nach Friedrich Wilhelm Bessel aus dem Jahre 1841. Im Bereich von Österreich passt
sich diese Bezugsfläche besonders gut an den Geoid an, weshalb es auch die geodätische
Grundlage für die Österreichische Landesvermessung bildet. Ein anderer wichtiger Ellipsoid ist der WGS84–Ellipsoid. Sämtlichen GPS Positionsbestimmungen werden zuerst in
einem kartesischen Koordinatensystem (X, Y, Z) definiert, dessen Mittelpunkt genau im
Schwerpunkt der Erde liegt. Danach werden diese Punkte orthogonal auf das mittlere
Erdellipsoid transformiert um sie zu veranschaulichen.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
88
Das Geodätische Datum beschreibt einerseits die Größe des Ellipsoid, und andererseits
die Lage des Ellipsoidmittelpunkts zum Erdschwerpunkt. Somit ist der Raumbezug zur
Erde eindeutig festgelegt, womit die GPS-Koordinaten auf die gewünschte Bezugsfläche
umgerechnet werden können. Das Datum, das der österreichischen Landesvermessung
zugrunde liegt, ist das Datum des MGI (Militärgeographisches Institut).
Erhält man die Koordinaten (X, Y, Z)WGS oder (B, L, H)WGS einer GPS–Ortsbestimmung,
so sind diese für österreichische Kartengrundlagen nutzlos. 7 Parameter sind notwendig, um eine eindeutige Koordinatentransformation von einem Datum in ein anderes
durchzuführen. Dazu zählen 3 Parameter für die Verschiebung des Ellipsoidmittelpunktes (Translation), 3 Parameter für die Drehungen um die Koordinatenachsen (Rotation),
und ein Parameter für die Maßstabsänderung. Die Transformationsparameter im Sinne
WGS84 – MGI lauten [Bre93].
Delta X = -563.9
Delta Y = -82.3
Delta Z = -463.4
Alpha = 4.9”
Beta = 1.8”
Gamma = 4.5”
m = -4.5*10-̂6
Diese Werte sind meist auch in gängigen GPS Navigationsempfängern bereits als Österreichisches Datum gespeichert.
Da es relativ schwierig ist, günstig an ein gutes Kartenmaterial zu kommen, führte der
Weg bei der Suche nach lokalen Daten direkt zum grazer Bauamt. Das Bauamt sellte
großzügigerweise Kartenmaterial vom Bereich Grazer Innenstadt und einen Teilbereich
des Inffeldes zur Verfügung. Diese lagen als Vektorgrafik im dxf–Format vor. Da die Daten
in einem anderen Koordinatensystem angegeben waren, als jene die das GPS–Gerät liefert,
mußte zuerst eine Koordinatentransformation erfolgen. Außerdem mußten die Objekte,
die aus einzelnen Linienzügen bestanden, noch etwas nachgearbeitet und Informationen
zu den Objekten ergänzt werden. Mehrere Schritte waren schließlich notwendig, um die
Objektdaten als Shapes mit den dazugehörigen Koordinaten und Zusatzinformationen
(Objektname, URL,Kurzbeschreibung) zu erhalten. Die Transformation stellte sich als
größeres Problem dar, als man glauben möchte.
Kartennetzentwürfe (Kartenabbildungen) sollen die Netzlinien und Punkte eines Koordinatensystems von der exakt definierten Oberfläche eines Weltkörpers nach bestimmten
mathematischen Regeln so in die Ebene abbilden, dass sie dort eine geeignete geometrische Grundlage für digitale Modelle und kartographische Darstellungen ergeben. Eine
Abbildung, die der definierten Erdoberfläche in allen Teilen ähnlich ist, kann nur wieder
auf einer Ellipsoid- oder Kugelfläche (z.B. auf einem Globus) möglich sein. Nur sie ist unter Berücksichtigung des konstanten Verkleinerungsverhältnisses zugleich längen-, flächenund winkeltreu. Bei der Abbildung einer Ellipsoid- oder Kugelfläche in eine Ebene lassen sich dagegen die drei Eigenschaften gleichzeitig niemals streng verwirklichen [HAKE
1994]. Für die Navigation und in der Landesvermessung ist vor allem eine winkeltreue
(konforme) Abbildung der Erdoberfläche von Bedeutung. Gerhard Mercator entwarf 1569
den ersten konformen zylindrischen Netzentwurf unter der Annahme der
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
89
Abbildung 4.2: Zylindrische Abbildung [HG94]
Erde als Kugel, womit er einen Meilenstein für die Seenavigation setzte. Er erstellte damit
aber auch eine Vorform der Grundlage, auf der heute fast alle Netzentwürfe für die Landesvermessung aufbauen. Zwei, für Österreich relevante Abbildungssysteme, sollen nun
vorgestellt werden.
Carl Friedrich Gauß löste erstmals das mathematische Problem der Verebnung des Ellipsoides. Für die speziellen Anforderungen in der Landesvermessung wurde diese konforme
Zylinderprojektion in eine transversale Lage gebracht (siehe Abbildung 4.3).
Abbildung 4.3: Transversale Zylinderprojektion [Wer95]
Die Abszissenachse (x-Werte) ist somit ein Berührungsmeridian, und die Ordinatenachse
(y-Werte) ist der Äquator, wobei auch von Hoch- beziehungsweise Rechtswerten gesprochen wird um Missverständnissen vorzubeugen. Ein Streifen von 1 12 o Länge westlich und
östlich dieses Bezugsmeridians wird auf dem Zylindermantel abgebildet, der anschließend
in die Ebene abgerollt wird. Man erhält eine konforme Abbildung mit relativ geringen
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
90
Längenverzerrungen, die mit wachsender Distanz zum Bezugsmeridian zunehmen. Ein
Meridian am Meridianstreifenrand, wird in dieser Abbildung auf einer Länge von 300km
nur um 45m gedehnt.
Um diese Verzerrungen zusätzlich in Grenzen zu halten, wurde die Abbildungsbreite von
3o pro Meridianstreifen gewählt. Österreich ist dadurch auf 3 Meridianstreifen abgebildet,
die sich aber nicht auf Greenwich, sondern auf den historischen Nullmeridian von Ferro (westlichste Insel der Kanaren) beziehen, und M28, M31 und M34 benannt wurden.
Die Umrechnung zwischen Ferro und Greenwich lautet: Alpha Ferro – 17o 40´ = Alpha
Greenwich Auf Greenwich bezogen, liegen dann die Meridiane M28 bei 10o 20´, M31 bei
13o 20´ und M34 bei 16o 20´. Bis auf den Bezugsmeridian werden nun alle anderen Meridiane (geographische Netzlinien) als Kurven dargestellt. Für geodätische Zwecke sowie für
die kartometrische Auswertung von Punkten wurde für jeden Meridianstreifen ein eigenes
quadratisches Gitter eingeführt (siehe Abbildung 4.4).
Abbildung 4.4: Die 3 Meridianstreifen des Gauß-Krüger-Systems [Wer95]
Wenn nun also Koordinaten in diesem System bestimmt werden, so können die Rechtswerte sowohl negativ als auch positiv sein, je nachdem auf welcher Seite des Bezugsmeridians
sich der zu bestimmende Punkt befindet (siehe Abbildung 4.5). Aus diesem Grund wurde
das BMN (Bundes- MeldeNetz) eingeführt, bei dem die Meridianstreifen mit einem Offsetwert versehen wurden. M28 wird um 150.000, M31 um 450.000 und M34 um 750.000
Meter positiviert. Weiters wird der Hochwert, der vom Äquator aus gemessen wird, um 5
Millionen Meter reduziert. Dieses System ist nicht in allen GPS-Navigationsempfängern
standardmäßig vordefiniert, und muss daher selbst eingegeben werden. Der Nutzer muss
sich darüber im Klaren sein, in welchem Meridianstreifen er sich befindet, ferner die jeweilige Distanz zu Greenwich und den richtigen Offsetwert einstellen.
Die Daten des Grazer Bauamtes lagen in Gauß–Krüger–Koordinaten vor und mußten erst
ins WGS84 Koordinatensystem transformiert werden. Hier tauchten die ersten Probleme
auf. Zuerst mußte eine Möglichkeit zur Transformation der vorliegenden Daten gefunden
werden, danach die richtigen Parameter und schließlich mußte das Ergebnis auf Richtigkeit überprüft werden. Als Werkzeug für die Bearbeitung, Ergänzung und Transformation
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
91
Abbildung 4.5: GKM und BMN im Vergleich [Wer95]
der Daten wurde ein CAD–Programm verwendet. Mit Unterstützung des Universitäts–
Institut für Geoinformation in Graz, konnten schließlich die richtigen Parameter für die
Transformation gefunden werden. Nachdem die Daten im richtigen Format vorlagen, wurden sie in eine Mysql–Datenbank gestellt. Diese Datenbank am Server wird für die Auswertung einer Client–Anfrage verwendet. Das Ergebnis wird schließlich wieder im Browser
des Client angezeigt.
Wie schon erwähnt lagen die ursprünglichen Kartendaten als .dwg–File in Gauß–Krüger
Koordinaten vor. Das vom Bauamt zur Verfügung gestellte Kartenmaterial wird in Abbildung 4.6 gezeigt.
Abbildung 4.6: Ein Ausschnitt der Katasterdaten der Grazer Innenstadt
Die Kartendaten mit definierten Objekten und zusätzlichen Daten wurden schließlich
ins WGS84 transformiert und unter dem Filenamen ”kataster koord–austria.dwg” gespeichert.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
92
Das CAD–Programm stellt auch das Speichern der Kartendaten im Shape–Format zur
Verfügung. Daraus ergeben sich folgende drei Files.
ˆ kataster koord wgs84.dbf (Database File)
ˆ kataster koord wgs84.shp (Main File)
ˆ kataster koord wgs84.shx (Index File)
Sämmtliche Daten, wie Koordinaten und Attribute werden aus den Shapefiles ausgelesen
und folgende Datenbank–Files erzeugt (siehe Tabelle 4.1).
categories.frm
current keys.frm
obj2point.frm
objects.frm
points.frm
properties.frm
shapes.frm
.MYD
.MYD
.MYD
.MYD
.MYD
.MYD
.MYD
.MYI
.MYI
.MYI
.MYI
.MYI
.MYI
.MYI
Typen von Attributen
Höchste IDs zur Datenbank Erweiterung
Objekt-Punkt Zuweisung
Objekte
Punkte
Attribute zu den Shapes
Typ des Shapes (Linie, Punkt,. . . )
Tabelle 4.1: Datenbankfiles die aus den Shapefiles erzeugt werden.
4.4
Positionsbestimmung
Es hängt sehr stark von der Anwendung bzw. von der Umgebung ab, welches System man
zur Positionsbestimmung verwenden kann.
Befindet man sich in Gebäuden oder in einer Umgebung die keine freie Sicht zum Himmel
erlaubt, ist eine Positionsbestimmung durch Satelliten (GPS) ausgeschlossen.
Benötigt man einen großen Bewegungsraum, sind sensorbasierte Systeme nicht unbedingt
die richtige Wahl.
Bei der Verwendung von GSM als Ortungssystem, stellt sich die Frage der Genauigkeit.
Diese hängt stark von der Dichte des Sendernetzes ab und ist für eine Anwendung wie
den VTG auch im Stadtbereich nicht ausreichend hoch (min. 10m Ungenauigkeit). Möchte
man sich zum Beispiel in den Bergen bewegen, ist die Genauigkeit meist ebenfalls nicht
ausreichend bzw. eine Positionsbestimmung unmöglich.
Es ist also sehr stark von den Voraussetzungen der Anwendung bestimmt, welche Technik
man verwendet.
Beim Projekt Touristguide wird ein GPS–System verwendet, da man bei diese Anwendung
als Objekte nicht nur Gebäude, sondern auch Berge und dergleichen definieren kann. Zur
Bestimmung der Ausrichtung gibt es grundsätzlich zwei Möglichkeiten. Entweder man
errechnet sich die Bewegungsrichtung aus den letzten Positionen, oder man verwendet
einen elektronischen Kompaß. Letztere hat den Vorteil, dass man die Ausrichtung auch
bei Stillstand feststellen kann. Außerdem muß die Sichtrichtung nicht mit der Bewegungsrichtung übereinstimmen. Aus diesem Grund war es für diese Anwendung keine Frage,
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
93
welche Technik anzuwenden ist und glücklicher Weise gibt es ein GPS–Gerät von Garmin
das einen solchen elektronischen Kompaß eingebaut hat.
4.4.1
GPS–Grundlagen
Führung von oben so lautet der Werbeslogan der Firma Garmin, die derzeit den Markt an
GPS–Navigationsgeräten beherrscht. Mit oben sind die 24 Satelliten gemeint, die es uns
ermöglichen, unsere Position auf der Erde, beziehungsweise auf der Karte, zu jeder Tages–
und Nachtzeit auf Knopfdruck, metergenau zu bestimmen. Eines ist jedoch klar, ohne
Karte ist GPS zur Orientierung nur begrenzt verwendbar. In vielen Bereichen hat sich GPS
schon längst als Navigationshilfe durchgesetzt. In der See–, Luftfahrt und Autonavigation
ist diese Technologie nicht mehr wegzudenken. Warum also wird dieses Potenzial für die
Orientierung noch nicht ausgeschöpft? Die Gründe dafür sind folgende.
ˆ Reliefbedingte Störung der Empfangsgeräte Die Satellitensignale können nur
empfangen werden, sofern keine Sichtbehinderung zwischen Satellit und Empfänger
vorliegt. Zur See, in der Luft oder in Gebieten mit schwacher Reliefenergie sind
solche Störungen nicht zu erwarten (außer durch Vegetation oder Bebauung). In
Städten, schmalen Gassen oder ähnlichem, kann diese sogenannte Abschattung ein
Problem werden und das System versagen.
ˆ Ungeeignete kartographische Grundlagen Bis jetzt gibt es kaum Karten, die
sich speziell mit der Thematik GPS befassen. Zum Teil sind sie sogar gänzlich unbrauchbar, weil sie kein Bezugssystem zur Erde aufweisen, oder weil dieses nicht
ausreichend im Kartenrand angegeben wurde.
ˆ Informationsdefizite Um GPS–Geräte sinnvoll einsetzen zu können, bedarf es eines umfangreichen kartographischen sowie GPS-technischem KnowHow. Der Käufer
eines solchen Gerätes wird aber mit einer Reihe von grundlegenden Problemen alleingelassen.
ˆ Systemungenauigkeit Im Vergleich zur See– und Luftfahrt wird für die Orientierung im Wohnbereich (Stadt oder anderen bebauten Örtlichkeiten) eine höhere
Lagegenauigkeit verlangt. Bis vor kurzem gab der Systembetreiber, das Amerikanische Verteidigungsministerium (kurz DoD für Department of Defense) an, dass in
95 Prozent der Fälle die Lagegenauigkeit einer GPS–Messung unter 100m und die
Höhengenauigkeit unter 140m liegt [HWLC94]. Die Erfahrung in der Praxis zeigte
jedoch, dass die gängigen Navigationsgeräte eine Lagegenauigkeit von ca.30 Metern
erreichen. Völlig überraschend wurde mit 2. Mai 2000 der SA–Störcode aufgehoben, womit sich die Genauigkeit dramatisch verbesserte (bis 4 Meter Genauigkeit
bei herkömmlichen Geräten). Nachdem man aber weiterhin vom Systembetreiber
abhängig ist, und der Störcode jederzeit wieder aktiviert werden kann, sollte man
dennoch die 30m Genauigkeit nicht außer Acht lassen.
Grob gesagt gilt, je mehr Satelliten empfangen werden, umso bessere Ergebnisse sind zu
erwarten, und je weniger Satelliten gesehen werden, desto schlechter ist die Positionsgenauigkeit.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
94
In den letzten Jahren ist die GPS–Technologie zu einem bedeutenden und sehr umfangreichen Forschungsinhalt geworden. Ständig wurden neue Techniken entwickelt, die die
Punktbestimmung dieser Technologie noch präziser machen.
Historisches
Die erste Anwendung der Satellitentechnologie zur geographischen Ortsbestimmung geht
schon auf das Jahr 1957 zurück, als der erste Satellit, Sputnik 1, in den Weltraum befördert
wurde. Durch die gleichzeitige Beobachtung des Satelliten von mehreren Bodenstationen (photogrammetrische Richtungsbestimmung, Entfernungsmessung mit Laserimpulsen), konnten Ozeane messtechnisch überbrückt werden. [Mec96]
Das satellitengestützte System TRANSIT gilt als Vorgänger von NAVSTAR–GPS. Es
wurde von der Marine der USA ab 1964 betrieben und diente der Navigation von U–
Booten, um ihre Wirksamkeit zu erhöhen. Doch auch geodätische Grundlagenforschung
wurde damit betrieben. Dieses System hatte jedoch einige Nachteile.
ˆ eine ständig Ortung war nicht möglich
ˆ in Bewegung befindliche Nutzer erreichten nur bescheidene Genauigkeiten
ˆ 3–dimensionale Ortung konnten nur stationäre Nutzer durchführen.
Für die Navigation von Mittel– und Langstreckenwaffen war dieses System nicht ausreichend, also arbeitete die Marine am Projekt ”TIMATION” um die Zielgenauigkeit zu
erhöhen.
1973 fasste das amerikanische Verteidigungsministerium ”TIMATION” und ein ähnliches
Konzept der Luftwaffe in das Projekt ”NAVSTAR–GPS” zusammen.
Die Forderungen an ”NAVSTAR” können wie folgt zusammengefasst werden.
Einem GPS–Nutzer egal ob in Ruhe oder in Bewegung sollen extrem genaue Informationen
über seine (dreidimensionale) Position, seine Geschwindigkeit sowie über die Zeit überall
auf oder nahe der Erde zur Verfügung gestellt werden. Diese Informationen soll das System
ständig liefern, unabhängig von Wetterbedingungen. [Bau97]
Der Aufbau dieses Systems erfolgte in drei Phasen. [Bau97]
ˆ Phase I: 1974 – 1979 Überprüfungsphase
Testsatelliten wurden gestartet und das System auf seine Tauglichkeit überprüft.
ˆ Phase II: 1979 – 1985 Entwicklungsphase
Es wurden weitere Prototypsatelliten (sogenannte Block I Satelliten) gestartet und
Entwicklungsarbeiten für die Empfangssysteme geleistet.
ˆ Phase III: 1985 – 1995 Ausbauphase
Ausbau des Systems mit Block II Satelliten. Mit 17. Juli 1995 wurde das System
offiziell für voll operabel erklärt (Full Operational Capability, FOC).
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
95
Bis jetzt musste noch keiner der 24 Satelliten durch einen Reservesatelliten ersetzt werden. Für die Zeit nach 2001 wurde eine weitere Generation von GPS-Satelliten in Auftrag
gegeben. GPS wird damit für die nächsten 15 bis 20 Jahre als Vermessungs– und Navigationssystem zur Verfügung stehen. [See96]
Im Mai 2000 wurde der SA–Störfilter völlig überraschend abgeschalten. Somit wurde eine
neue Dimension in der Genauigkeit des Systems eröffnet.
Die Europäische Union ist seit den 90–iger Jahren bemüht ein eigenes System zu entwickeln. Das seit 1993 entwickelte ”EGNOS” soll im Jahr 2004 betriebsbereit sein. Es soll
die derzeitigen Navigationssystgeme ”GPS” und ”GLONAS” ergänzen und damit ihre
Genauigkeit erhöhen. Das eigene Satellitennavigationssystem ”GALILEO” soll 2008 zur
allgemeinen Nutzung zur Verfügung stehen und neue Zusatzdienste ermöglichen. Näheres
dazu im Abschnitt 4.4.1.
Grundprinzip
NAVSTAR–GPS ist ein vom amerikanischen Verteidigungsministerium für militärische
Zwecke entwickeltes, satellitengestütztes Radionavigationssystem. Die Bezeichnung NAVSTAR–
GPS ist die Abkürzung von ”NAVigation System with Time And Ranging – Global Positioning System”. Daraus wird zweierlei deutlich. [Jac92]
1. GPS ist primär ein militärisches Navigationssystem und wurde nicht für die zivilen
Anforderungen, wie z.B. jene der Vermessungstechnik oder der zivilen Navigation, entwickelt. Es ermöglicht die Bestimmung der dreidimensionalen Position des
Empfängers in Echtzeit und in einem einheitlichen Bezugssystem. Um dieses System vor dem Missbrauch durch andere militärische Einheiten zu schützen, wurde
ein Teil der Satellitensignale verschlüsselt, wodurch sich die Genauigkeit wesentlich
verschlechterte.
2. Das grundlegende Navigationsprinzip beruht auf der Messung von Entfernungen
zwischen dem Nutzer und mindestens vier Satelliten. Diese Entfernungen werden
durch einen Uhrenvergleich ermittelt, indem der Aussendezeitpunkt des Signals am
Satelliten mit dem Empfangszeitpunkt des Signals im Nutzerempfänger verglichen
wird. Wird diese Zeitdifferenz mit der Signalausbreitungsgeschwindigkeit c multipliziert, erhält man die Entfernung zum Satelliten. Hat man die Entfernung zu 3
Satelliten ermittelt, so kann die Empfängerposition berechnet werden, wobei die
Entfernung zum vierten Satelliten eine Überbestimmung darstellt, die Uhrenungenauigkeiten des Empfängers ausgleicht [See96].
Der Aufbau von NAVSTAR–GPS kann in folgende 3 Einheiten unterteilt werden.
1. Raumsegment: Die Gesamtheit aller verfügbaren Satelliten bildet das Raumsegment. Anfang 1997 waren dies 24 Satelliten, drei davon sind aktive Reservesatelliten,
die aber ebenfalls Signale aussenden und verwendet werden können.
Diese Satelliten umkreisen die Erde in einer ungefähren Höhe von 20 200 km, angeordnet in sechs Bahnebenen, die um 55 Grad zur Äquatorebene geneigt sind. Die
Umlaufzeit eines Satelliten beträgt etwa 12 Stunden, wobei er von einem Punkt aus
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
96
betrachtet im Vergleich zum Vortag um vier Minuten früher auf– und untergeht.
[HWLC94]
Die Satelliten wurden so angeordnet, dass folgende Bedingungen erfüllt sind:
ˆ Die Anzahl der Satelliten sollte möglichst gering sein
ˆ Polnahe Gebiete sollen beobachtet werden können, eine unnötige Satellitenanhäufung
an den Polen sollte jedoch vermieden werden.
ˆ Die Satellitenkontakte sollten gut überschaubar sein.
Bei mindestens 24 Satelliten sind von jedem Punkt der Erde, bei jedem Wetter und
zu jeder Zeit zwischen 6 und 8 Satelliten über dem Horizont sichtbar. [Bau97]
2. Kontrollsegment: Zu den Aufgaben des Kontrollsegments gehören die Vorausberechnungen der Satellitenbahnen, die Überwachung der Satellitenuhren (Gang,
Stand), die Übermittlung der Navigationsnachricht an die Satelliten, sowie die Gesamtkontrolle des Systems. Dazu sind neben Bahnkorrekturen auch SA (Selective
Availability) und A–S (Anti–Spoofing) zu zählen. [HWLC94]
Fünf Stationen auf der Erde bilden das Kontrollsegment, wobei diese in Hauptkontrollstation, Monitorstationen und Bodenkontrollstationen unterschieden werden.
Die Hauptkontrollstation befindet sich in Colorado Springs, Colorado und wertet
alle Daten der Monitorstationen aus, welche die Satelliten beobachten. Dabei werden die Satellitenbahnen vorausberechnet, und die Bahnkorrektur der Satelliten
durchgeführt. Weiters wird das Verhalten der Satellitenuhren bestimmt und an die
Bodenkontrollstationen weitergeleitet.
Auf den Monitorstationen werden zusätzlich zu den Satellitendaten auch noch meteorologische Daten gemessen. Diese befinden sich auf Hawaii, Kwajalein (Pazifik),
Diego Garcia (Indischer Ozean) und Ascension (südlicher Atlantik).
Die Bodenkontrollstationen haben die Aufgabe, Navigationsnachrichten an die Satelliten zu übermitteln.
3. Benutzersegment: Im Benutzersegment werden alle Gerätesysteme zusammengefasst, die Satellitensignale empfangen, daraus Messgrößen ableiten und in weiterer
Folge die aktuelle Position berechnen. Die Hauptkomponenten des Empfangsgerätes
werden in Abbildung 4.7 gezeigt.
Abbildung 4.7: Schematischer Aufbau eines GPS Empfängers. [See89]
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
97
Besonders stark ist die Entwicklung auf dem Empfängermarkt bei den einfachen
und handlichen Navigationsempfängern. Hier sind die Preise, aufgrund der großen
Nachfrage, in den letzten Jahren enorm gefallen. [See96]
Messmethoden
Man kann die Satelliten als sogenannte ”hochfliegende Festpunkte” betrachten, deren
geometrische Orte bzw. Koordinaten zu jedem beliebigen Zeitpunkt bekannt sind. Die
Entfernung zu diesen ”Festpunkten” kann durch verschiedene Methoden ermittelt werden.
Wie schon anfangs erwähnt, wird die Entfernung zu den Satelliten durch Zeitmessung ermittelt. Dies setzt sehr genaue Uhren sowohl bei den Satelliten als auch beim Empfänger
voraus. Während bei den Satelliten Atomuhren mit hoher Genauigkeit eingesetzt werden, kann diese Technologie bei den kleinen Empfängern logischerweise nicht angewendet
werden, wodurch ein Unsicherheitsfaktor entsteht. Damit liegen also für eine räumliche
Positionsbestimmung nicht mehr nur die drei unbekannten Koordinaten (x, y, z) des zu
bestimmenden Punktes vor, sondern es kommt als vierte Unbekannte noch der Uhrenfehler des Empfängers hinzu. Um vier Unbekannte zu bestimmen, braucht man also vier
Entfernungen, das heisst man muss zumindest vier Satelliten gleichzeitig zur Verfügung
haben. [HWLC94]
Hier werden schwerpunktmäßig jene Messmethoden vorgestellt, die vorwiegend in der
Navigationstechnik eingesetzt werden.
1. Absolute Verfahren
(a) Einzelpunktbestimmung
Die Einzelpunktbestimmung stellt den Standardfall einer Positionsbestimmung
mit einem Navigationsempfänger dar. Gesetzt den Fall, es handelt sich um eine
zivile Nutzung, so wird mittels Codemessung (C/A–Code), unter der Voraussetzung, dass mindestens 4 Satellitensignale empfangen werden können, die
Position bestimmt. Durch die Beschränkung des Systems mittels SA kann man
mit einer Positionsgenauigkeit von +/- 100 m rechnen, ohne SA wird das Messergebnis wesentlich verbessert.
(b) Mittelwertmessung
Die oben genannte Genauigkeit bezieht sich auf eine einzelne Messung. Da die
Störung des Signals durch SA mehr oder weniger zufällig erfolgt, sind mehrere Messungen, die über einen längeren Zeitpunkt am selben Ort durchgeführt
werden, räumlich gut verteilt. Wenn diese Werte dann rechnerisch gemittelt
werden, so erhält man einen Punkt, der mit wesentlich größerer Wahrscheinlichkeit näher am tatsächlichen Standpunkt liegt als eine Einzelmessung.
Nach diesem Prinzip der Mehrfachmessung und Mittelwertbildung arbeiten
die meisten Navigationsempfänger [Bre93]. Die Algorithmen in diesen Geräten
messen in geringen zeitlichen Abständen die Position, mitteln mehrere dieser
Werte, und erhöhen somit die Positionsgenauigkeit.
2. Differenzverfahren
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
98
Neben dem SA-Code können noch viele andere Faktoren wie atmosphärische Störungen, Orbitfehler, Uhrenfehler u.s.w, die Genauigkeit einer GPS–Messung beeinflussen. Ein Großteil dieser Störungen kann durch das Differenz- oder Relativverfahren
beseitigt werden, unter der Voraussetzung, dass zwei Empfänger zur Verfügung stehen.
Das Prinzip ist denkbar einfach: Man geht davon aus, dass zur selben Zeit auf alle im Einsatz befindlichen Empfänger die selben Fehlereinflüsse wirken. Befindet
sich nun ein Empfänger stationär auf einem koordinativ bekanntem Punkt (wird
auch als Basis- oder Referenzstation bezeichnet), so kann die zur Zeit herrschende
Ungenauigkeit in x, y, und z Richtung bestimmt werden. Der zweite Empfänger, dessen Position bestimmt werden soll (wird auch als Rover bezeichnet), unterliegt zum
selben Zeitpunkt genau den selben Fehlern. Nun werden die Korrekturdaten der Basisstation an die Roverstation weitergegeben und dort bei der Positionsbestimmung
berücksichtigt. [Bre93]
Die Differenzverfahren können nach ihrem angewandten Beobachtungsverfahren unterschieden werden. Sowohl die Code– als auch die Trägerphasenmessung kann differenziert werden.
(a) Codedifferenzverfahren
Die Korrekturdaten können auf zwei verschiedene Arten verwendet werden.
[See96]
ˆ Nachträgliche Berechnungen: Alle Korrektur– und Empfängerdaten werden gespeichert und mit geeigneter Software können die gemessenen Punkte neu berechnet werden (Postprocessing).
Durch die Korrektur der aufgenommenenen Messdaten erreicht man eine
Genauigkeit von +/- 10m (vor der Abschaltung von SA). Dies reicht aus,
um Kartierungen ab dem Maßstab 1:25 000 durchzuführen. Der Begriff
”postprocessing” (Nachbearbeitung) verdeutlicht den Ablauf einer solchen
GPSDatenauswertung.
Unabhängig von anderen Geräten werden die gewünschten Positionen mit
einem C/A–Code–Empfänger aufgenommen und gespeichert. Während der
gesamten Messdauer muss eine Basisstation die Korrekturdaten in einem
bestimmten Zeitintervall erfassen und ebenfalls speichern. Mit einer speziellen Auswertesoftware werden dann die Absolutmessungen des Empfängers
mit den Daten der Basisstation korrigiert. Bedient man sich der Methode
der Mittelwertbildung, wie sie schon bei den Absolutmessungen angewandt
wurde, so erhält man in diesem Fall eine Position, die von der tatsächlichen
um weniger als 1,5m abweicht. Dies ist eine recht beachtliche Genauigkeit.
Die Korrekturdaten können auf verschiedene Art und Weise bezogen werden.
i. Von Referenzstationen aus dem Internet
ii. Von privaten oder öffentlichen Basisstationen
iii. Eigene Datenaufnahme mit zweiten Empfänger als Basisstation
ˆ Nutzung in Echtzeit (DGPS): Die Korrekturdaten werden sofort über Radiosignale an die Roverstation weitergegeben.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
99
Das ”D” bei ”DGPS” steht für ”Differential”, wobei sich diese Abkürzung
für das Codedifferenzverfahren in Echtzeit durchgesetzt hat. Bei diesem
Verfahren werden die Korrekturdaten von einer Referenzstation an einen
Sender übermittelt, und von dort an den Empfänger über Radiosignale
weitergeleitet. Der Empfänger korrigiert seine Messungen mit den Daten
und man erhält somit eine Positionsgenauigkeit von unter 10m in (fast)
Echtzeit (vor der Abschaltung von SA). [Hög96]
Dieses System hat aber auch Nachteile.
– Neben den Satellitensignalen ist man nun auch von einem Radiosignal abhängig, das gerade in Gebirgsregionen nicht immer empfangen
werden kann.
– Zusätzlich zum GPS–Empfänger benötigt man einen Radioempfänger.
– Die Benützung des Radiosignals ist kostengebunden.
In Österreich existiert seit 1998 ein DGPS–Dienst. Durch die Abschaltung
von SA ist die Genauigkeitssteigerung durch DGPS nur mehr sehr gering,
da SA die größte Störung des Signals bedeutete. DGPS wird in Zukunft
für die Navigation wahrscheinlich nicht mehr genutzt werden.
(b) Phasendifferenzverfahren
Sind Positionierungsaufgaben mit cm-Genauigkeit zu lösen, muss auf die Rekonstruktion der Trägerwelle übergegangen werden. Es ist möglich die Phasenreststücke Millimeter genau zu bestimmen, die vollen Wellenlängen können
mit den unterschiedlichsten Verfahren geschätzt werden.
Genau wie bei den Codedifferenzverfahren nützt man auch hier die Tatsache,
dass zum selben Zeitpunkt überall die selben Ungenauigkeiten auftreten. Durch
den Einsatz von mehreren (meist zwei) Empfängern können auch hier Fehler
der Satellitenuhr, des Satellitenorbits oder der atmosphärischen Störungen ausgeschaltet werden. [Bre93]
Diese Verfahren sind aber zumeist zeitaufwendig oder verlangen ein großes
Aufgebot an Technik. Sie sind daher für einen Einsatz in der Navigation nicht
geeignet.
Fehlereinflüsse und Genauigkeit
(a) Fehlerquellen
Wenn man sich die Distanz der Satelliten (20 200 km) einmal vor Augen hält,
und sich dann noch überlegt, dass die genaue Entfernung durch Uhrenvergleich
von Satellit und Empfänger bestimmt wird, so kann man sich doch vorstellen
welche Genauigkeitsanforderungen an ein solches System gestellt werden. In
diesem Kapitel werden alle Störfaktoren aufgelistet, die Einfluss auf die Genauigkeit der GPS–Messungen haben.
i. Bahnfehler
Die berechnete Bahn der Satelliten weicht immer etwas von der tatsächlichen ab, wodurch die weiteren Distanzberechnungen gestört werden. Für
geodätische Zwecke werden hochpräzise Bahnvermessungen durchgeführt,
die dann über das Internet bezogen werden können. Sie sind aber für Navigationszwecke irrelevant, da sie nicht in Echtzeit zur Verfügung stehen.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
100
ii. Ausbreitungsfehler
Nur in einem Vakuum breiten sich elektromagnetische Wellen gleichmäßig
aus. Da die Satellitensignale aber durch die Atmosphäre zur Erde gelangen,
verzögern sie hier ihre Geschwindigkeit.
Ionosphärische Störungen hängen stark von der Sonnenaktivität ab, wobei
die troposphärischen Störungen durch Luftdruck, Temperatur und Wasserdampfgehalt beeinflusst werden. In den Modellen zur Distanzberechnung
sind diese Faktoren berücksichtigt, wobei hier Durchschnittswerte angenommen werden. Da aber diese Werte von Tag zu Tag schwanken, kommt
es hier zu Ungenauigkeiten. [Hur89]
Abbildung 4.8: Mehrwegeffekt [See96]
In der Antennenumgebung kann es durch reflektierende Oberflächen (z.B.:
Autos, Häuserfronten, Felsflächen) zu Umwegsignalen und Signalüberlagerungen kommen. Man nennt diesen Effekt auch Multipath oder Mehrwegeffekt, weil ein Signal durch Reflexion mehrmals in den Empfänger gelangen
kann. [See96]
iii. Uhrenfehler
Die einzelnen Atomuhren der Satelliten laufen natürlich nicht mit mathematischer Präzision. Sie werden zwar ständig von den Bodenstationen
kontrolliert und geeicht, doch kommt es auch hier zu Ungenauigkeiten.
[Bre93]
iv. Systembeschränkung durch SA
Den größten Einfluss auf die Genauigkeit bei den C/A–Code–Messungen
hat jedoch die ”SA – Selective Availability”, der Störeinfluss des Amerikanischen Verteidigungsministeriums. Die Reduzierung der Genauigkeit
erfolgt einerseits durch die Manipulation der Satellitenuhren und andererseits durch eine geringere Genauigkeit der Bahndaten. Die Verschlüsselung
kann durch autorisierte Anwender, wie dem amerikanischen Militär, wieder
decodiert werden.
Ohne Vorankündigung wurde in der Nacht vom ersten auf den zweiten
Mai 2000, der SA–Störfilter aus dem C/A–Code entfernt, wodurch sich die
Genauigkeit dieses Systems massiv erhöht. Die völlig freie Nutzung des
nun entschlüsselten Systems GPS, dessen Aufbau immensen technischen
sowie finanziellen Aufwand erfordert hat, ist am ehesten durch die zu erwartenden wirtschaftlichen Impulse in den USA zu erklären. Aufgrund der
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
101
Genauigkeitssteigerung des Systems wird das Einsatzgebiet dieser Technologie erweitert, wodurch wieder neuer Schwung bei den Geräteherstellern
Einzug halten wird sowie eine Steigerung der Absätze gesichert ist. Da die
großen Hersteller von GPS-Empfängern fast ausschließlich ihren Sitz in den
USA haben, ist dies natürlich vor allem für die amerikanische Wirtschaft
von Vorteil.
Da fast alle GPS Navigationsverfahren den C/A–Code verwenden, ist auch
dieser Bereich der GPS–Anwendung jener, der am meisten von der SA
Elimination profitiert. Die enorme Genauigkeitsverbesserung führt dazu,
dass nicht mehr das System GPS sondern die kartographischen Grundlagen einen Unsicherheitsfaktor in der Navigation darstellen, denn mit einer
Lagegenauigkeit von 6.3 Metern bei der Punktbestimmung können auch
großmaßstäbige topographische Karten nicht mithalten. In Zukunft wird
also die geometrische Genauigkeit der Datengrundlagen eine immer wichtigere Rolle spielen.
In folgender Tabelle sind die Fehlereinflüsse und ihre Größe dargestellt. [Bre93]
Fehlerquelle
Fehlergröße
Uhrenfehler
+/- 3m
Bahnfehler
+/- 3m
Ionosphäre
+/- 8m
Troposphäre
+/- 2m
Selective Availability
+/- 30m
Summe:
+/- 46m
Tabelle 4.2: Fehlerquellen und Fehlergößen bei der GPS–Positionsbestimmung.
Bis auf den Mehrwegeffekt können alle erwähnten Fehlerquellen zu einem Großteil durch differenzielle Verfahren eliminiert werden. Die Genauigkeit der Positionsbestimmung mit GPS hängt aber auch von der geometrischen Konfiguration
der benutzten Satelliten ab. Diese wird mittels der sogenannten DOP–Werte
dargestellt. [See89]
(b) Satelitengeometrie
Eine GPS–Messung wird wesentlich davon beeinflusst, wie die aktuelle Position der Satelliten zueinander konfiguriert ist. Dies ist vergleichbar mit der
Bestimmung eines Schnittpunktes zweier Geraden. Schneiden sich die Geraden in einem spitzen Winkel, so wird das Ergebnis genauer sein, als wenn
sich die Geraden in einem sehr flachen Winkel schneiden. Genauso verhält sich
dieses Phänomen auch bei Kugelschnitten. Flache Kugelschnitte wirken sich
ungünstig auf die Positionsbestimmung aus (siehe Abbildung 4.9).
Diese Konstellation kann modelliert werden und mit den sogenannten DOP
(Dilution of Precision) Werten zum Ausdruck gebracht werden. Je geringer die
DOP–Werte sind, desto günstiger ist die Satellitenkonstellation. Dabei unterscheidet man verschiedene DOP–Werte. [See89]
ˆ PDOP für die gesamte 3D-Positionsbestimmung
ˆ HDOP für die horizontale Positionsbestimmung
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
102
ˆ VDOP für die vertikale Positionsbestimmung
ˆ TDOP für die Zeitbestimmung
Diese Werte können aufgrund des Satellitenalmanachs (so wird jene Nachricht
in der alle Bahndaten der Satelliten gespeichert sind, genannt) vorausberechnet
werden.
Abbildung 4.9: Unterschiede in der Satellitengeometrie [Wel86]
Die Anzahl der Satelliten, die maximal empfangen werden können, und der
PDOP–Wert stehen in direktem Zusammenhang. Sind über vier Satelliten
sichtbar, so werden jene ausgewählt, die die günstigste Konstellation ergeben,
wodurch sich der PDOP-Wert verringert.
(c) Genauigkeit der einzelnen Messverfahren
In folgendem Diagramm (siehe Abbildung 4.10) wird deutlich, wie groß der
Unterschied in der Genauigkeit je nach verwendetem Verfahren ist. Bei den
absoluten Messmethoden entspricht die angegebene Positionsgenauigkeit einem
Vertrauensbereich von 95%, dass heisst 19 von 20 Messungen sind besser als die
angegebenen Werte. Die Genauigkeit der Differentialmessungen hängt in erster
Linie von der Entfernung zwischen der Basis– und Roverstation ab. [Sch94]
In der Theorie können bei den absoluten Verfahren Genauigkeiten von +/- 20
Metern erreicht werden, jedoch nur für autorisierte Anwender des P–Codes. Der
C/A–Code erlaubt eine Positionsbestimmung im Bereich von +/- 40 Metern,
allerdings nur, wenn der SA ausgeschaltet ist. Ist dieser eingeschalten, muss
der zivile Anwender mit einem Fehler von +/- 100m rechnen, wenn er sich der
C/A–Codemessung bedient. In der Praxis zeigt sich, dass bei den absoluten
Verfahren in den meisten Fällen und mit aktuellen Geräten eine wesentlich
höhere Genauigkeit erzielt wird.
Die modernsten Verfahren der Differenzmessung mit GPS ermöglichen heute
eine Positionsbestimmung im Millimeterbereich. Allerdings steigt damit sowohl
der technische als auch zeitliche Aufwand enorm, womit die Differenzmessungen
mit Ausnahme von DGPS-Anwendungen für die Navigation ausscheiden.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
103
Abbildung 4.10: Erreichbare Genauigkeiten der unterschiedlichen Mess– und Auswerteverfahren [Sch94]
Galileo - Europäisches Satellitennavigationssystem
Derzeit gibt es weltweit zwei Satellitennavigationssysteme, ein amerikanisches (GPS) und
ein russisches (Glonass). Beide wurden nach militärischen Gesichtspunkten konzipiert.
Das russische System hat keine wirklichen zivilen Anwendungen hervorgebracht, sodass
GALILEO die einzige Alternative zum faktischen Monopol des GPS und der amerikanischen Industrie darstellt.
Durch die Abhängigkeit der europäischen Länder von den Vereinigten Staaten, die jederzeit eine ordentliche Navigation mit GPS verhindern können, hat sich die EU entschlossen
ein eigenes globales Satellitennavigationssystems ”GNSS” aufzubauen. Dieses Projekt soll
für Europa eine Unabhängigkeit in der Satelitennavigation bringen und darüber hinaus
eine größere Genauigkeit und Zusatzdienste bieten. Es ist in zwei Phasen unterteil, um
eine raschere Nutzung zu ermöglichen. In der ersten Phase wird das Projekt ”EGNOS”
(European Geostationary Navigation Overlay Service) umgesetzt. Das seit 1993 entwickelte ”EGNOS” wird das ”GPS” und das ”GLONASS” System ergänzen. Korrekturdaten
verbessern die Genauigkeit der derzeitigen Dienste von etwa 20 m auf weniger als 5 m.
”EGNOS” soll alle europäischen Staaten abdecken. Das System besteht aus drei Transpondern in geostationären Satelliten und einem Bodennetzwerk von 34 Positionsbestimmungsstationen und vier Kontrollzentren, die alle untereinander verbunden sind. ”EGNOS” soll
im Jahr 2004 betriebsbereit sein. Die zweite Phase ist das Projekt ”GALILEO” das einen
sehr präzisen, garantierten, weltweiten Positionsbestimmungsdienst bereitstellt. Es stellt
zwar ein eigenes Satellitennavigationssystem dar, ist aber zugleich mit ”GPS” und ”GLONASS” interoperabel. In ”GALILEO” soll auch ”EGNOS” integriert werden. ”GALILEO”
wird in Echtzeit Positionsbestimmungen liefern, deren Genauigkeit sich im Meterbereich
befindet. Somit bietet dieses System die Voraussetzung für viele neue Anwendungen die
eine exakte Positionsbestimmung benötigen wie zum Beispiel der ”VTG”. Vor allem soll
das ”GNSS” viele Möglichkeiten im Bereich Sicherheit bieten (Zivielschutz, Luftfahrt,
Verkehr,. . . ). Das komplette ”GALILEO” System wird aus 30 Satelliten und der dazu
gehörenden Bodeninfrastruktur bestehen. Es wird eine größere Genauigkeit gegenüber
dem jetzigen GPS haben und eine höhere Zuverlässigkeit in allen geografischen Breiten
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
104
bieten. ”GALILEO” wird echte öffentliche Dienstleistung mit garantierter Kontinuität
bereitstellen und benutzerspezifische Anpassung ermöglichen. Die harmonische Nutzung
der beiden Infrastrukturen bringt Vorteile hinsichtlich der Genauigkeit und der Sicherheit. Die Nutzer empfangen sowohl die GPSSignale als auch die GALILEO–Signale mit
ein und demselben Empfänger. Wie beim GPS wird die Basisnutzung bei GALILEO umsonst sein. Das GPS von morgen wird möglicherweise auch hochwertige Dienste anbieten,
doch besteht keine Garantie, dass diese kostenlos sein werden, vor allem falls das GPS eine Monopolstellung inne hat. Bestimmte Anwendungen werden kostenpflichtig sein; diese
erfordern eine hohe Dienstequalität, die das derzeitige GPS nicht bieten kann.1
Von 2002 bis 2005 ist die Entwicklungs- und Validierungsphase geplant. Die Errichtungsphase soll von 2006 bis 2007 dauern, damit ”GALILEO” von 2008 an seinen kommerziellen
Betrieb starten kann.
Manche Beobachter halten die Satellitennavigation für eine ebenso wichtige Erfindung wie
die Uhr. So wie heutzutage jeder wissen muss, wie spät es ist, wird in Zukunft niemand
ohne die Ermittlung seines genauen Standorts auskommen.
4.5
Realisierung
Nach dieser allgemeinen Einführung, möchte ich nun genauer auf die einzelnen Bereiche im
Projekt eingehen. Das Projekt setzt sich neben der ”Objektdatenaufbereitung” grundsätzlich aus drei getrennt zu betrachtenden Teilen zusammen. Ein Teil ist die Positionsbestimmung mittels GPS–Gerät. Das Auslesen der Koordinaten und Richtungsdaten aus dem
GPS–Grät erfolgt mit Hilfe des Javapackages ”gpstool” über die serielle Schnittstelle. Das
GUI ist nach dem Start des ”VTG” am Client, über die URL ”http://localhost:10080/”
im Browser aufrufbar. Voraussetzung dafür ist ein installiertes ”JDK”. Der HTML–Code
ist so einfach gehalten, das die Applikation mit jedem gängigen Browser funktionieren
sollte. Außerdem ist durch die durchgehende Javaprogrammierung der ”VTG” plattformunabhängig. Zum Bereitstellen der Daten am Server und zur Datenaufbereitung werden
wiederum javabasierte Klassen eingesetzt (”Mapserver”). Hier stehen zur Kommunikation
mit dem Client, Javaservlets zur Verfügung. Über diese Servlets werden die aufbereiteten
Daten (Shapes und Zusatzinformation) aus der Datenbank geholt, in einen HTML–Code
gepackt dann an den Client–Browser übergeben und dort angezeigt. In Abbildung 4.11
ist die Architektur der Softwareumgebung dargestellt.
4.5.1
Objektdatenaufbereitung
Wie schon zuvor erwähnt, wurden vom Bauamt Graz die Katasterdaten des Bereiches Innenstadt und des Bereiches Inffeld kostenlos zur Verfügung gestellt. Diese Daten lagen im
DXF-Format vor und mußten zurerst einmal mit einem CAD–Programm aufbereitet werden. Das heisst, es mußten Objekte definiert, dann Zusatzinformationen hinzugefügt und
schließlich die Daten ins SHAPE–Format umgewandelt werden. Um für ein Gebäude nicht
mehrere Objekte zu bekommen, mußten die einzelnen Polygonzüge zu einer sogenannten
1
http://europa.eu.int/comm/dgs/energy transport/galileo/index de.htm
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
105
Abbildung 4.11: Architektur der Softwareumgebung
Objektgruppe, zusammengeführt werden. Danach kann man den einzelnen Objekten spezifische Informationen hinzufügen (siehe Abbildung 4.12).
Das weitaus größere Problem war die Tatsache, daß das vorliegende Koordinatensystem
im dxf–File nicht verwendet werden konnte, und deshalb eine Koordinatentransformation
nötig war. Dies hat sich als das schwierigste aller Probleme herausgestellt. Es ist auch
bei guten Grundkenntnisse über Koordinatensysteme zu empfehlen, professionelle Hilfe
in Anspruch zu nehmen. Solch eine Unterstützung kann man zum Beispiel am Institut für
Geoinformationswissenschaften der TU-Graz bekommen.
Was war genau das Problem? Die Katasterdaten lagen im Gauß–Krüger–Koordinatensystem
vor, und diese mußten in das WGS84–Koordinatensystem umgewandelt werden, um die
Daten für die Anwendung nutzen zu können. Die Transformation stellt das verwendete
CAD–Programm zu Verfügung (AutoCAD Map R2). Es waren jedoch nicht die richtigen
Parameter unter den vorinstallierten Konfigurationen enthalten. So mußte man zuerst die
richtigen Parameter finden und mit diesen die korrekten Transformationseinstellungen
festlegen.
Folgende Parameter waren also richtig einzugeben.
ˆ Die richtige ”Projektion” (Transverse Mercator)
ˆ Das richtige ”Datum”
– Den richtigen ”Ellipsoid” (Bessel 1841)
– Die ”Vector Component Deltas” zu WGS–84 (Delta X, Delta Y, Delta Z)
– Die ”Winkel” vom WGS–84 (X Achse, Y Achse, Z Achse)
– ”Scalierungs–Faktor”
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
106
Abbildung 4.12: Objektdaten Definition mit Hilfe von ”AutoCAD Map”
ˆ Das richtige ”Northing” und ”Easting”
ˆ Längengrad des ”Zentral Meridian”
ˆ Breitengrad des ”Ursprungs der Projektion”
ˆ Den ”Scale Reduction Factor” am ”Zentralen Meridian”
Hat man schließlich die richtigen Parameter gefunden, so kann man die Kartendaten
einfach ins Shape–Format exportieren. Diese Daten müßen dann in das Datenbankmodell
gebracht werden. Ein im Internet frei erhältliches Java Package (”geotools”) ermöglicht
es, sämtlich Daten, wie Koordinaten und Attribute, aus den Shapefiles auszulesen. Mit
der Klasse ”MapToDatabase” können die Daten in die Datenbank eingelesen werden.
Folgender Programmcode zeigt das Befüllen der Datenbank mit den Kartendaten. [GS01]
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
import
import
import
import
107
java.io.*;
java.net.*;
java.util.Properties;
java.sql.*;
import uk.ac.leeds.ccg.geotools.*;
// importiert das geotool package
public class ReadTest implements Serializable {
public static void main(String[] args) {
try {
// Grazer Daten; mit Angabe von Sourcepfad und prop.txt File
MapToDatabase map_to_db =
new MapToDatabase("C:/gis_daten/kataster_koord-WGS84", "prop.txt");
// Die DB Verbindung initialisiert
map_to_db.initDbConnection();
// Neue DB anlegen
map_to_db.createNewDb("TestDB");
// Vektordaten in DB schreiben
map_to_db.writeShapeFileToDb();
// Vektordaten und Eigenschaften in DB schreiben
map_to_db.writeShapeAndDbfFileToDb();
} catch ( MapToDatabaseException e ) {
System.out.println( e.getMessage() );
return;
}
}
}
4.5.2
VTG
Der VTG ist ein kompaktes Java–Tool, welches am Client gestartet wird. Es stellt das Framework für die Daten Ein– und Ausgabe zur Verfügung. Der VTG beinhaltet auch die Abfrage der GPS–Daten mit Hilfe des GPS–Tools. Nach dem Start dieser Java–Anwendung
steht dem User ein GUI zur Verwendung der Applikation zur Verfügung. Mit einen beliebigen Web–Browser kann man unter der Adresse
http://localhost:10080/index.htm
die Touristguide–Anwendung aufrufen.
Im linken Frame werden neben den Koordinaten (Longitude, Latitude) auch die Richtung
(Heading) und die Sichtweite (Viewing Range) angezeigt (siehe Abbildung 4.13).
Zusätzlich besteht auch die Möglichkeit, die im SVG anzuzeigenden Daten auszuwählen
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
108
(Mapkey, Name, Description, URL) (siehe Abbildung 4.13 rechts).
Abbildung 4.13: ”GPS–Daten” und ”Viewing Range” (links); ”Objekt–Information” (rechts)
Zum Laden der aktuellen Daten gibt es einen ”Neue Werte” Button. Einen ”Default”
Button gibt es um die Defaultwerte zu laden. Und schließlich gibt es einen ”Was ist
das?” Button zur Datenbankabfrage, um das Ergebnis mit den interessanten Objekten im
rechten Frame anzuzeigen.
Das rechte Frame ist als Tabelle aufgebaut, und zeigt das Ergebnis als SVG–Bild sowie
die im Sichtkegel liegenden Objektbezeichnungen nach Entfernung zum Betrachter sortiert
(siehe Abbildung 4.14). Je nach Wunsch können die ”Shapes”, der ”Text” und die ”View
Area” im SVG ein– und ausgeblendet werden.
Ist zu einem Objekt auch eine URL in der Datenbank hinterlegt, so wird die Objektbezeichnung mit diesem Hyperlink hinterlegt. Durch anklicken der Objektbezeichnung wird
ein neues Browserfenster geöffnet um zusätzliche Informationen zum Objekt direkt aus
dem Internet zu beziehen. Folgende hilfreichen Informationen könnte man zum Beispiel
anzeigen.
ˆ Öffnungszeiten von Museen, Restaurantes, Shops,. . .
ˆ Menükarte einer Pizzeria oder ähnliches
ˆ Aktuelle Aufführung eines Theaters, Oper, Kino,. . .
4.5.3
GPSTool
Dieser Teil beschäftigt sich mit dem Auslesen der Positions– und Richtungsdaten aus
dem GPS–Gerät. Das in Java programmierte Tool, liest die Daten die über die serielle
Schnittstelle kommen ein und wertet diese aus. Das GPS–Gerät von Garmin, es ist ein
Garmin–Summit, gibt die Daten im eigenen Garmin–Protokoll aus. Das GPS–Tool kann
sowohl das Garmin eigene NMEA–Protokoll als auch das standartisierte NMEA–Protokoll
lesen und ist somit auch für andere Geräte verwendbar. NMEA (National Marine Electronics Association)
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
109
Abbildung 4.14: Darstellung der Daten einer Abfrage im Browser
Die Datensätze der unterschiedlichen Geräte können sehr viele verschiedene Informationen beinhalten, darunter Position, Geschwindigkeit, Richtung, Wassertiefe, Wassertemperatur, Wegpunkte, Windgeschwindigkeit usw..
Die für das Projekt VTG benötigten Datensätze sind wie folgt definiert.
GPGLL gibt die geografische Position also Latitude und Longitude im NMEA Protokoll
an.
GLL – Geografische Position – Breitengrad/Längengrad (Latitude/Longitude)
Feld:
1
2
3
4
5
6
7
|
| |
| |
| |
Satz: GLL,llll.ll,a,yyyyy.yy,a,hhmmss.ss,A*hh<CR><LF>
Erklärung der Feldnummern:
1) Breitengrad (Latitude)
2) N = Nord oder S = Süd (North oder South)
3) Längengrad (Longitude)
4) E = Ost oder W = West (East oder West)
5) Zeit (UTC - Universal Time Coordinated)
6) Status: A - Daten Gültig, V - Data Ungültig
7) Prüfsumme (Checksum)
HCHDG ist das ”Heading” sprich die Richtung in die das GPS zeigt. Der HCHDG-
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
110
Datensatz enthält Angaben vom Magnetkompass, den nur wenige GPS-Geräte besitzen.
Es sind Daten zur Richtung und Deklination (auch als ”deviation” bezeichnet; Abweichung von magnetisch Nord zu wahrem Nord). HDG – Heading – Deviation & Variation
(Abweichung & Schwankung)
Feld:
1
2
3 4 5
6
|
|
| |
| |
Satz: HDG,x.x,x.x,a,x.x,a*hh<CR><LF>
Erklärung der Feldummern:
1) Magnetischer Richtungssensor (heading) in Grad
2) Magnetische Abweichung (Deviation), Grad
3) Magnetische Richtungsabweichung (Deviation direction),
E = östlich (Easterly), W = westlich (Westerly)
4) Magnetische Variation Grad
5) Magnetische Richtungsschwankung (Variation direction),
E = östlich (Easterly), W = westlich (Westerly)
6) Kontrollsumme (Checksum)
Wichtig ist, dass das Datenformat des GPS auf NMEA umgestellt wird. Die Daten werden
dann einmal alle zwei Sekunden über die Schnittstelle ausgegeben. Viele PC-Navigationsund Kartenprogramme mit Anschlussmöglichkeit für GPS-Empfänger erwarten im übrigen auch das NMEA-Format zur Navigation. Funktioniert das Zusammenspiel zwischen
GPS und einem PC-Programm nicht, sollte man also sowohl kontrollieren, ob man den
GPS an der richtigen seriellen Schnittstelle (COM1 oder COM2) angeschlossen hat, als
auch überprüfen, ob das Ausgabeformat am GPS auf NMEA eingestellt ist.
Kurz ein Beispiel für das Format der für das Projekt relevanten Daten aus dem GPS–
Gerät.
GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A
HCHDG,340.6,,,2.5,E*2F
Der Wert 4703.5275 im NMEA–Format bedeuten 47 Grad 03.52 Minuten (latitude) und
der Wert 01527.4968 sind 15 Grad 27.49 Minuten (longitude).
Nach dem Einlesen der NMEA–Daten, werden die für die Anwendung benötigten Werte
in WGS–84–Daten umgewandelt. Somit ergeben sich im WGS84-System:
47,058791 Grad Northing (Breitengrad auf der Nordhalbkugel) und
15,458285 Grad Easting (Längengrad östlich des Nullmeridians).
Schließlich werden die erfassten Daten wie folgt ausgegeben:
EVENT:
source:
Name :
Old
:
New
:
POS
:
HDG
:
org.dinopolis.gpstool.GPSNmeaDataProcessor@13dee9
GLL
GPGLL,4703.5274,N,01527.4968,E,082132,A,A*45
GPGLL,4703.5275,N,01527.4968,E,082132,A,A*4A
47.058791666666665N 15.458285E
340.6
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
111
Wichtig für die Touristguide–Anwendung sind die Position (POS l̄atitude, longitude) sowie
die Richtung (HDG h̄eading). Mit diesen Werten kann man vom Betrachterstandpunkt
einen Sichtkegel in die angezeigte Richtung berechnen und die darin liegenden Objekte
bestimmen.
Die Webserver–Applikation übergibt die Werte dem Mapserver, der sich aus der Datenbank die erforderlichen Daten zur Darstellung des Ergebnisses holt. Die Verbindung
zwischen Webserver (Client) und Mapserver (Server) wird über das Internet hergestellt.
Mit Hilfe von Java–Servlets werden die Daten ausgetauscht und das Ergebniss im Browser
angezeigt. Die Funktionsweise der Mapserver–Anwendung wird im folgenden Abschnitt
erläutert.
4.5.4
Mapserver
Der MapServer ist sozusagen das Herzstück am Server, der die Daten in der Datenbank
verwaltet, auswertet und das Ergebnis einer Anfrage dem Client wieder übergibt. Die
Kartendaten (Shapefile) werden mit Hilfe des Java–Programm ReadTestData.java in eine
Datenbank (MySQL) geschrieben. Liegen die Daten vor, können sie dann mit den vorliegenden Klassen abgefragt und ausgewertet werden. Die Schnittstelle zum Client wurde
mit Java–Servlets realisiert. [GS01]
Folgende Java–Servlets dienen zur Anzeige und zum Datenaustausch über einen beliebigen
Web–Browser.
ˆ ShowHTMLPoint.java // Erstellt die Anzeige für das SVG–Bild und die Objektinformation
ˆ ShowSVGPoint.java // Bereitet die Daten für das SVG–Bild auf
Die verwendete Datenbankstruktur ist in Abbildung 4.15 zu sehen.
Abbildung 4.15: Aufbau der Datenbank für den VTG
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
112
Um die angefragten Daten aus der Datenbank zu holen und diese aufzubereiten, stehen
folgende Java–Klassen zur Verfügung.
ˆ Category.java – Um die möglichen Kategorien abzufragen
ˆ ClipPolygon.java – Zum Erkennen von Polygonzügen
ˆ DatabaseToSVG.java – Liest Shapes von der Datenbank und erzeugt SVG–Files
ˆ FindShape.java – Damit können Shapes in der Sichtrichtung gefunden werden
ˆ GIS.java – Stellt das Main–Programm dar
ˆ MapToDatabase.java – Zum Importieren von Shapefile–Vektordaten in die Datenbank
ˆ Point.java – Zum Darstellen eines Punktes
ˆ Property.java – Gibt die Eigenschaften eines Shapes zurück
ˆ ReadTest.java – Einlesen von Daten in die Datenbank
ˆ Rectangle.java – Gibt ein Rechteck zurück
ˆ Shape.java – Gibt ein Shape zurück
ˆ ShowCategory.java – Wird benötigt um die Kategorien aus der Datenbank zu holen
Im prop.txt stehen notwendige Daten für den Datenbankzugriff sowie für die anzuzeigenden Objekteigenschaften. Hier ein Beispiel eines Property–File wie es am Server angegeben
wird.
database = jdbc:mysql://localhost/mapserver // Datenbank Name
sql_driver = org.gjt.mm.mysql.Driver
// SQL Treiber für Java Zugriff
user = vtg
// MySQL Benutzer für Lesezugriff
passwd = test
superuser = root
// MySQL Benutzer für Schreib/Lesezugriff
supasswd =
found_category = NAME
// Angezeigte Kategorie für gefundene Objekte im Servlet
found_category_2 = URL
svg_width = 600
// Einstellung für die SVG-Ausgabe im Servlet
font_size = 8
In Abbildung 4.16 ist die gesammte Datenbank mit einem Teil der Daten aus der Property–
Tabelle zu sehen.
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
113
Abbildung 4.16: Datenbank mit angezeigten Propertyeinträgen
Algorithmus für Objektsuche
Um bei der Datenbankabfrage die betreffenden Objekte im Sichtkeil zu finden, benötigt
man einen Algorithmus der den Keil des Blickfeldes durch Rechtecke annähert. Punkte
die in einem Rechteck liegen können leicht in einer Datenbank gefunden werden. Die
Approximation des Blick–Kegels erfolgt nach folgender Skizze (siehe Abbildung 4.17).
Die Konstante ”interation count” legt die Anzahl der Rechtecke fest, die den Keil des
Blickfeldes annähern. Mit ”interation angle” wird der Winkel des Blickfeld–Keils eingestellt. Durch ”border” kann der Rand, der bei der Ausgabe des SVG–files den Keil umgibt,
definiert werden. [GS01]
In Abbildung 4.18 ist noch einmal der softwareseitige Ablauf einer Objekterkennung dargestellt.
4.5.5
Testumgebung
Getestet wurde die Anwendung mit zwei PCs die über ein LAN verbunden waren, einer
diente als Server und einer als Client. Die LAN–Verbindung sollte im Echtfall die Internetverbindung zum Beispiel über GSM darstellen. Diese Variante war jedoch nur mit den
bereits vorbereiteten GPS–Testdaten möglich. Die Testdaten wurden mit einem Laptop
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
114
Abbildung 4.17: Approximation des Blickfeldes durch Rechtecke
sammt angeschlossenem GPS–Gerät erstellt. Die Daten konnten mit Hilfe des GPS–Tool
in ein flat–File gespeichert werden, das dann zu Testzwecken als GPS–Gerät fungierte.
Dieser Laptop konnt mit den installierten Serverkomponenten auch als unabhängiges System verwendet werden, das heisst ohne mit dem gesamten Equipment umherlaufen zu
müssen.
Server:
ˆ Jarkata Tomcat (Servletengine)
ˆ Mysql – Datenbank mit Kartendaten
ˆ JDK – Java Developement Kit
ˆ Mapserver (Java–Klassen und Servlets für die Datenbereitstellung)
ˆ prop.txt – Property Textfile für die Datenbankabfrage
Client:
ˆ GPS–Gerät mit elektronischer Richtungsangabe (ETrex Summit von Garmin)
ˆ GPSTool (Javaprogramm zum Auslesen der GPS–Daten)
ˆ JRE – Java Runtime Environment
KAPITEL 4. PROJEKT - VIRTUAL TOURIST GUIDE (VTG)
115
Abbildung 4.18: Ablauf einer Objekterkennung
ˆ VTG (GUI mit GPS–Datenschnittstelle und Serverabfrage)
ˆ Direkte Netzwerkverbindung (bei Testbetrieb mit eigenem Server)
ˆ SVG–Viewer–Plugin zum Anzeigen eines SVG–Bildes im Browser
Abschließend kann man sagen, daß ein gutes Funktionieren nur mit entsprechend genauen
GPS–Daten gegeben ist, was derzeit in manchen Stadtbereichen nicht möglich ist. Zum
Beispiel ist die Grazer Herrengasse zwar eine breite offene Straße, der schlecht Empfang
von GPS–Signalen kann jedoch eine Ungenauigkeit von bis zu 30m ausmachen, was eine
sinnvolle Anwendung des VTG unmöglich macht. In diesem Fall kann man nur auf eine
Schnelle Verbesserung der GPS–Genauigkeit durch das EU–Projekt ”GALILEO” hoffen.
Kapitel 5
Schlußworte
Es ist nicht ein Phänomen von Heute, sondern es ist seit jeher das Bestreben des Menschen, Werkzeuge und Alltagsgeräte immer wieder zu verbessern. Im Zusammenhang damit steht neben dem Verkleinern von Geräten auch das Verbessern der Bedienbarkeit.
Dadurch entstanden schon einige sonderbare Hilfsmittel, aber auch bahnbrechende Entwicklungen in allen Lebensbereichen. Das Bestreben des Menschen immer bessere Lösungen zu finden, betrifft natürlich auch das Medium Computer. Viele unorthodoxe Ein/Ausgabe-Geräte werden immer wieder entwickelt, um die Bedienbarkeit verschiedenster
Computerunterstützter Gerätschaften zu verbessern bzw. zu optimieren.
In dieser Arbeit wurde ein Überblick über vergangene, heutige und zukünftige Entwicklungen von unorthodoxen Eingabe sowie Ausgabe-Geräten gegeben. Die Arbeit richtete
ihr Hauptaugenmerk auf den Bereich ”Wearable Computer”. Es wurden Beispiele von Anwendungen angesprochen, die es bereits in der Praxis gibt bzw. solche die möglicherweise
die Zukunft des menschlichen Alltags entscheidend beeinflussen werden. Beeinflussen im
Sinne vereinfachen, effizienter gestalten, mehr Freiheiten gebend, mehr Zeit für das Wesentliche finden, mehr Wissen ohne es zu wissen,. . .
Im Projekt ”Virtual Tourist Guide” wird eine Anwendungsmöglichkeit eines tragbaren,
allgegenwärtigen Computersystems (Wearabel Computer) gezeigt. Es ist eines von vielen
möglichen Anwendungsgebieten im Bereich des Wearable Computing. Mann kann leicht
erkennen, wie diese Technologie dem User unbemerkt eine große Hilfestellung leisten kann.
Genau so wie Laptops die Arbeit in vielen Fällen erleichtern, werden diese neuen Errungenschaften das Arbeitsleben aber auch das Privatleben der Menschen verändern. Ja auch
Hund und Katz werden von diesen neuen Möglichkeiten betroffen sein.
So kann man gespannt sein was die Zukunft in dieser Hinsicht noch alles bringen wird.
Oder man versucht die Zukunft mit zu gestalten indem man sich seine eigenen Gedanken
darüber macht, und aktiv in diesen Bereichen mitarbeitet.
116
Kapitel 6
Anhang
6.1
Linkliste
Sämtliche hier angegebenen Referenzen wurden zuletzt am 28.01.2004 auf Erreichbarkeit
überprüft. Diese Linkliste dient der Vertiefung von den in dieser Thesis behandelten Themenbereiche. Sie ist jedoch nicht als vollständige Auflistung aller Referenzen in diesen
Bereichen zu sehen.
6.1.1
Akademie & Forschung
CMU – Wearable Computers
http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home.html
Computer Science Research at Almaden
http://www.almaden.ibm.com/software/
Department of Cybernetics
http://www.cyber.rdg.ac.uk/
DFKI
http://www.dfki.de/
DigCity – TU Graz
http://www.digcity.TUGraz.at/
Fraunhofer IPSI – Abteilung Ambiente – Dr Dr Norbert Streitz
http://ipsi.fhg.de/ambiente/
Gatech – Georgia Institute of Technology
http://wearables.gatech.edu/
Human–Computer Interaction Institute
http://www.cs.cmu.edu/afs/cs.cmu.edu/user/hcii/www/hcii-home.html
MemoClip–Remembrance Appliance
http://www.teco.edu/~michael/publication/memoclip/
New Challenges of Ubiquitous Computing and Augmented Reality
http://www.teco.uni-karlsruhe.de/~albrecht/cabernet/ubicomp1.html
Personal Electronics
http://www.ele.tut.fi/research/virtual/welcome.html
Software Groupe – TU–Linz – Institut für praktische Informatik – Ferscha
http://www.soft.uni-linz.ac.at/Research/
The Telecooperation Office (TecO)
http://www.teco.edu
UO Wearable Computing Group
http://www.cs.uoregon.edu/research/wearables/
117
KAPITEL 6. ANHANG
118
Wearable Computing at the MIT Media Lab
http://www.media.mit.edu/wearables/
WearLab – Netzwerk Wearable Computing
http://www.wearlab.de/
6.1.2
Arbeitskreise & Symposien
ACM – sigmobile
http://www.acm.org/sigmobile/
Bremer XYBERDAY
http://www-agki.tzi.de/is/mobile/XyberDay/intro.html
Digital Life Consortium
http://dl.www.media.mit.edu/
ISWC International Symposium on Wearable Computers
http://iswc.gatech.edu/
SmartKom – Projekt – Interaktion von Mensch und Technik
http://smartkom.dfki.de/startde.html
Pervasive 2004
http://www.pervasive2004.org/
TecO - Wearable Computing Group
http://wearables.teco.edu/
Telecommunications and Mobile Computing
http://www.tcmc2001.at/
www.mobile-pc.org
http://www.mobile-pc.org/
wearables.org
http://wearables.org/
6.1.3
Unorthodoxe Ein-Ausgabegeräte
Origin Instruments Corporation
http://www.orin.com
SensorTeppich
http://www.acm.org/sigchi/chi97/proceedings/short-demo/jp.htm#U5
Tastatur und Maus
FingerWorks - Inventor and Developer of MultiTouch Technology
http://www.fingerworks.com
Handykey Corporation
http://www.handykey.com
Matias Corporation
http://halfkeyboard.com/
Mice revolution. New cordless mouse.
http://www.bosswave.com/mouse/finring/
Nailglove
http://web.mit.edu/smascaro/www/research.htm
RingMouse
http://members.tripod.co.jp/nis/computer/dosvparts/ringmouse.htm Scheibentastatur - Pendragon Project
http://www.cc.gatech.edu/fce/pendragon/index.html
DataHand Systems, Inc. Manufacturer of Ergonomic Keyboards and Onboard Mouse Systems
http://www.datahand.com
KAPITEL 6. ANHANG
Spracherkennung
Dragon Voice Recognition Products
http://www.worklink.net/products/voicerecognition.html
Linguatec Sprachtechnologien GmbH
http://www.linguatec.de/
Speechwear – A mobile speech system
http://www.speech.cs.cmu.edu/rspeech-1/air/papers/speechwear/speechwear.html
The Speech Interface Group
http://www.media.mit.edu/speech/
Learnhard Haunspie – Softwarelösungen zur Text–, Bild– und Sprachbearbeitung
http://www.scansoft.de/
Verbmobil
http://verbmobil.dfki.de/
Display
A head-mounted three-dimensional display
http://www.sun.com/960710/feature3/alice.html
ComSonic Inc. – Head Mounted Display
http://www.headmountdisplay.com/
Electronic Paper Xerox
http://www.parc.xerox.com/dhl/projects/gyricon/
MicroOptical
http://www.microopticalcorp.com/
Microvision
http://www.mvis.com
Personal Monitor
http://www.skyex.com/albatech/
The MicroDisplay Corporation
http://www.microdisplay.com/
WearComp – Eyetap
http://eyetap.org/
GPS und Karthografie
GIS-News Geo-Informationssysteme, Neuigkeiten, Austauschformate, Tips, Wissen
http://www.gis-news.de/
Allgemeine Information über GIS
http://www.plan.at/
ZGIS – Zentrum für Geographische Informationsverarbeitung Salzburg
http://www.ZGIS.at/
GPS Receiver – Software and Hardware Reviews of Garmin, Lowrance and Magellan
http://joe.mehaffey.com/
Welcome to Adventure GPS
http://www.gps4fun.com/
NMEA – HowTo for EPS
http://www.diku.dk/users/elgaard/eps/help.html#comm
Software – Koordinaten Converter–GeoTrans und mehr
http://164.214.2.59/GandG/geotrans/geotrans.html
Software – FreeGIS
http://www.freegis.org/
Software – tools, tips and tricks
http://gis.nrcan.gc.ca/~don/jwz/pages/tools.html
119
KAPITEL 6. ANHANG
Kleidung
ElekTex – Electgrotextiles
http://www.electrotextiles.com/
ETH Zürich – Electrotextiles
http://www.wearable.ethz.ch/index.php?textiles
Lunardesign
http://www.lunardesign.com/
Verschiedenes
Digital Compass
http://www.imagesco.com/catalog/DigitalCompass/DigitalCompass.html
Dinsmore Sensors
http://www.dinsmoresensors.com/
Geruch – Givaudan
http://www.givaudan.com
Handschrifterkennung – Stiftbewegungs Sensor – Pegasus
http://www.pegatech.com/
Measurement Specialties, Inc. – Pressure Transducers, Sensors Gauges
http://www.msiusa.com/sensors.htm
mouse, touchpad, epad pen input pad, keyboard, joystick, remote control,
http://www.interlinkelec.com/
6.1.4
Wearable Computer
Borg
http://science.ksc.nasa.gov/payload/projects/borg/applic.html
Charmed Technology
http://www.charmed.com
Operating system software, components, tools, applications and solutions for wearable
http://www.wearix.com
Tek Gear Products for wearable computing.
http://www.tekgear.ca/
Thad Starner
http://www.cc.gatech.edu/fac/Thad.Starner/
Ubicomp.com
http://www.ubicomp.com/
Ubiquitous Computing – The Computer for the 21st Century
http://www.ubiq.com/hypertext/weiser/UbiHome.html
Wearables Central
http://wearables.blu.org/
Wearable Technology
http://www.wearablecomputing.com/ Xybernaut – The leader in wearable computers
http://www.xybernaut.com/home.htm
120
Bibliography
[AAH+ 96] G. D. Abowd, C. G. Atkeson, J. Hong, S. Long, R. Kooper, and M. Pinkerton.
Cyberguide: A mobile context-aware tour guide. Technical report, Geogia Institute of Technology, Atlanta, Graphics, Visualization and Usability Centre,
College of Computing, 1996.
[Ado01]
Adobe. Skalierbare Vektor Grafiken, 2001.
http://www.adobe.de/web/features/svg/faq.html.
[And95a]
Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.):
Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:329–341,
1995.
[And95b]
Ross Andrew. The New Smartness. Gretchen Bender/Timothy Druckey (ed.):
Cultures on the brink. Ideologies of technology., Seattle, 2. Auflage:331, 1995.
[Bau97]
M. Bauer. Vermessung und Ortung mit Satelliten. NAVSTAR-GPS und andere satellitengestützte Navigationssysteme. Eine Einführung in die Praxis.
Heidelberg, Wichmann, 4. Auflage, 1997.
[Bre93]
K. Bretterbauer. GPS–Punktbestimmung für geodätische Anwender – Theoretische Grundlagen, 1993. Workshop der Firma AGIS,Wien.
[Com67]
Bell Helicopter Company. Alice, 1967.
http://www.sun.com/960710/feature3/alice.html.
[DA99]
A. K. Dey and G. D. Abowd. Toward a better understanding of context and
context-awareness. Technical report, GIT, GVU, June 1999. GIT-GVU-99-22.
[DA00]
A. K. Dey and G. D. Abowd. The context toolkit: Aiding the development of
context-aware applications. Technical report, SEWPC, Limerick, Ireland, June 6 2000. Proceedings of the Workshop on Software Engineering for Wearable
and Pervasive Computing (SEWPC).
[Dal01]
Christof Dallermassl. Multimediale Informationssysteme. Technical report,
IICM, TU-Graz, 2001. Skriptum der Vorlesung MMIS an der TU-Graz, IICM,
http://courses.iicm.edu/mmis/.
[Des01]
Lunar Design. Blu Concept, 2001.
http://www.lunardesign.com.
121
BIBLIOGRAPHY
122
[Dig03]
DigiScents. Geruch, 2003.
http://www.digiscents.com/.
[ESR01]
ESRI. Shapefile Technical Description, 2001.
http://www.esri.com/library/whitepapers/pdfs/shapefile.pdf.
[Fab99]
C. Faber. Immer wissen, wohin. Land der Berge, Heft 3, 118-121, 1999.
[FBN02]
Alois Ferscha, Wolfgang Beer, and Wolfgang Narzt. Location awareness in
community wireless lans. Technical report, Johannes Kepler University Linz,
2002.
[Fer00]
Alois Ferscha, editor. Workspace Awareness in Mobile Virtual Teams. Proceedings of the 9th International Workshops on Enabling Technologies: Infrastructures for Collaborative Enterprises (WETICE 2000), IEEE Computer
Society Press, 2000. 272-277.
[Fer01a]
Alois Ferscha, editor. Integrating Pervasive Information Acquisition to Enhance Workspace Awareness, EUROMICRO 2001, February 2001. Proceedings of
the 9th Euromicro Workshops on Parallel and Distributed Processing, IEEE
Computer Society Press. 327-336.
[Fer01b]
Alois Ferscha, editor. Towards a Context-Aware Embedded Internet, number
Nr. 26 in ÖVE Schriftenreihe, Wien, 2001. Proceedings of Informationstagung
Mikroelektronik 2001. 445-456.
[Fer02]
Alois Ferscha, editor. Bridging Physical and Virtual Worlds, volume 2361 of
Lecture Notes in Computer Science. Reliable Software Technologies - AE2002,
(invited paper), Springer Verlag, Berlin, 2002. 51-64.
[Fer03]
Alois Ferscha, editor. Collaboration and Coordination in Pervasive Computing
Environments. WETICE 2003, IEEE Computer Society Press, June 2003.
[FMS93]
Feiner, MacIntyre, and Seligmann. KARMA (Knowledge–based Augmented
Reality for Maintenance Assistance). Technical report, -, 1993.
http://www.cs.columbia.edu/graphics/projects/karma/karma.html.
[FPN+ 03] Alois Ferscha, Gustav Pomberger, Wolfgang Narzt, D. Korb, R. Müller,
J. Wieghardt, H. Hörtner, and C. Lindinger, editors. Pervasive Information
Acquisition for Mobile AR-Navigation Systems, Monterey, California, USA,
October 2003. 5th IEEE Workshop on Mobile Computing Systems Applications.
[FPSS01]
M. Fuchs, G. Prochart, G. Schall, and R. Steiniger. Nomadic computing.
Technical report, Institut für Technische Informatik, TU-Graz, 2001.
[FS02]
A. Ferscha and S.Vogl. The webwall, August 2002. UbiComp 2002 Workshop,
Collaboration with Interactive Walls and Tables (CIWaT02).
[FVB02]
Alois Ferscha, Simon Vogl, and Wolfgang Beer, editors. Ubiquitous Context
Sensing In Wireless Environments, 1-4020-7209-0. 4th DAPSYS (AustrianHungarian Workshop on Distributed and Parallel Systems), Kluwer Academic
Publisher, 2002. 88-106.
BIBLIOGRAPHY
123
[FVP+ 03] A. Ferscha, J. Volkert, M. Pitra, S. Vogl, D. Kranzlmüller, W. Narzt, V. Christian, and P. Heinzlreiter. Vrio (speech recongnition unit for natural interaction with immersive and pervasive multi-user cooperation environments).
Technical report, Johannes Kepler University Linz, 2003.
[Giv03]
Givaudan. Geruch, 2003.
http://www.givaudan.com/.
[Gro03]
Software Group. Research of the Software Group, 2003.
http://www.soft.uni-linz.ac.at/Research/.
[GS01]
P. Glantschnig and G. Schmölzer. Projektarbeit MapServer. Technical report,
IICM, TU-Graz, September 2001.
[HG94]
G. Hake and D. Grünreich. Kartographie. Berlin, Walter de Gryter, 7.Auflage,
1994.
[Hög96]
N. Höggerl. DGPS - Service in Österreich. Eich- und Vermessungsmagazin.
Seite 30-35, 1996.
[Hoo65]
Robert Hooke. Micrographia, 1665. Hauptwerk von Robert Hooke. London.
[Hur89]
J. Hurn. GPS - A Guide to the Next Utility. Sunnyvale, Trimble Navigation,
1989.
[HWLC94] B. Hofmann-Wellenhof, H. Lichtenegger, and J. Collins. GPS - Theory and
Practice. Wien; Springer; 3. Aufl., 1994.
[Jac92]
W. Jachmann. GPS - Eine Einführung. Allgemeine Vermessungs Nachrichten.
Heft 2, Seite 188-199., 1992.
[Leo98]
U. Leonhard. Supporting location-awareness in open distributed systems.
Technical report, Department of Computing, Imperial College of Science,
Technology and Medicine, University of London, 1998.
[LH02]
Linguatec and J. Hoepelman. Grundlagen der Spracherkennung, 2002.
http://www.spracherkennung.de.
[Lin98]
W. Linke. Orientierung mit Karte, Kompaß, GPS: Grundwissen - Verfahren
- Übungen. Herford, Busse Seewald, 9. Auflage, 1998.
[Man98]
Steve Mann. WEARABLE COMPUTING as means for PERSONAL EMPOWERMENT, May 1998.
http://wearcam.org/icwckeynote.html.
[Mec96]
H. Meckl. Einführung in die Landesvermessung und Topographie I+II. Skript
der Vorlesung, Wien, 1996.
[MI90]
Gerald Maguire and John Ioannidis. IBM/Columbia Student Electronic Notebook Project. Technical report, IBM, T. J. Watson Research Lab., Yorktown
Heights, NY, 29 June, 1990. Publiziert im IBM/Columbia Student Electronic
Notebook Project.
BIBLIOGRAPHY
124
[Mic99]
MicroOptical. Heads-up display can be built into eyeglasses, 1999.
http://www.eetimes.com/story/OEG19990420S0009.
[Mic03]
Microvision. Scanned-Beam Displays: How it Works, 2003.
http://www.mvis.com/technology/displays_works.html.
[MIT ]
MIT. Beauty Show, -.
http://www.media.mit.edu/wearables/lizzy/out-in-the-world/
beauty/index.html.
[MIT]
MIT. Wearables FAQ. Webpage.
http://wearables.www.media.mit.edu/projects/wearables/FAQ/FAQ.
txt.
[MIT03]
MIT. Wearable Computing, 2003.
http://www.media.mit.edu/wearables/index.html.
[MR94]
Edgar Matias and Mike Ruicci. Wrist Computer with half–keyboard. Technical report, Universität von Toronto, 1994.
http://www.dgp.toronto.edu/people/ematias/papers/chi96/
http://www.almaden.ibm.com/cs/user/inddes/halfkb.html.
[Pre02]
Irene Preisinger. Ihr Computer steht Ihnen ausgezeichnet, 2002.
http://www.stern.de/computer-technik/.
[PS93]
Doug Platt and Thad Starner. Lizzy. Technical report, MIT, 1993.
http://wearables.www.media.mit.edu/projects/wearables/lizzy/.
[Rhe91]
Howard Rheingold. Virtual Reality, 1991. 49 – 67.
[Ric98]
Birgit Richard. Icons. Localizer 1.3. Berlin (Techno – Theorie)., 1998. Robert
Klanten (Hrsg.).
[Sch94]
F. Schrödter. GPS satelliten-Navigation: Technik, Systeme, Geräte, Funktionen und praktischer Einsatz. Poing, Franzis Verlag, 1994.
[See89]
G. Seeber. Satellitengeodäsie. Grundlagen, Methoden und Anwendungen.
Walter de Guyter, Berlin, 1989.
[See96]
G. Seeber. Grundprinzipien zur Vermessung mit GPS. Der Vermessungsingenieur. Heft 2, Seite 53-64., 1996.
[Sma03]
SmartCom. Dialogische Mensch-Technik-Interaktion durch koordinierte Analyse und Generierung multipler Modalitäten, 2003.
http://smartkom.dfki.de/.
[Sta93]
Thad Starner. Remembrance Agent(RA). Technical report, MIT, 1993.
http://www.media.mit.edu/~rhodes/Papers/remembrance.html.
[Sta00]
Thad Starner. Human powered wearable computing. Technical report, MIT,
Massachusetts Institute of Technology, 2000. Perceptual Computing Section.
BIBLIOGRAPHY
125
[Ste86]
Bruce Sterling. Thorstein: Theorie der feinen Leute. Artificial Kid. London, 1990 Reprint Veblen, Bovenschen, Silvia (Hrsg.): Die Listen der Mode.,
Seattle, pages 106–155, 1986.
[Tea91]
CMU Team. VuMan, 1991.
http://www.cs.cmu.edu/afs/cs.cmu.edu/project/vuman/www/home.
html.
[Tec89]
Reflection Technology. Private Eye HMD, 1989.
http://www.reflectiontech.com/.
[Tei01]
Wulf Teiwes. EyeMouse, ein großer Schritt in Richtung eines intuitiven User
Interfaces, 2001.
http://www.smi.de.
[Tri03]
TriSenx. Geruch, 2003.
http://www.trisenx.com/.
[TZI a]
TZI. Nutzungsmodelle und Technologien für den Einsatz von tragbaren Computern in der Inspektion. Technical report, Technologie-Zentrum Informatik
der Universität Bremen (TZI), -.
http://www.dmn.tzi.org/de/winspect.html.
[TZI b]
TZI. WearLab; Themenzentrierte institutsübergreifende Forschungsgruppe.
Technical report, Technologie-Zentrum Informatik der Universität Bremen
(TZI), -.
http://www.wearlab.de/index.xhtml.
[Wei91]
Mark Weiser. The Computer for the 21st Century. Scientific American, pages
66 – 75, September 1991.
[Wel86]
D. Wells. Guide to GPS Positioning. Fredericton, 1986.
[Wer95]
H. Wernhart. Das Bundesmeldenetz in der österreichischen Karte. Eich und
Vermessungsmagazin, Ausgabe 77:Seite 9–17, 1995.