Ergonomische Konzepte und Interaktionsformen bei softwarebasierten

Transcription

Ergonomische Konzepte und Interaktionsformen bei softwarebasierten
Jurek Breuninger
Ergonomische Konzepte und Interaktionsformen bei
softwarebasierten Systemen
und eine Einführung in Usability Engineering
Ergonomic Concepts and Forms of Interaction in
Software-Based Systems and an Introduction to
Usability Engineering
Lehrstuhl für Ergonomie
Technische Universität München
Theoretische Semesterarbeit
Verfasser:
Jurek Breuninger
Module:
Elektronik und Informatik
Informationstechnik
Betreuer:
Prof. Dr. rer. nat. Heiner Bubb
Dipl.-Ing. Martin Wohlfarter:
Ausgabe am:
01.12.2008
Abgabe am:
01.06.2009
SEMESTERARBEIT JUREK BREUNINGER
2
EIDESSTATTLICHE ERKLÄRUNG
Hiermit versichere ich, diese Studienarbeit ohne fremde Hilfe selbständig verfasst
und nur die angegebenen Quellen und Hilfsmittel verwendet zu haben. Wörtlich oder
dem Sinn nach aus anderen Werken entnommene Stellen sind unter Angabe der
Quellen kenntlich gemacht.
Garching, den
Jurek Breuninger
VEREINBARUNG ZUM URHEBERRECHT
Hiermit gestatte ich dem Lehrstuhl für Ergonomie, diese Studienarbeit bzw. Teile davon nach eigenem Ermessen an Dritte weiterzugeben, zu veröffentlichen oder anderweitig zu nutzen. Mein persönliches Urheberrecht ist über diese Regelung hinaus
nicht beeinträchtigt.
Eventuelle Geheimhaltungsvereinbarungen über den Inhalt der Arbeit zwischen mir
bzw. dem Lehrstuhl für Ergonomie und Dritten bleiben von dieser Vereinbarung unberührt.
Garching, den
Jurek Breuninger
SEMESTERARBEIT JUREK BREUNINGER
3
EINLEITUNG
1
EINLEITUNG
8
2
NORMEN
9
2.1
Warum Normen?
9
2.2
ISO 9126: Software-Qualität
10
2.3
Die wichtigste Norm zur Mensch-Computer-Interaktion: DIN 9241
10
2.3.1
Aufgabenangemessenheit
11
2.3.2
Selbstbeschreibungsfähigkeit
11
2.3.3
Steuerbarkeit
12
2.3.4
Erwartungskonformität
13
2.3.5
Fehlertoleranz
14
2.3.6
Individualisierbarkeit
14
2.3.7
Lernförderlichkeit
15
2.4
Weitere Normen zur Mensch-Computer-Interaktion
16
2.4.1
VDI 5005
16
2.4.2
DIN EN ISO 14915: Software-Ergonomie für Multimedia-Benutzungsschnittstellen
16
2.4.3
VDI/VDE 3850: Maschinen-Bediensysteme
17
2.4.4
ISO/TS 16701: Gestaltung barrierefreier Software
17
2.4.5
DIN EN ISO 13407: Benutzerorientierte Gestaltung interaktiver Systeme
18
3
GESETZE
19
3.1
Bildschirmarbeitsverordnung (BildscharbV)
19
3.2
Barrierefreie Informationstechnik-Verordnung (BITV)
20
4
EMPFEHLUNGEN UND RICHTLINIEN
21
4.1
Acht goldene Regeln nach Shneiderman
21
4.2
Zehn Usability-Heuristiken nach Nielsen
23
4.3
Sieben Ergänzungen nach Dahm
25
4.4
Guidelines und Styleguides
27
SEMESTERARBEIT JUREK BREUNINGER
4
EINLEITUNG
5
HARDWARE
30
5.1
Tastaturen
30
5.1.1
Belegungen
30
5.1.2
Mechanik
37
5.1.3
Spezielle Tastaturen
40
5.2
Zeigegeräte
49
5.2.1
Maus
49
5.2.2
Trackball
50
5.2.3
Trackpoint
51
5.2.4
Touchpad
51
5.2.5
Joystick
53
5.2.6
Räder und Drehknöpfe
55
5.2.7
Lichtgriffel
56
5.2.8
Grafiktablett
56
5.2.9
Touchscreen
57
5.3
3D-Eingabegeräte
62
5.3.1
Spacemouse
62
5.3.2
Dataglove
63
5.3.3
Gamepads mit Bewegungssensoren
64
5.4
Darstellung
65
5.4.1
CRT
65
5.4.2
LCD
68
5.4.3
OLED
70
5.4.4
E-Paper
71
5.4.5
Beamer
72
5.4.6
Head-Up-Displays
73
5.4.7
Head-Mounted-Displays
76
5.4.8
3D-Darstellung
77
6
INTERAKTIONSFORMEN
80
6.1
Tastaturbedienung
80
6.2
Direkte Manipulation
83
6.2.1
WIMP
85
6.2.2
WYSIWYG
90
6.2.3
Besonderheiten des Touchscreens
91
SEMESTERARBEIT JUREK BREUNINGER
5
EINLEITUNG
6.3
Sprachdialog
93
6.3.1
Spracheingabe
93
6.3.2
Sprachausgabe
96
6.4
Kommandosprache
96
7
GRAPHISCHE BENUTZEROBERFLÄCHEN
99
7.1
Gestaltungsziele
99
7.2
Interaktionselemente
99
7.2.1
Imperative Bedienelemente
100
7.2.2
Selektive Bedienelemente
102
7.2.3
Eingabeelemente
107
7.2.4
Gruppierung
109
7.3
Menüs
114
7.3.1
Kontextmenüs
116
7.3.2
Pie Menues
117
7.4
Dialoge
119
7.5
Formulare
120
7.6
Metaphern
121
7.7
Icons
122
7.8
Erwartungskonformität, Konsistenz und Innovation
122
7.9
Ästhetik und Freude
123
7.10
Sprache
124
7.11
Fehlerbehandlung
124
7.12
Online-Hilfe
126
7.13
Ungewöhnliche Darstellungsformen
128
7.13.1
ZUI
130
7.13.2
Fish-Eye View
130
7.13.3
Hyperbolische Bäume
131
7.13.4
Mehrdimensionale Darstellung
132
SEMESTERARBEIT JUREK BREUNINGER
6
EINLEITUNG
8
EINGEBETTETE COMPUTER
135
8.1
Spezielle Anforderungen
135
8.2
Möglichkeiten
136
9
WERKZEUGE
9.1
Methoden zur Spezifikation
138
9.2
Werkzeuge zum Erstellen von Oberflächen
141
138
10
USABILITY ENGINEERING
144
10.1
Die drei Säulen des Entwurfs nach Shneiderman
144
10.2
Methoden
145
10.2.1
Contextual Inquiry
145
10.2.2
Personas und Szenarien
146
10.2.3
Storyboards
148
10.2.4
UI Prototyping
149
10.2.5
Use Cases
151
10.2.6
Guidelines und Styleguides
152
10.2.7
Usability Testing
153
10.2.8
Fragebögen
156
10.3
Planung
158
10.4
Integration in bekannte Vorgehensmodelle
159
10.4.1
Wasserfallmodell
159
10.4.2
Spiralmodell
160
10.4.3
V-Modell
161
10.4.4
Moderne Vorgehensmodelle mit UCD
162
10.5
Strategische Usability
11
LITERATURVERZEICHNIS
166
12
ABBILDUNGSVERZEICHNIS
168
ANHANG: LITERATUREMPFEHLUNG
SEMESTERARBEIT JUREK BREUNINGER
163
173
7
EINLEITUNG
1 Einleitung
In der ersten Semesterarbeit „Physiologische, psychologische und systemergonomische Grundlagen der Mensch-Computer-Interaktion“ wurde das Basiswissen behandelt, das nötig ist, um sich mit der Umsetzung, also der Entwicklung von Softwaresystemen nach ergonomischen Kriterien, zu beschäftigen. In dieser Arbeit werden
zuerst technische und rechtliche Randbedingungen behandelt, die die Entwicklung
beeinflussen. Dazu gehören sowohl Vorgaben des Gesetzgebers als auch die Empfehlungen anderer Softwarehersteller, auf deren Arbeit unter Umständen aufgebaut
wird. Es folgt eine kleine Übersicht über die Ein- und Ausgabegeräte, die für die
Mensch-Computer-Interaktion relevant sind. Dann werden bereits etablierte Konzepte der Interaktion mit Software wie das WIMP-Prinzip und die einzelnen Element von
graphischen Oberflächen untersucht. Darüber hinaus werden kurz einige Werkzeuge
aufgezählt, die die Entwicklung von Oberflächen erleichtern und es wird auf die Eigenheiten von eingebetteten Computern eingegangen. Der letzte Teil beschäftigt
sich mit den Maßnahmen, mit denen ein Ingenieur während des ganzen Entwicklungsprozesses eines softwarebasierten Produkts einen ergonomischen Entwurf gewährleisten kann. Diese Vorgehensweise nennt man Usability Engineering.
SEMESTERARBEIT JUREK BREUNINGER
8
NORMEN
2 Normen
2.1 Warum Normen?
Normen ermöglichen Massenproduktion, Modularisierung und reibungslose Interaktion zwischen Geräten verschiedener Hersteller. Den Herstellern ersparen sie so meist
Entwicklungszeit und -kosten. Dem Käufer ermöglichen sie einfachere Produktwahl
und unproblematischen Betrieb.
Auch in der Ergonomie gibt es Normen, um vor allem am Arbeitsplatz Voraussetzungen zu schaffen, die den ergonomischen Erkenntnissen gerecht werden und so den
Arbeiter schützen und hohe Produktivität ermöglichen. Sie legen gewisse Mindestund Höchstmaße für Möbel und Maschinen fest, um allen Menschen angenehmes
Arbeiten damit zu garantieren (Abbildung 2.1-1). Auch für die Arbeitsbedingungen
gibt es Richt- und Grenzwerte, etwa für Beleuchtung, Lärm, Belastungen und Arbeitszeiten.
Abbildung 2.1-1: Die Produktionsergonomie beschäftigt sich mit ergonomischen Arbeitsbedingungen. Sie werden in entsprechenden Normen festgehalten.
Seit den 1980er Jahren gibt es Bestrebungen, auch Softwarebenutzerschnittstellen
zu normen. Allerdings soll nicht erreicht werden, dass alle Benutzerschnittstellen
SEMESTERARBEIT JUREK BREUNINGER
9
NORMEN
gleich oder ähnlich aussehen. Stattdessen sollen den Entwicklern Hinweise, Richtlinien und Erfahrungen präsentiert werden, wie sie für den Benutzer möglichst ergonomische Software erstellen können. Dies erspart Entwicklungszeit und Fehlinvestitionen. Diese Normen sind allgemeingültig gehalten. Sie beschreiben keine speziellen
Anwendungsfälle, wie zum Beispiel eine Steckernorm. Jede Software hat andere Anforderungen an ihre Funktionalität und an die Möglichkeiten ihrer Benutzerschnittstelle. Für konkrete Typen von Software gibt es auch detailliertere Normen.
2.2 ISO 9126: Software-Qualität
In der Norm ISO 9126 sind die Merkmale für die Qualität von Software festgelegt.
Danach ist einer der sechs Punkte, die die Qualität von Software ausmachen, die
Benutzbarkeit (mit den Unterpunkten Verständlichkeit, Erlernbarkeit, Bedienbarkeit,
Attraktivität und Konformität). Trotz des sehr unscharfen Begriffes „Benutzbarkeit“ ist
die zentrale Aussage klar: Die Ergonomie ist ein wichtiger Faktor für die Qualität der
Software.
ISO/IEC 9126 bzw. DIN 66272 bzw. ISO/IEC 25000
2.3 Die
wichtigste
Norm
zur
Mensch-Computer-Interaktion:
DIN 9241
Die wichtigsten grundlegenden Eigenschaften jeder interaktiven Software werden in
der ursprünglich für Büro-Software entworfenen Norm DIN EN ISO 9241 „Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten“ beschrieben. Bereits
in den Grundlagen wurden die drei Hauptziele der Software-Ergonomie erwähnt, die
hier beschrieben werden: Effektivität, Effizienz und Zufriedenheit. Es sind nichtoperationale Oberziele, die sich nicht an den technischen Gegebenheiten, sondern primär
am Anwender orientieren. Aus diesen Oberzielen wird die Definition für Gebrauchstauglichkeit (usability) abgeleitet:
Gebrauchstauglichkeit ist das Maß an Effektivität, Effizienz und Zufriedenheit, mit der
Benutzer mit diesem System vorgegebene Ziele erreichen können.
In Teil 10 „Prinzipien der Dialoggestaltung“ werden folgende Eigenschaften für einen
Software-Dialog gefordert. Sie sind für jede Art von Benutzerschnittstelle erstrebenswert und haben somit universelle Gültigkeit. Zusätzlich zur Definition gibt die
SEMESTERARBEIT JUREK BREUNINGER
10
NORMEN
Norm auch einige Empfehlungen, wie sich die geforderten Eigenschaften erreichen
lassen:
2.3.1 Aufgabenangemessenheit
„Ein Dialog ist aufgabenangemessen, wenn er den Benutzer unterstützt, seine Arbeitsaufgabe effektiv und effizient zu erledigen.“
Der Dialog sollte dem Benutzer nur solche Informationen anzeigen, die im Zusammenhang mit der Erledigung der Arbeitsaufgabe stehen.
Die angezeigte Hilfe-Funktion sollte von der Aufgabe abhängen.
Alle Aufgaben, die sinnvollerweise automatisch vom Dialogsystem erledigt
werden können, sollen auch von diesem ausgeführt werden, um den Anwender zu entlasten.
Das Dialogsystem sollte den Benutzer bei der Erledigung wiederkehrender
Aufgaben unterstützen.
Das Dialogsystem sollte keine unnötigen Arbeitsschritte erforderlich machen.
Gibt es für eine Arbeitsaufgabe Standardwerte, sollten diese dem Anwender
als Vorgabe angeboten werden.
Dieses Kriterium erfordert eine Fokussierung ausschließlich auf die notwendigen Informationen und Handlungsschritte. Alles andere soll den Benutzer nicht belasten.
Dazu sollte der Arbeitsvorgang betrachtet werden, nicht der Aufgabeninhalt.
2.3.2 Selbstbeschreibungsfähigkeit
„Ein Dialog ist selbstbeschreibungsfähig, wenn jeder einzelne Dialogschritt durch
Rückmeldung des Dialogsystems unmittelbar verständlich ist oder dem Benutzer auf
Anfrage erklärt wird.“
Nach jeder Handlung des Benutzers sollte das Dialogsystem dort, wo es
zweckmäßig ist, eine Rückmeldung geben.
Wenn die Ausführung einer Handlung schwerwiegende Folgen haben kann,
sollten diese vor der Ausführung erläutert und eine Bestätigung verlangt werden.
SEMESTERARBEIT JUREK BREUNINGER
11
NORMEN
Rückmeldungen und Erläuterungen sollten sich in ihrer Terminologie aus dem
Arbeitsgebiet statt aus den technischen Eigenschaften des Dialogsystems ableiten.
Rückmeldungen sollten den Kenntnissen des erwarteten Anwenders angepasst werden.
Falls für eine Aufgabe eine Liste von vorgegebenen Eingabewerten vorliegt,
sollte sie dem Benutzer verfügbar gemacht werden.
Wenn eine Eingabe verlangt wird, sollte der Anwender über den Wertebereich
und das erwartete Format informiert werden.
Wie bereits bei der Aufgabenangemessenheit beschrieben, sollte das System über
sich und die Interaktionsvorgänge so viel Information wie nötig ausgeben, nicht so
viel wie möglich. Gute Selbstbeschreibungsfähigkeit zu erreichen ist schwierig, da sie
stark vom Wissen und der Erfahrung des Anwenders abhängig ist.
2.3.3 Steuerbarkeit
„Ein Dialog ist steuerbar, wenn der Benutzer in der Lage ist, den Dialogablauf zu
starten, sowie seine Geschwindigkeit und Richtung zu beeinflussen, bis das Ziel erreicht ist.“
Die Geschwindigkeit des Dialogablaufs sollte nicht vom Dialogsystem bestimmt werden, sondern unter der Kontrolle des Benutzers stehen.
Das Dialogsystem sollte dem Benutzer die Kontrolle darüber geben, wie der
Dialog fortgesetzt werden soll.
Soweit möglich sollten Dialogschritte wieder rückgängig gemacht werden können.
Die Art der Anzeige von Daten (Format und Typ) sollte vom Benutzer beeinflussbar sein.
Wenn alternative Eingabeformen vorgesehen sind, sollte der Benutzer selbst
entscheiden, welche Alternative er wählt.
Unterschiedliche Benutzertypen sollten unterschiedliche Formen und Darstellungen von Dialogen auswählen können.
SEMESTERARBEIT JUREK BREUNINGER
12
NORMEN
Gute Steuerbarkeit erfordert meist technischen Mehraufwand; vor allem die sehr
wichtige Maxime, dass alle Aktionen rückgängig gemacht werden können. Hier müssen die Daten konsistent gehalten werden, egal wann Vorgänge unterbrochen oder
revidiert werden. Wie wichtig Steuerbarkeit ist, offenbart sich häufig dann, wenn Systeme nicht (mehr) steuerbar sind.
2.3.4 Erwartungskonformität
„Ein Dialog ist erwartungskonform, wenn er konsistent ist und den Merkmalen des
Benutzers entspricht, zum Beispiel seinen Kenntnissen aus den anerkannten Konventionen.“
Das Verhalten des Dialogsystems und die Informationsdarstellung sollen einheitlich sein.
Änderungen und Funktionsaufrufe werden auf einheitliche Art und Weise herbeigeführt.
Der Dialog sollte die Terminologie des Anwenders und der Arbeitsaufgabe
verwenden.
Die Einfügemarke sollte an der Stelle stehen, bei der die nächsten Eingaben
erwartet werden.
Bei ähnlichen Arbeitsaufgaben sollten Dialoge ähnlich aufgebaut sein und
ähnlich ablaufen.
Ist mit erheblichen Bearbeitungszeiten zu rechnen, so ist der Benutzer über
die voraussichtliche Wartezeit zu informieren.
Die Norm fordert durch dieses Kriterium die Konsistenz von Benutzerschnittstellen.
Es ist aber nicht immer leicht zu gewährleisten, dass ein Programm in sich konsistent
ist, mit Programmen des gleichen Typs oder der gleichen Funktionalität konsistent ist
und mit völlig anderen Programmen konsistent ist. Dies gilt besonders wenn technische Einschränkungen bestehen.
SEMESTERARBEIT JUREK BREUNINGER
13
NORMEN
2.3.5 Fehlertoleranz
„Ein Dialog ist fehlertolerant, wenn das beabsichtigte Arbeitsergebnis trotz fehlerhafter Eingaben entweder mit keinem oder mit minimalem Korrekturaufwand seitens des
Benutzers erreicht werden kann.“
Das Dialogsystem sollte den Benutzer dabei unterstützen, Eingabefehler zu
entdecken und zu vermeiden.
Fehler sollten dem Benutzer zu Korrekturzwecken erläutert werden.
Wenn Fehler automatisch korrigiert werden können, sollte das Dialogsystem
den Benutzer auf den Fehler hinweisen und einen Korrekturvorschlag machen.
Die Prüfung auf Gültigkeit der Daten sollte während der Eingabe und nicht erst
bei Übernahme erfolgen.
Die Fehlermeldung und Vorschläge für Verbesserungen sollten, wenn es erforderlich ist, erst auf Verlangen und nicht bereits bei Eingabe erscheinen.
Falls Fehler korrigiert werden müssen, sollte das mit möglichst wenig Aufwand
geschehen, auch ohne den Zustand des Dialogsystems ändern zu müssen.
Fehler sind die größten Feinde der drei Oberziele der Software-Ergonomie. Also sollte man sie auf jeden Fall vermeiden. Da sie nie völlig auszuschließen sind, müssen
beim Auftreten von Fehlern schnelle und einfache Maßnahmen zur Behebung der
Situation vorgesehen sein. Vor allem sollte zu jeder Zeit kommuniziert werden, warum Fehler entstanden sind und in welcher Form sie korrigiert werden. Die Qualität
der Fehlermeldungen ist ein wichtiger Teil der Software-Ergonomie.
2.3.6 Individualisierbarkeit
„Ein Dialog ist individualisierbar, wenn das Dialogsystem Anpassungen an die Erfordernisse der Arbeitsaufgabe sowie an die individuellen Fähigkeiten und Vorlieben
des Benutzers zulässt.“
Das Dialogsystem sollte eine Anpassung an Sprache, kulturelle Eigenheiten
und individuelles Wissen und Erfahrung des Anwenders ermöglichen.
SEMESTERARBEIT JUREK BREUNINGER
14
NORMEN
Für körperlich eingeschränkte Benutzer sollte eine Anpassung des Dialogsystems möglich sein.
Der Umfang von Erläuterungen bei Fehlermeldungen oder Hilfeinformationen
sollte entsprechend dem Kenntnisstand des Benutzers einstellbar sein.
Der Benutzer sollte die Möglichkeit haben, Menüs nach seinen speziellen Arbeitsaufgaben zu konfigurieren.
Für unterschiedliche Arbeitsaufgaben sollte zwischen verschiedenen Interaktionsformen gewechselt werden können.
Der Benutzer sollte für seine speziellen Arbeitsaufgaben wiederkehrende Vorgänge automatisieren können.
Die Individualisierbarkeit ist ein vor allem für Experten sehr wünschenswertes Kriterium, das die Produktivität stark steigern kann. Sie birgt allerdings die Gefahr, dass
das System für andere Benutzer deutlich schwieriger zu bedienen wird. Es muss also
sichergestellt sein, dass die Individualisierung personenspezifisch bleibt. Sie zu realisieren ist oft ein zusätzlicher technischer Aufwand.
2.3.7 Lernförderlichkeit
„Ein Dialog ist lernförderlich, wenn er den Benutzer beim Erlernen des Interaktionssystems unterstützt und anleitet.“
Dem Dialogsystem zugrunde liegende Konzepte und Regeln sollen dem Benutzer zugänglich gemacht werden, damit sich dieser eigene Schemata und
Regeln aufbauen kann.
Wichtige Lernstrategien sollen unterstützt werden, beispielsweise Learning-bydoing, Exploration oder verständnisorientiertes Lernen.
Das Wiederauffrischen von Gelerntem sollte unterstützt werden.
Eine Reihe von Mitteln zur Verbesserung der Lernförderlichkeit sollte verwendet werden, um dem Benutzer zu helfen, mit den Teilen des Dialogsystems
vertraut zu werden.
Die Lernförderlichkeit wird bei Software-Systemen meist implizit vorausgesetzt, denn
sie ist eins der am leichtesten ersichtlichen Kriterien. Sie wird erst in Kombination mit
SEMESTERARBEIT JUREK BREUNINGER
15
NORMEN
den Kriterien Aufgabenangemessenheit und Individualisierbarkeit zu einer großen
Herausforderung. Die Informationen, die angeboten werden, sollten relevant sein und
dem Kenntnisstand des Benutzers angepasst. Darüber hinaus sollten dem Benutzer
im Sinne der Steuerbarkeit lernunterstützende Funktionen nur auf eigene Initiative
angeboten werden, damit er nicht unnötig mit dem Herausfiltern der wichtigen Informationen belastet wird.
Dahm 2006, S. 132–141
DIN EN ISO 9241
2.4 Weitere Normen zur Mensch-Computer-Interaktion
Es gibt eine Reihe anderer Normen die sich im weitesten Sinne mit der Ergonomie
von Software auseinandersetzen. Sie sind fast alle stärker auf ein spezielles Themengebiet fokussiert als die allgemeine DIN 9241. Es wird hier nicht im Detail auf sie
eingegangen, sondern nur der Vollständigkeit halber einen kurzen Überblick über die
wichtigsten gegeben.
2.4.1 VDI 5005
Diese Richtlinie des Vereins Deutscher Ingenieure dient der Beurteilung der ergonomischen Qualität von Büro-Software anhand der folgenden drei Kriterien:
Kompetenzförderlichkeit
Handlungsflexibilität
Aufgabenangemessenheit
2.4.2 DIN EN ISO 14915: Software-Ergonomie für MultimediaBenutzungsschnittstellen
Dies ist eine Erweiterung für DIN 9241, die zusätzliche Anforderungen an solche Benutzungsschnittstellen formuliert, die mehrere Medien (Text, Grafik, Fotografie, Animation, Audio, Video) zum Informationstransfer nutzen. Hinzu kommen Ausführungen über Gestaltungsgrundsätze und Rahmenbedingungen, Multimedia-Navigation
und Steuerung, sowie Auswahl und Kombination von Medien.
Multimediale Systeme haben andere Anforderungen und Auswirkungen auf die
menschliche Aufmerksamkeit, Wahrnehmung, Kognition und Kommunikation. Sie
SEMESTERARBEIT JUREK BREUNINGER
16
NORMEN
sind nicht auf Büroaufgaben beschränkt und werden zu einem großen Teil durch Exploration, also das spielerische, zwanglose Ausprobieren, erlernt. Dadurch ergeben
sich für Multimedia-Systeme folgende zusätzliche Anforderungen:
Eignung für das Kommunikationsziel
Eignung für Wahrnehmung und Verständnis
Eignung für Exploration
Eignung für Benutzungsmotivation
2.4.3 VDI/VDE 3850: Maschinen-Bediensysteme
Diese Norm aus der klassischen Ergonomie ist auch für die Software-Ergonomie relevant, da sie wertvolle Hinweise für das Design von Ein- und Ausgabegeräten von
Software-Systemen liefert. Sie beschreibt in drei Teilen
die Grundlagen der Gestaltung von Bediensystemen und Empfehlungen für
die Kodierung und Darstellung von Informationen,
eine Beschreibung von koordinatengebenden Eingabegeräten (Schieberegler,
Drehknöpfe, Tastaturen),
eine Anleitung für eine ergonomische Gestaltung von Dialogen für Touchscreens.
2.4.4 ISO/TS 16701: Gestaltung barrierefreier Software
Ein Teil der Bevölkerung ist eingeschränkt in Bezug auf seine Sehkraft, das Hören
oder die motorischen Fähigkeiten. Diese Norm enthält ergänzende Anforderungen an
Web-, Büro- und Multimediaanwendungen, sowie Hardware, um diesen Menschen
gerecht zu werden. Sie fordert zum Beispiel komplette Steuerbarkeit von Programmen mit der Tastatur, screenreadertaugliches Design und Informationskodierung, die
nicht allein von Form oder Farbe abhängig ist.
SEMESTERARBEIT JUREK BREUNINGER
17
NORMEN
2.4.5 DIN EN ISO 13407: Benutzerorientierte Gestaltung interaktiver
Systeme
Diese Norm ist mehr eine Sammlung von Vorgehensweisen, um die in den anderen
Normen geforderten Grundsätze zu erreichen. Wie in DIN 9241 sind die obersten
Ziele Effektivität, Effizienz und Zufriedenheit.
Der Anwender soll während des Software-Entwicklungsprozesses möglichst früh
durch folgende Aufgaben einbezogen werden:
Verstehen und Festlegen des Nutzungskontexts
Festlegen von Benutzeranforderungen und organisatorischen Anforderungen
Entwerfen von Gestaltungslösungen
Beurteilen von Gestaltungslösungen bezüglich der Anforderungen
Die Norm legt außerdem die Multidisziplinarität der Software-Entwicklung nahe und
fordert dementsprechende Ausbildungen für die Beteiligten. Es wird weiterhin auf die
Anforderungsspezifikation eingegangen und eine exakte Festlegung der Funktionsaufteilung zwischen Bediener und Software-System empfohlen. Für die Implementierung schlägt die Norm iterative Vorgehensweisen vor, die zuletzt eine gute Absicherung des Konzepts durch die Beurteilung der zukünftigen Benutzer garantiert.
Dahm 2006, S. 141–145
SEMESTERARBEIT JUREK BREUNINGER
18
GESETZE
3 Gesetze
Eine Norm ist eine Empfehlung oder genaue Beschreibung von Anforderungen an
ein Objekt. Sie garantiert aber allein noch nicht die Einhaltung dieser Vorgaben durch
die Hersteller am Markt. Oft regelt die Nachfrage der Kunden nach Produkten mit
problemloser Benutzung und Interoperabilität das Angebot von Produkten, die sich
an eine Norm halten. Man nennt dies die „normative Kraft des Faktischen“. Wenn
aber keine Randbedingungen die Einhaltung einer sinnvollen Norm bewirken, so ist
oft der Gesetzgeber gezwungen, die Einhaltung von Normen durchzusetzen.
Die ergonomischen Eigenschaften von Software-Systemen sind meist schwer quantifizierbar. Deshalb sind die Normen hauptsächlich qualitativ formuliert. Darauf basierende gesetzliche Verpflichtungen sind schwierig überprüfbar. So gibt es keine gesetzliche Vorgabe, Software nach DIN 9241 zu entwickeln. Ein Software-Hersteller ist
nur dann für die ergonomischen Eigenschaften seiner Produkte haftbar, wenn er einen speziellen Vertrag mit seinem Kunden abschließt, der eine gute Gebrauchstauglichkeit der Software garantiert.
3.1 Bildschirmarbeitsverordnung (BildscharbV)
Für Arbeitgeber gibt es allerdings verpflichtende Vorgaben, die die Qualität und ergonomischen Eigenschaften der Arbeitsplätze sicherstellen und so den Arbeitnehmer
schützen sollen. Für Arbeitsplätze, die die Arbeit mit Computern voraussetzen, gilt
die Bildschirmarbeitsverordnung, die für die eingesetzte Software folgende Bedingungen stellt:
Die Software muss an die auszuführende Aufgabe angepasst sein.
Die Systeme müssen den Benutzern Angaben über die jeweiligen Dialogabläufe unmittelbar oder auf Verlangen machen.
Die Systeme müssen den Benutzern die Beeinflussung der jeweiligen Dialogabläufe ermöglichen, sowie eventuelle Fehler bei der Handhabung beschreiben und deren Beseitigung mit begrenztem Arbeitsaufwand erlauben.
Die Software muss entsprechend den Kenntnissen und Erfahrungen der Benutzer im Hinblick auf die auszuführende Aufgabe angepasst werden können.
SEMESTERARBEIT JUREK BREUNINGER
19
GESETZE
In diesen Forderungen kann man die Prinzipien aus DIN 9241 wieder erkennen. So
gibt es seit 1. Januar 2000 doch eine gesetzliche Grundlage, die nach ergonomischen Gesichtspunkten entwickelte Software verpflichtend macht. Die Einhaltung
dieser gesetzlichen Richtlinien ist für alle Softwarehersteller von Belang, da sie von
Auftraggebern gefordert wird und ein und ein wichtiges Verkaufsargument ist.
3.2 Barrierefreie Informationstechnik-Verordnung (BITV)
Seit 2006 müssen alle Internetauftritte und öffentlichen graphischen Informationssysteme der deutschen Bundesbehörden den Richtlinien der BITV genügen, die einen
einfachen Zugang zu den Informationen für Menschen mit körperlichen Einschränkungen ermöglichen sollen.
Dahm 2006, S. 145–147
SEMESTERARBEIT JUREK BREUNINGER
20
EMPFEHLUNGEN UND RICHTLINIEN
4 Empfehlungen und Richtlinien
Man kann Software nach ergonomischen Kriterien entwerfen, die einfach überprüfbar
sind. Die Herausforderung liegt allerdings darin, dass dies nur eine gute Grundlage
ergibt, aber noch keine Garantie für ergonomische Software ist. Es gibt leider einen
großen Anteil am Entwurf, der sich nicht aus quantifizierbaren Regeln ableiten lässt,
sondern das Gespür und die Erfahrung des Entwicklers voraussetzt. Nicht zu jedem
Problem gibt es eine eindeutig richtige und beste Lösung. Außerdem zeigen Benutzerexperimente manchmal gute Ergebnisse mit Konzepten, die einer oder mehreren
der bisher eingeführten Erkenntnisse widersprechen. Deshalb gibt es in der Software-Ergonomie neben den bereits bekannten Grundlagen vor allem viele Empfehlungen von zahlreichen Experten, die meist aus den Erfahrungen langjähriger Forschung und Anwendung resultieren. Die Aussagen sind oft recht ähnlich und basieren auf den bereits vorgestellten Grundlagen. Stellvertretend für alle werden hier nur
die Vorschläge von Shneiderman, einem der bekanntesten Forscher auf diesem Gebiet, und von Nielsen, der einen sehr minimalistischen Ansatz vertritt, vorgestellt.
4.1 Acht goldene Regeln nach Shneiderman
Ben Shneiderman, einer der Pioniere der Software-Ergonomie, hat empirisch acht
goldene Regeln für den Entwurf von Benutzerschnittstellen aufgestellt.
Konsistenz
Verwende Styleguides. Trage Sorge, dass alle Designer und Programmierer
die gleichen Styleguides verstanden haben und verwenden. So sind alle Teile
der Benutzerschnittstelle einheitlich. Konsistenz umfasst Aussehen und Platzierung von Bedienungselementen, Wortwahl, Beschriftungen, Schriftgrößen
und -farben, Abfolgen von Aktionen.
Berücksichtige unterschiedliche Erfahrungen
Die Benutzerschnittstelle sollte jedem Benutzer je nach Vorkenntnissen und
Erfahrung eine für ihn effiziente Interaktionsform bereitstellen. Anfänger können der expliziten Beschreibung im Menü besser folgen, Experten arbeiten
schneller mit Tastaturkürzeln und Makros.
Rückmeldungen auf Aktionen des Benutzers
SEMESTERARBEIT JUREK BREUNINGER
21
EMPFEHLUNGEN UND RICHTLINIEN
Rückmeldungen bestätigen die Handlungen des Anwenders und geben ihm
Sicherheit, dass das System seine Eingabe bearbeitet. Meist ist sie visuell wie
das Eindrücken eines Knopfes oder das farbige Hinterlegen beim Markieren
eines Textes. Auch kurze Textnachrichten können eine Handlung erklären.
Bei direkter Manipulation ist die Rückmeldung meist Teil des Konzeptes und
somit sofort zu sehen (wie beim Ziehen eines Objektes). Auch akustische
Rückmeldung ist möglich, sollte aber vorsichtig eingesetzt werden, da sie
schnell als störend empfunden werden kann. Deshalb eignet sie sich besonders für seltene Fehlersituationen. Auch eine Fehlermeldung ist eine Rückmeldung. Sie sollte besonders auf die Behebung des Fehlers gerichtet sein
(konstruktive Fehlermeldung).
Abgeschlossene Operationen
Bei einer Handlung, die aus mehreren Schritten besteht, sollte die Zusammengehörigkeit immer deutlich sein. Es empfiehlt sich eine Übersicht über alle
Schritte und eine Fortschrittsanzeige, die den aktuellen Schritt kennzeichnet.
Fehler verhindern
Noch besser als eine konstruktive Fehlermeldung ist es zu vermeiden, dass
der Fehler überhaupt auftritt. Irrelevante Interaktionsmöglichkeiten sollten
ausgeblendet und deaktiviert werden. Das Format für beispielsweise ein Datum sollte vorgegeben sein und die Eingabemaske keine Fehleingaben zulassen. Dies kann besonders elegant durch die Darstellung eines Kalenders realisiert werden, auf dem das gewünschte Datum ausgewählt werden kann.
Nach Auftreten eines Fehlers sollte dieser mit möglichst wenigen Aktionen
rückgängig gemacht werden können.
Einfache Rücksetzmöglichkeiten
Jede Aktion revidieren zu können ermöglicht dem Anwender spielend ein System zu erkunden ohne schwerwiegende Folgen fürchten zu müssen. Nur so
kann kreativ gearbeitet werden. Dabei sind auch ein mehrfaches Rückgängigmachen und das Rückgängigmachen des Rückgängigmachens nützlich
und gewünscht. Wenn ein Rückgängigmachen technisch nicht möglich ist,
sollte der Benutzer deutlich darauf hingewiesen werden. Die Rückgängigfunktion ist vor allem für das explorative Erlernen einer Software sehr hilfreich.
SEMESTERARBEIT JUREK BREUNINGER
22
EMPFEHLUNGEN UND RICHTLINIEN
Benutzerbestimmte Eingaben
Jede Operation sollte jederzeit vom Benutzer unterbrochen oder abgebrochen
werden können. Eine Bedienungsabfolge sollte nie aufgezwungen sein, sondern vom Benutzer kontrolliert werden können. Aktionen und Informationen
sollten einfach und schnell gefunden werden können.
Geringe Belastung des Kurzzeitgedächtnisses
Die bekannten 7±2 chunks Kapazität des Kurzzeitgedächtnisses sollten nie
ausgereizt werden. Die Anzahl an Optionen oder gleichzeitig präsentierten Informationen sollte möglichst gering gehalten werden. Also lieber breite Menüstrukturen mit vielen Menüpunkten auf der obersten Ebene und wenigen Unterpunkten statt tiefe Menüstrukturen mit wenig Menüpunkten auf der obersten
Ebene und vielen Unterpunkten benutzen. Der Benutzer braucht einen Großteil seiner mentalen Kapazität, um sich auf die eigentliche Aufgabe zu konzentrieren
Dahm 2006, S. 151–154
Shneiderman 2005, S. 74–76
4.2 Zehn Usability-Heuristiken nach Nielsen
Auch Jakob Nielsen, ein weiterer Software-Ergonom, der auf Web-Usability spezialisiert ist, schlägt zehn Richtlinien für den Entwurf vor. Er nennt sie Heuristiken, um zu
betonen, dass sie nur auf Erfahrung basieren. Die Vorgehensweise, beim Design
einer Software nur diese zehn Heuristiken zu beachten, die ein Minimalmaß an Gebrauchstauglichkeit gewährleisten, nennt Nielsen „Discount Usability Engineering“.
Einfache und natürliche Dialoge
Die nötigen Informationen werden dem Benutzer angezeigt und der Ablauf ist
seinem Handeln angepasst. Dies benötigt ein gewisses Einfühlungsvermögen
des Entwicklers in den Benutzer.
Ausdrucksweisen des Anwenders
Alle Informationen sollen in der Fachsprache des Anwendungsgebietes präsentiert werden, damit sie der Anwender jederzeit versteht. Es empfiehlt sich,
einen Mann vom Fach hinzuzuziehen.
SEMESTERARBEIT JUREK BREUNINGER
23
EMPFEHLUNGEN UND RICHTLINIEN
Minimale mentale Belastung des Benutzers
Die Anzahl an gleichzeitig präsentierter Information sollte auf ein Minimum beschränkt werden, um die 7±2 chunks Kapazität des Kurzzeitgedächtnisses
nicht über zu strapazieren. Gruppierungen und unterschiedliche Farben verbessern diese Limitation kaum. Sie erhöhen eher das Risiko wichtige Information zu übersehen.
Konsistenz
Dialoge folgen immer der gleichen Logik. Der markierte Knopf ist immer entweder „Abbrechen“ oder „Aktion ausführen“. Auch Fehlermeldungen sehen je
nach Typ immer gleich aus und haben gleiches Verhalten.
Rückmeldungen
Dem Benutzer wird immer signalisiert wenn er eine Aktion angestoßen hat,
entweder optisch oder akustisch. Bei längerer Verzögerung wird er über den
Verlauf unterrichtet, wenn möglich mit der genauen Restzeit der Bearbeitung.
Klare Auswege
Wenn der Benutzer bei der Lösung seiner Aufgabe in eine Sackgasse gerät,
sollte er immer einfach zu einem bekannten Startpunkt zurückkehren können.
Zum Beispiel bei Aktionen, die länger dauern als erwartet, muss das Abbrechen möglich sein.
Abkürzungen
Geübte Benutzer sollen ihre Arbeitsprozesse beschleunigen können. Sie bevorzugen dafür meist Tastaturkürzel und Mausbedienung mit Modifikatoren
statt der Menüsteuerung. Häufig verwendete Eingaben sollten automatisch
vorgeschlagen werden. Dies beschleunigt das Arbeiten und vermeidet Fehleingaben.
Gute Fehlermeldungen
Gute Fehlermeldungen sind konstruktiv formuliert und für den Anwender verständlich. Sie helfen den Fehler zu beheben anstatt den Benutzer zu verärgern. Es ist auch möglich, Fehlermeldungen an die Benutzerklassen anzupassen und so zusätzliche Information an Experten auszugeben.
SEMESTERARBEIT JUREK BREUNINGER
24
EMPFEHLUNGEN UND RICHTLINIEN
Fehlervermeidung
Statt Fehlermeldungen sollten die Fehler besser gleich vermieden werden.
Standardwerte, Auswahlmöglichkeiten und Hinweise helfen hierbei. Eine bestimmte Aktion sollte möglichst nicht in anderem Kontext einen völlig anderen
Effekt haben. Zum Beispiel Tastaturkürzel sollten immer identisch sein oder
dem gleichen Muster folgen.
Hilfe und Dokumentation
Die Dokumentation ist sehr wichtig, um dem Benutzer in jeder Situation zu helfen. Sie soll immer den aktuellen Kontext beschreiben, um ihn dabei zu unterstützen, was er gerade macht. Die Dokumentation muss vollständig, übersichtlich, aktuell und korrekt sein.
Dahm 2006, S. 154–156
4.3 Sieben Ergänzungen nach Dahm
Markus Dahm ergänzt die Richtlinien von Shneiderman und Nielsen in seinem Buch
mit sieben weiteren, die noch nicht erwähnt wurden. Diese beschäftigen sich unter
anderem auch mit dem subjektiven Empfinden des Benutzers:
Freude bei der Arbeit
Obwohl in DIN 9241 ausdrücklich Zufriedenheit des Benutzers gefordert wird,
wird die leichte Steigerung zur Freude fast nie eingefordert. Dahm empfindet
dies jedoch als sehr wichtig und verweist auf die dadurch gesteigerte Produktivität. Allerdings gibt es keine allgemein anerkannten Methoden, um Freude
an der Arbeit mit einer Software zu gewährleisten.
Ansprechende Gestaltung
Eng mit dem vorher genannten Punkt ist auch die Ästhetik von Software verbunden. Auch hier gilt, dass die Einordnung sehr subjektiv erfolgt und es wenige garantierte Erfolgsrezepte gibt. Die Mitarbeit von gelernten Designern bei
Softwareprojekten ist empfehlenswert und hilft auch der ergonomischen Gestaltung.
Provozierende Gestaltungsvorschläge
SEMESTERARBEIT JUREK BREUNINGER
25
EMPFEHLUNGEN UND RICHTLINIEN
Dies ist eine einfache Empfehlung an Oberflächenentwickler, sich nicht auf die
bekannten und festgefahrenen Konzepte zur beschränken, sondern offen für
neue Wege zu sein.
Minimale Gestaltung
Das Benutzungskonzept sollte schlank sein und mit einem Minimum an Funktionen und gestalterischen Elementen auskommen. Erst wenn Funktionen in
Benutzertests vermisst werden, sollten sie nach und nach hinzugefügt werden.
Softwaregestaltung ist Arbeitsgestaltung
Die Qualität eines Arbeitsplatzes und der Arbeitsvoraussetzungen resultiert
aus der Qualität der Software, die dort eingesetzt wird. Durch Einbeziehung
des Nutzers in den Entwicklungsprozess kann die Entwicklung verbessert
werden.
Orientierung an Abläufen
Beim Entwurf von Software sollte man sich eher am Ablauf der Geschäftsprozesse orientieren und nicht, wie meist realisiert, ähnliche Funktionen gruppieren.
Informelle Informationen
Neben den formalen Anforderungen, wie in Abläufen dokumentierten Geschäftsprozessen,
gibt
es
im
betrieblichen
Umfeld
auch
bewährte
undokumentierte Regeln und Vorgehensweisen, die manchmal den vorgeschriebenen Prozessen widersprechen können beziehungsweise Regeln umgehen. Trotzdem können sie für die Produktivität wichtig oder sogar zwingend
sein. Wenn diese vor der Entwicklung erfasst und als zusätzliche Anforderungen erkannt werden, steigert dies den Wert der Software deutlich. Da es für
externe Entwickler nur selten möglich und aufwändig ist, diese Elemente der
Unternehmenskultur kennen zu lernen, sollte Software zumindest hohe Flexibilität mitbringen, um mögliche informelle Vorgehensweisen zu ermöglichen.
Dahm 2006, S. 157f.
SEMESTERARBEIT JUREK BREUNINGER
26
EMPFEHLUNGEN UND RICHTLINIEN
4.4 Guidelines und Styleguides
Neben den Empfehlungen anerkannter Experten und einer eigenen fundierten
Kenntnis software-ergonomischer Prinzipien richten sich gute Oberflächenentwickler
möglichst auch nach den Gestaltungsrichtlinien, den so genannten Styleguides oder
Human Interface Guidelines, die die Umgebung des Softwareprojektes vorgibt. Während Guidelines meist nur das Verhalten der Software beschreiben, enthalten
Styleguides zusätzlich oder ausschließlich Informationen über das Aussehen
(Look&Feel). Das Einhalten dokumentierter Richtlinien erzwingt automatisch gute
Konsistenz verschiedener Anwendungen innerhalb der Umgebung, für die die Richtlinien gelten. Diese Umgebung ist meist eine Softwareplattform, ein Betriebssystem
oder ein Unternehmen. So sind die bekanntesten Styleguides jene von Microsoft und
Apple, die gewisse Grundregeln des Aussehens und Verhaltens von Anwendungen
für ihre Betriebssysteme vorschreiben.
Abbildung 4.4-1: Eine verbreitete MS-DOS-Anwendung, die noch nicht dem CUA
folgte: Wordstar. Die Befehlsleiste befindet sich an der Unterkante und wird mit den
Funktionstasten angesteuert. Es werden die heute nicht mehr gebräuchlichen Tastaturkombinationen eingeblendet.
Einer der prägendsten Styleguides im Computerbereich war der Common User Access von IBM, der 1987 veröffentlicht wurde. Er war der erste erfolgreiche Versuch,
die bis dahin sehr unterschiedlichen Bedienkonzepte von Programmen (Abbildung
4.4-1) auf dem IBM-PC zu vereinheitlichen. Dies betrifft vor allem Menüstrukturen
SEMESTERARBEIT JUREK BREUNINGER
27
EMPFEHLUNGEN UND RICHTLINIEN
und Tastatur-Shortcuts. Die meisten dieser Richtlinien, wie die grundlegende Struktur
des Menüs einer Anwendung und viele der Tastaturkombinationen, haben sich bewährt und sind bis heute gültig (Abbildung 4.4-2).
Abbildung 4.4-2: Die Entwicklungsumgebung QBASIC unter MS-DOS. Alle mit DOS
gelieferten Programme folgten ab DOS 5.0 (1991) dem CUA. Die Menüstruktur an
der Oberkante hat die bekannte Struktur. Es gibt Scrollbalken und eine Statuszeile
an der Unterkante. Die Tastaturkombinationen für Ausschneiden, Kopieren und Einfügen funktionieren auch auf modernen Windows-Systemen noch.
Weitere bekannte Styleguides sind die von Sun für Anwendungen in Java sowie die
Empfehlungen der Entwicklergruppen von KDE und Gnome für Anwendungen für
ihre Benutzeroberflächen. Die Einhaltung dieser Styleguides wird oft durch die Verwendung der gebräuchlichen Entwicklungswerkzeuge vereinfacht und teilweise erzwungen. Zum Beispiel hat man bei Fenstersystemen meist wenig Einfluss auf Aussehen und Verhalten von Fensterleisten und Buttons, da man aus Zeitgründen bereits vorgefertigte Bausteine aus Programmierbibliotheken verwendet.
Neben diesen Gestaltungsrichtlinien im PC-Bereich gibt es oft auch unternehmensspezifische Richtlinien, die meist einen bestimmten optischen Stil vorschreiben, der
der „corporate identity“ entspricht (Abbildung 4.4-3 und Abbildung 4.4-4). Dies gilt vor
allem für Webanwendungen, kommt aber auch bei anderer Software vor. Auch Bedienungsrichtlinien sind gebräuchlich. So soll die Konsistenz innerhalb mehrerer Anwendungen eines Unternehmens gewährleistet bleiben.
SEMESTERARBEIT JUREK BREUNINGER
28
EMPFEHLUNGEN UND RICHTLINIEN
Abbildung 4.4-3: Der Internetauftritt der Automobilsparte von BMW…
Abbildung 4.4-4: … folgt den gleichen Gestaltungsrichtlinien wie der Internetauftritt
der Motorradsparte von BMW. So wird die Corporate Identity gestärkt.
Dahm 2006, S. 150
Berry 1988, S. 282ff.
SEMESTERARBEIT JUREK BREUNINGER
29
HARDWARE
5 Hardware
Wie bereits erwähnt ist die Software-Ergonomie mit der Hardware-Ergonomie eng
verknüpft. Deshalb werden hier nun die wichtigsten Ein- und Ausgabegeräte von
Softwaresystemen vorgestellt. Beim Design neuer Softwaresysteme sollten die Rahmenbedingungen, also auch vorhandene, zwingend notwendige oder neu zu entwickelnde Hardware, mit in die Überlegungen einbezogen werden. Während klassische
PC-Anwendungen wenig Spielraum bei der Ein-/Ausgabe lassen, ist vor allem im
Bereich der eingebetteten Computer ein dedizierter ergonomischer und an die Software angepasster Entwurf der Bedien- und Anzeigeelement eine wichtige Chance,
ein effektives und effizientes System zu entwickeln.
5.1 Tastaturen
Die Tastatur ist das älteste und wichtigste Eingabegerät für softwarebasierte Systeme. Obwohl immer wieder gerne ihre Ablösung durch Touchscreens, Blick-, Gestenoder Sprachsteuerung prognostiziert wird, wird die Tastatur auch in absehbarer Zukunft das wichtigste Eingabeelement bleiben. Die Gründe hierfür sind:
ihre je nach Anwendungszweck mittlere bis sehr hohe Eingabegeschwindigkeit
technische Ausgereiftheit
Eindeutigkeit der Eingabe (im Gegensatz zu Sprachsteuerung)
intuitive Bedienbarkeit
(beinahe) lautlose Bedienung (wichtig in manchen Arbeitsumfeldern)
bei ergonomischer Auslegung von Tastatur und Software hohe Effizienz durch
wenig Körperbewegung
5.1.1 Belegungen
5.1.1.1 QWERTY, QWERTZ
Die Anordnung der Tasten moderner Computertastaturen – das nach der Buchstabenbelegung der oberen Reihe benannte QWERTY oder das davon abgeleitete
SEMESTERARBEIT JUREK BREUNINGER
30
HARDWARE
deutsche QWERTZ – basieren auf dem Entwurf einer Schreibmaschinentastatur des
Amerikaners Christopher Latham Sholes aus dem Jahr 1868 (Abbildung 5.1-10).
Diese Belegung wurde vor allem durch den Schreibmaschinenhersteller Remington
etabliert und führte aufgrund seiner mechanischen Überlegenheit gegenüber der bis
dahin häufigen alphabetischen Ausrichtung der Tasten zu seiner allgemeinen Verbreitung. Obwohl die Anordnung auf den ersten Blick willkürlich erscheinen mag, sind
in sie eine Menge Überlegungen und statistische Auswertungen eingeflossen. Allerdings waren diese Überlegungen eher technischer denn ergonomischer Natur. Das
QWERTY-Layout bewirkt, dass beim Schreiben englischen Textes häufig aufeinanderfolgende Buchstaben auf der Tastatur möglichst weit auseinander liegen. Dies
verhindert, dass sich die mechanischen Typenhebel, die die Lettern durch ein Farbband auf das Papier schlagen, verklemmen.
Abbildung 5.1-1: Das QWERTY-Layout des Amerikaners Sholes (1868). Wegen des
Aufwands zusätzlicher Mechanik fehlen die 0 (Ersatz: O) und die 1 (Ersatz: I).
Auch waren diese frühen mechanischen Schreibmaschinen (aufgrund des nötigen
Kraftaufwandes) noch nicht für Zehn-Finger-Schreiben gedacht. Da das Problem der
verklemmenden Typenhebel bald keines mehr war (elektrische Schreibmaschinen
verzögerten zwei benachbarte Typenhebel) und bei Computersystemen mangels
Mechanik nicht relevant ist, ist die QWERTY-Tastaturbelegung aus heutiger Sicht ein
Anachronismus. Das Gleiche gilt für das QWERTZ-Layout, bei dem die einzige Anpassung an die deutsche Sprache das Austauschen der Buchstaben Z und Y – da Y
viel seltener und Z deutlich häufiger als im Englischen ist – sowie das Einfügen der
deutschen Umlaute und des „ß“ auf Kosten einiger Satzzeichen war (Abbildung
5.1-2). Die deutsche Tastatur hat eine Taste mehr als die amerikanische (neben der
linken Umschalttaste, die dafür nur halb so breit ist). Außerdem ist die Anordnung der
Tasten um die Enter-Taste anders (vgl. Abbildung 5.1-3).
SEMESTERARBEIT JUREK BREUNINGER
31
HARDWARE
Abbildung 5.1-2: Ein modernes 105-Tasten-PC-Keyboard mit deutscher QWERTZBelegung.
Durch die historisch bedingte Tastenbelegung ergeben sich aus ergonomischer Sicht
folgende Nachteile:
QWERTZ belastet die linke Hand stärker als die rechte, was bei einer Mehrzahl von Rechtshändern in der Bevölkerung ungünstig ist.
Häufige Buchstaben und Zeichen liegen nicht an den am einfachsten zu erreichenden Plätzen, sondern weit verstreut. Beim Zehn-Finger-Schreiben liegen
viele dann unter „schwachen“ Fingern (z. B. das häufige A unter dem linken
kleinen Finger).
Es ist beim Schreiben sehr häufig ein Springen der Finger von der Grundreihe
in die obere und untere Reihe nötig.
Es entstehen beim Tippen häufig sogenannte Kollisionen: Das heißt der gleiche Finger muss direkt hintereinander Buchstaben eingeben; ein stetiger
Wechsel zwischen den Fingern verschiedener Hände ist vorteilhafter.
Moderne 105-Tasten-Tastaturen kranken darüber hinaus an einigen weiteren Einschränkungen aus der Schreibmaschinenzeit: Viele Zeichen lassen sich gar nicht
oder nur als Ersatzzeichen eingeben, um die aufwändigere Mechanik durch zusätzliche Tasten zu vermeiden:
Es fehlen Anführungszeichen wie „“ und »« (und ihre eingestrichenen Varianten). Das Anführungszeichen " auf der QWERTY/QWERTZ-Tastatur ist ein
Ersatzzeichen, das eigentlich Angaben in Zoll bezeichnet und eine Taste
spart, da es öffnendes und schließendes Zeichen nicht unterscheidet.
SEMESTERARBEIT JUREK BREUNINGER
32
HARDWARE
Unterschiedliche Striche für den Viertelgeviertstrich (Bindestrich), Halbgeviertstrich (Gedankenstrich), Geviertstrich (Spiegelstrich) und ein echtes Minus
(gleich lang und auf der gleichen Höhe wie der Querbalken des Plus) fehlen.
Für den Apostroph wird ein Ersatzzeichen verwendet, das eigentlich Minuten
bei Gradangaben bezeichnet ('). Der korrekte Apostroph (’) fehlt (nicht mit den
Akzenten zu verwechseln).
Durch die weite Verbreitung von QWERTY/QWERTZ und die Angst vor aufwendiger,
teurer und risikoreicher Umschulung konnte sich jedoch bis heute keine Alternative
durchsetzen.
Dahm 2006, S. 150
Shneiderman 2005, S. 350f.
Meier 1967, S. 342
http://discovermagazine.com/1997/apr/thecurseofqwerty1099/
5.1.1.2 Dvorak
Aufgrund der offensichtlichen Schwächen von QWERTY begann 1932 eine amerikanische Kommission unter Auguste Dvorak eine neue auf Zehnfingerschreiben ausgelegte Tastaturbelegung zu entwickeln, die für die englische Sprache optimiert, einfach erlernbar und schnell anwendbar sein sollte (Abbildung 5.1-30). Neben der
Buchstabenhäufigkeit untersuchte sie auch die Physiologie der Hände. Beim Schreiben sollen so viele Wörter wie möglich auf der Grundlinie, der Ruhestellung der Hände beim Zehnfingerschreiben, getippt werden können. Darüber hinaus wird ein
Wechseln in die obere Reihe der unteren vorgezogen und die stärkeren Finger (Zeigefinger, Mittelfinger) häufiger eingesetzt. Es wurde darauf geachtet, dass die häufig
aufeinander folgenden Buchstaben möglichst abwechselnd auf beide Hände verteilt
sind. Abfolgen auf der gleichen Hand werden mit Abrollbewegungen von außen nach
innen getippt.
Es gibt zahlreiche Studien zum Dvorak-Tastaturlayout, die die erhöhte Tippgeschwindigkeit, geringere Fehleranfälligkeit, Vermeidung von RSI (Repetitive Strain
Injury, Sehnenscheidenentzündung oder ähnlichen Krankheiten) und schnellere Erlernbarkeit des Zehnfingerschreibens beweisen oder widerlegen sollen. Trotz der
mehrheitlich akzeptierten Vorteile hat sich diese Belegung im englischsprachigen
Raum nie durchgesetzt, da die meisten Benutzer den Aufwand des Lernens scheuen. Es soll 1982 etwa 100 000 Dvorak-Nutzer in USA gegeben haben.
SEMESTERARBEIT JUREK BREUNINGER
33
HARDWARE
Abbildung 5.1-3: Die Belegung des Dvorak Simplified Keyboard.
Es existieren auch länderspezifische Dvorak-Varianten, unter anderen ein deutsches.
Doch da es ähnlich wie QWERTZ nur ein an Deutsch angepasstes englisches Layout ist, fehlt auch ihm die Akzeptanz.
Shneiderman 2005, S. 351
http://www.theworldofstuff.com/dvorak/
5.1.1.3 Weitere ergonomische Ansätze: Meier, de-ergo, Neo
Auch im deutschen Sprachraum hat man sich schon öfter Gedanken über eine ergonomisch optimierte Alternative für das QWERTZ-Layout gemacht. Der Germanist
Helmut Meier schlug in seiner 1964 veröffentlichten „Deutschen Sprachstatistik“ eine
europäische Universaltastatur vor, die den Vorteil der Einheitlichkeit mit einer Optimierung auf die europäischen Sprachen Deutsch, Englisch und Spanisch verbinden
sollte (Abbildung 5.1-4). Er griff dabei auf die Erkenntnisse von Dvorak und anderer
ähnlicher Untersuchungen zurück.
Abbildung 5.1-4: Der Vorschlag für eine europäische Tastaturbelegung von Meier.
SEMESTERARBEIT JUREK BREUNINGER
34
HARDWARE
Basierend auf den statistischen Erkenntnissen Meiers entstand 2003 die Belegung
de-ergo, die nur die für die deutsche Sprache optimiert wurde.
Ein neuer Ansatz, basierend auf Dvorak, Meier und de-ergo, wurde 2004 auf der
Mailingliste von de-ergo vorgestellt: Die Neo-Tastaturbelegung (Abbildung 5.1-5).
Diese Tastaturbelegung bezog neben der deutschen Sprache auch Anglizismen mit
in die Layout-Gestaltung ein. Die Neo-Tastaturbelegung wurde als Open-SourceProjekt weiterentwickelt und enthält in der Version 2 auch eine ergonomische Verteilung der Satzzeichen. Genau wie bei den Buchstaben wurde auch hier auf eine Optimierung der häufigsten Bi- und Trigramme (z. B. sch, der, ich, ein, :-), /*, +=) geachtet. Dies erleichtert zusätzlich das Eingeben der auf QWERTZ ungünstig liegenden
Zeichen zum Programmieren. In einer anderen Ebene liegen die Cursortasten mitsamt einem kompletten Nummernblock im Haupttastaturfeld. Dies ermöglicht konsistentere Tastaturbedienung, da man die Hände nicht mehr aus der Grundstellung und
zurückbewegen muss. Vor allem unter Linux-Benutzern gibt es inzwischen einen
kleinen Anhängerkreis, da die meisten Distributionen die Neo-Tastaturbelegung bereits mitbringen.
Abbildung 5.1-5: Das Neo-Tastaturlayout. Es ist eine ergonomisch auf die deutsche
Sprache und Anglizismen angepasste Alternative zu QWERTZ für Standardtastaturen. Es besitzt neben der Umschalttaste für die Großschreibung zwei weitere komplette Ebenen, die durch die Tasten Mod3 und Mod4 (ehemals Alt Gr) erreicht werden können.
Meier 1967, S. 333–344
http://forschung.goebel-consult.de/de-ergo/
http://wiki.neo-layout.org/wiki/Geschichte
http://wiki.neo-layout.org/wiki/Tastaturbelegung
SEMESTERARBEIT JUREK BREUNINGER
35
HARDWARE
5.1.1.4 Exkurs: Ziffernblock
Eine besondere bekannte Form der numerischen Tastatur ist der Nummernblock, wie
er aus Telefonen und Geldautomaten bekannt ist. Es hat sich aus Platzgründen eine
3 x 3-Matrix-förmige Anordnung etabliert. Diese bietet neben der kompakten Bauform
den Vorteil, dass eine Einhandbedienung ohne Springen der Hand möglich ist, ähnlich dem Zehnfingerschreiben. Allerdings existieren zwei Varianten der Blockform:
Der Telefon-Nummernblock und der Taschenrechner-Zahlenblock, wie er auch auf
Computertastaturen verbaut ist (Abbildung 5.1-6). Bei ersterem sind die Zahlen von
links nach rechts und von oben nach unten aufsteigend angeordnet. Beim Taschenrechner-Zahlenblock ist die Anordnung der Zahlen von links nach rechts und von unten nach oben aufsteigend. Es gibt einige Theorien, die historisch zu erklären versuchen, warum die Tastenanordnung auf Taschenrechnern anders ist als auf Telefonen
(Dahm 2006, S. 166).
1
2
3
4
5
6
7
8
9
?
Leserichtung, Sortierung
2
3
4
5
6
7
8
9
Leserichtung
1
7
8
9
4
5
6
1
2
3
Sortierung
Leserichtung, Sortierung
Abbildung 5.1-6: Bei der blockförmigen Anordnung von Nummerntasten gibt es zwei
verbreitete Möglichkeiten. Welche für einen Einsatzzweck besser geeignet ist, hängt
davon ab, ob man mit Ziffern oder Zahlen hantiert.
SEMESTERARBEIT JUREK BREUNINGER
36
HARDWARE
Basierend auf dem bereits behandelten Grundwissen lässt sich aber eine einfache
Logik hinter den beiden Entwürfen finden: Wichtig sind die Vorzugsrichtungen, wie
sie durch die Leserichtung bekannt sind.
Die Richtung von links nach rechts ist die primäre Leserichtung und bedeutet
bei Anordnung „mehr“ und „aufsteigend“. Dies ist bei beiden Designs erfüllt.
Bei der vertikalen Ausrichtung gibt es allerdings zwei sich widersprechende
Prinzipien. Die Leserichtung spricht für eine aufsteigende Reihenfolge von
oben nach unten. Die Systemergonomie würde jedoch eine Anordnung der
höheren Werte oben und den kleineren Werten unten nahelegen.
Und genau hier liegt auch der Unterschied in den beiden Ziffernblockvarianten in Anpassung an ihren Einsatzzweck: Eine Telefonnummer ist nichts anderes als ein Code
dessen Bestandteile keine Wertigkeit besitzen. Sie ließe sich theoretisch auch mit
Buchstaben oder Symbolen realisieren. Auf einem Telefon liegen auf den Tasten also Ziffern. Bei einem Taschenrechner haben die Ziffern aber einen Wert. Hier werden sie nicht als Ziffern sondern als Zahlen verstanden. Deshalb sind hier die größeren Zahlen oben und die kleineren unten angeordnet.
Bei der Entwicklung der ersten Geldautomaten stellte man sich die Frage, welches
Konzept des Ziffernblocks geeigneter erschiene. Der Ziffernblock wird für das Eingeben der PIN und selten (wegen der mittels Softkey vorgeschlagenen Beträge) für die
Wahl des auszuzahlenden Betrages genutzt. Man entschied sich für den Telefonblock, was aufgrund der vornehmlichen Eingabe eines Codes auch sinnvoll ist.
Dahm 2006, S. 166
5.1.2 Mechanik
Bei einer Tastatur sind für eine gute haptische Rückmeldung zwei Eigenschaften bedeutend:
Tastenhub
Damit der Benutzer fühlt, dass er eine Taste gedrückt hat, sollte die sich einen
gewisses Stück nach unten bewegen. Klassische Tastaturen haben ungefähr
4–5 mm Hub, moderne Laptop-Tastaturen meist nur 2–3 mm.
Druckpunkt
SEMESTERARBEIT JUREK BREUNINGER
37
HARDWARE
Neben der Bewegung der Taste sollte auch der genaue Zeitpunkt, an dem die
Eingabe erfolgt, spürbar sein. Dies wird durch zunehmenden nötigen Kraftaufwand beim Drücken erreicht, der genau am Punkt des Kontaktschließens
stark abfällt (Abbildung 5.1-70).
Kraft
Kraft
Schaltpunkt
Weg
Schaltpunkt
Fehlende Kraftrückmeldung
Weg
Kraftrückmeldung am
Schaltpunkt
Abbildung 5.1-7: Diese Graphiken zeigen die Abhängigkeit des Weges von der
Druckkraft für Schalter mit schlechter und guter haptischer Rückmeldung.
Moderne Computertastaturen sind im Wesentlichen nach zwei mechanischen Prinzipien aufgebaut:
Membrankontakte
(Abbildung
5.1-8):
Die
meisten
Tastaturen
haben
Membrankontakte, bei der die Tastenkappen auf kleinen Ausstülpungen einer
Gummimatte aufliegen. Die Matte liegt auf einer elektronischen Platine, die
unter jeder Taste eng beieinanderliegende Kontaktstellen hat. Wenn die
Gummikuppel durch die Taste flach auf die Platine gedrückt wird, schließt ein
Graphitblättchen in der Kuppel den Kontakt. Beim Loslassen hebt die Eigenspannung der Gummimatte den Tastenkopf wieder an. Der Tastenhub ist begrenzt und der Druckpunkt oft nicht sehr genau.
Mechanische Tastaturen: Sehr hochwertige Tastaturen in Büroumgebungen
haben Crosspoint-Kontakte, bei denen der Widerstand der Tasten durch Fe-
SEMESTERARBEIT JUREK BREUNINGER
38
HARDWARE
dern erzeugt wird. Solche Tastaturen sind deutlich langlebiger (>1 Milliarde
Betätigungen) als Membrankontakt-Tastaturen, aber auch deutlich aufwendiger in der Herstellung. Dafür können im Fehlerfall einzelne Tasten ausgetauscht werden. Die Funktionsweise der Schalter kann sich je nach Hersteller
unterscheiden. Zum Beispiel kommt der Kontakt zustande, wenn beim Herunterdrücken der Widerstandsfeder ein gewisser Punkt erreicht ist und die meist
goldplattierte Kontaktfeder umspringt. Dies ergibt neben der sehr guten und
exakten haptischen auch eine akustische Rückmeldung.
Abbildung 5.1-8: Die meisten Tastaturen, hier eine Laptoptastatur, bestehen aus einer Platine, einer Tastaturmatte und den Tastenkappen.
Abbildung 5.1-9: Professionelle Tastaturen bestehen aus Einzelschaltern für jede
Taste. Diese haben eine gute haptische Rückmeldung und höhere Lebensdauer als
Membrankontakte. Im Bild ein Crosspoint-Schalter von Cherry.
Dahm 2006, S. 163f.
SEMESTERARBEIT JUREK BREUNINGER
39
HARDWARE
5.1.3 Spezielle Tastaturen
In der Anfangszeit der Computer und vor allem in der Blütezeit der Heimcomputer in
den Achtzigerjahren gab es eine Vielzahl von Bauformen für Tastaturen. Heute hat
sich im Prinzip nur die Tastatur des IBM-PC und die ihr inzwischen recht ähnliche
Apple-Tastatur durchgesetzt. Auch wenn seit der Einführung des PC AT (1984) noch
ein paar Tasten hinzukamen, ist die 105-Tasten-Tastatur (englisch 104 Tasten), die
mit der Einführung von Windows 95 geschaffen wurde, bis heute der Stand der
Technik. Sie ist (abgesehen von den Windows-Tasten) auch Teil der Norm DIN 2137,
Teil 2 „Alphanumerische Tastaturen für die Daten- und Textverarbeitung“. Die Tastaturen der unterschiedlichen Hersteller setzen sich meist nur durch einige programmierbare Zusatztasten voneinander ab.
Doch für einige spezielle Einsatzgebiete kommen auch deutlich andere Tastaturen
zum Einsatz, die sich in ihrem Aufbau völlig von der Standard-PC-Tastatur unterscheiden können.
5.1.3.1 Winkeltastaturen
Winkeltastaturen (Abbildung 5.1-10), von den Herstellern gerne als „ergonomische
Tastaturen“ bezeichnet, sollen durch eine andere Handstellung Berufskrankheiten
wie RSI vermeiden. Auch wenn die medizinischen Grundlagen für die geringere Belastung von Muskeln, Sehnen und Gelenken belegt sind, mangelt es an fundierten
Langzeitstudien, die die positiven Effekte dieser Tastaturen beweisen.
Abbildung 5.1-10: Eine beliebte Winkeltastatur: Das Natural Keyboard von Microsoft.
Dahm 2006, S. 167f.
Shneiderman 2005, S. 352
SEMESTERARBEIT JUREK BREUNINGER
40
HARDWARE
5.1.3.2 Matrixtastaturen
Matrixtastaturen (Abbildung 5.1-11 und Abbildung 5.1-12) sind eine Variante klassischer Computertastaturen, die eine weitere von den Schreibmaschinen geerbte
Schwäche beseitigen: Obwohl ein Computer keine Mechanik mehr hat sind die Reihen der Tasten bis heute gegeneinander versetzt. Eine Matrixtastatur ordnet die Tasten symmetrisch in einer Matrix an. Dies erleichtert den Fingern beim Zehn-FingerSchreiben das Wechseln in die untere und die oberen Reihen. Auch behaupten die
Hersteller, dass dies die Belastung der Hände und die Gefahr für RSI reduziert.
Abbildung 5.1-11: Eine Matrixtastatur ordnet die Tasten ohne den von der Schreibmaschine geerbten Versatz an.
Abbildung 5.1-12: Eine besondere Form der Matrixtastaturen sind die Contoured
Keyboards. Sie wollen eine günstigere Handstellung durch versenken der Tastenebene erreichen. Darüber hinaus werden hier einige Tasten neu angeordnet.
http://www.typematrix.com/study/
http://www.kinesis-ergo.com/benefits.htm
SEMESTERARBEIT JUREK BREUNINGER
41
HARDWARE
5.1.3.3 Folientastaturen
Folientastaturen (Abbildung 5.1-14) funktionieren ähnlich wie MembrankontaktTastaturen (Abbildung 5.1-13), haben allerdings einen sehr kurzen Hub. Sie werden
häufig an elektrischen Geräten eingesetzt, denn sie haben folgende Vorteile:
Extrem flach
Billig; auch spezielle Layouts lassen sich in kleinen Stückzahlen für Prototypen
vergleichsweise billig herstellen.
Einfache Möglichkeit bunter Gestaltung und integrierter Leuchtdioden
Abwaschbar, staubdicht, wasserdicht, unempfindlich gegen Chemikalien,
sterilisierbar (deshalb häufig in medizinischen Geräten)
Abbildung 5.1-13: Funktionsweise von Folientastaturen: Das Drücken der oberen
Folie auf die untere schließt den Kontakt. Durch die Eigenspannung der Folie kehrt
die Taste in den offenen Zustand zurück.
Abbildung 5.1-14: Eine individuell erstellte Folientastatur für Industrieanwendung.
SEMESTERARBEIT JUREK BREUNINGER
42
HARDWARE
Das wiegt jedoch bei häufiger Benutzung nicht ihren einzigen Nachteil auf: Sie haben
eine sehr schlechte haptische Rückmeldung. Der Tastenhub ist sehr gering und der
Druckpunkt meist sehr inexakt. Darüber hinaus ist zum Drücken ein relativ hoher
Druck notwendig.
Dahm 2006, S. 164f.
5.1.3.4 Vandalismus-sichere Tastaturen
Für Softwaresysteme an öffentlichen Plätzen werden meist vandalismus-sichere Tastaturen
verwendet;
zum
Beispiel
an
Geldautomaten,
Fahrkartenautomaten,
Auskunftsystemen. Diese unterscheiden sich von normalen Tastaturen durch ihre
widerstandsfähige Bauweise, meistens aus Metall (Abbildung 5.1-15). Dadurch haben sie meist eine schlechtere Ergonomie, etwa einen kurzen Tastenhub.
Abbildung 5.1-15: Vandalismussichere Tastaturen kommen bei Geräten im öffentlichen Raum zum Einsatz, zum Beispiel Bankautomaten.
Dahm 2006, S. 167
SEMESTERARBEIT JUREK BREUNINGER
43
HARDWARE
5.1.3.5 Faltbare Tastaturen
Um vollwertige Tastaturen für kleine mobile Geräte wie PDAs oder Smartphones zu
ermöglichen, gibt es faltbare Tastaturen (Abbildung 5.1-16), die selbst auf kleines
Packmaß reduziert werden können und so einfach zu transportieren sind. Sie bieten
gegenüber anderen Lösungen wie virtuellen Tastaturen, rein numerischen Tastaturen oder Lasertastaturen den Vorteil einer mit normalen Tastaturen vergleichbaren
Haptik und Eingabegeschwindigkeit.
Abbildung 5.1-16: Ein faltbares Keyboard mit einer Halterung für einen PDA.
Shneiderman 2005, S. 355f.
5.1.3.6 Lasertastaturen
Lasertastaturen (Abbildung 5.1-17) sind ebenfalls Spezialtastaturen für mobile Geräte, bei denen es auf geringe Größe und Gewicht ankommt. Sie projizieren ein Tastaturfeld auf eine ebene Fläche und ermitteln mittels Infrarotsensor, wo der Benutzer
dort „eine Taste drückt“. Sie sind gewöhnungsbedürftig, da ihnen jegliche haptische
Rückmeldung fehlt.
SEMESTERARBEIT JUREK BREUNINGER
44
HARDWARE
Abbildung 5.1-17: Ein Laserkeyboard projiziert eine virtuelle Tastatur auf den Tisch.
Dahm 2006, S. 168
Shneiderman 2005, S. 355f.
5.1.3.7 Ein-Hand-Tastaturen
Ein-Hand-Tastaturen ermöglichen den kompletten Zeichenumfang klassischer Tastaturen mit einer Hand einzugeben. Dies ermöglicht, mit der anderen Hand gleichzeitig
andere Eingabegeräte zu bedienen, etwa die Maus, Zeichenbrett oder spezielle Eingabegeräte. Auch in anderen Situationen, in denen Texteingabe erforderlich ist, aber
nur eine Hand frei, können sie nützlich sein. Sie eignen sich für mobile Geräte, die in
der einen Hand gehalten werden, während die andere tippt. Mit intensivem Training
lassen sich ähnliche Tippgeschwindigkeiten wie mit zweihändigen Tastaturen erreichen, darüber hinaus verfügen sie über genauso gute Haptik.
Abbildung 5.1-18: Eine Ein-Hand-Tastatur. Auf dem Bild ist ein Rechtshändermodell
zu sehen. Die zweite (grüne) Ebene wird durch das Drücken der Leertaste als
Modifikator erreicht.
http://www.frogpad.com/FPInfo-FAQ.html
SEMESTERARBEIT JUREK BREUNINGER
45
HARDWARE
5.1.3.8 Akkordtastaturen
Eine Eingabemethode, die stark von klassischen Tastaturen abweicht, sind die Akkordtastaturen (Abbildung 5.1-19). Während bei einem normalen Keyboard ein Zeichen durch das Drücken genau einer Taste erreicht wird (Großschreibung und Symbole werden meist durch zusätzliches Drücken eines Modifikators erzeugt), erzeugt
man auf Akkordtastaturen die Zeichen durch das gleichzeitige Drücken von bis zu
fünf Tasten gleichzeitig. Dies erfordert das Erlernen der entsprechenden Kombinationen. Akkordtastaturen besitzen entsprechend weniger Tasten und sind meist auch
einhändig zu bedienen (Abbildung 5.1-20). Aufgrund des Lernaufwandes können sie
sich nur in Spezialanwendungen durchsetzen (Stenographie, Abbildung 5.1-21).
Abbildung 5.1-19: Die meisten Akkordtastaturen sind einhändig bedienbar. Diese ist
symmetrisch aufgebaut und damit wahlweise mit links oder rechts zu bedienen.
Abbildung 5.1-20: Die Akkordtastatur Twiddler wird mit einem Band um die Hand getragen und ist somit auch für den mobilen Einsatz geeignet.
SEMESTERARBEIT JUREK BREUNINGER
46
HARDWARE
Abbildung 5.1-21: Die verbreiteteste Anwendung von Akkordtastaturen ist Maschinenstenographie. Mit diesen Tastaturen wird in Gerichtssälen und Parlamentssitzungen mitgeschrieben.
Dahm 2006, S. 167
http://www.cykey.co.uk/
http://www.handykey.com/
5.1.3.9 Tastaturen in eingebetteten Computern
Tastaturen in eingebetteten Computern werden häufig speziell für ihren Einsatzzweck entworfen. Deshalb finden sich hier neben alphanumerischen und rein numerischen Tastaturen auch sehr spezielle Designs (Abbildung 5.1-22). Dies führt von
einfachen
Matrix-Tastaturen
mit
speziellen
Belegungen
in
Kassensystemen
(Abbildung 5.1-23) über auf die Menüstruktur abgestimmte Softkeys in Mobiltelefonen (Abbildung 5.1-24) und Geldautomaten bis zu komplexen Spezial-Layouts bei
Industrieanwendungen.
Abbildung 5.1-22: Diese Eingabegeräte für Videobearbeitung sind speziell für diesen
Zweck entworfen.
SEMESTERARBEIT JUREK BREUNINGER
47
HARDWARE
Abbildung 5.1-23: POS-Tastaturen (Point of Sale) werden meist an die Verkaufsangebot des Anwenders angepasst. Sie haben für viele Produkte eine eigene Taste.
Abbildung 5.1-24: Vor allem aus Mobiltelefonen sind die Softkeys unterhalb des Displays bekannt, die verschiedene Funktionen übernehmen können und wenig Platz
beanspruchen. Moderne Smartphones besitzen oft auch eine komplette BuchstabenTastatur um die Texteingabe zu erleichtern.
Dahm 2006, S. 165
SEMESTERARBEIT JUREK BREUNINGER
48
HARDWARE
5.2 Zeigegeräte
Zeigegeräte steuern die Bewegung des Cursors oder Mauszeigers auf dem Bildschirm und ermöglichen direkte Manipulation. Moderne graphische Oberflächen sind
stark auf Zeigegeräte angewiesen. Das meistgenutzte Zeigegerät war und ist die
Maus, die von Engelbart 1963 für das NLS entwickelt wurde. Doch es gibt inzwischen eine Menge Alternativen zur Maus, die meist aus speziellen Anforderungen
heraus entstanden sind. Man unterscheidet bei Zeigegeräten die Art der Positionierung:
Relative Positionierung
Die Position des Mauszeigers lässt sich nur ändern. Es ist kein Springen möglich. Beispiele: Maus, Trackball, Joystick, Trackpin, Touchpad
Absolute Positionierung
Die Position kann direkt eingegeben werden. Der Mauszeiger muss keinen
Weg zurücklegen. Beispiele: Grafiktablett, Touchscreen, Lichtgriffel
5.2.1 Maus
Die Maus hat sich in ihrer Grundfunktion seit ihrer Einführung nicht geändert
(Abbildung 5.2-1). Die meisten Mäuse sind Zwei- oder Dreitastenmäuse, manche
haben auch zusätzliche programmierbare Tasten. Die Abtastung des Untergrunds
erfolgt heute meistens optisch und damit wartungsfrei statt mechanisch. Die Auflösung der optischen Sensoren, die die Genauigkeit der Positionierung bestimmen, hat
sich in letzter Zeit stark gesteigert. Dies wird den auch gestiegenen Auflösungen der
Bildschirme gerecht. Zum Verschieben des Fensterinhaltes (scrollen) oder Ändern
der Vergrößerung (zoomen) besitzen die meisten Mäuse ein gerastertes Rad. Neben
kabelgebundenen gibt es auch über Funk sendende Mäuse. Ein ergonomisch interessantes Konzept ist die Entwicklung von Mäusen mit haptischer Rückmeldung. Sie
können durch Vibration oder dem Sperren der Tasten den Ort des Mauszeigers oder
die Inaktivität bestimmter Schaltflächen verdeutlichen. Allerdings hat sich dieses
Konzept wegen der bereits sehr gut funktionierenden Mausbedienung nicht durchgesetzt. Die Maus ist laut Studien von den bekannten Zeigegeräten die schnellste und
präziseste. Einzig der Touchscreen ist ähnlich schnell, hat aber bei Fingerbedienung
deutlich schlechtere Präzision.
SEMESTERARBEIT JUREK BREUNINGER
49
HARDWARE
Abbildung 5.2-1: Abgesehen vom zusätzlichen Mausrad hat sich die Computermaus
seit ihrer Erfindung in der Form kaum geändert. Allerdings funktioniert das Bestimmen der Position inzwischen optisch und nicht mehr mechanisch.
Cooper 2007, S. 377ff.
Dahm 2006, S. 169
Shneiderman 2005, S. 362, S. 365
5.2.2 Trackball
Der Trackball (Abbildung 5.2-2) funktioniert wie eine klassische mechanische Kugelmaus, nur dass man nicht das ganze Gehäuse bewegt, sondern direkt die Kugel.
Dadurch bleibt der Trackball an einer festen Position und die Belastung der Hand ist
geringer. Außerdem kann man die Kugel für eine gleichbleibende Bewegung anstoßen. Allerdings hat ein Trackball die Probleme der Kugelmaus wie Verschmutzung
und die Genauigkeit und Bediengeschwindigkeit sind geringer als bei einer Maus. Er
wird dort eingesetzt, wo für das Bewegen einer Maus kein Platz ist oder keine losen
Gegenstände erwünscht sind, zum Beispiel in industriellen Umgebungen. Früher
wurde er auch als Mausersatz bei Laptops eingesetzt, wurde dort aber inzwischen
vom Touchpad verdrängt.
Abbildung 5.2-2: Ein Trackball für die Benutzung am PC. Dort hat er allerdings kaum
Bedeutung. Er kommt meist dort zum Einsatz, wo kein Platz für Mausbewegungen ist
oder das Zeigegerät fest integriert sein muss.
Dahm 2006, S. 170
Shneiderman 2005, S. 362, S. 364
SEMESTERARBEIT JUREK BREUNINGER
50
HARDWARE
5.2.3 Trackpoint
Der Trackpoint (auch Trackpin, Abbildung 5.2-3) ist ein kleiner Joystick, der bei manchen Laptops als Mausersatz dient. Er wird vor allem dort eingesetzt, wo wenig
Bauraum vorhanden ist. Im Gegensatz zum Joystick bewegt er sich selbst nicht,
sondern misst den auf ihn ausgeübten Druck und ändert die Zeigergeschwindigkeit
entsprechend. Man spricht auch von einem isometrischen Joystick. Dadurch, dass
unterschiedlich starker Druck nicht zu unterschiedlichem Nachgeben führt, ist die
Rückmeldung für den Anwender recht schlecht.
Abbildung 5.2-3: Ein Trackpoint, der in eine Laptoptastatur integriert ist. Er liegt in der
Mitte, damit er mit dem Zeigefinger bedient werden kann ohne die Hände aus der
Grundstellung zu nehmen. Die Maustasten liegen meist unterhalb der Leertaste für
Bedienung mit den Daumen. Der Trackpoint ist auf Laptops inzwischen von Touchpads verdrängt worden.
Dahm 2006, S. 171
Shneiderman 2005, S. 364f.
5.2.4 Touchpad
Das Touchpad ist ein gängiger Ersatz für die Maus der bei den meisten Laptops fest
eingebaut ist (Abbildung 5.2-4). Man steuert den Mauszeiger durch Bewegung des
Fingers auf der Touchpad-Oberfläche. Durch antippen lassen sich auch Klick, Doppelklick und das Ziehen von Objekten erreichen, dies erfordert allerdings etwas Gewöhnung und sollte deshalb abschaltbar sein. Darüber hinaus sind meist auch normale Tasten vorhanden. Wie der Trackpoint ist das Touchpad ein Mausersatz, der
SEMESTERARBEIT JUREK BREUNINGER
51
HARDWARE
nicht ihre Geschwindigkeit und Genauigkeit erreicht, aber überall dort zum Einsatz
kommen kann, wo kein Platz für eine Maus ist (Abbildung 5.2-5).
Abbildung 5.2-4: Das Touchpad eines Laptops. Es besitzt an den Rändern Bereiche,
die das Scrollen steuern und somit die gleiche Funktionalität wie ein Mausrad haben.
Abbildung 5.2-5: Ein weiterer Bereich, wo Touchpads inzwischen häufig eingebaut
werden, ist die Unterhaltungselektronik. Bei Apples Ipod wird die menübasierte Steuerung mit einem kreisförmigen Touchpad kontrolliert.
Dahm 2006, S. 170
Shneiderman 2005, S. 365
SEMESTERARBEIT JUREK BREUNINGER
52
HARDWARE
5.2.5 Joystick
Der Joystick ist ein Eingabegerät, das dem Steuerknüppel eines Flugzeuges nachempfunden ist. Es fand durch die Flugsimulation seinen Weg zum Computer und
wird vor allem in professionellen Simulatoren und für Computerspiele eingesetzt
(Abbildung 5.2-6). Mit ihm ist eine realistische Steuerung um zwei oder drei Achsen
möglich, die gute Rückmeldung bietet. Manche Joysticks enthalten Elektromotoren
(Force Feedback), die mit Gegenkräften und Vibrationen die Rückmeldung stark erweitern. Neben diesen analogen Joysticks, die sich in jeder Achse über einen Bereich bewegen lassen, gibt es auch digitale Joysticks, die meist kurze Stellwege haben und die Bewegung in eine Richtung als einen oder selten mehrere diskrete Werte signalisieren (Abbildung 5.2-7).
Abbildung 5.2-6: Ein analoger Joystick mit Schubkontrolle für Flugsimulatoren.
Abbildung 5.2-7: Zwei Beispiele für digitale Joysticks: Der iDrive-Controller und der
digitale Schaltgriff in einem BMW.
SEMESTERARBEIT JUREK BREUNINGER
53
HARDWARE
Abbildung 5.2-8: Eine Kombination aus Flughorn, Schubkontrolle und Ruderpedalen.
Als spezielle Art von Joystick können andere aus der Realwelt stammende Eingabegeräte verstanden werden: Es gibt auch Flughörner, Triebwerksteuerungen, Lenkräder, Gas- und Ruderpedale (Abbildung 5.2-8). Außerdem gibt es speziell für Computerspiele entwickelte Eingabegeräte wie Gamepads (die viele Tasten und oft kleine
Joysticks enthalten, Abbildung 5.2-9).
Abbildung 5.2-9: Ein Gamepad mit integriertem Joystick.
Dahm 2006, S. 170
Shneiderman 2005, S. 364
SEMESTERARBEIT JUREK BREUNINGER
54
HARDWARE
5.2.6 Räder und Drehknöpfe
Obwohl kein Zeigegerät im eigentlichen Sinn, können einfach Räder oder Drehknöpfe oft geeignete Eingabemittel für (quasi)analoge, aber auch für diskrete Werte sein.
Bekannt sind sie von der Lautstärkeneinstellung von Stereoanlagen oder der Zeiteingabe bei Mikrowellen. Sie sollten digitalen Knöpfen (+ und -) wenn möglich vorgezogen werden. Es gibt sie zum Einstellen absoluter Werte (mit Anschlag, oft mit Skala)
und relativer Werte (endlos drehbar), gerastert (Jog Dial) und ungerastert. Vor allem
in eingebetteten Computern kommen sie wegen ihrer kompakten Bauform und Stabilität zum Einsatz (Abbildung 5.2-10, Abbildung 5.2-11).
Abbildung 5.2-10: Die Bedieneinheiten von Infotainmentsystemen sind oft Kombinationen aus Drehknöpfen und digitalen Joysticks.
Abbildung 5.2-11: Dieses Mobiltelefon nutzt ein Jog Dial zur Navigation durch Menüs.
Dahm 2006, S. 171
SEMESTERARBEIT JUREK BREUNINGER
55
HARDWARE
5.2.7 Lichtgriffel
Der Lichtgriffel (Abbildung 5.2-12) ist ein Vorläufer des Grafiktabletts und des Touchscreens und erlaubt eine absolute Positionierung. Er kommt heute kaum noch zum
Einsatz, da seine Technik nur bei Röhrenmonitoren funktioniert, die inzwischen weitgehend von Flachbildschirmen abgelöst worden sind. Der Lichtgriffel ist ein Stab, an
dessen Spitze ein Fototransistor angebracht ist. Wenn er in die Nähe der phosphoreszierenden Schicht eines Röhrenbildschirms gebracht wird, gibt er in dem Augenblick, in dem der Elektronenstrahl der Röhre dort vorbeikommt, ein elektrisches Signal in Abhängigkeit der Bildschirmhelligkeit. Aus dem Auslösezeitpunkt des Signals
und der Geschwindigkeit des über den Bildschirm geführten Elektronenstrahls kann
die Position des Lichtgriffels errechnet werden. Er funktioniert nicht an schwarzen
oder sehr dunklen Stellen des Bildschirms.
Abbildung 5.2-12: Eine Hypertext-Editiersoftware auf einem Universitätscomputer
Ende der Sechzigerjahre. Als Zeigegerät kommt ein Lichtgriffel zum Einsatz.
Shneiderman 2005, S. 359
http://design.osu.edu/carlson/history/lesson2.html
5.2.8 Grafiktablett
Ein Grafiktablett (Abbildung 5.2-13) ist eine berührungsempfindliche Oberfläche ähnlich einem Touchpad, das vornehmlich zum Zeichnen eingesetzt wird. Es gibt Tabletts von DIN A6 bis DIN A2. Statt mit dem Finger wird es mit einem Stift oder einer
speziellen Maus bedient. Der Stift übermittelt immer seine absolute Position im Gegensatz zu den meisten anderen Zeigegeräten. Ein Sensor im Stift misst den Druck,
mit dem aufgedrückt wird (Abbildung 5.2-18). Dadurch wird zum Beispiel die Linienbreite oder die Farbsättigung bestimmt. Während klassische Grafiktabletts dedizierte
SEMESTERARBEIT JUREK BREUNINGER
56
HARDWARE
Eingabegeräte sind, die auf dem Tisch liegen und dadurch etwas Übung für die
Hand-Auge-Koordination benötigen, gibt es inzwischen auch Geräte, die eine Kombination aus Tablett und Bildschirm sind. Man sieht auf ihnen sofort die Wirkung des
Stiftes an der Stelle der Berührung. Dies ist eine gute optische Rückmeldung. Es hat
allerdings den Nachteil, dass die Hand und der Arm des Anwenders einen Teil des
Bildschirms verdecken. Die haptische Rückmeldung von Grafiktabletts, wie unterschiedlicher Widerstand oder Druck, ist sehr begrenzt.
Abbildung 5.2-13: Ein Grafiktablett für das Zeichnen am PC.
Dahm 2006, S. 171
Shneiderman 2005, S. 365
5.2.9 Touchscreen
Alle bisher genannten Eingabegeräte setzen eine gute Hand-Auge-Koordination voraus, da die Bedienung des Stellteils örtlich getrennt ist vom Beobachten der Rückmeldung auf dem Bildschirm. Der Mauszeiger ist nur ein Hilfsmittel, der vergessen
macht, dass die Manipulation der Software-Elemente indirekt geschieht. Echte direkte Manipulation erlaubt ein Touchscreen, ein berührungsempfindlicher Bildschirm
(Abbildung 5.2-14, Abbildung 5.2-15). Ein Touchscreen ist Eingabe- und Ausgabegerät in einem. Die meisten Touchscreens lassen sich entweder mit einem (je nach
Technologie speziellen) Stift (Stylus) oder den Fingern bedienen. Stiftbedienung erlaubt neben präziser Auswahl bei klassischen Mausaufgaben auch Handschrifterkennung (Optical Character Recognition, OCR).
SEMESTERARBEIT JUREK BREUNINGER
57
HARDWARE
Abbildung 5.2-14: Touchscreens gibt es von recht kleinen für Mobiltelefone (meist
resistiv oder kapazitiv)…
Abbildung 5.2-15: …bis zu sehr großen, wie diesen Touchscreen-Tisch von Microsoft, der auch mehrere Berührungen gleichzeitig erkennt. Er ist eine spezielle Form
des optischen Touchscreens: Ein Projektor bildet das Bild von unten auf der Tischfläche ab. Mehrere Infrarotkameras erkennen von unten die Positionen von Gegenständen, die die Oberfläche berühren.
SEMESTERARBEIT JUREK BREUNINGER
58
HARDWARE
Für die Erkennung der Finger- oder Stylusposition gibt es verschiedene Technologien:
Ultraschall (Surface Accoustic Wave, SAW)
Am Bildschirmrand sind Ultraschallaktoren und -sensoren angebracht. Die
Wellen, die sich über den Bildschirm ausbreiten, werden an den Stellen, wo
ein Finger die Oberfläche berührt, gedämpft. Aus dem Zeitpunkt der Abschwächung ist die Position bestimmbar (Abbildung 5.2-16). Der eigentliche
Bildschirm muss nicht geändert werden. Diese Technik wird vor allem bei
vandalismus-sicheren Anlagen eingesetzt, da man den Bildschirm durch eine
dicke Scheibe, durch die die Wellen laufen, schützen kann.
Infrarot
Ein regelmäßiges Strahlengitter aus Infrarotlichtstrahlen wird über dem Bildschirm gespannt. Die Sender und Empfänger sitzen am Rand. Dort wo ein
Finger die Oberfläche berührt (oder auch nur fast berührt), werden die jeweiligen Strahlen unterbrochen. Damit ist die X- und Y-Komponente des Fingers
bekannt (Abbildung 5.2-16).
Abbildung 5.2-16: Prinzipbild eines optischen (links) und eines akustischen Touchscreens (rechts).
Resistiv
Auf dem Bildschirm klebt eine Folie mit zwei Schichten aus durchsichtigen Widerstandsdrähten, die sich nicht berühren. Durch Druck mit dem Finger wird
dort ein Kontakt geschlossen und die Position kann aus den Widerständen errechnet werden (Abbildung 5.2-17). Der Nachteil ist, dass eine weitere Schicht
über dem Bildschirm liegt, die die Sicht und die Schärfe beeinträchtigen und
verkratzen kann.
SEMESTERARBEIT JUREK BREUNINGER
59
HARDWARE
Kapazitiv
Auf dem Bildschirm klebt eine Folie, durch die ein geringer konstanter Strom
bei bekannter Kapazität fließt. Berührt ein Finger die Oberfläche, so ändert
sich die Kapazität, was durch Messung des Stroms an den vier Ecken des
Touchscreens die Bestimmung der Position zulässt (Abbildung 5.2-17). Dies
funktioniert nicht, wenn man den Bildschirm mit nicht leitenden Materialien berührt. Die Einschränkungen des resistiven Touchscreens gelten ebenfalls.
Abbildung 5.2-17: Prinzipbild eines resistiven (links) und eines kapazitiven Touchscreens (rechts).
Piezoelektronisch
Bei einem piezoelektronischen Touchscreen sitzt an den vier Ecken einer
Glasplatte über dem Bildschirm jeweils ein Piezoelement. Piezoelemente erzeugen aus Druck eine Spannung (Abbildung 5.2-18). Durch die verschiedenen Spannungen der vier Elemente kann auf Ort und Höhe der Krafteinwirkung einer Berührung geschlossen werden. Da eine klare Glasplatte verwendet wird, gelten die Einschränkungen von resistiven und kapazitiven Touchscreens bezüglich Sichtbeeinträchtigung nicht. Man kann bestehende Monitore mit dieser Technik nachrüsten.
Moderne Eingabekonzepte werden mit Touchscreens realisiert, die mehr als eine
Fingerberührung gleichzeitig auswerten können. Dies ist am einfachsten mit kapaziti-
SEMESTERARBEIT JUREK BREUNINGER
60
HARDWARE
ven und Infrarot-Touchscreens möglich. Die wichtigsten Eigenschaften der verschiedenen Technologien zeigt Tabelle 5-1.
Abbildung 5.2-18: Prinzipbild eines piezoelektronischen Touchscreens (links) und
eines Grafiktabletts (rechts).
Tabelle 5-1: Technische Realisierungen von Touchscreens
Funktionsprinzip
optisch
akustisch
resisitv
kapazitiv
Piezo
Auflösung
niedrig
hoch
hoch
mittel
mittel
Lichtdurchlässig-
100%
> 90%
> 70%
> 90%
Bis > 94%
beliebig
weich,
beliebig
leitend
beliebig
einmalig
wieder-
einmalig
keit
Griffelmaterial
energieabsorbierend
Kalibrierung
nie
einmalig
holt
Haltbarkeit
nahezu
nahezu
mittel
hoch
unbegrenzt unbegrenzt
Information
nein
ja
nahezu
unbegrenzt
nein
nein
Ja
über Anpresskraft
Schenk 2007, S. 16–21
Dahm 2006, S. 173f.
Shneiderman 2005, S. 359–361
SEMESTERARBEIT JUREK BREUNINGER
61
HARDWARE
5.3 3D-Eingabegeräte
Klassische Zeigegeräte sind für die Ansteuerung in einem zweidimensionalen Raum
ausgelegt. In vielen Computeranwendungen sind aber drei Dimensionen vorhanden
(CAD, Virtual Reality, Augmented Reality, Computerspiele, moderne Bedienkonzepte). Man kann diese Anwendungen meist auch mit den zweidimensionalen Zeigegeräten steuern, allerdings mit gewissen Einschränkungen. Es gibt auch Zeigegeräte,
die für den dreidimensionalen Raum ausgelegt sind (Abbildung 5.3-3).
5.3.1 Spacemouse
Die Spacemouse oder 3D-Maus (Abbildung 5.3-1), auch je nach Bauart Spaceball
(Abbildung 5.3-2) genannt, da sie wenig mit einer Maus gemein hat, ist ein verbreitetes Eingabegerät beim CAD im Maschinenbau und in der Architektur. Sie ist eine
spezielle Form des isometrischen Joysticks, der sich in drei Richtungen drücken lässt
und auch Drehmomente um die drei Achsen misst. Somit ist eine Steuerung in alle
Raumrichtungen möglich.
Abbildung 5.3-1: Eine 3D-Maus für CAD. Neben dem isometrischen Joystick besitzt
dieses Modell noch einige zusätzliche Tasten, um effizient zu arbeiten.
Abbildung 5.3-2: Ein Spaceball funktioniert wie ein 3D-Maus. Der Isometrische Joystick hat die Form einer Kugel.
SEMESTERARBEIT JUREK BREUNINGER
62
HARDWARE
Abbildung 5.3-3: Eine Art dreidimensionaler Force-Feedback-Joystick ist der Novint
Falcon. Die Kugel lässt sich in alle Richtungen drücken und drehen, Elektromotoren
sorgen für eine haptische Rückmeldung.
Dahm 2006, S. 172
5.3.2 Dataglove
Der Dataglove (Abbildung 5.3-4) oder Cyberglove wurde speziell für Virtual-RealityAnwendungen entwickelt. Es handelt sich um einen Handschuh, der Beugung und
Bewegung jedes einzelnen Fingers misst. Zusätzlich werden die Position und die
Orientierung der Hand im Raum berücksichtigt. Dies geschieht für die Position mittels
Ultraschall- oder Infrarottriangulation und für die Richtung mittels eines PolhemusSensors. Das sind drei orthogonale Spulen, deren Ausrichtung in einem dafür erzeugten Magnetfeld gemessen werden können. Der Dataglove bewegt meist keinen
Mauszeiger, sondern eine virtuelle Hand in der Anwendung. Um auch eine haptische
Rückmeldung beim Berühren virtueller Objekte zu erreichen, gibt es Modelle mit Vibrationselementen und sogar solche mit Exoskelett, die die Bewegung bei virtueller
Berührung einschränken und so massives Material suggerieren (Abbildung 5.3-5).
Abbildung 5.3-4: Ein Dataglove von 5DT. Datagloves werden v. a. für VR verwendet.
SEMESTERARBEIT JUREK BREUNINGER
63
HARDWARE
Abbildung 5.3-5: Cybergloves mit Exoskelett ermöglichen die haptische Simulation
massiver virtueller Gegenstände.
Dahm 2006, S. 172
Shneiderman 2005, S. 370f.
5.3.3 Gamepads mit Bewegungssensoren
Eine Technologie für die Erfassung dreidimensionaler Bewegungen, die bei
Spielekonsolen verwendet wird, ist, die etablierten Gamepads mit Bewegungssensoren auszustatten. Der bekannteste Controller dieser Art ist die Wiimote von Nintendo
(Abbildung 5.3-6). Mit Hilfe einer Infrarotkamera, die Referenzpunkte über- und unterhalb des Bildschirms erkennt, sowie von Bewegungssensoren, die translatorische
und rotatorische Bewegungen erkennen, kann dieses Eingabegerät sowohl als
Spielsteuerung mit völlig neuen Bedienkonzepten sowie als Mausersatz genutzt werden.
Abbildung 5.3-6: Die Wiimote von Nintendo kann mittels Beschleunigungssensoren
Bewegungen in alle Richtungen erkennen. Zusätzlich erkennt eine Infrarotkamera die
Ausrichtung zum Bildschirm.
http://www.mynintendo.de/wii-mote-controller/
SEMESTERARBEIT JUREK BREUNINGER
64
HARDWARE
5.4 Darstellung
Da das Sehen der wichtigste Sinneskanal des Menschen ist, nutzen fast alle softwarebasierten Systeme irgendeine Form von Bildschirmanzeige zur Ausgabe. Die
wichtigsten Display-Typen werden im Folgenden kurz vorgestellt. Für eine ergonomische Gestaltung sind folgende Kriterien der Darstellungstechnologie entscheidend:
Größe der Anzeigefläche (bei Monitoren meist die Diagonale in Zoll)
Auflösung (Anzahl der darstellbaren Bildpunkte (Pixel), meist angegeben in xund y-Richtung, bestimmt den Detailgrad)
Punktedichte (Anzahl der Pixel pro Fläche, ergibt sich aus Größe und Auflösung, meist in dots per inch (dpi) angegeben, bestimmt den Detailgrad)
Anzahl der darstellbaren Farben, Darstellung eines bestimmten Farbraumes,
Farbtreue
Leuchtstärke, Kontrast, Spiegelung (beeinflusst Erkennbarkeit unter verschiedenen Bedingungen)
Bildwiederholraten (wie häufig ein neues Bild aufgebaut wird, entscheidet darüber, ob das Bild als flimmerfrei und Bewegungen als fließend empfunden
werden)
Reaktionszeit, Trägheit (entscheidet ob ein „Nachziehen“ bei bewegten Bildern
beobachtet wird)
Shneiderman 2005, S. 385
Dahm 2006, S. 175–178
5.4.1 CRT
Der Röhrenmonitor (Cathode Ray Tube, CRT, Abbildung 5.4-2) funktioniert wie ein
Fernseher nach dem Prinzip der Braunschen Röhre. In einer evakuierten Glasröhre
werden Elektronen beschleunigt und auf eine phosphoreszierende Schicht geschossen, die zu leuchten beginnt. Durch Magnetfelder wird der Elektronenstrahl so abgelenkt, dass er zeilenweise ein Bild auf dem Schirm aufbaut. Die Geschwindigkeit des
Elektronenstrahls bestimmt die Intensität der Leuchtpunkte. Für Farbdarstellung gibt
es drei Elektronenkanonen und drei Typen von Phosphorpunkten für die Farben Rot,
SEMESTERARBEIT JUREK BREUNINGER
65
HARDWARE
Grün und Blau. Damit jeder Elektronenstrahl auf die richtigen Phosphorpunkte trifft,
liegt vor der Leuchtschicht eine Maske mit Löchern oder Schlitzen (Abbildung 5.4-1).
Abbildung 5.4-1: Das Funktionsprinzip eines CRTs: Glühkathoden (1) erzeugen
Elektronenstrahlen (2). Bündelungsspulen (3) fokussieren die Elektronenstrahlen, die
von Ablenkspulen (4) zeilenweise auf die Lochmaske (6) geworfen werden. Durch
die Fluoreszenzschicht (7) mit roten, grünen und blauen Subpixeln (8) entsteht ein
Farbbild.
Abbildung 5.4-2: CRT-Monitore sind heute weitgehend von LCD-Monitoren verdrängt
und nur noch in Nischen-Anwendungen eingesetzt.
SEMESTERARBEIT JUREK BREUNINGER
66
HARDWARE
Der Röhrenmonitor hat folgende Vorteile:
Auflösungen unterhalb der Maximalauflösung sind ohne sichtbaren Qualitätsverlust darstellbar.
Die Farbtreue und Helligkeit sind unabhängig vom Blickwinkel des Betrachters.
CRTs können sehr große Farbräume darstellen und kalibriert werden, das
heißt auf eine realitätstreue Darstellung geeicht werden. Dies ist für Anwendungen wichtig, bei denen die Darstellung am Monitor genau der Vorgabe
entsprechen muss (Druckvorstufe).
Hoher Kontrast
Guter Schwarzwert
Kurze Reaktionszeit
Dem stehen folgende Nachteile gegenüber:
Größe und Gewicht, tiefe Bauform
Ab gewisser Größe Einschränkung der Bildqualität durch fehlende Konvergenz der Elektronenstrahlen (v. a. in den Ecken, erzeugt Farbsäume)
Geringe ionisierende Strahlung, kann Augen und Schleimhäute des Nutzers
durch aufgeladene Luft reizen
Bei andauernder Benutzung ermüden die Augen relativ schnell, vor allem bei
zu schwacher Umgebungsbeleuchtung. Dies kommt von der hohen Helligkeit
und dem kontinuierlichen Bildaufbau. Verstärkt wird der Effekt, wenn das Bild
durch zu geringe Wiederholfrequenzen flimmert.
Inzwischen werden Röhrenmonitore nur noch für Spezialaufgaben eingesetzt, da sie
von LCD-Bildschirmen abgelöst wurden.
Schenk 2007, S. 27–29
Shneiderman 2005, S. 386
Dahm 2006, S. 178
SEMESTERARBEIT JUREK BREUNINGER
67
HARDWARE
5.4.2 LCD
Die meisten Computermonitore sind heutzutage Flüssigkristall-Anzeigen (Liquid
Crystal Display, LCD). Diese bestehen aus einer Matrix von Transistoren, die einen
Flüssigkristall enthalten. Polarisiertes Licht aus einer Hintergrundbeleuchtung wird
durch den Flüssigkristall auf einen Polarisierungsfilter geleitet. Je nach angelegter
Spannung des Transistors richtet sich der Flüssigkristall aus und ermöglicht ein Passieren des Lichtes durch den Filter oder nicht (Abbildung 5.4-3). Zur Farbdarstellung
wird ein Pixel aus Subpixeln in den Farben Rot, Grün und Blau zusammengesetzt.
Abbildung 5.4-3: Ein aktiver roter Subpixel in einem LCD-Display. Das vertikal polarisierte Licht der Hintergrundbeleuchtung wird durch den Flüssigkristall um 90° in seiner Polarisation gedreht und kann so durch den horizontalen Filter und den Farbfilter
treten. Beim Anlegen einer Spannung ändert sich die Lage des Flüssigkristalls und er
dreht die Polarisation weniger oder gar nicht. Dann kommt weniger oder kein Licht
durch den horizontalen Filter und der Pixel bleibt dunkler oder schwarz.
LCDs habe folgende Vorteile:
Flache Bauform
Größen von Zentimetern bis Metern in der Diagonale möglich
Flimmerfreiheit durch Trägheit der Kristalle
Hohe Punktedichten von 300 dpi möglich
SEMESTERARBEIT JUREK BREUNINGER
68
HARDWARE
Aber sie haben diese Nachteile:
Trägheit der Kristalle kann zur Schlierenbildung bei schnellen Bewegungen
führen.
Andere Auflösungen als die native, durch die Transistormatrix vorgegebene
müssen unter Qualitätsverlust interpoliert werden.
Je nach Technologie haben LCDs eine gewisse Blickwinkelabhängigkeit der
Darstellung von Helligkeit, Kontrast und Farbdarstellung.
LCDs können (noch) nur etwas kleinere Farbräume darstellen als CRTs.
Abbildung 5.4-4: Ein LCD-Monitor mit 27 Zoll Diagonale. LCD-Bildschirme sind die
am weitesten verbreitete Bildschirmart.
Je nach Art der Hintergrundbeleuchtung unterscheidet man zwischen den zwei Typen
Transflektiv
Die meisten Computerdisplays besitzen eine aktive Hintergrundbeleuchtung
aus Kaltkathodenstrahlenröhren (CCRT) oder LEDs. Das Bild kann nur erkannt werden, wenn die Hintergrundbeleuchtung eingeschaltet ist. Sie sind
auch in dunklen Umgebungen gut lesbar. Allerdings bedarf es für eine gute
Lesbarkeit unter Sonneneinstrahlung einer starken Hintergrundbeleuchtung.
SEMESTERARBEIT JUREK BREUNINGER
69
HARDWARE
Reflektiv
Diese Displays besitzen statt einer Hintergrundbeleuchtung Spiegel, die das
Umgebungslicht zur Anzeige nutzen. Sie können unter Sonnenlicht sehr gut
erkannt werden, sind im Dunkeln aber nicht lesbar (Abbildung 5.4-5).
Abbildung 5.4-5: Für Geräte, die unter starker Sonneneinstrahlung gut lesbar sein
müssen, werden häufig reflektive Displays eingesetzt. Dieser PDA besitzt keine Hintergrundbeleuchtung. Das spart zusätzlich Strom und verlängert die Batterielaufzeit.
Normalerweise haben LCDs eine diffuse Beschichtung auf der Oberfläche, da das
Glas des Bildschirms sonst stark spiegelt. Diese trübt allerdings den Farbeindruck
und den Kontrast. Deshalb gibt es inzwischen auch häufig Bildschirme ohne Entspiegelung. Diese lassen sich allerdings in hellen Umgebungen sehr schlecht ablesen.
Schenk 2007, S. 29–32
Dahm 2006, S. 179f.
Shneiderman 2005, S. 386
5.4.3 OLED
Als Nachfolgetechnologie der LCDs gelten die OLEDs (Organic Light Emitting Diode). Sie bestehen aus Schichten organischer, halbleitender Materialien. Diese lassen
sich auf einer Menge möglicher Trägersubstanzen aufbringen und ermöglichen so
sehr dünne und auch biegsame Bildschirme (Abbildung 5.4-6). Sie können aus spitzen Ablesewinkeln ohne Einschränkungen erkannt werden und haben sehr kurze
Reaktionszeiten. Darüber hinaus sind sie selbstleuchtend, also im Dunklen ablesbar.
Da man das Trägermaterial reflektiv gestalten kann, können sie auch unter Sonnenlicht gut erkannt werden.
SEMESTERARBEIT JUREK BREUNINGER
70
HARDWARE
Abbildung 5.4-6: OLED-Displays sind flexibel und ermöglichen aufrollbare Bildschirme.
Dahm 2006, S. 180
Shneiderman 2005, S. 386
5.4.4 E-Paper
Eine weitere junge Technologie, die biegsame Displays ermöglichen soll, ist das EPaper. Damit ließen sich Geräte mit aufrollbarem Bildschirm zum Lesen einer digitalen Zeitung oder von E-Books realisieren. In einem E-Paper sind viele schwarze oder
farbige Partikel in eine Folie integriert, die sich durch das Anlegen einer Spannung
drehen lassen. Je nach Spannung entsteht ein weißer oder ein schwarzer/farbiger
Punkt. Die Orientierung der Partikel bleibt auch ohne angelegte Spannung erhalten.
Dadurch ist die Energieaufnahme sehr niedrig. Die optischen Eigenschaften ähneln
echtem Papier. E-Paper hat den Nachteil, dass es sehr langsam schaltet und so
nicht für bewegte Bilder geeignet ist.
Abbildung 5.4-7: E-Paper ist ein Displaytechnologie, die genauso gut lesbar ist wie
echtes Papier und einen sehr geringen Energieverbrauch hat.
Dahm 2006, S. 182
SEMESTERARBEIT JUREK BREUNINGER
71
HARDWARE
5.4.5 Beamer
Große Darstellungsflächen lassen sich nur eingeschränkt mit normalen Monitortechnologien erreichen. In Unternehmen können für so genannte Informational Wall Displays und Interactive Wall Displays schachbrettartig angeordnete LCDs zum Einsatz
kommen. Ebenso werden Projektoren (Abbildung 5.4-8) verwendet, da deren Bild
übergangslos ist. Weitere Anwendungsgebiete sind Fahr- und Flugsimulatoren, Virtual Reality Caves (Abbildung 5.4-9) und Heimkinos. Bei Beamern gibt es im Wesentlichen zwei Technologien:
LCD
Der Projektor funktioniert ähnlich wie ein Dia-Projektor. Statt durch ein Dia
wird das Licht durch ein LCD-Scheibe geworfen.
DLP (Digital Light Processing)
Das Licht wird auf eine Anordnung winziger Spiegel geworfen, die gedreht
werden können. Sie werfen das Licht entweder auf die Leinwand oder auf eine
Fläche im Projektor. Vor der Lichtquelle dreht sich mit hoher Geschwindigkeit
ein Farbrad, sodass in schneller Abfolge rotes, grünes, blaues und weißes
Licht projiziert wird. Allerdings ist bei schnellen Bewegungen die Separation in
drei verschieden farbige Bilder sichtbar.
Abbildung 5.4-8: Ein für Heimkinos entwickelter Projektor mit LCD-Technik. Beamer
haben mit LCD-Bildschirmen vergleichbare Auflösungen. Hochwertige Modelle mit
2000 Lumen oder mehr Leuchtstärke können auch in sonnenbeleuchteten Räumen
eingesetzt werden.
SEMESTERARBEIT JUREK BREUNINGER
72
HARDWARE
Abbildung 5.4-9: Eine Virtual Reality Cave ist ein kleiner, häufig würfelförmiger Raum
aus Leinwänden, die von außen mit Projektoren bestrahlt werden. In ihm können
zum Beispiel Ingenieure maßstabsgetreue virtuelle Modelle ihrer Entwürfe betrachten. Häufig werden in VR Caves auch Technologien für dreidimensionale Darstellung
genutzt.
Der Nachteil von Beamern ist vor allem ihre eingeschränkte Helligkeit und der für
eine Projektion nötige Abstand zwischen Projektor und Bild.
Dahm 2006, S. 181f.
Shneiderman 2005, S. 388f.
5.4.6 Head-Up-Displays
Head-Up-Displays (HUDs) sind eine aus der Luftfahrt stammende Anzeigetechnologie. Sie finden inzwischen auch in Autos Anwendung. Ihr Vorteil ist, dass sie die Information in das für die Anwendung wichtige Sichtfeld projizieren. So ist kein Blickwechsel und keine Neufokussierung zwischen der Beobachtung der Primäraufgabe
und der unterstützenden Information des Software-Systems nötig. Sie bieten sich für
alle Aufgaben an, in denen das Software-System unterstützende Wirkung hat und
nicht die Primäraufgabe ist (Abbildung 5.4-10).
SEMESTERARBEIT JUREK BREUNINGER
73
HARDWARE
Abbildung 5.4-10: Head-Up-Displays eignen sich als Anzeigen für sekundäre Informationen. Im Bild zeigt das HUD eines Autos Navigationsinformationen in der Windschutzscheibe an, sodass der Fahrer den Blick nicht von der Straße nehmen muss.
Head-Up-Displays bestehen meist aus einer Optik, einem Display und einem
Combiner (einer halbreflektierenden, lichtdurchlässigen Fläche, im Auto meist die
Windschutzscheibe). Das Optikmodul projiziert das Bild des Displays auf den
Combiner. Für den Benutzer erscheint das Bild auf dem Combiner als würde es in
einiger Entfernung in der Umgebung schweben (Abbildung 5.4-11). Es ist bei geeigneter Konfiguration nicht einmal ein Scharfstellen der Augen notwendig.
Abbildung 5.4-11: Prinzipbild eines HUD. Statt Kathodenstrahlröhren kommen heute
meist LCD-Projektoren zum Einsatz.
Mit einem Head-Up-Display lassen sich neben umgebungsunabhängigen Informationen wie aktueller Geschwindigkeit auch kontaktanaloge Informationen anzeigen
(Abbildung 5.4-12). Diese werden in Abhängigkeit der sichtbaren Umgebung erzeugt.
Zum Beispiel kann das Navigationssystem eines Autos nicht nur einen Pfeil in den
Bereich vor dem Auto projizieren mit dem Hinweis, in 200 Metern abzubiegen. Der
Pfeil kann auf die dahinter sichtbare Straße gelegt werden und in genau die AbzweiSEMESTERARBEIT JUREK BREUNINGER
74
HARDWARE
gung zeigen, in die abgebogen werden muss. Während der Fahrt verkürzt sich der
Pfeil entsprechend, sodass er immer korrekt in die Abzweigung zeigt. Ein einfaches
kontaktanaloges System wird seit langem in Kampfflugzeugen verwendet. Ein künstlicher Horizont wird in Abhängigkeit der Flugzeuglage eingeblendet (Abbildung
5.4-13). Andere Flugzeuge werden im HUD markiert. Die Markierung folgt dem realen Flugzeug und zeigt immer seine aktuelle Position.
Abbildung 5.4-12: Simulation eines kontaktanalogen Head-Up-Displays im Auto. Andere Autos werden erkannt und markiert; die Anweisungen des Navigationssystems
direkt auf der Straße eingeblendet.
Abbildung 5.4-13: Das HUD eines Flugzeuges zeigt den künstlichen Horizont kontaktanalog an.
Shneiderman 2005, S. 392
Bubb 2006, Kap. 3.4
http://www.uni-protokolle.de/Lexikon/Head-Up-Display.html
http://www.bmw.com/com/de/insights/explore/bmw_magazine/03_2006/hud.html
SEMESTERARBEIT JUREK BREUNINGER
75
HARDWARE
5.4.7 Head-Mounted-Displays
Eine besondere Form der Anzeige sind Head-Mounted-Displays (HMDs), die der Benutzer am Körper trägt. Sie wurden durch die ersten Virtual-Reality-Anwendungen
bekannt (in Kombination mit dem Dataglove). Sie können Ersatz für klassische Bildschirme sein (geschlossene Brillen, Abbildung 5.4-14) oder aber wie HUDs funktionieren. Das heißt, der Benutzer kann seine Umgebung betrachten, die mit zusätzlichen Informationen überlagert wird. Man spricht hierbei von Augmented Reality, also
erweiterter Realität. Dies ermöglicht zum Beispiel digitale interaktive Bedienungsanleitungen oder Reperaturhilfen für mechanische Geräte. Man spricht bei den blickdurchlässigen Brillen auch von Immersive Head Mounted Displays (iHMD, Abbildung
5.4-15).
Abbildung 5.4-14: Geschlossene HMDs haben meist einen größeren Blickwinkel als
immersive HMDs.
Abbildung 5.4-15: Ein iHMD, das das Betrachten der Umwelt zulässt. Es ist
Vorraussetzung für Augmented Reality, bei der das Umgebungsbild mit virtuellen
Bildern überlagert wird.
SEMESTERARBEIT JUREK BREUNINGER
76
HARDWARE
Technisch funktionieren HMDs genau wie ihre stationären Gegenstücke. Bei geschlossenen Brillen kommen meist zwei kleine LCDs zum Einsatz, die durch ihre optische Ausrichtung dem Betrachter eine große Leinwand in ein paar Metern Abstand
suggerieren. Die durchlässigen Brillen funktionieren genauso oder wie kleine HUDs.
Das erzeugte Bild kann monokular oder binokular sichtbar sein. Binokulare HUDs
haben einen höheren Sichtbarkeitsbereich und die Möglichkeit der dreidimensionalen
Darstellung.
Eine besondere technische Realisierung des HMD ist die Retina-Projektion
(Abbildung 5.4-16). Hier wird das virtuelle Bild mittels LEDs oder Laser direkt auf die
Netzhaut des Benutzers projiziert. Diese besonders kleinen und leichten Apparate
können nur einfarbige, aber sehr scharfe und kontrastreiche Bilder erzeugen.
Abbildung 5.4-16: Ein Retinal-Imaging-Display-Prototyp projiziert Informationen direkt
ins Auge.
Um bei HMDs eine kontaktanaloge Anzeige zu ermöglichen, muss die Kopfstellung
messbar sein. Es sind deshalb Sensoren für alle Raumrichtungen und Rotationen
nötig.
Dahm 2006, S. 188f.
Shneiderman 2005, S. 392
5.4.8 3D-Darstellung
Die meisten der bisher vorgestellten Darstelltechniken können nur zweidimensionale
Bilder erzeugen. Es gibt mehrere Ansätze, Bilder mit dreidimensionalem Raumeindruck darzustellen:
SEMESTERARBEIT JUREK BREUNINGER
77
HARDWARE
Holographie
Die Holographie ist ein sehr aufwändiges Verfahren, das bis heute keine Verbreitung in interaktiven Systemen gefunden hat. Die dreidimensionale Information von Objekten wird mittels der Interferenz zwischen einem Referenzund einem vom Objekt reflektierten monochromatischen Laserstrahl auf Film
gespeichert. Wegen der nötigen Interferenz sind die Bilder zwingend einfarbig.
Anaglyphenverfahren
Bei diesem aus alten 3D-Kinos bekannten Verfahren werden zwei leicht versetzte Bilder derselben Szene mit komplementären Farbfiltern (bei modernen
Verfahren Rot und Cyan) übereinander projiziert. Der Betrachter trägt eine
Brille mit den entsprechenden Farbfiltern für je ein Auge. Der dreidimensionale
Eindruck ist gut, aber durch die Farbfilter ist es schwierig, Echtfarben darzustellen.
Shutterbrillen
Bei Shutterbrillen (Abbildung 5.4-17) werden die stereoskopischen Bilder nicht
übereinander projiziert, sondern abwechselnd hintereinander gezeigt. Der Betrachter muss eine Brille tragen, die das jeweils andere Auge im richtigen Takt
abdeckt. Die Verdunklung wird durch zwei Polarisierungsfilter erreicht, die
schnell von einer zueinander parallelen zu einer orthogonalen Stellung geschaltet werden können. Damit das Bild flimmerfrei erscheint, muss der Monitor in doppelter Verschmelzungsfrequenz darstellen (etwa 2 ∙ 80Hz = 160Hz
bei CRTs).
Polarisierte Brillen
Eine einfachere Form der aktiven Shutterbrille ist eine Brille mit festen, zueinander orthogonalen Polarisationsfiltern. Dann muss das Anzeigegerät die
wechselnden Bilder polarisiert anzeigen. Dies ist bei Monitoren mit einem Aufsatz möglich, der mit der Wiederholfrequenz des Monitors synchronisiert sein
muss. Bei modernen 3D-Kinos, bei denen dieses Verfahren auch zum Einsatz
kommt, werden die Bilder von zwei verschieden polarisierten Projektoren gezeigt, die zueinander synchronisiert sein müssen (Abbildung 5.4-18). Damit
SEMESTERARBEIT JUREK BREUNINGER
78
HARDWARE
die Polarisation des Lichtes bei der Reflektion nicht geändert wird, werden
spezielle metallisierte Leinwände verwendet.
Abbildung 5.4-17: Eine
Shutterbrille von Nvidia.
kabellose
Abbildung 5.4-18: In modernen 3DKinos kommen hauptsächlich passive
Polfilterbrillen zum Einsatz.
3D-Monitor
Um gänzlich auf Hilfsmittel wie Brillen verzichten zu können, werden beim
hochauflösenden 3D-Monitor (Abbildung 5.4-19) die beiden stereoskopischen
Bilder gleichzeitig streifenweise gezeigt. Eine Prismenoptik sorgt dafür, dass
direkt vor dem Monitor das eine Bild nur vom einen Auge zu sehen ist und das
andere vom anderen. Eine weiterentwickelte Version erkennt mittels einer
Kamera die Position des Betrachters und passt die Prismen entsprechend an.
Abbildung 5.4-19: Dieser 3D-Monitor verfolgt mit Hilfe von Kameras die Position des
Betrachters und kommt dadurch ohne zusätzliche Geräte wie Brillen aus.
Dahm 2006, S. 182–186
SEMESTERARBEIT JUREK BREUNINGER
79
INTERAKTIONSFORMEN
6 Interaktionsformen
Da die technischen Grundlagen behandelt sind, wird nun die Anwendung in der Realität besprochen. Es haben sich in der Mensch-Computer-Interaktion einige Bedienkonzepte etabliert. Es folgt nun ein Überblick, wie der Mensch mit Hilfe der bereits
beschriebenen Geräte mit Software-Systemen interagieren kann.
6.1 Tastaturbedienung
Die Eingabe von Daten erfolgt bis heute in den meisten Fällen mittels der Tastatur.
Auch zur Steuerung von Anwendungen ist die Tastatur neben der Maus ein wichtiges
Instrument. In Geräten, die kein Zeigegerät besitzen, also vielen eingebetteten Computern, ist die Tastatur das einzige Mittel um die Software zu steuern.
Im Idealfall ist die Bedienung einer Software mit der Tastatur schneller als das Auswählen der Funktionen in Menüs durch Maussteuerung. Für viel benutzte Funktionen
gibt es auf Standardtastaturen die Funktionstasten, die eine direkte Auswahl ermöglichen. Der Geschwindigkeitsvorteil gilt vor allem dann, wenn die Hände bereits auf
der Tastatur liegen, um beispielsweise Text einzugeben. Doch für ein effektives Nutzen der Funktionstasten muss man deren Bedeutung für jede Anwendung auswendig
gelernt haben oder Bildschirmplatz für ihre Beschriftung opfern. Bei modernen Anwendungen werden die Funktionstasten kaum noch belegt. Aber es haben sich
Standards für Betriebssystem- und allgemeine Dateiverwaltungsfunktionen etabliert,
die beim Entwurf von Software bedacht werden sollten, um die Benutzererwartung zu
erfüllen (F1 für Hilfe, F2 Umbenennen etc.).
Als Alternative zu den Funktionstasten werden in den meisten Anwendungen zum
direkten Aufruf einer Funktion Tastenkombinationen genutzt. Unter Windowssystemen wird für diese Abkürzungen (shortcuts) die Steuerungs-Taste (Strg, Ctrl) und ein
naheliegendes Zeichen genutzt. Für das Ansteuern der Menüstruktur wird die AltTaste verwendet in Kombination mit dem im Menüpunkt unterstrichenen Buchstaben.
Diese Kombinationen können bei Bedarf mit der Umschalt-Taste (Shift) um weitere
Ebenen der Belegung erweitert werden. Für Betriebssystemfunktionen gibt es die
Windows-Taste. Auf Apple-Systemen sind ähnliche Kombinationen möglich, allerdings werden hier neben der Strg-Taste die apple-spezifische Befehlstaste (⌘ ) und
SEMESTERARBEIT JUREK BREUNINGER
80
INTERAKTIONSFORMEN
die Wahltaste (⌥) verwendet. Auf Unix-Systemen werden Tastenkombinationen ähnlich wie auf Windowssystemen verwendet. Hier sind Tastenkürzel aufgrund der fortgeschritteneren Benutzer noch verbreiteter und häufiger. Dementsprechend gibt es
auch sehr komplizierte Kombinationen. Als gutes Beispiel für eine sehr weitgehende
Steuerung einer Software mit Tastenkürzeln ist der Texteditor Emacs (Abbildung
6.1-1). Während sich viele häufig genutzte Tastaturkürzel über Betriebssystemgrenzen gleichen, kann es bei verschiedenen Sprachversionen Unterschiede geben. Das
kommt daher, dass sinnvollerweise oft der Anfangsbuchstabe eines Befehls als
Merkhilfe benutzt wird (z. B. Strg+Shift+K = Kursiv im deutschen Word, Strg+Shift+I
= Italic im englischen Word). Als Konvention werden die Tastaturkürzel der Befehle
neben ihrem Namen in der Menüstruktur gezeigt. Tasten wie Steuerung und Alt, die
nur in Kombination mit anderen Tasten benutzt werden, nennt man Modifikatoren
oder Meta-Tasten. In komplexen Programmen mit erfahrenen Benutzern ist neben
einer Standardlösung die Möglichkeit sinnvoll, spezielle Tastaturbefehle frei zu vergeben.
Abbildung 6.1-1: Der Texteditor Emacs lässt sich in hohem Maße mit Tastaturkombinationen steuern.
SEMESTERARBEIT JUREK BREUNINGER
81
INTERAKTIONSFORMEN
Eine andere Möglichkeit effektiv Softwarefunktionen mit der Tastatur aufzurufen sind
die kontextabhängigen Softkeys (Abbildung 6.1-2). Sie sind vor allem aus Mobiltelefonen und Geldautomaten bekannt. Sie sind „weich“, weil sie keine feste Funktion
haben, sondern in Abhängigkeit vom darauf oder daneben auf einem Bildschirm
festgelegten Befehl funktionieren. Man kann so auf kleinen Geräten mit wenig Tasten
einen großen Funktionsumfang bequem steuern. Eine begrenzte Anzahl von Bedienelementen ist vor allem bei sehr komplexen Systemen (Infotainment im Auto,
Messgeräte) zentral für die Bedienergonomie. Darüber hinaus ist eine einfache Anpassung des Funktionsumfangs für Aufrüstung oder Systemvarianten mit der gleichen Hardware möglich. Am wichtigsten bei der guten Gestaltung von Softkeys ist
die eindeutige Zusammengehörigkeit von Taste und Beschriftung. Schon bei einem
Zentimeter Abstand kann es zu Verunsicherung kommen. In diesem Fall können fest
aufgedruckte Linien hilfreich sein. Am eindeutigsten, aber aufwendig, ist ein eigenes
Display in der Taste (Abbildung 6.1-3).
Abbildung 6.1-2: Dieses Flugzeug-MFD (Multi Function Display) wird über die
Softkeys an der rechten Seite bedient. Um die Zuordnung zu verdeutlichen sollten
sich die Tasten jedoch näher am Bildschirm befinden.
SEMESTERARBEIT JUREK BREUNINGER
82
INTERAKTIONSFORMEN
Abbildung 6.1-3: Diese Tastatur besteht nur aus Softkeys. Sie hat ein kleines OLEDDisplay auf jeder Taste, die somit immer ihre derzeitige Belegung anzeigen kann.
Dahm 2006, S. 194–197
Sheiderman 2005, S. 354
Cooper 2007, S. 490f.
6.2 Direkte Manipulation
Nach der Entwicklung der Fähigkeit zur graphischen Darstellung auf Computern und
der Entstehung von objektorientiertem Denken auf Programmierebene wurde kurz
darauf das Prinzip der direkten Manipulation als Interaktionsform entwickelt. Es wurde 1974 von Ben Shneiderman das erste Mal beschrieben:
Visuelle Repräsentation der Objekte, die für die Anwendung von Belang sind
Sichtbare Gesten-Befehle, um mit diesen Objekten zu interagieren
Sofort sichtbare Resultate der Aktionen
Dies hat gegenüber den bis dahin gebräuchlichen Möglichkeiten der Tastatursteuerung und der Kommandosprachensteuerung den Vorteil, dass die Interaktion mit Objekten intuitiver und mit besserer Rückmeldung vonstatten geht. Direkte Manipulation
ist eine Art Objektorientierung auf Bedienschnittstellenebene. Datenstrukturen und
Befehle werden als Objekte verstanden, die miteinander interagieren können. Die
graphische Darstellung ermöglicht physische Aktionen mit den Objekten, die dem
Benutzer aus der echten Welt bekannt und intuitiv verständlich sind. Beispiele sind
das „Anfassen“ und „Verschieben“ von Ordnern und Dateien. Das „Fallenlassen“
über dem Papierkorb ist eine Metapher für das Löschen der Datei auf der Festplatte
(Abbildung 6.2-1).
SEMESTERARBEIT JUREK BREUNINGER
83
INTERAKTIONSFORMEN
Abbildung 6.2-1: Die bekannteste Metapher der direkten Manipulation ist das Ziehen
einer Datei in den Papierkorb.
Fehler und Verwechslungen kommen so kaum vor, solange die Metaphern der Benutzeroberfläche gut mit den Erwartungen der Benutzer bezüglich der tatsächlich
durchgeführten Befehle übereinstimmen. Vor allem geht das Verständnis für eine
direkte Manipulation meist bereits nach einer einmaligen Ausführung in das Gedächtnis über, während Kommandobefehle, Tastaturkombinationen und ab einer gewissen Komplexität selbst Menüstrukturen mühselig auswendig gelernt werden müssen. Direkte Manipulation gilt heute als die ergonomischste Form der Bedienoberflächen und sollte bevorzugt verwendet werden. Allerdings sollte immer auch eine alternative Tastatursteuerung vorhanden und ein Wechsel zwischen Zeigegerät und
Tastatur möglichst selten nötig sein. Die Nachteile direkter Manipulation sind die Abhängigkeit von einem geeigneten Zeigegerät (vorzugsweise Maus) und die längere
Bearbeitungsdauer unter folgenden Umständen:
Wenn viele Objekte vorhanden sind und der Name des zu bearbeitenden Objektes bekannt ist, ist es oft schneller seinen Namen einzugeben als das Objekt auf dem Bildschirm zu suchen.
Nach einem Algorithmus automatisierbare Stapelaufgaben sind mit Kommandosprache um ein Vielfaches schneller durchführbar als „von Hand“ mit direkter Manipulation. Beispiel: Lösche alle Dateien mit der Endung „.tmp“, die älter
als drei Tage und größer als ein Megabyte sind.
Die graphische Darstellung kann rechenaufwändig sein. Dies gilt heutzutage
nicht mehr für PC-Systeme, kann aber auf kleinen eingebetteten Computern
eine Rolle spielen.
Dahm 2006, S. 197–199
Sheiderman 2005, S. 214ff.
Cooper 2007, S.375–377
SEMESTERARBEIT JUREK BREUNINGER
84
INTERAKTIONSFORMEN
6.2.1 WIMP
Die graphische Umsetzung der direkten Manipulation ist das WIMP-Konzept. WIMP
steht für Windows, Icons, Menus und Pointer, also Fenster, bildliche Darstellung von
Objekten, Menüs und Zeiger. Dieses Konzept hat sich seit seiner Entstehung langsam etabliert und ist im Prinzip bis heute unverändert. Weitere mit WIMP verwandte
Konzepte, die ebenfalls die direkte Manipulation nutzen, sind:
Die Bedienoberflächen vieler Computerspiele funktionieren mit direkter Manipulation. Beispiele: Das Kombinieren von Gegenständen in Adventures, das
Inventar in Rollenspielen (Abbildung 6.2-2).
Interaktive Formulare, die das Ausfüllen am Bildschirm ermöglichen und digital
versendet oder ausgefüllt ausgedruckt werden können (Abbildung 6.2-3).
Kalender- oder Raumplanungssysteme in Unternehmen, Kongresszentren
oder Krankenhäusern, die ein Verschieben der Termine/Belegung ermöglichen (Abbildung 6.2-4).
Dreidimensionale Darstellungen in Architektur oder Chirurgie, die zur Demonstration oder Ausbildung eingesetzt werden (Abbildung 6.2-9).
Abbildung 6.2-2: Manche Computerspiele zeigen im Inventarbildschirm den Spielcharakter mit seiner aktuellen Ausstattung (WYSIWYG). Gegenstände werden als Icons
symbolisiert. Der Charakter kann mittels direkter Manipulation mit den Gegenständen
ausgerüstet werden.
SEMESTERARBEIT JUREK BREUNINGER
85
INTERAKTIONSFORMEN
Abbildung 6.2-3: Um bei TUMOnline ein Benutzerkonto anzulegen, muss man ein
Online-Formular ausfüllen. Formulare sind ein Bedienkonzept, das mit WYSIWYG
verwandt ist.
Abbildung 6.2-4: In dieser Kalenderapplikation kann man mit direkter Manipulation
Einträge greifen und verschieben.
SEMESTERARBEIT JUREK BREUNINGER
86
INTERAKTIONSFORMEN
Die reine Lehre der direkten Manipulation geht von genau einer unmittelbaren Interaktion mit einem Objekt aus. Bei WIMP kommen jedoch Hilfsmittel wie Menüs zum
Einsatz, die mehrere Bedienschritte benötigen. Bei der Gestaltung eines auf WIMP
basierenden Benutzerkonzepts sollte auf die Konsistenz der Bedienreihenfolge geachtet werden. Die häufigere und meist erwartete Reihenfolge ist erst die beteiligten
Objekte festzulegen und dann die durchzuführenden Aktionen zu bestimmen. Aber
auch die umgekehrte Reihenfolge ist möglich und in manchen Situationen sinnvoll.
6.2.1.1 Fenster
Fenster stellen einzelne Anwendungen oder Dialoge innerhalb von Anwendungen
dar. Sie können sich überlappen, auf dem Bildschirm verschoben, in der Größe verändert und geschlossen werden (Abbildung 6.2-5). Es gibt immer ein aktives Fenster,
in das die Eingabe erfolgt. Es sollte vor allen anderen Fenstern liegen und als aktiv
erkennbar sein. Das Aussehen der Fenster variiert je nach Betriebssystem und Fenstermanager. Meist verfügen sie über Interaktionselemente für das Aktivieren, Bewegen, Schließen und die Größenänderung. Innerhalb des Fensters gibt es zur Steuerung der Anwendung neben der Menüleiste oft Icons, Scrollbalken und unter Umständen Unterfenster.
6.2.1.2 Icons
Icons sind kleine graphische Darstellungen von Objekten. Sie können direkt manipuliert werden. Die gängigste Interaktion ist das „Anfassen“ und Verschieben eines
Icons (Drag&Drop, Abbildung 6.2-1).
6.2.1.3 Menüs
Mit der wachsenden Komplexität von Softwaresystemen wird es nötig ihre Funktionen strukturiert zugänglich zu machen. Menüs zeigen nur die oberste Hierarchieebene und stellen bei Auswahl weitere Unterpunkte zur Verfügung (Abbildung 6.2-6).
Diese sollten zum aktuellen Kontext der Anwendung passen. Menüs haben den Vorteil, dass der Befehlsumfang nicht erlernt und exakt wiedergegeben werden muss, da
die Menüpunkte die Auswahl aus ausgeschriebenem Text zulassen. So werden bei
unbekannter Software die Eingabezeit verkürzt und Fehler vermieden.
SEMESTERARBEIT JUREK BREUNINGER
87
INTERAKTIONSFORMEN
Abbildung 6.2-5: Fünf geöffnete Anwendungen mit jeweils eigenem Fenster. Jedes
Fenster hat nach Konvention Interaktionselemente am oberen Fensterrand. Außerdem kann die Größe der Fenster durch Ziehen an den Kanten geändert werden.
Wenn das Fenster zu klein für den Inhalt ist, erscheinen Scrollbalken.
Abbildung 6.2-6: Hier ist die Menüstruktur am oberen Rand des Fensters angebracht.
Die oberste Ebene öffnet weitere Listen von Funktionen. Kaskadierende Menüs wie
im Bild erlauben auch tiefere Ebenen.
SEMESTERARBEIT JUREK BREUNINGER
88
INTERAKTIONSFORMEN
6.2.1.4 Zeiger
Der Mauszeiger, manchmal auch Cursor genannt, obwohl dies auch die Eingabemarkierung für Text bezeichnet, macht die direkte Manipulation erst möglich. Er wird
mittels eines Zeigegerätes positioniert. Seine wichtigsten Funktionen sind das Selektieren von Objekten, das Ausführen einer Aktion aus dem Kontext des Objektes und
das Bewegen von Objekten. Für die meisten Objekte ist eine Standardaktion definiert
(bei einer Anwendung z. B. das Ausführen), um Zugriff auf andere mögliche Aktionen
zu erhalten wird die Menüstruktur benutzt. Der Zeiger kann auch hilfreiche Rückmeldungen geben indem er sein Aussehen ändert. Bekannt sind die Sanduhr oder Animationen um die Auslastung des Systems zu verdeutlichen. Außerdem können mögliche Interaktionsarten mit Objekten durch die Form des Mauszeigers beim Berühren
veranschaulicht werden: Die meisten Betriebssystem zeigen Pfeile für die Größenänderung von Fenstern oder eine Texteinfügemarke über Formularfeldern (Abbildung
6.2-7).
Abbildung 6.2-7: Verschiedene Formen von Mauszeigern. Der Mauszeiger ändert
seine Form bei Systemauslastung (Uhr) und kontextsensitiv, um mögliche Interaktionen kenntlich zu machen (Link, Hilfe, Texteingabe, Fenster bewegen, Fenstergröße
ändern, Präzisionsauswahl).
Ein weitere Interaktionsart mit Hilfe der Zeigegeräte sind Mausgesten (Abbildung
6.2-8). Sie erfüllen eine ähnliche Funktion wie Tastaturkürzel oder Funktionstasten
auf der Tastatur. Einer bestimmten Kombination aus (Maus-)Knopfdruck und einer
einfachen Zeigerbewegung wird ein Befehl zugewiesen. Dies ermöglicht vor allem in
Anwendungen, die viel auf Maussteuerung ausgelegt sind, dass mehrere Befehle
schnell ausgeführt werden können ohne dass komplexe Menüstrukturen nötig sind
oder eine Vielzahl Icons die Oberfläche verkomplizieren und den Platz der Ausgabe
einschränken.
SEMESTERARBEIT JUREK BREUNINGER
89
INTERAKTIONSFORMEN
Abbildung 6.2-8: Vor allem in Browsern werden gerne Mausgesten als Interaktionsform genutzt. Da im Internet surfen vor allem mausgesteuert erfolgt, vermeiden
Mausgesten als Ersatz für Tastenkombinationen einen Wechsel zwischen Tastatur
und Zeigegerät.
Dahm 2006, S. 199–205
6.2.2 WYSIWYG
Das WYSIWYG-Konzept (What you see is what you get) ist die logische Fortführung
des WIMP-Prinzips. Nicht nur das Interaktionskonzept besteht aus interaktiven Objekten, sondern auch die Datenstrukturen. Am bekanntesten ist das WYSIWYGKonzept aus modernen Textbearbeitungsprogrammen. Sie stellen nicht den Text und
die Formatierungsinformationen, die in der Datei gespeichert werden, sondern das
fertige Papier dar, wie es erscheinen würde, wenn es gedruckt würde. Auch die
meisten Programme mit 3D-Darstellung, etwa CAD-Programme, sind eine Realisierung dieses Konzeptes (Abbildung 6.2-9). Die Voraussetzung dafür ist, dass die
Hardware das geplante Arbeitsprodukt realistisch genug darstellen kann (hängt neben der Arbeitsgeschwindigkeit des Computers hauptsächlich von der Punktedichte
der Monitore ab).
SEMESTERARBEIT JUREK BREUNINGER
90
INTERAKTIONSFORMEN
Abbildung 6.2-9: Ein CAD-Programm zeigt das entwickelte Produkt in einer realistischen Darstellung.
Shneiderman 2005, S. 216f.
Dahm 2006, S. 205
6.2.3 Besonderheiten des Touchscreens
Der Touchscreen ist eine Kombination aus Eingabegerät und Ausgabegerät. Er hat
gegenüber anderen Zeigegeräten den Vorteil, dass er sehr geringe Anforderungen
an die Hand-Auge-Koordination stellt. Er eignet sich deshalb besonders für die direkte Manipulation. Allerdings muss die Gestaltung der Bedienoberfläche für Touchscreens in Abhängigkeit der Bedienung (Finger/Stift) einige Besonderheiten berücksichtigen:
Vor allem bei Fingerbedienung müssen die Interaktionselemente groß genug
und weit genug voneinander entfernt sein (Abbildung 6.2-10). Sie sollten auch
von einem großen Finger mit der Kuppe (nicht dem Fingernagel) exakt zu bedienen sein. Bei Spezialanwendungen kann auch eine Bedienung mit Handschuhen nötig sein (z. B. Motorradnavigationssystem).
SEMESTERARBEIT JUREK BREUNINGER
91
INTERAKTIONSFORMEN
Ein- und Ausgabeelemente müssen nahe beieinander liegen, damit Augenbewegung beim Wechsel zwischen Bedienung und Kontrollieren der Rückmeldung minimiert werden.
Interaktionselemente sollten so angeordnet werden, dass die Hand und der
Arm den Bildschirm möglichst wenig verdecken, um die Ausgabe nicht zu beeinträchtigen. Es empfiehlt sich, die wichtigsten Eingabe-Elemente auf die untere Hälfte des Bildschirms zu legen.
Die Software sollte kurze Bewegungen beim Antippen eines Elements ignorieren und nicht fälschlicherweise als „Ziehen“ interpretieren.
Das Erkennen des Ziehens eines Elementes ist wegen der technischen Einschränkungen des Touchscreens schwierig. Die Software sollte gegenüber
kurzen Aussetzern durch Kontaktverlust oder „rubbeln“ tolerant sein.
Die fehlende haptische Rückmeldung von Touchscreens sollte möglichst gut
durch andere Rückmeldung kompensiert werden. Eine akustische Rückmeldung kann geeignet sein, wenn sie nicht zu aufdringlich ist und die Umgebung
es zulässt. Eine graphische Rückmeldung ist sehr wichtig, allerdings sollte die
Besonderheit des Touchscreens bedacht werden, dass das Objekt, mit dem
interagiert wird, meist vom Finger verdeckt ist (Abbildung 6.2-11).
Abbildung 6.2-10: Der Startbildschirm von Apples iPhone. Vor allem bei eingebetteten Computern mit kleinen Touchscreens ist es sehr wichtig, dass sie „fingerfreundlich“ bedienbar sind. Das heißt, dass die Interaktionsflächen groß genug sind und
weit genug auseinander liegen.
SEMESTERARBEIT JUREK BREUNINGER
92
INTERAKTIONSFORMEN
Abbildung 6.2-11: Die virtuelle Tastatur des iPhones. Als optische Rückmeldung für
das Drücken einer Taste wird sie vergrößert oberhalb des Fingers angezeigt, da die
die eigentliche Taste vom Finger verdeckt ist.
Dahm 2006, S. 205f.
6.3 Sprachdialog
Die natürliche Form des Informationsaustauschs bei Menschen ist die Sprache. Da
sie das Erlernen neuer Interaktionsformen unnötig macht, kann die natürliche Sprache ein mächtiges und ergonomisches Ein- und Ausgabeprinzip bei Softwaresystemen sein. Doch in einem freien natürlichsprachlichen Dialog mit einem Computer zu
stehen, wie in vielen Science-Fiction-Szenarien dargestellt, ist bisher weder schriftlich noch mündlich möglich. Sprachsysteme werden aber bereits bei telefonischen
Auskunft- oder Banking-Systemen, Diktiersoftware, Sprachsteuerung von Autos und
Mobiltelefonen benutzt, sowie bei Onlinehilfesystemen, die frei formulierte Fragen
zulassen.
6.3.1 Spracheingabe
Das Erkennen gesprochener Sprache als Eingabemöglichkeit hat neben der intuitiven Benutzung folgende Vorteile:
Die Hände sind frei, es ist kein Arbeitsplatz mit Tastatur nötig.
Das Betrachten der Ausgabeeinheit ist zu keiner Zeit durch die Eingabe beeinträchtigt.
Durch die fehlende Ortsgebundenheit und Mechanik (nur ein Mikrophon) lässt
sich Spracheingabe auch gut mit mobilen Geräten nutzen.
SEMESTERARBEIT JUREK BREUNINGER
93
INTERAKTIONSFORMEN
Es erfolgt fast keine Ermüdung durch Spracheingabe. Dagegen können andere Eingabemöglichkeiten wie Mobiltelefontastaturen nur für kurze Texte effizient genutzt werden.
Sprachsysteme können theoretisch hierarchiefrei gestaltet werden, da jeder
Befehl zu jeder Zeit gegeben werden kann.
Das „Auswählen“ eines (bekannten) Sprachbefehls erfolgt augenblicklich. Bei
graphischen Interaktionsformen benötigt dies Zeit.
Die Nachteile aktuell eingesetzter Sprachsysteme sind:
Software kennt nur einen begrenzten Wortschatz. Dies hat zur Folge, dass
sich der Benutzer in seinem Sprechverhalten an die Software anpassen muss.
Wenn die Sprache zur Steuerung dient, ist entweder ein Auswendiglernen der
gültigen Befehle oder zuerst das Ausgeben der gültigen Befehle notwendig,
was die Sprachsteuerung verglichen mit graphischen Lösungen sehr langsam
macht.
Spracherkennungs-Software hat eine Erkennungsrate zwischen 90% und
98%. Dies hängt stark von der Einsatzumgebung ab. Sprecherabhängige Systeme (die auf einen bestimmten Sprecher trainiert werden müssen) haben
deutlich höhere Erkennungsraten als sprecherunabhängige. Das Erkennen
diskreter Wörter funktioniert besser als die Erkennung kontinuierlicher Sprache. Doch selbst 98% bedeutet, dass alle hundert Wörter zwei Wörter korrigiert werden müssen oder zu Falscheingaben führen. Dies verhindert den effizienten Einsatz von Sprachsteuerung in vielen Bereichen.
Vor allem bei Störgeräuschen oder Änderung der Geräuschkulisse, aber auch
bei Änderung des Tonfalls durch Stress oder Krankheit und ähnlichen Worten
steigt die Fehlerrate selbst bei sprecherabhängigen Systemen schnell an.
Die sprachliche Interaktion mit Computern weckt in den Benutzern unbewusst
hohe Erwartungshaltungen an den Funktionsumfang und die Flexibilität (sowohl in der Spracherkennung als auch in der Interpretation der Befehle) des
Softwaresystems. Computersysteme haben aber enge Grenzen beim Erkennen von ungewöhnlicher Wortwahl, unvollständigen Sätzen und Interjektionen
(„nicht wahr?“). Die Uneindeutigkeit der natürlichen Sprache ist ein großes
SEMESTERARBEIT JUREK BREUNINGER
94
INTERAKTIONSFORMEN
Problem für sie, da sie sehr eingeschränkt kontextbewusst sind und keine
Ausdrucksmittel wie Ironie verstehen.
Hinzu kommen die allgemeinen Probleme:
In bestimmten Arbeitsumgebungen ist die Geräuschkulisse, die mit Sprachsteuerung arbeitende Personen erzeugen, nicht erwünscht. Sie kann zur Störung und schlechteren Konzentration anderer führen.
Sprachsteuerung für Computersysteme ist ungeeignet für Aufgaben, bei denen Sprache bereits für andere Tätigkeiten parallel genutzt wird, zum Beispiel
Call-Center.
In Arbeitsumgebungen mit lauter Geräuschkulisse ist Sprachsteuerung nicht
möglich.
Entgegen der Erwartung ist Sprachsteuerung nicht unbedingt eine Arbeitserleichterung, vor allem bei komplexen Aufgabestellungen. Studien zeigen, dass
sie kognitiv fordernder ist als die Hand-Auge-Koordination für die Bedienung
der Maus. Sprache benötigt einen Teil der begrenzten Ressourcen in denselben Gehirnbereichen, in denen auch analytisches Denken durchgeführt wird.
Die Hand-Auge-Koordination wird in anderen Bereichen gesteuert und ist
deshalb leichter mit Planungs- und Problemlösungsprozessen parallel durchführbar.
Bei der direkten Manipulation von Objekten, die über kontinuierliche Wertebereiche verändert werden können, ist eine direkte Steuerung mittels Tastatur
oder Zeigegerät immer schneller als Sprachsteuerung. Beispiele: Schieberegler; das Drehen eines Bauteils in einem CAD-Programm.
Man kann natürliche Sprache auch durch Texteingabe per Tastatur als Eingabemöglichkeit am Computer nutzen. Dies erleichtert vor allem die Probleme der Erkennung,
da das nötige Textanalyse und -erkennungsprogramm, ein Parser, einfacher zu realisieren ist als akustische Spracherkennung. Aber auch hier gelten die Einschränkungen durch die Uneindeutigkeit. An Stelle der Flexibilität bei akustischer Spracherkennung bezüglich Tonfall, Geschwindigkeit, Dialekt, Geschlecht, Stimmung und Betonung tritt eine nötige Toleranz gegenüber Rechtschreib- und Tippfehlern. Es gibt einige Versuche in diese Richtung vor allem im Bereich der Internetsuchmaschinen.
SEMESTERARBEIT JUREK BREUNINGER
95
INTERAKTIONSFORMEN
Diese sollen mittelfristig auf natürlichsprachliche Fragen umfassend antworten können.
Shneiderman 2005, S. 374–380
Dahm 2006, S. 207–212
6.3.2 Sprachausgabe
Sprachausgabe ist bereits seit langem auf Computern möglich. Ursprünglich handelte es sich nur um die Wiedergabe aufgenommener Sätze oder Satzbausteine
(Sprachsampling). Sie kommt auch heute noch zum Einsatz, wenn alle Texte bei der
Programmierung oder Konfiguration der Programme vorhersehbar und statisch sind
(Navigationssysteme, Informationssysteme mit Menüstruktur). Das Generieren von
gesprochener Sprache aus beliebigen Texten (Text-To-Speech, TTS) ist technisch
deutlich einfacher zu lösen als freie Spracherkennung und seit den 80er Jahren möglich. Die kontinuierlichen Verbesserungen liegen darin, die künstliche Stimme immer
menschlicher wirken zu lassen, auch durch komplizierte Algorithmen für Sprachmelodie und Pausen. Darüber hinaus haben moderne TTS-Programme Datenbanken
für Wörter, die nicht den normalen Ausspracheregeln folgen wie etwa Abkürzungen
und Lehnwörter. Für die Sprachausgabe gelten die gleichen Vorteile wie für die
Spracheingabe. Ihr zentraler Nachteil ist allerdings, dass Menschen wichtige Informationen schneller und lieber optisch aufnehmen.
Neben der akustischen Sprachausgabe kann natürliche Sprache auch optisch ausgegeben werden. Dies klingt banal, doch nur sehr wenige Software-Systeme (meist
künstliche Intelligenzen) bieten eine freie natürlichsprachliche Ausgabe, da sonst die
Grammatik und der Wortschatz der Sprache implementiert werden müssten. In einer
sehr einfachen Form wird NLTG (Natural-Language Text Generation) zum Kreieren
von Wetternachrichten oder medizinischen Befunden aus Computerdaten genutzt.
Hierbei wird nicht die komplette Grammatik implementiert, sondern einfache Algorithmen für eine begrenzte Anzahl von Textbausteinen.
Shneiderman 2005, S. 380–385, S. 338
Dahm 2006, S. 212
6.4 Kommandosprache
Eine der ältesten Formen der Mensch-Computer-Interaktion ist die Kommandosprache. Eine Kommandosprache ist eine künstliche Sprache mit einer einfachen und
SEMESTERARBEIT JUREK BREUNINGER
96
INTERAKTIONSFORMEN
eindeutigen Syntax und Semantik und meist recht begrenztem Wortschatz. Zu den
Kommandosprachen zählen neben den Programmiersprachen auch die ShellSprachen (Command Line Languages) und die Skriptsprachen.
Abbildung 6.4-1: Auf Linux-Systemen ist das Benutzen von Kommandosprachen
recht verbreitet. Auf dem Bild werden mittels eines Befehls mit mehreren Parametern
alle Dateien mit der Endung „.tmp“ gelöscht, die älter als drei Tage und größer als ein
Megabyte sind.
Kommandosprachen sind für Ungelernte kryptisch zu lesen, da ihr Wortschatz zwar
an die natürliche Sprache (meist Englisch) angelehnt ist, aber aus vielen Abkürzungen besteht. Da früher ein Großteil der Steuerung eines Computers mittels Kommandosprache geschah, sind sie auf schnelle Eingabe ausgelegt. So bestehen die
meisten Befehle der UNIX-Kommandozeile aus zwei oder drei Buchstaben (ls, cd,
pwd). Die Grammatik der Sprachen ist oft für eine einfache Prozessierung durch Parser, Interpreter oder Compiler ausgelegt und dementsprechend anders als natürliche
Sprache. Bei Programmiersprachen folgt sie zusätzlich oft einem besonderen Programmierparadigma.
Kommandosprachen geben dem Benutzer ein hohes Maß an Kontrolle über die Anwendung. Durch Parameter kann ein einzelner Befehl eine Vielzahl Funktionen erfüllen. Allerdings haben Kommandosprachen eine schlechte Selbstbeschreibungsfähigkeit. Sie erfordern deshalb eine intensive Einarbeitung. Da sich Computer bisher
nicht mit mehrdeutiger natürlicher Sprache steuern lassen, gibt es einige Kommandosprachen, die ihre Eindeutigkeit mit einer den natürlichen Sprachen ähnlichen
Lesbarkeit verbinden wollen. Diese Sprachen nennt man Fortual Languages, eine
Kombination aus formal und natural. Beispiele für Fortual Languages sind COBOL
(1960), SQL (1970), HyperTalk/Apple Script (1987) und Visual Basic (1991).
SEMESTERARBEIT JUREK BREUNINGER
97
INTERAKTIONSFORMEN
Abbildung 6.4-2: Eine Anwendung, die zu einem hohen Anteil mit Kommandosprache
kontrolliert wird, ist MATLAB.
Seit der breiten Verfügbarkeit von graphischen Oberflächen haben Kommandosprachen an Bedeutung als allgemeine Interaktionsform verloren. Sie werden weiterhin
für komplexere Aufgaben (Abbildung 6.4-2) und zur Programmierung von Anwendungen durch fortgeschrittene Benutzer verwendet. Da die Weiterverwendung von
Programmcode bei heutigen komplexen Softwareprojekten sehr wichtig ist, sollte die
Programmiersprache die einfache Lesbarkeit von fremdem Code unterstützen. Eine
moderne Programmier- und Skriptsprache, die dies durch einen kleinen Wortschatz
und reduzierte Syntax erreichen will, ist Python.
Shneiderman 2005, S. 316–331
Dahm 2006, S. 213–215
SEMESTERARBEIT JUREK BREUNINGER
98
GRAPHISCHE BENUTZEROBERFLÄCHEN
7 Graphische Benutzeroberflächen
Nachdem die wichtigsten Interaktionsformen allgemein besprochen wurden, behandelt das folgende Kapitel die technische Realisierung dieser Konzepte. Fast alle modernen Software-Systeme benutzen graphische Bedienoberflächen zur Darstellung
und Steuerung. Es folgt ein Überblick über bekannte Elemente von GUIs und Hinweise für den Entwurf spezifischer GUIs.
7.1 Gestaltungsziele
Die Gestaltungsziele von graphischen Dialogsystemen sind laut Teil 12 der Norm
DIN 9241:
Klarheit: Schnelle Informationsübermittlung
Unterscheidbarkeit: Abgrenzung zwischen Informationen möglich
Kompaktheit: Nur Darstellung relevanter Information
Konsistenz: Zusammengehörige Information wird nach den Erwartungen des
Benutzers immer gleich dargestellt.
Erkennbarkeit: Lenken der Aufmerksamkeit auf relevante Information
Lesbarkeit: Information leicht lesbar
Verständlichkeit: Information ist verständlich, eindeutig und interpretierbar.
Dahm 2006, S. 218
7.2 Interaktionselemente
Hier werden die gängigsten Interaktionselemente (widgets) vorgestellt mit Hinweisen
unter welchen Bedingungen ihr Einsatz sinnvoll ist. Es werden die meist etablierten
englischen Lehnwörter benutzt, da deutsche Formen ungebräuchlich sind oder nicht
existieren.
SEMESTERARBEIT JUREK BREUNINGER
99
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.1 Imperative Bedienelemente
7.2.1.1 Schaltflächen, Buttons
Die häufigste Form eine Funktion graphisch ausführbar darzustellen ist der meist
rechteckige Button (Abbildung 7.2-1). Er sieht durch einen leichten dreidimensionalen Effekt wie ein mechanischer Knopf aus und bietet durch die Sichtbarkeit seines
Zustands, gedrückt oder nicht gedrückt, gute Rückmeldung. Normale Buttons sind
mit einem kurzen Text beschriftet. Eine spezielle Form des Buttons ist der Butcon,
der statt einer Beschriftung nur ein Icon zeigt (Abbildung 7.2-2). Dies ist dort von Vorteil, wo eine Vielzahl Buttons beschränkten Platz belegen, wie in der Toolbar. Da die
Funktion anhand des Icons für unerfahrene Benutzer oft nicht sofort ersichtlich ist,
sollte ein ToolTip, das Erscheinen einer Beschreibung wenn der Mauszeiger auf einem Element verharrt, vorhanden sein.
Abbildung 7.2-1: Buttons sind meist durch einen Schatteneffekt als „eindrückbare“
virtuelle Knöpfe erkennbar.
Abbildung 7.2-2: Die Icons in der Toolbar funktionieren wie Buttons. Da diesen
„Butcons“ die Beschriftung fehlt, sollte diese durch eine Anzeigemöglichkeit wie den
ToolTip, der nach einer guten Sekunde erscheint, gezeigt werden.
Cooper 2007, S. 440–442
7.2.1.2 Hyperlinks
Ein Hyperlink, oder kurz Link, ist ein Element aus dem World Wide Web, das seinen
Weg in viele mögliche Anwendungen gefunden hat. Typischerweise ist ein Link ein
(meist blaues) unterstrichenes Textstück. Er kommt vor allem in Hypertextsystemen
wie Onlinehilfen (Abbildung 7.2-3) oder als direkter Verweis ins Internet vor. Er ist ein
imperatives Bedienelement für Navigation. Links sollten ausschließlich für die NaviSEMESTERARBEIT JUREK BREUNINGER
100
GRAPHISCHE BENUTZEROBERFLÄCHEN
gation in Datenstrukturen benutzt werden, bei Nutzung zur Ausführung einer Aktion
können sie den Benutzer verwirren (Abbildung 7.2-4).
Abbildung 7.2-3: Neben ihrem bekannten Vorkommen im World Wide Web, sind
Links auch in anderen Hypertexten wie diesem Hilfesystem eine nützliche Interaktionsform zur Navigation.
Abbildung 7.2-4: In der Systemsteuerung von neueren Windows-Systemen werden
Links zum Aufruf verschiedener Funktionen genutzt, die neue Dialoge öffnen. Dies
entspricht nicht ihrer erwarteten Funktionalität. Für dieses Verhalten wären Buttons
angebracht.
Cooper 2007, S. 442f.
SEMESTERARBEIT JUREK BREUNINGER
101
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.2 Selektive Bedienelemente
7.2.2.1 Check-Boxen
Check-Boxen präsentieren eine einfache binäre Auswahl (Abbildung 7.2-5). Checkboxen sind rechteckig und werden bei Aktivierung durch Klick mit einem Kreuz oder
Häkchen gefüllt. Eine sinnvolle Konvention ist, dass sie auch bei Klick auf den beschreibenden Text rechts daneben aktiviert bzw. deaktiviert werden. Die Qualität der
Beschreibung bestimmt die Eindeutigkeit und Verständlichkeit. Allerdings kann langer Text auch den Benutzer verlangsamen. Eine Spezialform der Check-Box ist ihre
Überführung in einen Butcon. Dieser Latching (einrastender) Butcon oder Toggle ist
ebenfalls aus der Toolbar bekannt. Er führt keine Aktion aus, sondern verdeutlicht
durch bleibendes „gedrückt sein“ (erkennbar am Schatten), dass eine Option eingeschaltet ist, zum Beispiel, dass Text kursiv angezeigt werden soll (Abbildung 7.2-12).
Abbildung 7.2-5: Vor allem in den Einstellungsdialogen kommen Checkboxen sehr
häufig vor. Die Kombination aus Listenansicht und Check-Boxen nennt sich
Earmarking.
Cooper 2007, S. 443–445
7.2.2.2 Flip-Flop-Buttons
Eine übliche Bedienelementvariante um Bildschirmplatz zu sparen ist der Flip-FlopButton. Er ändert seine Beschriftung oder sein Icon bei Benutzung. Ein klassisches
Beispiel ist das Zusammenlegen von Play- und Pause-Taste bei Mediaplayern
(Abbildung 7.2-6). Allerdings kann sein Verhalten auf zwei Arten interpretiert werden.
Das Icon kann für durchgeführte Aktion beim darauf Klicken stehen, aber auch für
den aktuellen Zustand der Software. Bei einer Beschriftung statt eines Icons wird
SEMESTERARBEIT JUREK BREUNINGER
102
GRAPHISCHE BENUTZEROBERFLÄCHEN
meist ersteres interpretiert. Um jedoch Verwirrung zu vermeiden, sollten andere Konzepte für solche Fälle genutzt werden.
Abbildung 7.2-6: Bei diesem Mediaplayer wechselt die Kennzeichnung der PlayTaste je nach Systemstatus. Um Verwirrung zu vermeiden wird hier zusätzlich der
aktuelle Status darüber angezeigt.
Cooper 2007, S. 445
7.2.2.3 Radio-Buttons
Radio-Buttons bestimmen die Auswahl genau einer Option aus mehreren. Wie bei
alten Radiogeräten, bei denen beim Drücken einer der mechanischen StationsTasten die zuvor gedrückte heraussprang, führt die Aktivierung einer Option zur
Deaktivierung der anderen. Die Aktivierung erfolgt durch Klick auf den nach Konvention runden Radio-Button oder den Beschreibungstext rechts daneben (Abbildung
7.2-7). Die Zusammengehörigkeit der Optionen muss deutlich ersichtlich sein. Da
jede Option aus der Beschriftung und einem Radio-Button besteht, brauchen größere
Auswahlen viel Bildschirmplatz und sollten stattdessen mit Drop-Down-Listen realisiert werden. Genau wie bei den Checkboxen gibt es auch eine Kombination aus
Radio-Button und Butcon, den Radio-Butcon. Radio-Butcons sind eine Gruppe von
Latching Butcons, die sich gegenseitig ausschließen. Nur einer kann gedrückt sein.
Wie alle Butcons ist er aus der Toolbar bekannt (z. B. für die Textausrichtung, Abbildung 7.2-12).
Abbildung 7.2-7: Radio-Buttons für fünf sich ausschließende Optionen.
Dahm 2006, S. 219
Cooper 2007, S. 446f.
SEMESTERARBEIT JUREK BREUNINGER
103
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.2.4 Listen
Listen erlauben Benutzern aus einer begrenzten Zahl von Textzeilen auszuwählen,
die jeweils einen Befehl, ein Objekt oder ein Attribut repräsentieren. Ähnlich wie Radio-Buttons sind sie wichtige Interaktionselemente, da sie eine ungültige Auswahl
verhindern. Je nach Größe haben sie eine vertikale Scroll-Leiste rechts, die aktuelle
Auswahl ist durch Markierung hinterlegt (Abbildung 7.2-8). Normalerweise schließen
sich die Listenelemente gegenseitig aus, eine Variante lässt aber auch mehrfache
Auswahl zu. Das Hinzufügen zur Auswahl geschieht dann meist mittels Mausklick bei
gedrückter Strg-Taste. Da bei größeren Listen die markierten Elemente außer Sichtweite gescrollt werden können, empfiehlt es sich bei möglicher Mehrfachauswahl die
Listenelemente mit Check-Boxen zu versehen. Dies verhindert, dass Verwirrung
durch die automatische Abwahl oder Nicht-Abwahl unsichtbarer Elemente entsteht,
weil es keine sichtbare Unterscheidung zwischen Listen mit gegenseitigem Ausschluss und Mehrfachauswahl gibt. Eine Check-Box hingegen ist ein bekanntes Idiom, von dem keine automatische Abwahl erwartet wird. Diese Kombination aus Liste
und Check-Boxen nennt man Earmarking (Abbildung 7.2-5).
Abbildung 7.2-8: Dieser Dialog zeigt zwei Formen von Listen an. Rechts eine simple
Einfachauswahl, links eine Baumstruktur.
SEMESTERARBEIT JUREK BREUNINGER
104
GRAPHISCHE BENUTZEROBERFLÄCHEN
Listen haben meist vertikale Scroll-Leisten. Es ist auch möglich horizontale ScrollLeisten einzubauen, allerdings sollte es auf jeden Fall vermieden werden (Abbildung
7.2-9). Wenn eine Liste mit Text horizontal gescrollt wird, werden einer oder mehrere
der ersten Buchstaben jeder Zeile verdeckt. Der ganze Text wird unlesbar und die
Kontinuität wird zerstört. Cooper erhebt es sogar zum Designprinzip: Scrolle Text nie
horizontal.
Abbildung 7.2-9: Die Standard-Dateiansicht des Öffnen-Dialogs von Windows ist die
Listenansicht. Allerdings scrollt sie von links nach rechts statt von oben nach unten.
Um ein teilweises Verdecken zu verhindern springt die Liste spaltenweise bei Betätigung des Scroll-Leiste, was dem erwarteten kontinuierlichen Verhalten von ScrollLeisten widerspricht.
Die Drop-Down-Box oder -Liste ist eine spezielle Form, die normalerweise nur das
ausgewählte Element anzeigt (Abbildung 7.2-10). Erst bei Klick auf einen Pfeil nach
unten auf der rechten Seite wird eine Liste aller Elemente ausgeklappt. Eine Variante
der Drop-Down-Box ist die Combo-Box. Sie funktioniert zusätzlich als Texteingabefeld und ermöglicht so die Auswahl vorgegebener oder selbst formulierter Elemente
(Abbildung 7.2-11).
SEMESTERARBEIT JUREK BREUNINGER
105
GRAPHISCHE BENUTZEROBERFLÄCHEN
Abbildung 7.2-10: Eine Drop-Down-Box im ausgeklappten Zustand.
Abbildung 7.2-11: Die Adresszeile im Windows Explorer ist eine Combo-Box. Sie bietet zwar verschiedene Möglichkeiten an, lässt aber auch freie Eingaben zu.
Cooper 2007, S. 449–456
7.2.2.5 Combutcons
Combutcons sind eine Kombination aus Butcons und Combo-Box (eigentlich DropDown-Liste, aber die Namen lassen sich wohl nicht so gut kombinieren). Sie sind
also sowohl selektives als auch imperatives Bedienelement. Ein Combutcon ist in
normalem Zustand ein Butcon, der zusätzlich einen kleinen Pfeil nach unten
(manchmal auch nach rechts) hat. Beim Klicken auf das Icon in der Mitte des
Butcons wird die entsprechende Aktion ausgeführt. Beim Klick auf den Pfeil klappt
eine Liste mit alternativen Icons und somit Befehlen aus (Abbildung 7.2-12). Durch
Auswahl einer Alternative wird Aussehen und Funktion des Combutcons verändert.
Eine Variante davon ist die Zurück-Schaltfläche in modernen Browsern. Auch sie
funktioniert wie ein Combutcon durch einen zusätzlichen Pfeil. Allerdings wird hier
durch Klick auf eine der Listenelemente nicht das Verhalten geändert, sondern direkt
SEMESTERARBEIT JUREK BREUNINGER
106
GRAPHISCHE BENUTZEROBERFLÄCHEN
der Alternativbefehl ausgeführt. Bei einem Browser etwa das Zurückspringen um
mehrere Seiten (Abbildung 7.2-13).
Abbildung 7.2-12: Die Schalter für fette, kursive und unterstrichene Schrift sind
Toggles. Die linksbündige Textausrichtung wird per Radio-Butcon angezeigt. Die
verschiedenen Rahmentypen lassen sich mit einem Combutcon aktivieren.
Abbildung 7.2-13: Der Zurück-Button vieler Browser ist eine spezielle Form des
Combutcons. Die ausgewählte Alternative wird direkt angesteuert.
Cooper 2007, S. 447f.
7.2.3 Eingabeelemente
7.2.3.1 Textboxen
Das einfachste Eingabeelement ist die Textbox, auch Textfeld genannt. Sie lässt die
Eingabe beliebigen Textes meist einzeilig zu. Es gibt auch eine Variante für mehrzeiligen Text. Diese kann mittels Scroll-Balken auch beliebig langen Text aufnehmen.
Der Text kann linksbündig oder rechtsbündig ausgerichtet sein. Text wird meist linksbündig, Zahlen rechtsbündig angegeben. Die Beschriftung sollte nahe am Feld stehen, um den Zusammenhang klar zu machen. Textboxen müssen als aktive Eingabe-Elemente erkennbar sein und dürfen nicht mit passiven Beschriftungen verwechselt werden können. Dies wird normalerweise durch einen dreidimensionalen Effekt
erreicht, der das Eingabefeld etwas versenkt erscheinen lässt (Abbildung 7.2-14).
Dahm 2006, S. 219f.
SEMESTERARBEIT JUREK BREUNINGER
107
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.3.2 Spinner
Spinner sind eine spezielle Form von Textbox für numerische Werte, in die meist frei
eingetragen werden kann. Zusätzlich erlauben zwei kleine Auf- und Ab-Pfeile
(Abbildung 7.2-14) das Erhöhen und Verringern des aktuellen Wertes auf einem
festgelegten Raster. Dies erlaubt die Eingabe mittels der Maus.
Abbildung 7.2-14: Diese Textfelder für Zeitangaben lassen sich mit Spinnern auch
mit der Maus bedienen.
Cooper 2007, S. 459f.
7.2.3.3 Schieberegler
Eine weitere Möglichkeit der Manipulation von numerischen Daten mittels der Maus
sind Schieberegler (Abbildung 7.2-15). Hier sind die möglichen Werte vom Programmierer begrenzt. Der Schieberegler ist ein intuitives Widget, da er aus der Realität
bekannt ist und gute optische Rückmeldung über die Einstellung gibt.
Abbildung 7.2-15: Dieser Dialog zur Lautstärkeregelung enthält mehrere vertikale
und horizontale Schieberegler sowie einen Drehregler.
SEMESTERARBEIT JUREK BREUNINGER
108
GRAPHISCHE BENUTZEROBERFLÄCHEN
Varianten des Schiebereglers sind der Drehregler (Abbildung 7.2-15) und das
Thumbwheel. Der Drehregler sollte auf keinen Fall ein Drehbewegung der Maus zur
Manipulation benötigen, sondern bei Klick und Rechts- oder Auf-Bewegung der Wert
erhöhen und bei Links- oder Ab-Bewegung den Wert verringern. In den meisten Fällen ist ein Schieberegler aber die bessere Wahl. Das Thumbwheel ist eine Umsetzung des Mausrades in Software. Es sieht wie ein in die Bildschirmebene gedrehter
Drehregler aus. Dadurch hat es eindeutige Interaktionsrichtungen, nämlich auf und
ab oder links und rechts. Es bietet sich für Wertebereiche ohne Start- oder Endwert
an, da es wie ein Mausrad keinen Anschlag hat. Bewegung auf der Zeitachse, Zoomen oder sich wiederholende Folgen sind Anwendungsgebiete (Abbildung 7.2-16).
Abbildung 7.2-16: In der CAD-Software Solidworks lassen sich Längenmaße wahlweise per Texteingabe, Drop-Down-Liste, Spinner oder mit einem horizontalen
Thumbwheel manipulieren.
Cooper 2007, S. 460–462
7.2.4 Gruppierung
Visuelle Gruppierung ist elementar, um die logische Zusammengehörigkeit von Interaktionselementen untereinander und von Interaktionselementen und Beschriftungen
zu verdeutlichen. Die Gruppierung kann auf zwei Arten erfolgen (Abbildung 7.2-17):
Implizit: Unter Anwendung der Gestaltgesätze (Nähe, Ähnlichkeit, etc.)
Explizit: Unter Anwendung graphischer Hilfsmittel (Umrandung, Hintergrundfarbe, etc.)
Abbildung 7.2-17: Verschiedene Formen von Gruppierung
SEMESTERARBEIT JUREK BREUNINGER
109
GRAPHISCHE BENUTZEROBERFLÄCHEN
Die explizite Gruppierung kann auch durch Interaktionselemente erreicht werden.
Dies ist vor allem durch den begrenzten Platz auf dem Bildschirm häufig notwendig.
Dahm 2006, S. 222
7.2.4.1 Tabs
Ein beliebte Methode für diese aktive Gruppierung sind Tabulatoren oder kurz Tabs
(Abbildung 7.2-18). Im Deutschen werden sie auch Reiter oder Register genannt, da
sie eine Softwareanalogie zu Karteireitern bzw. Registerkarten sind, mit denen man
Akten oder Karteikarten alphabetisch einordnen kann. Sie ermöglichen aufgeräumte
und strukturierte Oberflächen. Allerdings sollten Tabs nur eingesetzt werden solange
sie in eine Reihe passen. Da Fenster auch verkleinert werden können, gelten fünf bis
sechs Reiter als praktikable Grenze. Manche Programme verbergen weitere Tabs
und haben Pfeile zum Blättern (Abbildung 7.2-19). Gestapelte Tabulatoren sollten auf
jeden Fall vermieden werden, da sie wegen fehlender Symmetrie und Ordnung
schwierig zu durchsuchen sind (Abbildung 7.2-20). Außerdem haben sie das sehr
verwirrende Verhalten, die Reihe, in der der aktive Tab steht, immer in den Vordergrund zu bringen. Als Alternative bieten sich Listen an (Abbildung 7.2-8, Abbildung
7.2-22).
Abbildung 7.2-18: Bei neueren Versionen von MacOS X sind die Tabs so stark stilisiert, dass sie kaum noch als Karteireiter-Metapher erkennbar sind.
SEMESTERARBEIT JUREK BREUNINGER
110
GRAPHISCHE BENUTZEROBERFLÄCHEN
Abbildung 7.2-19: Die Möglichkeit Tabs scrollbar zu machen, sollte nur für Anwendungen benutzt werden, bei denen der Benutzer die Tabs selbst öffnet (Dokumente,
Webseiten). Für statische Dialoge sind sie ungeeignet, da sie das Suchen erschweren.
Abbildung 7.2-20: Tabs sollten nie gestapelt werden.
Abbildung 7.2-21: Diese Tabs haben neben der Textbeschriftung auch Icons.
Abbildung 7.2-22: Bei mehr als sechs Gruppen empfehlen sich Alternativen zu Tabs
wie diese Liste am linken Rand.
Cooper 2007, S. 523–526
SEMESTERARBEIT JUREK BREUNINGER
111
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.4.2 Toolbars
Toolbars (Werkzeugleisten, Abbildung 7.2-2) sind eine häufig eingesetzte Art, Interaktionselemente, vor allem Butcons und Buttons, zu gruppieren. Sie sollen im Gegensatz zu Menüs den schnellen Zugriff auf häufig benutzte Funktionen ermöglichen.
Eine Toolbar ist meist eine horizontale Sammlung von zusammengehörigen Butcons,
die unterhalb der Menüleiste platziert ist. Eine Toolbar kann sich auch aus einer Ansammlung mehrerer dieser einzelnen Streifen zusammensetzen, wodurch eine
Gruppierung erfolgt. Nicht relevante Butcons sollten ausgegraut und nicht zu drücken
sein. Neben Butcons können auch Drop-Down-Listen oder andere Elemente Teil einer Toolbar sein. Moderne Toolbars sind verschiebbar und können auch an anderen
Stellen auf dem Bildschirm befestigt werden. Da Toolbars eine Sammlung von für
den Benutzer wichtigen Funktionen sind, können sie idealerweise von ihm an seine
Bedürfnisse angepasst werden. Eine moderne Form der Toolbar sind die mit Microsoft Office 2007 eingeführten Ribbons (Bänder, Abbildung 7.2-23). Es handelt sich
um eine Kombination aus Menü und Toolbar. Die Toolbar wird um größere Buttons,
Beschriftungen und Vorschauen erweitert und ist mit Tabs strukturiert. Eine ebenfalls
junge Form ist die kontextabhängige Toolbar, eine Alternative zum Kontextmenü. Sie
erscheint ähnlich einem ToolTip in der Nähe eines selektierten Elements und bietet
nur relevante Funktionen an (Abbildung 7.2-24).
Abbildung 7.2-23: Ribbons in Microsoft Word 2007.
Abbildung 7.2-24: Eine kontextabhängige Toolbar erscheint in Word 2007 wenn man
etwas markiert.
Cooper 2007, S. 493–503
SEMESTERARBEIT JUREK BREUNINGER
112
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.2.4.3 Tiling, Multipane
Für die Übersichtlichkeit, das Finden der richtigen Interaktionselemente und die
schnelle Erfassbarkeit der Informationen ist es wichtig, nicht nur die Elemente innerhalb eines Dialogfensters oder einer Toolbar zu gruppieren, sondern die gesamte
Anwendung zu strukturieren. Auf Betriebssystemebene werden zur Abgrenzung von
Anwendungen meist Fenster genutzt, die beliebig verschiebbar und überlappend
sein können. Es existieren allerdings auch sogenannte Tiling Window Managers, die
den Anwendungen den Platz auf dem Bildschirm ohne Überlappung und Freiraum
zuweisen. Dieses „Kacheln“ ist innerhalb von Anwendungen viel verbreiteter, da sich
hier Gruppierungen mittels vieler (Unter-)Fenster nicht bewährt haben. Man spricht
hier allerdings nicht von Tiling, sondern von Multipane-Anwendungen. Eine klassische Multipane-Anwendung ist Microsoft Outlook, das separate Bereiche für die Auflistung der Postfächer, den Inhalt des gewählten Postfachs, eine geöffnete Nachricht
und einen Überblick über kommende Verabredungen und Aufgaben besitzt.
Abbildung 7.2-25: Der Window-Manager XMonad ordnet Anwendungen automatisch
mit maximaler Raumausnutzung an.
SEMESTERARBEIT JUREK BREUNINGER
113
GRAPHISCHE BENUTZEROBERFLÄCHEN
Abbildung 7.2-26: Outlook teilt die Anwendung in mehrere Bereiche.
Cooper 2007, S. 428–430
7.3 Menüs
Menüs sind strukturierte Auflistungen der verfügbaren Funktionen in Textform. Bei
modernen Anwendungen wird oft zusätzlich auch ein Icon angezeigt, was die Assoziation mit dem Butcon gleicher Funktion erleichtert. Im Gegensatz zu Kommandosprachen, Funktionstasten oder Tastenkombinationen muss der Benutzer die Befehle nicht auswendig lernen, sondern kann das Menü nach einer gewünschten Aktion
absuchen. Eine logische Gliederung der Menüpunkte ist deshalb unverzichtbar für
schnelle Bedienung. Menüs unterstützen ein exploratives Erlernen der Anwendung,
verringern den Aufwand für Schulung und ermöglichen den Zugang auch Gelegenheitsnutzern.
Menüs wurden schon vor der Einführung graphischer Benutzeroberflächen verwendet und sind auch gut mit der Tastatur steuerbar. Inzwischen werden sie fast immer
mit einem Zeigegerät bedient, die Möglichkeit für Tastaturbedienung (laut Konvention
mit der Alt-Taste, Navigation mit den Cursortasten) sollte aber auf alle Fälle erhalten
bleiben. Dies ermöglicht die effiziente Steuerung von Anwendungen, die primär mit
der Tastatur bedient werden (z. B. Texteditoren), da ein Wechsel zwischen Maus und
Tastatur nicht nötig ist. Geübte Benutzer können mit den Menü-Tastaturkürzeln ähnSEMESTERARBEIT JUREK BREUNINGER
114
GRAPHISCHE BENUTZEROBERFLÄCHEN
lich schnell arbeiten wie mit den normalen Tastaturkombinationen (z. B. Alt+(B, K) für
das Menü Bearbeiten und den Befehl Kopieren statt Strg+C). Eine solche Ansteuerung des Menüs ist schneller als Mausbedienung.
Der Aufbau eines Menüs besteht aus mehreren Ebenen. Die erste Ebene ist immer
sichtbar und enthält meistens die bekannten Menüpunkte Datei, Bearbeiten, Ansicht
und Hilfe wie im CUA festgelegt. Die zweite Ebene erscheint erst auf Aufruf und zeigt
die eigentlichen Befehle. Eine Verwendung so genannter Bang-Menüs, also ein direkter Befehlsaufruf aus der ersten Ebene, sollte vermieden werden, da er der Erwartung der Anwender widerspricht. Die Befehle auf der zweiten Ebene sollten auf jeden
Fall gut strukturiert sein, um schnelle Erfassbarkeit der Informationen zu gewährleisten. Typischerweise werden Menüpunkte entweder funktionsorientiert oder ablauforientiert angeordnet. Bei Standardanwendungen, die von vielen verschiedenen Benutzern für verschiedene Zwecke eingesetzt werden, empfiehlt sich die funktionsorientierte Strukturierung. Für Software, die im betrieblichen Umfeld für spezielle Anwendungsfälle verwendet wird, ist eine ablauforientierte Strukturierung vorzuziehen, um
ein Springen zwischen vielen verschiedenen Menüs zu vermeiden. Die Strukturierung der Menüpunkte kann durch graphische Hilfsmittel wie verschiedene Abstände
oder Trennlinien verbessert werden. Manche Menüpunkte ändern nicht nur den Zustand, sondern offenbaren zusätzlich auch den aktuellen Zustand. Dafür sollten
Checkmarks (aus Check-Boxen bekannt) vor dem Menüpunkt gezeigt werden
(Abbildung 7.3-1); diese lassen allerdings nur binäre Zustandswechsel zu. Flip-FlopMenüpunkte, die ihre Beschriftung ändern, können zu den gleichen Problemen wie
Flip-Flop-Buttons führen.
Abbildung 7.3-1: Dieses Menü zeigt die Strukturierung mittels Trennlinien, zusätzlichen Icons, Angabe der Tastenkombination und Checkmarks als Statusinformation.
SEMESTERARBEIT JUREK BREUNINGER
115
GRAPHISCHE BENUTZEROBERFLÄCHEN
Bei großem Funktionsumfang können manche Menüpunkte auch eine dritte Ebene
öffnen, man spricht dann von kaskadierenden Menüs (Abbildung 6.2-6). Diese Punkte, die keinen Befehl ausführen, sondern weitere Punkte anzeigen, sollten erkennbar
sein, meist durch einen kleinen Pfeil nach rechts. Mehr als drei Menüebenen sollten
vermieden werden, da sie von Benutzern schlecht erfasst werden und das Wiederfinden von bekannten Funktionen erschweren. Es ist darauf zu achten, dass ein Menü nicht das Fassungsvermögen des Kurzzeitgedächtnisses überschreitet. Bei großem Funktionsumfang wird man auf einen Konflikt zwischen diesen beiden Prinzipien treffen. Ob tiefe oder breite Menüstrukturen ergonomischer sind, ist nicht endgültig geklärt. Es sollte von Fall zu Fall entschieden werden. Wenn die Menüstruktur
zu komplex wird, muss mehr Funktionalität in Dialoge verschoben werden.
Das Menü hat auch pädagogische Funktion für den Anwender. Er bekommt wiederholt den gesamten Funktionsumfang des Programms präsentiert und hat so den Ort
von Befehlen bereits einmal gesehen, obwohl er sie noch nicht angewendet hat. Die
Benutzer memorieren Menüs meist in ihrer gesamten Struktur. Eine Anpassung der
Menüstruktur an das Benutzerverhalten, wie in Microsoft Office 2000 eingeführt
(Abbildung 7.3-2), hat sich nicht bewährt. In der Menüstruktur sollten im Kontext nicht
anwendbare Befehle ausgegraut, aber trotzdem angezeigt werden.
Abbildung 7.3-2: Microsoft Office 2000 blendete in der Standardeinstellung viele Menüpunkte aus.
Dahm 2006, S. 223–225
Cooper 2007, S. 473–492
7.3.1 Kontextmenüs
Eine spezielle Form des Menüs ist das Kontextmenü. Es ist nicht ortsgebunden in
einer Menüleiste, sonder erscheint als Pop-Up-Menü bei der direkten Manipulation
eines Objektes (Abbildung 7.3-3). Außerdem ist sein zentraler Vorteil, dass es nur
Befehle enthält, die für dieses Objekt in diesem Kontext sinnvoll sind. DementspreSEMESTERARBEIT JUREK BREUNINGER
116
GRAPHISCHE BENUTZEROBERFLÄCHEN
chend klein und einfach erfassbar ist die Liste. Sie erspart das Anfahren der Menüleiste mit der Maus. Das Kontextmenü wird in den meisten GUIs mit einem Rechtsklick auf ein Objekt geöffnet. Bei Text beziehen sich seine Aktionen nur auf die aktuelle Auswahl.
Abbildung 7.3-3: Das Kontextmenü für Dateien von Windows XP
Dahm 2006, S. 202
7.3.2 Pie Menues
Pie Menues („Kuchenmenüs“) sind eine alternative Darstellungsform für Kontextmenüs. Statt in einer vertikalen Liste werden die Befehle kreisförmig um das Objekt angeordnet. Dadurch sind alle Menüpunkte gleich weit vom Ursprung entfernt und
dementsprechend schnell anwählbar. Für geübte Benutzer bieten sie den Vorteil,
dass sie blind bedienbar sind, falls wiederkehrende Befehle immer an der gleichen
Stelle angezeigt werden. Ihr Nachteil ist, dass sie maximal sechs bis acht Elemente
enthalten sollten. Mehr sollten aber auch listenförmige Menüs idealerweise nicht haben. Pie Menues kommen vor allem in Computerspielen (Abbildung 7.3-4) vor und
konnten sich in professionellen Anwendungen bisher kaum etablieren.
Abbildung 7.3-4: Im Computerspiel Die Sims steuert man Figuren mittels Pie Menu.
SEMESTERARBEIT JUREK BREUNINGER
117
GRAPHISCHE BENUTZEROBERFLÄCHEN
Pie Menues können kaskadieren (Abbildung 7.3-5) und auch um einige Funktionalitäten erweitert werden. Die zweidimensionale Auswahl lässt z. B. in einem Schritt zwei
Einstellungen zu (etwa Richtung für die Schriftart, Entfernung vom Mittelpunkt für die
Schriftgröße). Wenn anstatt eines Mausklicks das Anfahren eines bestimmten Bereichs des Menüs als Auswahl interpretiert wird, spricht man von Control Menues.
Marking Menues selektieren alle Elemente, die mit dem Mauszeiger angefahren wurden, beim Loslassen der Maustaste. Das FlowMenu ist eine Spezialform des
kaskadierenden Pie-Menüs, bei dem die Elemente der tieferen Ebenen nicht eine
Ausdehnung des Menüs bewirken, sondern immer die erste Ebene ersetzen.
Abbildung 7.3-5: Dieses Pie Menu kaskadiert. Links unten ist die oberste Ebene zu
sehen, die Auswahl öffnet das Menü darüber und eine weitere das rechts daneben.
Dahm 2006, S. 203
Shneiderman 2005, S. 303
SEMESTERARBEIT JUREK BREUNINGER
118
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.4 Dialoge
Als Dialoge versteht man in GUIs spezielle Fenster, die temporär und meist zusätzlich zum Hauptfenster der Anwendung erscheinen. Es gibt aktive und reaktive Dialoge:
Ein aktiver Dialog erscheint, wenn ein externes Ereignis eintritt, das eine Reaktion des Benutzers auf die Änderung des Systemzustandes erfordert.
Ein reaktiver Dialog erscheint auf Anforderung des Benutzers, der somit eine
Änderung des Systemzustandes herbeiführen will.
Eine weitere für die Bedienung wichtige Entscheidung ist die Modalität des Dialogs:
Nichtmodale Dialoge schränken den Benutzer nicht in seiner Arbeit ein. Sie
können geöffnet bleiben ohne die Interaktion mit anderen Bereichen oder
Fenstern zu beeinträchtigen.
Modale Dialoge setzen das System in einen anderen Zustand (mode). Dieser
Zustand kann erst mit der Beendung des Dialogs (mit OK oder Abbrechen)
verlassen werden. Solange ist keine Interaktion mit anderen Bereichen der
Anwendung möglich. Ist ein Dialog systemmodal statt applikationsmodal, so
ist überhaupt keine Aktion außerhalb des Dialogs möglich.
Abbildung 7.4-1: Bei diesem modalen Einstellungsdialog wird gezeigt, dass er das
darunterliegende Fenster sperrt indem es verdunkelt angezeigt wird.
Modale Dialoge sollten sparsam eingesetzt werden. Ihre Informationen müssen vom
Benutzer auf jeden Fall zur Kenntnis genommen werden wie bei wichtigen FehlerSEMESTERARBEIT JUREK BREUNINGER
119
GRAPHISCHE BENUTZEROBERFLÄCHEN
meldungen. Auch Dialoge wie Speichern oder Drucken sind üblicherweise modal, da
die Daten im Hintergrund für diese Aktionen in einem definierten Zustand bleiben
müssen. Es ist sehr wichtig, dass ein modaler Dialog als solcher erkannt wird
(Abbildung 7.4-1), da der Benutzer sonst seinen Arbeitsfluss fortsetzt und verwirrt ist,
dass seine Eingaben nicht angenommen werden. Ein Dialog wird durch Bestätigen
(OK) oder Abbruch (Abbrechen, Fenster schließen) beendet. Beim Abbruch erwartet
der Benutzer, dass seine Änderungen nicht übernommen werden. Die Kontrolle über
das Hauptfenster wird wieder übergeben.
Dahm 2006, S. 225–227
7.5 Formulare
Formulare – früher auch als Masken bezeichnet – bestehen aus einer Anzahl von
Anzeigefeldern und Eingabefeldern (Abbildung 6.2-3). Sie bieten eine geführte Eingabe. Für jedes Datum wird ein dediziertes Feld angeboten. Die Felder sollten genau
beschriftet sein und nur gültige Eingaben zulassen. Dazu bieten sich gegebenenfalls
spezielle Widgets oder Dialoge an, wie etwa ein ausklappbarer Kalender für eine
Terminfestlegung. Häufig sind Softwareformulare die Nachbildung oder der Ersatz für
Papierformulare. Bei der Gestaltung von Softwareformularen basierend auf existierenden Papierformularen muss darauf geachtet werden, dass die geforderten Daten
auch in digitaler Form relevant sind und dass sie in einem für den Benutzer intuitiven
Format eingegeben, aber einem technisch sinnvollen Format abgespeichert werden.
Außerdem sollten Einschränkungen, vor allem was den Platzbedarf angeht, nicht
übernommen werden, da sie auf dem Bildschirm meist nicht gelten. Es sollte auf gut
erfassbare Gruppierung gemäß den Gestaltgesetzen geachtet werden. Da die Textfelder und Beschriftungen meist unterschiedliche Längen haben, ist eine ordnende
horizontale Ausrichtung sehr wichtig für die Übersichtlichkeit. Für gute Lesbarkeit
sorgen Schriftgrößen ab 10 pt, serifenlose Schriften (im Gegensatz zu Papierformularen, wo Serifenschriften bevorzugt werden) und hoher Kontrast (schwarz auf weiß).
Generell ist darauf zu achten, dass längerer Text mit nicht mehr als 60 Zeichen pro
Zeile dargestellt wird. Bei längeren Zeilen verliert das Auge den optischen Halt und
das Lesen erfordert mehr Konzentration. Innerhalb eines Formulars muss jederzeit
ein beliebiges Springen zwischen den Feldern möglich sein. Außerdem muss das
SEMESTERARBEIT JUREK BREUNINGER
120
GRAPHISCHE BENUTZEROBERFLÄCHEN
Ansteuern der Felder sowohl mit Maus als auch Tastatur (Tabulator-Taste) erfolgen
können, da geübte Anwender mit reiner Tastatureingabe deutlich schneller arbeiten.
Dahm 2006, S. 227–230
7.6 Metaphern
Eine Metapher ist ein bildlicher Vergleich, der der Verdeutlichung einer Sache dient
(z. B. „Drahtesel“). In GUIs dienen Metaphern dazu, abstrakte Funktionen in bildlicher Form darzustellen und somit die Erlernbarkeit der Benutzung zu erleichtern. Metaphern können nicht nur für ein einzelnes Element, sondern auch für ein ganzes
Bedienkonzept herangezogen werden. Zum Beispiel kann die Navigation durch einen
langen digitalen Text mit einer Buchmetapher visualisiert werden (Abbildung 7.6-1),
bei der ein Blättern durch die Seiten und ein Springen zu Lesezeichen möglich ist.
Die Herausforderung liegt darin, dass die Metapher stimmig sein muss und alle Funktionalitäten nachvollziehbar abbilden kann. Dann kann ein Anwender sie intuitiv bedienen, weil er auf seine Erfahrungen aus der Realität zurückgreifen kann. Die Metapher wird dann transparent, das heißt sie bedarf keiner Aufmerksamkeit. Metaphern
kommen vor allem bei direkter Manipulation vor, manchmal mit detaillierter Visualisierung, oft auch stark stilisiert (Tabs sind Karteireiter). Viele Metaphern sind so verbreitet, dass sie kaum mehr als solche erkannt werden. Sie werden dann ein eigenständiges Konzept (z. B. Ordner in der Datenstruktur).
Abbildung 7.6-1: Diese Webseite ist wie ein Buch designt. Die Navigation mittels Knicken an den unteren Ecken und Lesezeichen ist durch diese Metapher sehr intuitiv.
Dahm 2006, S. 230–232
SEMESTERARBEIT JUREK BREUNINGER
121
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.7 Icons
Icons sind das wichtigste Mittel, um Metaphern für Objekte und Funktionen anzuzeigen (Abbildung 7.7-1). Je nach Fall können sie eine Funktion oder Aktion, den Effekt
der Aktion auf ein Objekt, eine abstrakte Grafik oder eine Assoziation zu einer bekannten Funktion darstellen. Wenn bereits etablierte Bilder für Funktionen existieren,
sollten diese übernommen werden. Ein Icon sollte aus einer Funktion nach dem
Prinzip „function follows form“ hergeleitet werden und nicht „form follows function“.
Das heißt der Benutzer muss aus der Gestalt auf die Funktion schließen können,
nicht der Entwickler die Form aus der technischen Funktion entwickeln. Da aufgrund
der technisch begrenzten Darstellungsmöglichkeiten eines Icons gerade bei komplexen Anwendungen das Erstellen intuitiver Icons für alle Funktionen sehr schwierig ist,
sollte ein ergänzender Text die Bedeutung verdeutlichen. Dies kann z. B. durch
ToolTips oder die Erweiterung der Toolbar als Ribbon erfolgen.
Abbildung 7.7-1: Die Icons in Apples Mac OS X sind besonders detailliert. Allerdings
kann zu starker Detailgrad auch von der Funktion ablenken.
Dahm 2006, S. 232–234
Cooper 2007, S. 302–304
7.8 Erwartungskonformität, Konsistenz und Innovation
Wie bereits mehrmals erwähnt, ist Konsistenz sehr wichtig für ergonomische Software. Das bedeutet, dass Begriffe, Icons, Gestaltung und Funktionsbezeichnung
gleich bleiben. Dies wird meist durch Festhalten einer Spezifikation in einem Styleguide erreicht. Dann kann auch bei verteilter Entwicklung die Konsistenz gewährleistet werden.
SEMESTERARBEIT JUREK BREUNINGER
122
GRAPHISCHE BENUTZEROBERFLÄCHEN
Die Erwartungskonformität geht noch über die Konsistenz hinaus. Sie beachtet die
Erwartungen der Benutzer und ihre Erfahrungen auf dem Arbeitsgebiet und mit ähnlicher Software. Sie wird erfüllt, wenn etwa für Funktionen, die in verschiedenen Anwendungen vorkommen, die dafür gängigen Tastaturkombinationen benutzt werden.
Auch ein gewisser Transfer zwischen ähnlichen Aufgaben ist nötig. Strg+A markiert
in Texteditoren den ganzen Text, in anderen Zusammenhängen dafür alle Objekte.
Erwartungskonformität macht Software schneller erlernbar und vermeidet Frustration
beim Anwender. Allerdings ist die Kehrseite der Medaille, dass ein striktes Einhalten
der Erwartungskonformität auch die Innovation bei Bedienkonzepten dämpft. Man
muss nicht krampfhaft an einem schlechten oder mittelmäßigen Bedienkonzept festhalten, nur um die Erwartungen zu erfüllen. Es erfordert allerdings Weitsicht und Mut,
neue Konzepte einzuführen. Neue Konzepte können auf viel Widerstand stoßen,
selbst wenn sie überlegen sind. Ein Beispiel für einen radikalen Bruch mit Bewährtem hat z. B. Microsoft mit der Bedienphilosophie in Office 2007 gewagt.
Dahm 2006, S. 234f.
7.9 Ästhetik und Freude
Ein von Ingenieuren gerne vernachlässigter Punkt beim Entwurf von Bedienkonzepten ist die Ästhetik des Designs und die dadurch herbeigeführte Freude der Anwender an der Benutzung. Jedoch zeigen die Erfolge entsprechend entworfener Software, dass diese nichtfunktionale Anforderung an Software-Systeme entscheidend
für die wirtschaftliche Rentabilität und Produktivität der Anwender sein kann. Man
spricht auch von der hedonischen Qualität einer Software. Das Problem ist, dass der
viel diskutierte „Joy of Work“ weder quantitativ messbar ist, noch überhaupt objektiv
bewertbar, da Schönheit sehr häufig im Auge des Betrachters liegt. Laut den Studien
von Noam Tranctinsky kann die gelungene Ästhetik andere ergonomische Schwächen ausgleichen („What is beautiful is usable.“). Laut seinen Studien bewerten Anwender eine Software als einfacher bedienbar, wenn sie sie ästhetisch ansprechend
finden. Die von Vergleichsgruppen kritisierten Schwächen des Bedienkonzeptes
werden als nicht so störend empfunden.
Dahm 2006, S. 236
Tranctinsky 2000, S. 139–142
SEMESTERARBEIT JUREK BREUNINGER
123
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.10 Sprache
Trotz der heutzutage wichtigen direkten Manipulation ist der größte Teil der Information, die in Software-Systemen mit dem Anwender ausgetauscht wird, in Textform.
Damit sich Dialoge, Meldungen und Aufforderungen selbst erklären und vom Anwender akzeptiert werden, sollten folgende Kriterien beachtet werden. Wenn sie eingehalten werden, reduziert sich die Fehlerrate der Benutzer.
Die Sprache des Anwenders ist zu benutzen. IT-Jargon ist zu vermeiden.
Stattdessen ist die Fachsprache des Anwendungsgebietes zu verwenden.
Anwendungen sollten immer komplett in die Muttersprache der Benutzer übersetzt sein und keine Fremdsprachenkenntnisse erfordern.
Meldungen und Aufforderungen sind neutral zu formulieren. Sie dürfen weder
Wertungen enthalten, noch sollte die Anwendung sich personalisieren („Die
Dateien wurden kopiert.“ statt „Ich habe die Dateien kopiert.“)
Formulierungen sind einheitlich zu halten. Meist werden Meldungen beschreibend („Dateien werden kopiert.“) und Menüpunkte und Buttons auffordernd
(„Kopieren“) beschriftet. Substantivische Formulierung („Kopie“) sollte nur in
Spezialfällen verwandt werden, wenn es vom Benutzer erwartet wird.
Bei speziellen Anforderungen an das Format von einzugebenden Daten muss der
Text darauf hinweisen („Geben sie Ihr Geburtsdatum im Forma TT/MM/JJJJ an.“).
Am besten findet zusätzlich eine Prüfung statt, oder es werden Widgets verwendet,
die keine Fehleingabe zulassen (Kalender). Statt programmiertechnisch einfacheren
Lösungen wie „Es wurde 1 Datei(en) gefunden.“ sollten korrekte Lösungen wie „Es
wurde eine Datei gefunden.“ bevorzugt werden.
Dahm 2006, S. 237
7.11 Fehlerbehandlung
Da Software (und auch die darunterliegende Hardware) zu den komplexesten Systemen gehört, die der Mensch geschaffen hat, kommt es unvermeidlich immer wieder
zu Fehlern. Dies können Programmfehler durch die Programmierer sein, Funktionsstörungen der Hardware oder Fehlbedienungen der Hardware oder der Software
durch den Benutzer (fehlender Datenträger, ungültige Eingaben, etc.).
SEMESTERARBEIT JUREK BREUNINGER
124
GRAPHISCHE BENUTZEROBERFLÄCHEN
Programmierfehler können nur sehr eingeschränkt abgefangen werden, da sie
schwer antizipierbar sind. Mit Exception Handling steht Programmierern aber ein
Werkzeug zur Verfügung, allgemeine und spezielle Fehlerbehandlungen vorzusehen.
Auf Störungen der Funktion der Hardware oder Fehlbedienung durch den Benutzer
muss die Software auf jeden Fall reagieren. Es gibt drei Möglichkeiten mit Fehlern
umzugehen:
Fehler melden
Meist wird der Benutzer auf das Auftreten eines Fehlers hingewiesen. Er sollte
sowohl Symptom und Auswirkung, als auch Ursache des Fehlers mitgeteilt
bekommen. Wenn möglich wird auch ein Hinweis auf die Korrektur des
Fehlers gemacht. Die Fehlermeldung muss für den Benutzer in Abhängigkeit
seines Wissensstandes informativ und verständlich sein. Auch sollte bei unkritischen Fehlern der Arbeitsfluss des Benutzers nicht unterbrochen werden
(Hinweisbereich statt modaler Dialog).
Fehler korrigieren
In wenigen Fällen kann die Software einfach eine automatische Korrektur von
Fehleingaben vornehmen. Ein bekanntes Beispiel ist die automatische Korrektur von häufigen Tippfehlern in Textverarbeitungsprogrammen (dre → der).
Fehler vermeiden
Am besten treten Fehler gar nicht erst auf. Für die Vermeidung gibt es drei
Ansatzmöglichkeiten:
o Organisatorisch
Man kann Fehler durch eine gute Anpassung an die Arbeitsprozesse
des Benutzers vermeiden. So können Mehrfacheingaben und logische
Brüche umgangen werden.
o Logisch
Durch Einbeziehung des Kontextes kann die Relevanz von Daten und
Aktionen bewertet werden. Der Benutzer soll sich nur mit relevanten
Dingen beschäftigen müssen.
o Inhaltlich
SEMESTERARBEIT JUREK BREUNINGER
125
GRAPHISCHE BENUTZEROBERFLÄCHEN
Die Qualität von Beschriftungen und Ausgaben ist wichtig für die Fehlervermeidung. So werden die häufigsten Fehler, wie Eingabe von falschen Daten oder falsche Interaktion, vermieden.
Dahm 2006, S. 238f.
7.12 Online-Hilfe
Ein großer Vorteil von Computerprogrammen ist, dass theoretisch kein gesondertes
Handbuch nötig ist, da das Programm selbst die Möglichkeit hat, sich zu erklären und
in speziellen Fällen Hilfe zu leisten. Ein Programm kann außerdem den Kontext des
aktuellen Problems erkennen und dem Anwender das Suchen der relevanten Kapitel
sparen. Die wichtigsten Anlaufstellen für Hilfe sind die dafür reservierte Taste F1 und
der Menüpunkte Hilfe oder „?“ in der obersten Menüebene. Es gibt mehrere Möglichkeiten, eine Hilfe online, also bei laufendem System, zu realisieren:
Online-Handbuch
Eine digitale Form des gedruckten Handbuches; wird oft als Hypertext realisiert, das heißt ein direktes Ansteuern bestimmter Kapitel mittels Links ist vielerorts möglich. Online-Handbücher beschreiben sehr ausführlich den gesamten Funktionsumfang der Anwendung. Sie werden von vielen Benutzern nicht
gerne lange am Bildschirm gelesen.
Online-Hilfe
Ähnlich wie das Handbuch meist ein Hypertext (Abbildung 7.2-3); allerdings
sind die Beschreibungen viel kürzer und problembezogener. Enthält sowohl
kurze Einleitungen in bestimmte Funktionen, als auch Handlungsanweisungen
in besonderen Fehlersituationen; dient oft als Nachschlagewerk/Referenz
Kontextsensitive Hilfe, Hilfe-Modus
Vom Benutzer kontrollierte Hinweise zu bestimmten Elementen; z. B. Balloon
Tips, ToolTips, Assistenten, die das Benutzerverhalten überwachen und kontextabhängig Vorschläge machen (Abbildung 7.12-1). Beim Schalten in einen
Hilfe-Modus werden Elemente bei Interaktion erklärt (meist statt aktiv zu sein,
Abbildung 7.12-2). Die Hilfe ist so kein abgegrenzter Teil im Programm, sondern in das Bedienkonzept integriert.
SEMESTERARBEIT JUREK BREUNINGER
126
GRAPHISCHE BENUTZEROBERFLÄCHEN
Online Tutorial
Eine Trainingsumgebung, die das Erlernen der Anwendung durch realistische
Szenarien mit multimedialen Beschreibungen erleichtert. Je nach Gestaltung
bieten Tutorials ein hohes Maß an Interaktivität. Sie führen anhand von Beispielen durch die Benutzung der Anwendung.
Animierte Demonstrationen
Im einfachsten Fall eine Diaschau von Screenshots beim Durchführen bestimmter Vorgänge. Meist ein Video, das auch die Mausbewegung und erklärenden Text oder Tonaufnahmen enthält.
Audio/Video Guides
Eine spezielle Form der animierten Demonstration, bei der eine mit der Materie vertraute Person ihre Arbeitsweise vorstellt und kommentiert. Während unpersönliche animierte Demonstrationen meist recht begrenzte Bereiche beschreiben, können Guides über viele Arbeitsschritte hinweg einen kompletten
Arbeitszyklus präsentieren.
Abbildung 7.12-1: Der Assistent von Microsoft Office bietet kontextabhängig Hilfe an.
Fortgeschrittene Benutzer empfinden das allerdings als störend.
Abbildung 7.12-2: Manche Programme bieten einen Hilfemodus an, der den Mauszeiger in einen Hilfemodus bringt, mit der die Funktionsweise von Elementen abgefragt werden kann.
Zusätzlich zur Hilfe bei Problemen sollte Software eine problemvermeidende Bedienführung haben. Vor allem bei kritischen Aufgaben, die eher selten vorkommen, wie
Installationen oder Konfigurationen, hat sich die geführte Bedienung in Form von As-
SEMESTERARBEIT JUREK BREUNINGER
127
GRAPHISCHE BENUTZEROBERFLÄCHEN
sistenten (Wizards, Abbildung 7.12-3) etabliert. Diese sind Abfolgen von Dialogen,
die Arbeitsaufgaben schrittweise erklären und meist Eingaben erwarten. Es werden
nur im Kontext sinnvolle Aktionen angeboten. Assistenten sind ungeeignet für häufig
benötigte Arbeitsfolgen, da ihr großer Anteil an erklärendem Text und die starre Abfolge die Arbeitsgeschwindigkeit einschränken können. Außerdem lassen sie nur die
vom Entwickler vorgesehene Bearbeitung zu.
Abbildung 7.12-3: Vor allem bei Installations- oder Erstkonfigurationsvorgängen haben sich Assistenten, eine Folge gleichartiger Dialoge, in denen beliebig vor und zurück navigiert werden darf, bewährt.
Shneiderman 2005, S. 539–551
Dahm 2006, S. 239–241
7.13 Ungewöhnliche Darstellungsformen
Neben den vorgestellten Widgets und Interaktionskonzepten gibt es eine Vielzahl
alternativer Realisierungen von graphischen Bedienkonzepten. Sie sind das Gebiet
aktueller Forschung. Neben wissenschaftlicher und betrieblicher Forschung sind
auch Computerspiele eine stete Quelle neuer Bedienkonzepte. Ob ungewöhnliche
Konzepte für bestimmte Zwecke taugen, lässt sich am besten mit Benutzerexperimenten herausfinden. Es folgen ein paar Ideen, die sich (noch) nicht auf breiter Ebene durchgesetzt haben.
Shneiderman 2005, S. 222–224, S. 228–231
SEMESTERARBEIT JUREK BREUNINGER
128
GRAPHISCHE BENUTZEROBERFLÄCHEN
Abbildung 7.13-1: Diese Website hat eine auf Betrachtungsentfernung basierende
Struktur. Man kann den Betrachtungsausschnitt mit der Maus und direkter Manipulation verschieben. Mit dem Mausrad kann man weiter hereinzoomen, wodurch periphere Elemente aus dem Betrachtungsausschnitt verschwinden, aber vorher unsichtbare „entferntere“ Elemente sichtbar werden.
SEMESTERARBEIT JUREK BREUNINGER
129
GRAPHISCHE BENUTZEROBERFLÄCHEN
7.13.1
ZUI
Das Zoomable (auch Zooming) User Interface ist eine Möglichkeit, Informationen
strukturiert anzuzeigen (Abbildung 7.13-1). Statt Fenstern und Menüs nutzt es zur
Strukturierung und Hierarchisierung die Blickentfernung. Man navigiert durch Vergrößern, Verkleinern und Verschieben des Blickbereichs. Informationen auf sehr niedrigen, also weit entfernten Ebenen werden sehr klein und unsichtbar. Die Steuerung
ist intuitiv (da sie die direkte Manipulation nutzt) und meistens mausbasiert. Das
Mausrad wird für das Zoomen verwendet. Mit dem Zeiger kann man Objekte bzw.
den Bildausschnitt verschieben. Voraussetzung für das Funktionieren dieses Konzeptes ist eine kontinuierliche Anpassung des Detailgrades. Dies wird häufig durch
Vektorgraphiken erreicht. ZUIs spielen ihre Vorteile vor allem auf kleinen Bildschirmen aus, da sie fast unabhängig von der Bildschirmauflösung funktionieren. Mobiles
Surfen im Internet, z. B. auf dem iPhone, wird dadurch erleichtert.
Bederson 1998, S. 1–4, S. 8, S. 12
http://www.cs.umd.edu/hcil/piccolo/learn/about.shtml
7.13.2
Fish-Eye View
Der Fisheye-View ist eine graphische Möglichkeit, Informationen mit hoher Komplexität und vielen Elementen einfacher erfassbar zu machen. Dabei werden Elemente,
die wichtig für die aktuelle Arbeit sind, zentral und groß angezeigt, alle anderen werden in den Ecken kleiner und dichter dargestellt. Mit Fish-Eye-Menüs lassen sich
sehr viele Menüpunkte auf gängigen Bildschirmen anzeigen (Abbildung 7.13-3). Darüber hinaus wird diese Darstellung zum Beispiel in Apples „Dock“-Programmstartleiste (Abbildung 7.13-2) gebraucht. Auch für die Strukturierung von Informationen in sehr großen Graphen und Strukturbildern kann Fisheye-View verwendet werden.
Abbildung 7.13-2: Neuere Versionen von Apples Programmstartleiste Dock zeigen
die Elemente unter dem Mauszeiger vergrößert an.
SEMESTERARBEIT JUREK BREUNINGER
130
GRAPHISCHE BENUTZEROBERFLÄCHEN
Abbildung 7.13-3: Auch dieses Fish-Eye Menu bildet die Elemente unter dem Mauszeiger größer ab als die peripheren. Dadurch bleibt ein Gesamtüberblick über die
Anzahl der Elemente erhalten, ohne dass zu viele Elemente die Aufmerksamkeit des
Betrachters beanspruchen.
Shneiderman 2005, S. 276, S. 507f.
Dahm 2006, S. 242
7.13.3
Hyperbolische Bäume
Eine Möglichkeit, eine Vielzahl von Daten und ihre Zusammenhänge untereinander
zu visualisieren, sind die hyperbolischen Bäume (kurz Hypertree, Abbildung 7.13-4).
Sie versuchen die Unübersichtlichkeit, die eine quasi-eindimensionale Baumdarstellung ab einer gewissen Anzahl von Elementen und Tiefe der Ebenen bietet, zu verbessern. Das Konzept wird etwa in kaskadierenden Pie-Menüs genutzt. Es kann wie
der Fisheye-View auch für komplexe Struktur- oder Funktionsgraphen verwendet
werden, am besten in Kombination mit einem ZUI. Um mit einem hyperbolischen
Baum einen Übersichtsgewinn zu erreichen, ist es wichtig, dass bei einer Änderung
SEMESTERARBEIT JUREK BREUNINGER
131
GRAPHISCHE BENUTZEROBERFLÄCHEN
des Fokus die Darstellung des Baumes neu berechnet wird. Wie beim Fisheye-View
sollten zentrale Elemente größer dargestellt werden als periphere.
Abbildung 7.13-4: Hyperbolische Bäume eignen sich zur strukturierten Darstellung
von weitreichenden Informationen.
http://sigchi.org/chi95/Electronic/documnts/papers/jl_bdy.htm
Shneiderman 2005, S. 594
7.13.4
Mehrdimensionale Darstellung
Während Computer in der Anfangszeit nur zweidimensionale Graphik darstellen
konnten, machten die Fortschritte in der Hardware und das Bedienungskonzept der
direkten Manipulation bald dreidimensionale Darstellung in Computerprogrammen
gebräuchlich. Die Ausgabe von Computerspielen, CAD und Virtual-RealityAnwendungen ist fast immer dreidimensional, um ihre Räumlichkeit zu simulieren.
Doch in anderen Bereichen gibt es noch Entwicklungspotential. Konzepte für drehbare Desktopoberflächen (Abbildung 7.13-5) und kippbare Fenster versuchen diese
klassischen zweidimensionalen Anwendungsbereiche um neue Möglichkeiten zu erweitern (Abbildung 7.13-6). Sie können allerdings auch zu mehr Verwirrung bei den
Anwendern führen als vereinfachte 2D-Oberflächen. Ein großes Problem der dreidimensionalen Darstellung ist die mögliche Verdeckung einzelner Elemente. Es sollte
SEMESTERARBEIT JUREK BREUNINGER
132
GRAPHISCHE BENUTZEROBERFLÄCHEN
nicht nach einer realistischeren Imitation der Realität gestrebt werden, sondern die
Produktivität gesteigert werden. Dies gelingt gerade mit Konzepten, die über das in
der echten Welt Machbare hinausgehen, wie das Sehen durch massive Objekte,
freie Manipulation von Objekten und Mehrfachblicke auf das gleiche Objekt. Deswegen kommen sie oft aus dem kreativen Bereich der Computerspiele.
Abbildung 7.13-5: Beryl nutzt dreidimensionale Darstellung für intuitives Umschalten
zwischen virtuellen Arbeitsflächen.
Abbildung 7.13-6: Der 3D-Desktop Bumptop setzt die bekannte Schreibtischmetapher dreidimensional um. Außerdem erlaubt er weitgehende direkte Manipulation,
z. B. das Stapeln von Objekten.
Bei der Darstellung vieler statistischer oder betrieblicher Daten kommt man mit dreidimensionaler Darstellung schnell an die Grenzen, da hier oft nicht räumliche sondern höherdimensionale Abhängigkeiten zwischen Daten bestehen. Dann werden oft
SEMESTERARBEIT JUREK BREUNINGER
133
GRAPHISCHE BENUTZEROBERFLÄCHEN
zusätzliche Darstellungsmöglichkeiten wie Farbe, Größe, räumliche Nähe zur Unterscheidung eingesetzt. Solche Darstellungskonzepte sind aber leider nicht besonders
intuitiv und benötigen eine gewisse Schulung, damit sie produktiv angewandt werden
können (Abbildung 7.13-7, Abbildung 7.13-8).
Abbildung 7.13-7: Der Hierarchical Clustering Explorer verfügt über diverse graphische Darstellungsformen für vieldimensionale Daten. Sie basieren fast immer auf
zweidimensionaler Darstellung.
Abbildung 7.13-8: InfoZoom zeigt mehrdimensionale Daten mit einem ZUI.
Shneiderman 2005, S. 241–246, S. 586
SEMESTERARBEIT JUREK BREUNINGER
134
EINGEBETTETE COMPUTER
8 Eingebettete Computer
Embedded Computer sind Computer, die nicht sofort als solche erkennbar sind. Sie
besitzen im Allgemeinen eine andere Form und andere Eingabe- und Ausgabemöglichkeiten als ein klassischer Desktopcomputer oder Laptop. Praktisch alle Geräte
aus dem Bereich der Unterhaltungselektronik (Consumer Electronics) wie Mobiltelefone, Stereoanlagen, Fernseher oder Spielekonsolen sind im Kern Computer. Zusätzlich befinden sich in sehr vielen Gebrauchsgeräten inzwischen auch Computer
(Waschmaschinen, Messgeräte, Industriemaschinen, Autos).
8.1 Spezielle Anforderungen
Da eingebettete Computer unter anderen Randbedingungen eingesetzt werden als
normale Computer, gelten eine Reihe von Einschränkungen:
Manche Geräte sind sehr klein (Fernbedienungen, Mobiltelefone), die Fläche
der Eingabeelemente und Anzeigen ist daher sehr begrenzt.
Die Benutzung gerade von Unterhaltungselektronik, aber auch Autos oder
Waschmaschinen, muss selbsterklärend sein und sollte ohne Studium eines
Handbuches auskommen. Die kognitive Kapazität der Benutzer sollte voll der
Aufgabenbewältigung zur Verfügung stehen und nicht der Bedienung. Doch
die Selbstbeschreibungsfähigkeit wird oft vernachlässigt.
Manche eingebettete Computer werden häufig von verschiedenen Anwendern
verwendet (Kopierer, Festnetztelefon, Industriemaschinen). Bei ihnen machen
Personalisierungsmöglichkeiten keinen Sinn, da sie die verschiedenen Benutzer verwirren können.
Im Gegensatz zu normalen Computern, die Allzweckgeräte sind, sind eingebettete Computer auf einen Anwendungszweck spezialisiert. Der Funktionsumfang ist begrenzt. Das ist auch gut so. Der Funktionsumfang sollte nicht
unnötig gesteigert werden, da die Ergonomie darunter meist leidet.
Bei manchen eingebetteten Computern haben die Benutzer deutlich höhere
Ansprüche an die Verfügbarkeit und Reaktionszeit als bei Desktopcomputern.
SEMESTERARBEIT JUREK BREUNINGER
135
EINGEBETTETE COMPUTER
Boot-, Lade- oder Berechnungszeiten im Minutenbereich werden bei Mobiltelefonen oder Infotainmentsystemen in Autos nicht akzeptiert.
Wegen der Spezialisierung ist der Kontext der Bedienung dem Benutzer immer klar. Dies ermöglicht die eindeutige Verwendung von allgemeinen Symbolen und kann Oberflächen schlanker machen.
Während das Arbeiten an einem normalen Computer fast immer eine Primäraufgabe ist, werden eingebettete Computer oft auch für Sekundär- oder
Tertiäraufgaben eingesetzt. Das bedeutet, dass der Hauptanteil der kognitiven
Kapazität des Benutzers nicht für die Arbeit mit dem Software-System zur Verfügung steht und in Anspruch genommen werden darf. Man kann davon ausgehen, dass sich dadurch die Leistungsfähigkeit des Benutzers reduziert, zum
Beispiel ist das Fassungsvermögen des Kurzzeitgedächtnisses bei paralleler
Beschäftigung nicht mehr 7 ± 2 chunks, sondern nur noch etwa 3 ± 1 chunks,
da andere Aufgaben ein paar chunks binden können. Klassische Beispiele für
eingebettete
Computer
zur
Erfüllung
von
Tertiäraufgaben
sind
die
Infotainmentsysteme in Autos. Die Primär- und Sekundäraufgaben sind hier
Fahrzeugbedienung, Verkehrsbeobachtung und Navigation.
Die Hardware ist meist nicht so leistungsfähig wie bei einem normalen Computer. Manche Darstellungskonzepte sind dadurch nicht realisierbar (direkte
Manipulation mangels Zeigegerät nicht sinnvoll, Auflösung gibt Minimalgröße
des Textes vor, Dreidimensionalität zu rechenaufwändig).
Für eingebettete Computer gilt durch die Zweckbezogenheit, dass die Bedienung in den meisten Fällen aufgabenorientiert sein sollte. Eine funktionsorientierte Bedienung ist nur in Spezialfällen sinnvoll. Denn dadurch kann ein nicht
aufgabenangemessener Bedienaufwand bei häufigen Problemstellungen entstehen.
Dahm 2006, S. 290f.
Shneiderman 2005, S. 304–309, S. 392–395, S. 463
Bubb 2006, Kap. 3-4
8.2 Möglichkeiten
Ein nicht zu unterschätzender Vorteil von eingebetteten Computern ist aber auch,
dass sie gewisse Einschränkungen der normalen Computer nicht mitbringen. Oft ist
SEMESTERARBEIT JUREK BREUNINGER
136
EINGEBETTETE COMPUTER
eine freie Gestaltung der Ein- und Ausgabegeräte möglich, die durch die Anpassung
an den Einsatzzweck höhere Produktivität erreichen als die Standardgeräte Tastatur
und Maus. Viele auf Computern etablierte Bedienkonzepte und Metaphern müssen
auf eingebetteten Computern nicht unbedingt eingesetzt werden, wenn ergonomisch
günstigere Alternativen erdacht werden können. Der andere Kontext als beim Desktopcomputer sorgt dafür, dass ein Bruch mit PC-Gepflogenheiten vom Benutzer verstanden und akzeptiert wird. Wenn das neue Konzept aber keine deutliche Verbesserung der Ergonomie verspricht, sind Lösungen, die bestehendes Wissen aus anderen Bereichen nutzen, vorzuziehen. Ein weiterer Vorteil von manchen eingebetteten
Computern (z. B. Mobiltelefon) ist, dass sie stark personalisierbar sein können. Mit
an den Benutzer und seine Aufgabenstellungen angepassten Bedienkonzepten können Effizienz und Zufriedenheit des Benutzers steigen.
Dahm 2006, S. 290ff.
SEMESTERARBEIT JUREK BREUNINGER
137
WERKZEUGE
9 Werkzeuge
Zur Erstellung ergonomischer Softwareoberflächen bedarf es neben dem ergonomischen Grundwissens und den Ideen für die Realisierung auch noch einiger hilfreicher
Werkzeuge. Diese kommen aus den allgemeinen Softwareentwicklungsprozessen
und sind Software-Ingenieuren deshalb recht vertraut. Da sich der Entwurf ergonomischer Benutzerschnittstellen zu einem immer wichtigeren Gebiet entwickelt, gibt es
inzwischen aber auch reine User-Interface-Architekten, die nicht zwingend Informatiker o. ä. sind. Dies führt oft zu einem besseren Design, da so die interdisziplinären
Aspekte der Software-Ergonomie mehr betont werden und die Software nicht nur
anhand technischer Rahmenbedingungen ausgelegt wird. Es folgt eine kurze Übersicht wichtiger Werkzeuge.
9.1 Methoden zur Spezifikation
In modernen Software-Entwicklungsprozessen erfolgt die Implementierung erst,
wenn eine Spezifikation existiert. Das kreative Entwickeln einzelner Programmierer,
die gleichzeitig Lösungen erstellen und Programmcode schreiben und verbessern
(„code and fix“), ist schon ab Softwareprojekten mittleren Umfangs ungeeignet. Für
die Spezifikation von Softwareoberflächen kommen die gleichen Werkzeuge zum
Einsatz wie für allgemeine Software, neben textuellen Spezifikationen vor allem mehrere Diagrammtypen. Die meisten Diagrammtypen sind durch die Unified Modeling
Language (UML) beschrieben. Da diese primär für den klassischen Software-Entwurf
gedacht ist, gibt es eine Erweiterung für das Benutzerschnittstellendesign namens
UMLi (UML for Interactive Applications). Die wichtigsten Methoden für die UISpezifikation sind:
Menüauswahl- und Dialogbäume (Abbildung 9.1-1): Eine komplette graphische Aufführung aller Menüebenen und Punkte oder die logische Abfolge von
Dialogen in einer Baumstruktur; wird ab einer gewissen Komplexität sehr groß
und gerne an komplette Wände gehängt; ermöglicht die gesamte Struktur auf
einmal zu überblicken und auf Konsistenz, Vollständigkeit und fehlende Redundanz und Doppeldeutigkeit zu überprüfen.
SEMESTERARBEIT JUREK BREUNINGER
138
WERKZEUGE
Abbildung 9.1-1: Ein einfacher Menüstrukturbaum
Zustandsdiagramme (UML): Graphische Darstellung eines endlichen Automaten; bei der UI-Spezifikation werden für die Zustände auch manchmal
Screenshots oder Skizzen der Oberfläche verwendet. Die Zustandsübergänge
sind entweder Benutzereingaben oder externe Ereignisse (Abbildung 9.1-2).
Zustandsautomaten lassen sich automatisiert auf die Erreichbarkeit aller Zustände und die Verlassbarkeit aller Zustände hin überprüfen. Statt der UMLForm werden manchmal auch noch die Vorgängerformen Zustandsübergangsdiagramm/Statecharts genutzt.
Abbildung 9.1-2: Ein Zustandsdiagramm eines interaktiven Programms
SEMESTERARBEIT JUREK BREUNINGER
139
WERKZEUGE
Aktivitätsdiagramme (UML, Abbildung 9.1-3): Beschreiben das Verhalten der
Software. Sie können im Gegensatz zu Zustandsdiagrammen auch dynamische Aspekte wie Nebenläufigkeit darstellen. Die Aktivitäten sind meist die
Benutzereingaben. Aktivitätsdiagramme lassen sich allerdings nur schlecht mit
Screenshots illustrieren.
Abbildung 9.1-3: Ein UML-Aktivitätsdiagramm, das den Aufbau eines Druckassistenten beschreibt.
Prototypen: Eine weitere Möglichkeit, die geplante Anwendung zu spezifizieren, ist das Erstellen eines Prototyps. Dieser hat, je nachdem was spezifiziert
wird, nicht den kompletten Funktionsumfang, zeigt aber zum Beispiel die komplette Menüstruktur, das Fensterlayout und den Aufbau der Dialoge.
Die meisten genannten Arten der Spezifikation lassen sich theoretisch mit Papier und
Stift durchführen. In der Praxis kommen dafür aber häufig Softwarewerkzeuge zum
Einsatz. Diese reichen von einfachen Zeichenprogrammen für Skizzen über PräsenSEMESTERARBEIT JUREK BREUNINGER
140
WERKZEUGE
tationsprogramme für Diagramme bis zu Programmen, mit denen sich aus bekannten
GUI-Bausteinen Oberflächen ohne Funktion erstellen lassen (Abbildung 9.1-4). Für
Prototypen werden meist für Rapid Prototyping geeignete Programmiersprachen wie
Python und GUI-Bibliotheken benutzt.
Abbildung 9.1-4: Mit Microsoft Visio lassen sich Softwareoberflächen ohne Funktion
aus Bausteinen zusammensetzen.
Shneiderman 2005, S. 178–183, S. 185
Pinheiro 2003, S. 62ff.
9.2 Werkzeuge zum Erstellen von Oberflächen
Um die Spezifikation einer Software in ein funktionierendes Produkt umzusetzen,
muss man sie in Programmcode implementieren. Da moderne Software sehr komplex ist, und der Quellcode mehrere zehn- oder hunderttausend Zeilen umfassen
kann, ist die Wiederverwendung existierender Implementierungen eine wichtige Voraussetzung für wirtschaftliches Entwickeln. Vor allem im Bereich der Bedienoberflächen kommt es zu viel Wiederverwendung. Es gibt diverse Codesammlungen, so
genannte Bibliotheken, die die bekannten Widgets und Darstellungskonzepte bereits
implementiert zur Verfügung stellen. Diese GUI-Toolkits sind hauptsächlich für den
PC-Bereich verfügbar, aber es gibt inzwischen auch für verbreitete Embedded-
SEMESTERARBEIT JUREK BREUNINGER
141
WERKZEUGE
Plattformen wie Mobiltelefone entsprechende Unterstützung. Bekannte GUIBibliotheken sind:
MFC (Microsoft Foundation Class) und Windows Forms für die .NET-SoftwarePlattform sind die wichtigsten Bibliotheken für Windowsprogramme. Windows
selbst und ein Großteil der dafür verfügbaren Programme sind mit ihnen geschrieben. Sie sollen langfristig von der WPF (Windows Presentation
Foundation) abgelöst werden.
Cocoa ist die Software-Plattform für Apples Mac OS X. Die meisten Programme für Apple verwenden ihre GUI-Bibliothek.
Qt und GTK+ sind etablierte Open-Source-GUI-Toolkits, die vor allem in der
Unix-Welt eingesetzt werden (Die Desktopumgebung KDE ist mit Qt geschrieben, Gnome mit GTK+). Sie haben den Vorteil, dass sie plattformübergreifend
sind, Programme also auch auf Windows- und Apple-Systemen funktionieren.
Java-Programme nutzen meist die Bibliotheken AWT, SWT oder Swing. Sie
funktionieren wie alle Java-Programme plattformübergreifend. Während AWT
und SWT die Widgets des aktuellen Betriebssystems übernehmen, sehen
Swing-Programme auf allen Betriebssystemen gleich aus.
Tk ist ein GUI-Toolkit für die Skriptsprache Tcl. Die Kombination Tcl/Tk ist beliebt für einfache schnelle Programmierung und eignet sich gut für Prototypen.
Inzwischen gibt es auch Umsetzungen von Tk für andere Skriptsprachen wie
Python oder Perl.
Darüber hinaus existieren noch zahlreiche weitere Bibliotheken etwa für die Webprogrammierung (Rails, Django, Fusion) oder für eingebettete Systeme (Android).
Für die Programmierung werden heute meist IDEs (integrierte Entwicklungsumgebungen) genutzt. Manche IDEs geben dem Programmierer die Möglichkeit, neben
der Bearbeitung des Quellcodes Bedienoberflächen mittels direkter Manipulation zusammenzufügen (Abbildung 9.2-1). Sie erzeugen aus der graphischen Darstellung
automatisch Programmcode. Diese Funktion wurde 1991 von Visual Basic eingeführt. Der funktionale Teil der Anwendung muss allerdings immer noch von Hand erstellt werden. Noch eine Ebene höher als das visuelle Programmieren mit vorgefertigten Toolkits ist die modellbasierte Entwicklung: Programme wie Microsoft Access
SEMESTERARBEIT JUREK BREUNINGER
142
WERKZEUGE
oder Sybase PowerDesigner ermöglichen ein Erstellen von graphischen Frontends
für Datenbanken, ohne dass der Designer zwingend programmieren können muss
(Abbildung 9.2-2).
Abbildung 9.2-1: Mit IDEs wie dem Qt Designer lassen sich Benutzeroberflächen mittels direkter Manipulation aus Bausteinen zusammenfügen.
Abbildung 9.2-2: Mit Microsoft Access lassen sich Formulare und Berichte mit Abfragen aus der Datenbank ohne Programmierkenntnisse erstellen.
Shneiderman 2005, S. 183–202
SEMESTERARBEIT JUREK BREUNINGER
143
USABILITY ENGINEERING
10 Usability Engineering
Nachdem die menschlichen und technischen Grundlagen der Software-Ergonomie,
Gestaltungsempfehlungen von Experten, sowie bestehende und mögliche Realisierungen auf dieser Basis besprochen wurden, wird zuletzt die wichtige Fragestellung
behandelt, wie diese theoretischen Erkenntnisse in der Praxis der Software- und
Produktentwicklung im Unternehmen umgesetzt werden können. Den Einsatz geeigneter Prozesse und Methoden, um ein ergonomisches Softwareprodukt zu entwickeln, nennt man Usability Engineering. Diese Prozesse und Methoden müssen stark
an den speziellen Entwicklungsprozess und die Anforderungen des Projektes angepasst werden. Deshalb werden hier die wichtigsten Methoden allgemein beschrieben, denn eine genaue schrittweise Anleitung ist meist nicht sinnvoll.
In der Software-Entwicklung haben sich bereits einige Vorgehensmodelle etabliert,
die die Qualität und Rentabilität der zu entwickelnden Software gewährleisten sollen.
Es soll diskutiert werden, wo die Methoden und Prozesse des Usability Engineering
in diesen Vorgehensmodellen zum Tragen kommen oder wie sie sich integrieren lassen.
10.1 Die drei Säulen des Entwurfs nach Shneiderman
Um die zentrale Bedeutung des Usability Engineering für eine erfolgreiche Benutzerschnittstelle zu zeigen, seien hier kurz die drei Säulen des Entwurfs nach
Shneiderman (Abbildung 10.1-1) gezeigt:
Dokumentierte Richtlinien und Prozesse
Softwarewerkzeuge zur Benutzerschnittstellengestaltung
Expertenbewertung und Usability Testing
Richtlinien und Softwarewerkzeuge wurden bereits in den jeweiligen Kapiteln behandelt und sind in fast allen Unternehmen der IT-Branche etabliert. Doch die übrigen
Elemente, die laut Shneiderman eine fundamentale Voraussetzung für gutes Software Engineering sind, werden sehr häufig zu wenig oder gar nicht beachtet und
praktiziert. Sie sind Teil des Usability Engineering.
SEMESTERARBEIT JUREK BREUNINGER
144
USABILITY ENGINEERING
Erfolgreiche Bedienschnittstellen
Dokumentierte
Richtlinien
& Prozesse
Softwarewerkzeuge
zur
Benutzerschnittstellengestaltung
Expertenbewertung
& Usability
Testing
Theorien &
Modelle
Algorithmen &
Prototypen
Kontrollierte
Experimente
Wissenschaftliche Forschung
Abbildung 10.1-1: Die drei Säulen des Entwurfs nach Shneiderman
Man kann auch die Richtlinien- und Prozessdokumentation als Teil des Usability Engineering verstehen; besonders dann, wenn die Richtlinien und Prozesse speziell für
das aktuelle Projekt definiert werden und nicht auf bestehende Dokumente zurückgegriffen wird.
Shneiderman 2005, S. 114
10.2 Methoden
Unvollständige Anforderungen und mangelnder Einbezug des Nutzers sind laut einer
Studie der Standish Group zwei der führenden Gründe, warum Softwareprojekte
scheitern (Standish Group 1994). Die Methoden und Prozesse des Usability Engineering fokussieren Anforderungsfindung, Entwicklung und Tests unter maximaler
Einbeziehung des Anwenders. Dies nennt man User Centered Design (UCD). Im
Folgenden werden die wichtigsten Methoden vorgestellt. Die Reihenfolge, in der sie
beschrieben sind, kann – muss aber nicht – ihrem Auftreten während des Entwicklungsprozesses entsprechen.
10.2.1
Contextual Inquiry
Contextual Inquiry ist eine Methode, die zur Analyse der Benutzer und des Einsatzumfelds dient. Dies ist ein zentraler Teil des Requirements Engineering, also der An-
SEMESTERARBEIT JUREK BREUNINGER
145
USABILITY ENGINEERING
forderungsfindung. Man beobachtet die Benutzer und ihre Tätigkeiten während der
Arbeit und befragt sie darüber. Da die meisten Menschen ihr implizites Anwendungswissen nicht in einem einmaligen Interview kommunizieren können, ist dies ein
iterativer Prozess. Aus den Beobachtungen und Befragungen sollten sich Informationen über die Rollenverteilung und Kommunikation, die Handlungsstrategien, bei der
Arbeit benutzte Dokumente und Werkzeuge, kulturelle und soziale Einflüsse und das
physische Umfeld beziehen lassen. Bereits während der Beobachtung kann Optimierungspotential identifiziert werden, mögliche Lösungsstrategien dazu sollten protokolliert werden. Neben einem Analysten können auch Entwickler und Produktmanager
bereits in dieser Phase mit einbezogen werden. Die Ergebnisse des Contextual
Inquiry werden meist in informeller Textform dokumentiert. Es kommen aber auch
Skizzen, Screenshots, Video- und Audioaufnahmen zum Einsatz. Eine weiterführende Methodik ist das Contextual Design, in welchem die Ergebnisse der Analyse in
graphischen Modellen festgehalten werden. Zum Beispiel kann man die Kommunikation der beteiligten Personen mit einem Informationsflussdiagramm festhalten.
Richter 2007, S. 13f., S. 19–24
Cooper 2007, S. 58f., S. 106f.
10.2.2
Personas und Szenarien
Personas und Szenarien sind zwei Techniken, die unterschiedlichen Anforderungen
zu modellieren und daraus passende Lösungen abzuleiten.
Personas sind prototypische Benutzerprofile und stellen deren unterschiedliche Ziele
und Verhaltensweisen dar. Sie werden aus den Ergebnissen von Contextual Inquiry
und Fragebögen oder in eigenen Workshops erarbeitet. Eine Persona spiegelt die für
die Projektziele relevanten Eigenschaften der Benutzer wider. Eine Persona steht
somit für eine Benutzergruppe und nicht für einen reellen Benutzer. Die Persona sollte folgende Informationen enthalten:
Ziele der Benutzer
Beruf, Funktion, Verantwortlichkeiten, Aufgaben
Ausbildung, Wissen, Fähigkeiten
Verhaltensmuster, Vorgehensweisen
Vorlieben, Werte, Sehnsüchte, Ängste
SEMESTERARBEIT JUREK BREUNINGER
146
USABILITY ENGINEERING
Computerkenntnisse
Kenntnisse über verwandte Produkte, Vorgängersysteme, Konkurrenzprodukte
Verbesserungspotential der bestehenden Lösung
Erwartungen an neue Lösung
Um die Persona einprägsamer und menschlicher wirken zu lassen, kann man sie mit
zusätzlicher fiktiver Information wie Name, Alter, Geschlecht, Bild, Zitaten aus Interviews oder einer Beschreibung „Ein Tag im Leben von …“ erweitern. Die Personas
können nach ihrer Relevanz noch in primäre, sekundäre, ergänzende und NonPersonas eingeteilt werden. Dies entscheidet, wie stark die Persona vom Projektteam berücksichtigt werden. Gibt es mehrere unterschiedliche primäre Personas,
kann zum Beispiel das Entwickeln von Systemvarianten sinnvoll sein.
Anwendungsszenarien oder kurz Szenarien sind ein weiteres zentrales Element der
benutzerorientierten Entwicklung. Sie dienen wie Personas zur Lösungsfindung aus
den Anforderungen. Ein Szenario beschreibt beispielhaft wie der Anwender mit dem
geplanten System interagieren wird. Der Ablauf wird meist in Textform, oft mittels
Aufzählung, beschrieben. Deswegen sind die Szenarien leicht verständlich und können früh im Entwicklungsprozess von Entwicklern, Auftraggebern und Anwendern
überprüft, ergänzt und verbessert werden. Ein Szenario hat folgende Eigenschaften:
Es wird für eine bestimmte Benutzergruppe entworfen.
Es stellt einen konkreten Fall der Anwendung dar.
Es zeigt, wie die Benutzer die Software unter realen Bedingungen einsetzen.
Es zeigt die für die Entwicklung relevanten Aspekte der Lösung.
Es muss nicht nur den vorgesehenen Ablauf beschreiben, sondern kann auch
exemplarisch wichtige Ausnahme- und Fehlerfälle illustrieren.
Szenarien können an mehreren Stellen im Entwicklungsprozess eingesetzt werden:
Erhebung und Validierung von Anforderungen
Spezifikation
Benutzerschnittstellenkonzept
SEMESTERARBEIT JUREK BREUNINGER
147
USABILITY ENGINEERING
Usability-Testszenarien
Testszenarien (Funktionsumfang, Fehlerfreiheit)
Schulung
Der ständige Nutzen von Szenarien über den gesamten Entwicklungsprozess machen sie zu einem effektiven Mittel bei der Gestaltung guter interaktiver Systeme.
Cooper 2007, S. 75–106, S. 109–123
Richter 2007, S. 14, S. 24–31
Dahm 2006, S. 317f.
10.2.3
Storyboards
Storyboards (Abbildung 10.2-1) sind ein wichtiges Mittel der Kommunikation im Entwicklungsprozess. Sie ermöglichen es Entwicklern und Designern, mit Auftraggebern
und Anwendern Konzepte, Fragen und Ideen auszutauschen. Sie sind aus der Filmbranche bekannt, wo sie einem Regisseur helfen, den Schauspielern und dem Filmteam den geplanten Aufbau des Films zu vermitteln. Storyboards stellen wichtige
Aspekte einer Software bildlich dar und zeigen anhand der Benutzerschnittstelle, wie
das System verwendet wird. Je nach Kommunikationszweck kann ein Storyboard
aus einer Abfolge von Skizzen oder realistischen Abbildungen der Benutzeroberflächen (User Interface Storyboard) bis hin zu Bildergeschichten, die die ausführenden
Personen und das Umfeld darstellen, bestehen. Storyboards müssen überall dort
eingesetzt werden, wo eine textuelle Beschreibung nicht ausreicht und eine Visualisierung notwendig ist. Ein Storyboard kann helfen, folgende Sachverhalte verständlich zu kommunizieren:
Dialogabläufe der Benutzeroberfläche
Schwer verständliche Konzepte
Wichtige Aspekte des Anwendungskontextes
Spezielle oder komplexe Umgebungen, in denen das System eingesetzt wird
Storyboards eignen sich gut, um Konzepte in Workshops einzubringen und über Annahmen und Unterschiede zur aktuellen Situation zu diskutieren und Missverständnisse auszuräumen.
SEMESTERARBEIT JUREK BREUNINGER
148
USABILITY ENGINEERING
Abbildung 10.2-1: Storyboards können aus Abfolgen von Dialogskizzen oder auch
Bildergeschichten bestehen.
Richter 2007, S. 14f., S. 32–35
10.2.4
UI Prototyping
UI Prototyping wird genutzt, um Aspekte der Benutzerschnittstelle zu entwerfen, zu
evaluieren und zu verbessern, ohne dass funktionierende Software geschrieben
werden muss. Dies kann mit einfachsten Mitteln geschehen. Oft skizziert man die
ersten Entwürfe der Benutzerschnittstelle auf Papier. Bei dieser geringen Detailtreue
spricht man von auch von LoFi (low fidelity) Prototyping (Abbildung 10.2-2).
Abbildung 10.2-2: Vom LoFi-Skizzenprototyp über ein mit Präsentationssoftware gestalteten Entwurf bis zum Softwareprototypen
Man benutzt je nach Ziel unterschiedliche Arten von Prototypen, die sich anhand folgender Kriterien unterscheiden:
Funktionsumfang: Wie viele der geplanten Funktionselemente sind vorhanden?
Funktionstiefe: Wie detailliert sind Funktionselemente?
SEMESTERARBEIT JUREK BREUNINGER
149
USABILITY ENGINEERING
Darstellungstreue: Wie groß ist die Ähnlichkeit zwischen dem Aussehen des
Prototyps und dem des Endprodukts?
Interaktivität: Wie viel Benutzerinteraktion ist möglich?
Datengehalt: Werden reale Datensätze, Beispiele oder Platzhalter benutzt?
Technische Reife: Wie stark entspricht die Technologie dem Endprodukt?
Umso mehr dieser Kriterien verfolgt werden und umso feiner ihre Ausarbeitung ist,
desto aufwändiger und zeitintensiver wird die Prototypenerstellung. Deshalb muss
meist ein Kompromiss zwischen Detailliertheit und Eignung für den geplanten Zweck
gemacht werden. Die wichtigsten Verwendungszwecke für UI-Prototypen sind:
Anforderungen klären
Hierfür werden sogenannte Mock-ups erstellt, damit konkrete Fälle mit Benutzern durchgespielt und diskutiert werden können. Sie besitzen einen großen
Funktionsumfang (meist auf mehrere Prototypen verteilt) und realistische Daten.
Benutzerschnittstelle konzipieren
Dafür erstellte Prototypen habe mittlere Darstellungstreue. Der Funktionsumfang beschränkt sich auf bestimmte Gebiete, ist dort aber detailliert ausgeführt. Manchmal sind sie auch eingeschränkt interaktiv.
Benutzerschnittstelle optimieren
Die Prototypen haben eine hohe Darstellungstreue, die relevanten Funktionen
sind interaktiv. Dadurch sind meist reale Daten notwendig. Die Optimierung
kann erst stattfinden, wenn eine hohe technische Reife erreicht ist.
Für gutes Aussehen sorgen
Hierfür ist nur eine sehr hohe Darstellungstreue Voraussetzung.
User Interface spezifizieren
In der Spezifikation sind vor allem mittlerer bis hoher Funktionsumfang und
mittlere bis hohe Interaktivität und Funktionstiefe erforderlich.
UI Prototyping sollte immer mit Paper Prototyping beginnen. Dies ist einfach, billig,
für alle verständlich und vermeidet die Probleme detaillierterer Prototypen: Diese
SEMESTERARBEIT JUREK BREUNINGER
150
USABILITY ENGINEERING
suggerieren Projektleitern oder Auftraggebern oft einen Entwicklungsfortschritt, der
noch nicht erreicht ist. Papierprototypen signalisieren durch ihre Skizzenhaftigkeit,
das noch vieles offen ist und diskutiert werden darf. Und vor allem kann man Papierprototypen problemlos wegwerfen, während hoch entwickelte Softwareprototypen oft
dazu verführen, sie für den Produktiveinsatz weiterzuentwickeln, was auf jeden Fall
vermieden werden sollte.
Richter 2007, S. 15, S. 36–43
Dahm 2006, S. 313f.
10.2.5
Use Cases
Anwendungsfälle (Use Cases) sind eine bekannte und verbreitete Technik aus dem
Software Engineering. Obwohl sie keine Usability-Methode im engeren Sinn sind und
auch dort eingesetzt werden, wo man sich keine besonderen Gedanken über benutzerorientierten Entwurf macht, sind sie ein wichtiges Element für das Usability Engineering. Anwendungsfälle beschreiben das Verhalten eines Systems aus Benutzersicht. Die Beschreibung kann als Text erfolgen, was den Vorteil hat, dass sie im Lauf
des Entwicklungsprozesses für alle verständlich bleibt. Es hat sich aber die graphische Notation nach den Regeln der Modellierungssprache UML durchgesetzt. Eine
Funktionalität wird durch sogenannte Akteure dargestellt, die mit dem System interagieren. Akteure verkörpern Benutzer oder andere Systeme. Die Anwendungsfälle
beschreiben die verschiedenen Funktionalitäten, die der Akteur nutzt, und sind dementsprechend mit den Akteuren verknüpft. Die Anwendungsfälle können strukturiert
werden. Innerhalb eines oder mehrerer Anwendungsfälle benutzte Funktionalitäten
werden mittels „include“-Beziehungen als weitere Anwendungsfälle angebunden.
Seltene spezielle oder außergewöhnliche Funktionalitäten werden mittels „extend“Beziehungen verknüpft. Die Gesamtheit der Akteure und Anwendungsfälle eines
Systems werden als Use-Case-Modell (Abbildung 10.2-3) bezeichnet. Es wird nur
das Verhalten beschrieben ohne auf die Realisierung dieses Verhaltens einzugehen
(Black Box). Dementsprechend sollten die Anwendungsfälle unabhängig von einer
Benutzeroberflächenstruktur oder speziellen technischen Lösung sein. Man spricht
dann von Essential Use Cases.
SEMESTERARBEIT JUREK BREUNINGER
151
USABILITY ENGINEERING
Abbildung 10.2-3: Ein einfaches UML-Anwendungsfalldiagramm
Use-Case-Modelle dienen neben der Modellierung auch häufig der Spezifikation von
Systemen.
Richter 2007, S. 14, S. 43–48
10.2.6
Guidelines und Styleguides
Guidelines und Styleguides wurden im entsprechenden Kapitel bereits einmal angesprochen. Da sie zu den wichtigsten Methoden des Usability Engineering gehören,
werden sie hier trotzdem noch einmal aufgeführt. Während Guidelines sich mehr mit
dem Verhalten von Bedienoberflächen beschäftigen, behandeln Styleguides zusätzlich auch das Aussehen (Look&Feel) detailliert.
Vor allem das Erstellen eigener Richtlinien ist ein zentraler Punkt des Usability Engineering. Dabei können und werden häufig bestehende Guidelines und Empfehlungen
übernommen und eingearbeitet. Manche Anforderungen erfordern aber auch projektspezifische Richtlinien. Die Quellen für Guidelines können die bekannten Normen
und Gesetze, die bereits besprochenen Regelsammlungen, hersteller- und plattformspezifische oder unternehmensweite Styleguides sein. Mit sogenannten User Interface Patterns wird versucht, häufig auftretende Designprobleme zu standardisieren
und in generischen Mustern zu beschreiben. Das Einsetzen etablierter Guidelines
und Styleguides ist noch keine Garantie für benutzergerechte Lösungen. Die Auswahl oder Erstellung der richtigen Richtlinien hängt auch von den Benutzergruppen
und dem Nutzungskontext ab. Beim Erstellen von Styleguides, die möglicherweise
SEMESTERARBEIT JUREK BREUNINGER
152
USABILITY ENGINEERING
projektübergreifend weiterverwendet werden sollen, muss darauf geachtet werden,
dass sie nicht zu stark auf das aktuelle Projekt abgestimmt sind. Andernfalls können
sie zu kontraproduktiven, aber erzwungenen Lösungen in anderen Projekten führen.
Neben dem Ziel, die Konsistenz der Software zu gewährleisten, dienen Styleguides
auch als wichtiges Kommunikationsmittel im Entwicklungsprozess. Wenn bestimmte
Muster und Konzepte festgelegte Namen haben, kann mangelnde Eignung für geplante Funktionen früh erkannt werden. Verwechslungen und doppelte Entwicklungen werden vermieden.
Richter 2007, S. 16, S. 48–54
10.2.7
Usability Testing
Die wichtigste Methode des Usability Engineering ist das Usability Testing. Hiermit
lassen sich zumeist viele der schlechten Designentscheidungen feststellen, die durch
fehlendes oder mangelhaftes Usability Engineering entstehen. Das Testen findet
meist in Usability Labs statt. Diese Tests sind formalisiert, um Vergleichbarkeit und
Reproduzierbarkeit zu gewährleisten. Es wird zwischen formativer Evaluation und
summativer Evaluation unterschieden. Formative Evaluation soll eine Verbesserung
des bestehenden Systems bewirken. Summative Evaluation entspricht einer zusammenfassenden Endabnahme im Sinne der Qualitätssicherung.
Für die Tests wird eine Sammlung von Aufgaben erstellt, meist vom Testleiter und
vom Auftraggeber. Sie heißen Standardaufgaben, da sie für alle Testpersonen gleich
sind. Die Qualität und Relevanz dieser Aufgaben ist sehr wichtig für die Aussagekraft
der Tests. Meist dienen existierende Szenarien als Grundlage. Die Aufgaben sollten
folgende Eigenschaften haben:
Aus Benutzersicht realistisch
Mittlerer Schwierigkeitsgrad; lösbar, aber nicht trivial
Ziel aus Benutzersicht formuliert, keine an die Technik angepasste Anleitung
(z. B. Erwähnung eines Interaktionselements)
Allgemeine Beschreibung, nutzt nicht die Nomenklatur der Software (z. B. Erwähnung einer Menüpunktes)
SEMESTERARBEIT JUREK BREUNINGER
153
USABILITY ENGINEERING
Das zu prüfendende System oder der Prototyp, an dem getestet wird, muss in den
gewünschten Systemzustand gebracht werden. Die Testpersonen sollten unbedingt
aus der geplanten Zielgruppe stammen. Meist sind kleine Testserien mit fünf bis sieben Personen ausreichend um qualitative Aussagen zu treffen. Bei Systemen mit
hohem Anspruch an die Benutzbarkeit sind bis zu 15 Testpersonen sinnvoll; bei kritischen Systemen, Abschlusstests der Qualitätssicherung und um quantitative Aussagen zu treffen mindestens 15 Testpersonen in Abhängigkeit vom Systemumfang.
Bei Expertensystemen mit hoher Komplexität ist oft eine kurze Einführung nötig und
sinnvoll. Die Testperson wird meist gebeten, ihre Gedanken bei der Arbeit laut auszusprechen. Sie kann den Test jederzeit unterbrechen oder zur nächsten Aufgabe
springen. Die Beobachter (Auftraggeber, Entwickler, Usability-Experte) sollten den
Testverlauf möglichst nicht beeinflussen. Sie sitzen meist in einem separaten Raum
und beobachten und protokollieren den Test und problematische Situationen mittels
Videoaufnahme (Abbildung 10.2-4). Eine Testphase sollte nicht über eine Stunde
dauern.
Abbildung 10.2-4: Ein Usability Lab ist meist in zwei Räume geteilt: Einen Benutzerund einen Observationsraum, der durch eine einseitig verspiegelte Scheibe abgetrennt ist.
In einer Nachbesprechung werden entsprechende Stellen im Video mit der Testperson analysiert und Verbesserungsvorschläge im Testbericht dokumentiert. Oft bringen Kommentare der Testperson in der Nachbesprechung wertvolle Hinweise. Der
Testbericht
fasst gute wie schlechte Ergebnisse zusammen,
illustriert Schwachstellen mit Screenshots,
teilt ihnen einen Schweregrad zu,
SEMESTERARBEIT JUREK BREUNINGER
154
USABILITY ENGINEERING
unterscheidet beobachtete Probleme von persönlichen Meinungen und Vorschlägen,
enthält die Standardaufgaben und Beschreibung der Testperson.
Der formale Usability-Test hat einige Vorteile:
Schwachstellen unter Laborbedingungen eindeutig nachweisbar
Objektivität (unabhängig von Rahmenbedingungen), Reliabilität (wiederholte
Durchführung führt zu gleichen Ergebnissen), Validität (Aussagekraft über die
Benutzerfreundlichkeit)
Gute Beobachtungssituation
Kein Eingreifen der Beobachter oder Entwickler
Kapitale Schwierigkeiten schnell ersichtlich
Doch es ergeben sich auch Nachteile:
Aufwändig, teuer
Erst relativ spät im Entwicklungsprozess möglich, da Prototypen hoch entwickelt sein müssen
Formale Testberichte fließen schwer wieder in den Verbesserungsprozess ein,
da neue Analyse- und Designphase nötig.
Deshalb kommt als Alternative und Ergänzung häufig der Usability Walktrough zum
Einsatz. Hierbei arbeitet eine Testperson nicht isoliert unter kontrollierten Bedingungen, sondern unter Anleitung des Testleiters (Abbildung 10.2-5). Es werden auch
realistische Aufgaben gestellt, aber der Testleiter kann jederzeit eingreifen und Fragen stellen oder Abläufe mit dem Benutzer durchgehen. Das hat den Vorteil, dass
man auch an frühen Prototypen bereits Aussagen über die Benutzerfreundlichkeit
machen kann, ohne dass das System lauffähig ist. Allerdings sind viele der Vorteile
eines Tests unter Laborbedingungen nicht mehr gegeben: Die Ergebnisse sind stark
vom Testleiter und der Umgebung abhängig.
SEMESTERARBEIT JUREK BREUNINGER
155
USABILITY ENGINEERING
Abbildung 10.2-5: Beim Usability Walktrough bewältigt eine Testperson realistische
Aufgaben mit der Software unter Anleitung eines Testleiters.
Ein mobiles Usability Lab ist ein normaler Arbeitsplatz, an dem eine Testperson ohne
Anleitung und Eingriff eines Testleiters Aufgaben bearbeiten kann und dabei von einer Webcam gefilmt wird während der Bildschirminhalt von einer Software aufgenommen wird. Dies ermöglicht relativ formale Tests mit geringeren Kosten als mit
einem normalen Usability Lab. Es eignet sich vor allem auch dann, wenn in einer
möglichst realistischen Umgebung wie in Fabriken, an öffentlichen Plätzen oder im
Freien getestet werden soll. Man spricht von Usability-Feldtests.
Cooper 2007, S. 70f.
Dahm 2006, S. 318–321
Richter 2007, S. 16, S. 54–61
Shneiderman 2005, S. 117f., S. 144–150
10.2.8
Fragebögen
Um von einem großen Personenkreis Informationen zur Benutzerfreundlichkeit einer
Software zu erhalten, sind Fragebögen eine wichtige Methode des Usability Engineering. Die Aussagekraft der Ergebnisse einer Untersuchung mit Fragebögen hängt
von der Gestaltung des Fragebogens, der Anzahl der Befragten und der Durchführung der Befragung ab. Fragebögen werden in zwei verschiedenen Phasen des EntSEMESTERARBEIT JUREK BREUNINGER
156
USABILITY ENGINEERING
wicklungsprozesses eingesetzt. Sie dienen in der Analysephase zur Anforderungsfindung und zum Erfassen der Benutzergruppen und des Arbeitskontextes. Außerdem können sie während der Testphase zur Evaluation der Benutzerfreundlichkeit
des Systems verwendet werden. Ihr größter Vorteil liegt in der deutlich größeren Anzahl der Personen, die erreicht werden können. Sie unterscheiden sich auch dadurch
von vergleichbaren Methoden wie Textual Inquiry oder Usability Testing, dass sie
meist auf quantitative Informationen abzielen und nicht auf qualitative. Dementsprechend sollte beim Entwurf der Fragebögen auch darauf geachtet werden, dass die
Fragestellungen quantitative Aussagen überhaupt zulassen. Auch qualitative Analysen sind mit Fragebögen möglich, aber sie sind in der Auswertung ungleich aufwendiger. Hier kommen statt geschlossener Fragen, die z. B. eine Bewertung auf einer
vorgegebenen Skala fordern, offene Fragen zur Anwendung, die dem Benutzer eine
freie Formulierung der Antwort ermöglichen. Solche Fragebögen kommen vor allem
bei der Anforderungsanalyse zum Einsatz. Sie sind allerdings meist nur bei der Identifikation bestehender Probleme hilfreich. Die Fragen nach gewünschter Funktionalität oder Notwendigkeit bestimmter Funktionen führen oft zu irreführenden oder wertlosen Antworten, da sich die Benutzer die neue Lösung nicht genau vorstellen oder
die Probleme, die daraus entstehen, nicht abschätzen können.
Zur Evaluation der Benutzerfreundlichkeit von Softwaresystemen existieren verbreitete Standardfragebögen. Diese garantieren eine gewisse Vergleichbarkeit der Umfrageergebnisse bei verschiedenen Systemen.
Bei der Interpretation der Ergebnisse von Fragebögen sollten folgende Effekte in Betracht gezogen werden:
Beurteiler differenzieren nicht zwischen den einzelnen Kriterien, sondern lassen sich vom Gesamteindruck leiten (Halo-Effekt).
Beurteiler bewerten systematisch zu hoch oder zu niedrig (Milde-Härtefehler).
Die Ursachen dafür sind vielfältig (z. B. Vorlieben).
Beurteiler tendieren dazu alle Kriterien im mittleren Bereich der Skala einzuordnen (zentrale Tendenz). Dies ist oft ein Zeichen für mangelnde Kenntnis
des Objekts.
Dahm 2006, S. 321f.
Richter 2007, S. 16f., S. 61–68
SEMESTERARBEIT JUREK BREUNINGER
157
USABILITY ENGINEERING
10.3 Planung
Usability Engineering wird heutzutage in den meisten Unternehmen noch zu zögerlich oder gar nicht eingesetzt. Nur langsam setzt sich die Einsicht durch, dass die
höhere Qualität der Produkte die zusätzlichen Entwicklungskosten leicht amortisiert.
Gerade deswegen ist es wichtig, dass bei der Planung von Usability Engineering im
Entwicklungsprozess auf Effektivität und Wirtschaftlichkeit geachtet wird.
Bei der Planung sollte man folgende Punkte bedenken:
Ziele definieren und erreichen:
Statt einfach „hohe Usability“ zu fordern, sollten abschätzbare, besser noch
messbare Ziele definiert werden. Die Usability-Methoden und ihr Aufwand
werden dann in Abhängigkeit gewählt. Mögliche Ziele sind:
o Arbeitsgeschwindigkeit maximieren
o Anzahl der Bearbeitungsschritte minimieren
o Ausbildungsaufwand minimieren
o Qualität des Arbeitsresultats steigern
o Fehler der Benutzer minimieren
o Zufriedenheit der Benutzer erhöhen
Risiken kontrollieren:
Risiken in der Produktentwicklung müssen identifiziert und angegangen werden. Man unterscheidet zwischen Projektrisiken, die den erfolgreichen Abschluss des Projekts gefährden oder stark verzögern – z. B. zu spätes Erkennen von Anforderungen – und Produktrisiken, die den erfolgreichen Einsatz
des fertigen Produktes gefährden. Das Finden und Beseitigen der Produktrisiken ist die primäre Aufgabe des Usability Engineering.
Rahmenbedingungen beachten
Der effektive Einsatz von Usabiltiy-Methoden ist nur unter bestimmten Rahmenbedingungen möglich. So ist vor allem in der Analysephase und in der
Testphase ein direkter Kontakt zum Kunden und vor allem zum Endnutzer von
zentraler Bedeutung. Darüber hinaus müssen z. B. Fachwissen und spezielle
SEMESTERARBEIT JUREK BREUNINGER
158
USABILITY ENGINEERING
Eigenschaften der Benutzer, Ort der Entwicklung, Einsatzort des Produktes,
verpflichtenden Firmenrichtlinien und Vorgehensmodelle oder spezielle Hardware beachtet werden.
Richter 2007, S. 69–77
10.4 Integration in bekannte Vorgehensmodelle
Aufgrund der Komplexität von Softwaresystemen lassen sich in der SoftwareEntwicklung ab einer gewissen Projektgröße nur noch mit definierten Vorgehensweisen qualitativ gute und rentable Produkte erstellen. Diese Vorgehensmodelle sind in
Unternehmen weit verbreitet und oft verpflichtend, aber auch weiterhin Gegenstand
aktueller Forschung. Sie sollen im Rahmen dieser Arbeit nicht eingehend behandelt
werden, aber anhand der wichtigsten und bekanntesten soll gezeigt werden, wie sich
Usability-Engineering-Maßnahmen in die älteren Vorgehensmodelle integrieren lassen beziehungsweise wie moderne Ansätze das Usability Engineering bereits gezielt
forcieren.
10.4.1
Wasserfallmodell
Das Wasserfallmodell (Abbildung 10.4-1) ist ein altes Vorgehensmodell der SoftwareEntwicklung und gilt ab Projekten mittlerer Komplexität und mittleren Umfangs als
überholt. Es ist aufgrund seiner einfachen Struktur aber immer noch eine häufig praktizierte Abfolge von Tätigkeiten im Entwicklungsprozess.
Die bekannten Usability-Engineering-Techniken lassen sich einfach in den entsprechenden Projektphasen anwenden:
Contextual Inquiry und Fragebögen in der Analysephase
Use Cases, Personas, Szenarien, Storyboards, UI-Prototypen, Styleguides in
der Designphase
Guidelines und Styleguides in der Implementierungsphase
Usability Testing und Fragebögen in der Testphase
Trotzdem ist das Wasserfallmodell nur sehr bedingt für die Entwicklung ergonomischer Software geeignet, da es auch bei der Anwendung von Usability-EngineeringMethoden unter seiner größten Schwäche leidet: Iterationen und Wechselwirkungen
SEMESTERARBEIT JUREK BREUNINGER
159
USABILITY ENGINEERING
bestehen nur zwischen benachbarten Phasen. So fließen zum Beispiel Erkenntnisse
des Usability Testing nicht mehr in die abgeschlossenen vorangegangenen Phasen
ein.
Abbildung 10.4-1: Das Wasserfallmodell, ein Vorgehensmodell für die SoftwareEntwickung
Dahm 2006, S. 311f.
Richter 2007, S. 17
10.4.2
Spiralmodell
Das Spiralmodell ist ein stark iteratives Software-Entwicklungsmodell (Abbildung
10.4-2). Es ist aus dem Wasserfallmodell entstanden, versucht aber, dessen Schwäche durch sehr viele Rückkopplungsmöglichkeiten zu beheben. Während eines Projektes kommt es wieder und wieder zu dem gezeigten Ablauf aus Analyse, Design,
Implementierung und Test. Dies gilt nicht nur für das Gesamtprojekt, sondern auch
für die Teilbereiche, die so ebenfalls iterativ verbessert werden.
Das Spiralmodell erzwingt an sich noch keinen software-ergonomisch günstigen
Entwurf, aber wie beim Wasserfallmodell lassen sich die Usability-EngineeringTechniken einfach in den passenden Phasen anwenden. Durch die häufige Analyse,
in der auch immer eine Anforderungsfindung und -überprüfung stattfinden sollte, und
die frühen und häufigen Tests kann unter Einbeziehung des Anwenders ein sehr benutzergerechtes Design gewährleistet werden.
SEMESTERARBEIT JUREK BREUNINGER
160
USABILITY ENGINEERING
Abbildung 10.4-2: Das Spiralmodell zur Software-Entwicklung nach Boehm
Dahm 2006, S. 313
10.4.3
V-Modell
Das V-Modell und seine Entwicklungsstufen V-Modell 97 und V-Modell XT (2005)
sind die wichtigsten und etablierten Software-Entwicklungs-Vorgehensmodelle in
großen Unternehmen und bei komplexen Softwareprojekten. Seit dem V-Modell XT
wurden sich auch verstärkt Gedanken über die Einbindung des Auftraggebers in den
Entwicklungsprozess und die Integration von definierten Prozessen zur benutzergerechten Gestaltung gemacht. Dies ermöglicht es, die ergonomischen Anforderungen
der Anwender im Entwicklungsprozess zu bestimmen und in Spezifikationen einfließen zu lassen (Abbildung 10.4-3). Allerdings erzwingt auch das V-Modell keinen
software-ergonomischen Entwurf. Aber auch hier hilft die testorientierte Struktur, die
zum Beispiel ermöglicht, dass Rückmeldungen aus Usability-Tests Auswirkungen auf
Anforderungs- und Designphase haben.
SEMESTERARBEIT JUREK BREUNINGER
161
USABILITY ENGINEERING
Abbildung 10.4-3: Das V-Modell ist ein verbreitetes Vorgehensmodell in der Software-Entwicklung. Die Graphik verdeutlicht die Struktur (aber nicht zwingend die zeitliche Abfolge) des Modells.
V-Modell XT 2006, S. 1-35, S. 3-129, S. 4-17, S. 6-128–6-131
10.4.4
Moderne Vorgehensmodelle mit UCD
Als Beispiel für User Centered Design (UCD), also Vorgehensmodelle, die die Einbeziehung des Anwenders vorsehen und erzwingen, seien hier noch kurz das eXtreme
Programming (XP) und Scrum erwähnt. Beides sind relativ junge Vorgehensweisen
des Softwareentwurfs, die noch nicht weit verbreitet sind. Es gibt auch durchaus Kritik und Zweifel an ihrer effektiven Umsetzbarkeit.
10.4.4.1
XP
XP ist eine sogenannte agile Software-Entwicklungsmethode, die das Lösen der eigentlichen Programmieraufgabe über formale Prozesse und Dokumentation stellt.
Sie entstand als Antwort auf die häufigen Anforderungsänderungen bei Softwareprojekten, die schnelles Reagieren nötig machen. Dies wird hauptsächlich durch kleine
Schritte und häufige Rückkopplung erreicht. Die bei XP beschriebene Anforderungsfindung wird gemeinsam mit dem Kunden in sogenannten User Stories dokumentiert.
Dies sind im Prinzip Szenarien und Use Cases. Der Kunde ist am Entwicklungsort,
jederzeit ansprechbar und dient als „laufende Spezifikation“. XP erzwingt testorientierte Entwicklung (Test Driven Development), indem die Testfälle geschrieben werden, bevor der sie erfüllende Code geschrieben wird. Dies lässt sich zu einem gewissen Grad auch mit Usabiltiy Tests durchführen. Es werden häufig stabile Fassungen
der Software veröffentlicht, damit anhand dieser ständig überprüft werden kann, ob
SEMESTERARBEIT JUREK BREUNINGER
162
USABILITY ENGINEERING
die Entwicklung noch in die richtige Richtung geht. Darüber hinaus führt XP einige
weitere revolutionäre Methoden wie Programmieren in Zweierteams ein, die allerdings die Akzeptanz erschweren.
Jeffries 2001
10.4.4.2
Scrum
Auch Scrum ist eine agile Software-Entwicklungsmethode, die sich von älteren Vorgehensweisen vor allem durch häufigere Iterationen, Betonung guter Kommunikation
und kürzere Prozessphasen unterscheidet. Scrum nennt die Prozessphasen Sprints;
sie dauern zwei bis vier Wochen. Auch bei Scrum ist vorgesehen, dass sich der
Kunde, genannt Product Owner, vor Ort befindet und in den Entwicklungsprozess
eingebunden ist. Bei Entwicklungen, die nicht als Kundenauftrag entstehen, übernimmt diese Rolle ein Mitarbeiter. Er ist dann nur dafür zuständig, dass das Produkt
den benötigten Funktionsumfang hat und priorisiert die benötigten Funktionen in einer Liste, dem Product Backlog. Das Scrum Team besteht typischerweise aus fünf
bis sechs Leuten, die für die eigentliche Entwicklung verantwortlich sind. Das interdisziplinäre Team besteht nicht nur aus Programmierern, sondern auch aus Benutzerschnittstellendesignern und Mitarbeitern der Qualitätssicherung. Weiterhin nutzt
Scrum sehr einfache Prozesse mit klar definierten Regeln, welche erreichen, dass
die Kommunikation häufig, aber nicht zu zeitintensiv ist und regelmäßige Rückmeldung über die erreichten Meilensteine stattfindet. Es vermeidet aber extreme Maßnahmen, wie den vollständigen Verzicht auf Dokumentation (wie XP).
Schwaber 2002, S.7–10, S. 32–37
10.5 Strategische Usability
Damit Usability Engineering nicht als ungeliebte und teure Zusatzaufgabe für die
Entwickler gesehen wird, ist es notwendig, dass benutzerorientiertes Vorgehen unternehmensweit etabliert und akzeptiert ist. Dazu müssen alle Maßnahmen in die
bestehenden Geschäftsprozess integriert sein und der Wert dieser neuen Informationsquellen gut kommuniziert werden. Usability Engineering ändert die klassische
Sicht auf die Entwickler, die isoliert Daten sammeln, Benutzeroberflächen entwerfen
und die Benutzerfreundlichkeit testen. Es bringt die Entwickler mit den Benutzern
SEMESTERARBEIT JUREK BREUNINGER
163
USABILITY ENGINEERING
zusammen, was für die Entwicklung von ergonomischer und auf die Bedürfnisse abgestimmter Software unverzichtbar ist.
Usability Engineering spielt sich an der Grenze zwischen zwei Unternehmensbereichen ab, die allgemein als „Business“ und „Technik“ bezeichnet werden können. Es
ist wichtig, dass der zu etablierende Entwicklungsprozess den Informationsverkehr
zwischen diesen beiden Bereichen zu den richtigen Zeitpunkten ermöglicht. Um den
benutzerorientierten Aktivitäten das notwendige Gewicht zu verleihen, sollten entsprechende Rollen und Lieferergebnisse in den Prozess aufgenommen und Ressourcen zugeteilt werden. Wichtiger als die theoretische Korrektheit des Prozesses
ist die Akzeptanz. Folgende drei Punkte sind essenziell für die Beschaffenheit des
Prozesses:
Requirements Engineering:
Bei der Anforderungsanalyse und Spezifikation müssen die UsabilityEngineering-Maßnahmen ansetzen. Hier wird die Basis einer guten Lösung
geschaffen. Später im Prozess kann nur noch korrigiert werden.
Iteratives Vorgehen:
Anforderungen und Spezifikationen müssen wiederholt überprüft und bei Bedarf angepasst werden. Dies sollte Voraussetzung für eine formale Freigabe
sein.
Gemeinsame konkrete Sprache:
Benutzer, Business-Einheiten, Usability-Experten und Entwickler müssen ein
gemeinsames Verständnis der Materie haben. Statt abstrakten Beschreibungen sind hierfür die erwähnten Methoden wie Szenarien, Storyboards und
Prototypen hilfreich.
Ein effektives Mittel, konsistente Kommunikation und konsistente Softwareentwürfe
herbeizuführen, sind – wie bereits erwähnt – unternehmensweite Guidelines und
Styleguides. Besonders lohnend sind sie, wenn mehrere sich ähnelnde Produkte
entwickelt werden. Bei stark unterschiedlichen Produkten kann der Aufwand der nötigen Änderungen oder der erneuten Ausarbeitung allerdings zu hoch sein. Gute
Styleguides werden unternehmensweit als Hilfsmittel und nicht als Einschränkung
empfunden.
SEMESTERARBEIT JUREK BREUNINGER
164
USABILITY ENGINEERING
Vor allem für größere Unternehmen mit mehreren Projekten kann sich eine Institutionalisierung von Usability-Wissen lohnen. Dies bedeutet, statt auf externe Dienstleister zu vertrauen, ein eigenes Usability Team aufzubauen. Dies führt dazu, dass sich
die benutzerorientierten Prozesse und Methoden langfristig besser etablieren und
das Bewusstsein für die Thematik im Unternehmen gestärkt wird. Außerdem hat ein
internes Team bereits mehr domänenspezifisches Wissen und wirkt von Anfang an
am Entwicklungsprozess mit. Mögliche Nachteile sind bei internen UsabilitySpezialisten fehlende Objektivität und die Gefahr, dass die Kritik interner Kollegen
negativer aufgenommen wird als die beauftragter externer Dienstleister.
Richter 2007, S. 78–87
SEMESTERARBEIT JUREK BREUNINGER
165
LITERATURVERZEICHNIS
11 Literaturverzeichnis
Autoren des V-Modell XT
V-Modell XT, 2006
http://ftp.tu-clausthal.de/pub/institute/informatik/vmodell-xt/Releases/1.3/V-Modell-XT-Gesamt.pdf
Bederson Ben, Meyer Jon Implementing a Zooming User Interface: Experience
Building Pad++; Software: Practice and Experience,
1998
http://www.cs.umd.edu/hcil/pad++/papers/spe-98padimplementation/spe-98-padimplementation.pdf
Berry, R. E.
Common User Access – A consistent and usable human-computer interface for the SAA environments,
IBM Systems Journal, Volume 27, Issue 3 (1988), S.
281-300
Bubb, Heiner
Produktergonomieskript
Lehrstuhl für Ergonomie der TU München 2006,
http://www.lfe.mw.tum.de/lehre/lehrveranstaltungen/Pr
oduktergonomie/Produktergoskripten.html
Cooper, Alan; Reimann,
About Face 3, The Essentials of Interaction Design;
Robert; Cronin, David
Wiley 2007
Dahm, Markus
Grundlagen der Mensch-Computer-Interaktion, Pearson Studium 2006
Herczeg, Michael
Software-Ergonomie,
Grundlagen
der
Mensch-
Computer-Kommunikation, Oldenbourg 2005
Jeffries, Ron
What ist Extreme Programming?
http://www.xprogramming.com/xpmag/whatisxp.htm
2001
Meier, Helmut
Deutsche Sprachstatistik, Georg Olms Verlagsbuchhandlung, Hildesheim 1967
SEMESTERARBEIT JUREK BREUNINGER
166
LITERATURVERZEICHNIS
Pinheiro da Silva, Paulo;
UMLi: The Unified Modeling Language for Interactive
Paton, Norman W.
Applications; IEEE Software, Vol.20 No. 4, July/August
2003, S. 62–69
Richter, Michael;
Usability Engineering kompakt, Benutzbare Software
Flückiger, Markus
gezielt entwickeln, Spektrum 2007
Schenk, Joachim; Rigoll
Mensch-Maschine-Kommunikation 1, Manuskript zur
Gerhard
Vorlesung;
Lehrstuhl
für
Mensch-Maschine-
Kommunikation, TU München 2007
Schwaber, Ken; Beedle,
Agile Software Development with Srum, Pearson
Mike
Prentice Hall 2002
Shneiderman, Ben; Plai-
Designing the User Interface, Strategies for Effective
sant, Catherine
Human-Computer
Interaction,
Pearson
Addison-
Wesley 2005
Standish Group
Chaos Report, 1994
http://www.standishgroup.com/chaos/
Tractinsky, Noam et al.
What is beautiful is usable; Interacting with Computers
13(2), S. 127–145, Elsevier 2000
http://www.ise.bgu.ac.il/faculty/noam/papers/00_nt_as
k_di_iwc.pdf
SEMESTERARBEIT JUREK BREUNINGER
167
ABBILDUNGSVERZEICHNIS
12 Abbildungsverzeichnis
Alle Abbildungen zuletzt heruntergeladen am 25.05.2009
Abbildung 2.1-1:
Abbildung 4.4-1:
Abbildung 4.4-2:
Abbildung 4.4-3:
Abbildung 4.4-4:
Abbildung 5.1-1:
Abbildung 5.1-2:
Abbildung 5.1-3:
Abbildung 5.1-4:
Abbildung 5.1-5:
Abbildung 5.1-6:
Abbildung 5.1-7:
Abbildung 5.1-8:
Abbildung 5.1-9:
Abbildung 5.1-10:
Abbildung 5.1-11:
Abbildung 5.1-12:
Abbildung 5.1-13:
Abbildung 5.1-14:
Abbildung 5.1-15:
Abbildung 5.1-16:
Abbildung 5.1-17:
Abbildung 5.1-18:
Abbildung 5.1-19:
Abbildung 5.1-20:
Abbildung 5.1-21:
Abbildung 5.1-22:
Abbildung 5.1-23:
http://upload.wikimedia.org/wikipedia/commons/3/35/
Computer_Workstation_Variables.jpg
http://alenvers.files.wordpress.com/2008/09/wordstar.gif
selbst erstellt
selbst erstellt
selbst erstellt
http://upload.wikimedia.org/wikipedia/commons/8/87/
QWERTY_1878.png
http://upload.wikimedia.org/wikipedia/commons/3/3c/
Cherry_keyboard_105_keys.jpg
http://upload.wikimedia.org/wikipedia/commons/2/25/
KB_United_States_Dvorak.svg
Meier 1967, S. 343
http://www.neolayout.org/grafik/tastatur3d/hauptfeld/tastatur_neo_Ebene1.png
selbst erstellt
selbst erstellt
http://upload.wikimedia.org/wikipedia/en/9/97/
Keyboard_Construction.JPG
http://www.cherry.de/deutsch/schalter_steuerungen/bilder/
tastenmodule_mx.jpg
http://www.pacificergo.com/catalog/images/MSN-4000bl.jpg
http://www.typematrix.com/images/bepo/
2030usb_us_qwerty_703x290.png
http://www.kinesis-ergo.com/images/kb_advpro_met720x471.jpg
http://upload.wikimedia.org/wikipedia/commons/2/21/
Membrane_keyboard_diagram_FULL_SCALE.png
http://img.directindustry.de/images_di/photo-g/folientastatur363948.jpg
http://img.directindustry.de/images_di/photo-g/industriemetalltastatur-27244.jpg
http://images.wmexperts.com/articleimages/2007/11/
IMG_0126.jpg
http://aleptu.com/wp-content/uploads/2009/03/
laser_keyboard.jpg
http://www.frogpad.com/Images/FPBKUSBRight.jpg
http://www.adapt-it.org.uk/images/cykey2.jpg
http://w.tf/~fool/cs/sts331/twiddler.jpg
http://upload.wikimedia.org/wikipedia/commons/3/34/
Estenotipia.jpg
http://www.pelco.com/products/images/21522.jpg
http://www.nwpump.com/images/Topaz%20lg.jpg
SEMESTERARBEIT JUREK BREUNINGER
168
ABBILDUNGSVERZEICHNIS
Abbildung 5.1-24:
Abbildung 5.2-1:
Abbildung 5.2-2:
Abbildung 5.2-3:
Abbildung 5.2-4:
Abbildung 5.2-5:
Abbildung 5.2-6:
Abbildung 5.2-7:
Abbildung 5.2-8:
Abbildung 5.2-9:
Abbildung 5.2-10:
Abbildung 5.2-11:
Abbildung 5.2-12:
Abbildung 5.2-13:
Abbildung 5.2-14:
Abbildung 5.2-15:
Abbildung 5.2-16:
Abbildung 5.2-17:
Abbildung 5.2-18:
Abbildung 5.3-1:
Abbildung 5.3-2:
Abbildung 5.3-3:
Abbildung 5.3-4:
Abbildung 5.3-5:
Abbildung 5.3-6:
Abbildung 5.4-1:
Abbildung 5.4-2:
Abbildung 5.4-3:
Abbildung 5.4-4:
Abbildung 5.4-5:
Abbildung 5.4-6:
http://img.alibaba.com/photo/104913105/New_Nokia_E75
_buisness_Phone_16GB_Silver_Black_or_Red.jpg
http://www.logitech.com/repository/174/jpg/4527.1.0.jpg
http://upload.wikimedia.org/wikipedia/commons/9/96/
Trackball-Kensington-ExpertMouse5.jpg
http://www.wired.com/images/slideshow/2008/12/
gallery_40_years_mouse/trackpoint.jpg
http://www.hardwarezone.com/img/data/articles/2007/2354/
m1330_touchpad.jpg
http://www.cnet.de/i/cnet/galleries/0709_ipod-nano/ipodnano_01-ig.jpg
http://www.fspilotshop.com/images/x52.jpg
http://z.about.com/d/cars/1/0/0/a/1/10_bmwz4_ctrconsole.jpg
http://www.transair.co.uk/images/saitek/saitek_yoke_pedals.jpg
http://media.arstechnica.com/staff/fatbits.media/n64-controller.jpg
http://www.edmunds.com/media/news/column/carmudgeon/
idrive.wont.fly/04.audi.mmi.500.jpg
http://jamesoff.net/site/wp-content/uploads/2008/02/dsc_4161.jpg
http://upload.wikimedia.org/wikipedia/commons/c/cd/
HypertextEditingSystemConsoleBrownUniv1969.jpg
http://www.oberlehrer.de/wp-content/uploads/2009/03/wacomintuos4.jpg
http://img.areamobile.de/images/handies/LG/KE850/
200612180918LG_KE850_Hand_1.jpg
http://www.lars-inselmann.de/wordpress/wp-content/uploads/
2009/01/microsoft_surface_demo.jpg
Schenk 2007, Abb. 2.8, S. 17
Schenk 2007, Abb. 2.9, S. 19
Schenk 2007, Abb. 2.10, S. 21
http://www.3dsolidcadworks.co.uk/pix/uploaded/Library/
SpaceExplorer.jpg
http://grafika.ia.agh.edu.pl/spaceball.jpg
http://www.vossey.com/gallery2/d/60923-1/novint-falcon.jpg
http://www.5dt.com/products/images/
hw_data_glove_ultra_5_001.jpg
http://www.vrealities.com/cyberg.jpg
http://twenty7studio.ch/BA/wordpress/wpcontent/uploads/2009/03/pry-wiimote.gif
http://upload.wikimedia.org/wikipedia/commons/9/9b/
CRT_color_enhanced.png
http://www.germesonline.com/direct/dbimage/50284903/CRT_Monitor.jpg
http://upload.wikimedia.org/wikipedia/commons/d/d9/
LCD_subpixel_%28en%29.png
http://www.robinmajumdar.com/wp-content/uploads/2009/01/
dell2709_front_view.jpg
http://images.amazon.com/images/P/
B0000CBJ8J.01.PT01._SCLZZZZZZZ_.jpg
http://www.wired.com/images_blogs/photos/uncategorized/
2008/12/31/flexible_display_rollout.jpg
SEMESTERARBEIT JUREK BREUNINGER
169
ABBILDUNGSVERZEICHNIS
Abbildung 5.4-7:
Abbildung 5.4-8:
Abbildung 5.4-9:
Abbildung 5.4-10:
Abbildung 5.4-11:
Abbildung 5.4-12:
Abbildung 5.4-13:
Abbildung 5.4-14:
Abbildung 5.4-15:
Abbildung 5.4-16:
Abbildung 5.4-17:
Abbildung 5.4-18:
Abbildung 5.4-19:
Abbildung 6.1-1:
Abbildung 6.1-2:
Abbildung 6.1-3:
Abbildung 6.2-1:
Abbildung 6.2-2:
Abbildung 6.2-3:
Abbildung 6.2-4:
Abbildung 6.2-5:
Abbildung 6.2-6:
Abbildung 6.2-7:
Abbildung 6.2-8:
Abbildung 6.2-9:
Abbildung 6.2-10:
Abbildung 6.2-11:
Abbildung 6.4-1:
Abbildung 6.4-2:
Abbildung 7.2-1:
Abbildung 7.2-2:
Abbildung 7.2-3:
Abbildung 7.2-4:
Abbildung 7.2-5:
Abbildung 7.2-6:
Abbildung 7.2-7:
Abbildung 7.2-8:
Abbildung 7.2-9:
http://oilandglory.com/uploaded_images/Epaper-Fujitsu742628.jpg
http://www.sanyo.de/produkte_daten/projektoren/bilddb/
SANYO_PLV_Z700_schreag.jpg
http://lndw.tu-berlin.de/lndw08/file.php/745/Cave.jpg
http://www.bmw.ch/ch/de/newvehicles/6series/coupe/2004/
allfacts/_shared/img/ergonomics_hud.jpg
Bubb 2006, Kap. 3-4
http://www.ini.tum.de/initum/images/Initum/images/projekte/
schneid2.jpg
http://blog.flightstory.net/wp-content/uploads/hud-sample.jpg
http://www.sensics.com/images/products/
xsight_goggles_smaller.jpg
http://www.caiuamarreta.net/wp-content/uploads/2008/12/
wrap2_view1.jpg
http://www.gadgettastic.com/wp-content/2008/04/
brither_retinal.jpg
http://www.tweakpc.de/gallery/data/533/
wireless_shutter_brille.jpg
http://www.wienweb.at/pictures/pict58/big/wg58291.jpg
http://www.jiad.org/images/article_images/vol8num1/
appendix1_spatialscreen.JPG
http://www.linux-user.de/ausgabe/2000/00/Papierlos/emacs.gif
http://www.aircraftspruce.com/catalog/graphics/11-00044.jpg
http://iuinfoi101.files.wordpress.com/2009/02/
optimus_maximus3.jpg
selbst erstellt
http://www.alquier.org/TES/images/Oblivion/
inventory-list-vanilla-ps3.jpg
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
http://www.develop3d.com/uploaded_images/Auto02-706008.jpg
http://iphone.macworld.com/images/2007/09/hack3.jpg
http://img.areamobile.de/images/handies/Apple/iPhone/
200706080937iphone-keyboard.jpg
selbst erstellt
http://people.inf.ethz.ch/arbenz/MatlabKurs/matlab.png
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
SEMESTERARBEIT JUREK BREUNINGER
170
ABBILDUNGSVERZEICHNIS
Abbildung 7.2-10:
Abbildung 7.2-11:
Abbildung 7.2-12:
Abbildung 7.2-13:
Abbildung 7.2-14:
Abbildung 7.2-15:
Abbildung 7.2-17:
Abbildung 7.2-18:
Abbildung 7.2-19:
Abbildung 7.2-20:
Abbildung 7.2-21:
Abbildung 7.2-22:
Abbildung 7.2-23:
Abbildung 7.2-24:
Abbildung 7.2-25:
Abbildung 7.2-26:
Abbildung 7.3-1:
Abbildung 7.3-2:
Abbildung 7.3-3:
Abbildung 7.3-4:
Abbildung 7.3-5:
Abbildung 7.4-1:
Abbildung 7.6-1:
Abbildung 7.7-1:
Abbildung 7.12-1:
Abbildung 7.12-2:
Abbildung 7.12-3:
Abbildung 7.13-1:
Abbildung 7.13-2:
Abbildung 7.13-3:
Abbildung 7.13-4:
Abbildung 7.13-5:
Abbildung 7.13-6:
Abbildung 7.13-7:
Abbildung 7.13-8:
Abbildung 9.1-1:
Abbildung 9.1-2:
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
http://i463.photobucket.com/albums/qq352/Katarrh/
Mixereinstellungen.jpg?t=1243988708
selbst erstellt
http://www.easysoft.com/products/data_access/
odbc_odbc_bridge/manual
/images/
mac-osx-oob-client-dsn-dialog-box-target-dsn-tab.gif
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
http://img337.imageshack.us/img337/4873/xmonadef7.png
http://www.vrz.net/Site/collection/images/products/office2007/
ueberblickoutlookgross.jpg
selbst erstellt
selbst erstellt
selbst erstellt
http://gamestudies.org/articleimages/1_Figure_4.jpg
http://circular-application-menu.googlecode.com/svn/trunk/
images/two.png
selbst erstellt
http://www.framfab.ch/
kompetenzen_loesungen_kommunikation.html
http://grafikdesign.files.wordpress.com/2007/08/
black-26blue-icons.jpg
http://www.lbp.ch/_pics/413/KarlKlammer.png
selbst erstellt
selbst erstellt
http://zoomism.com/
http://www.maceinsteiger.de/wp-content/uploads/2009/02/
bild-42.jpg
http://www.cs.umd.edu/class/fall2002/cmsc838s/tichi/fisheye1.gif
http://www.sapdesignguild.org/community/images/
hyp_tree_new.gif
http://www.desktoplinux.com/files/misc/beryl-cube.jpg
http://www.organizeyourdesktopwithbumptop.com/gfx/download/
BumpTop_Screenshot_with_Printer.jpg
http://hcil.cs.umd.edu/trs/2004-13/images/2004-13_img_0.jpg
http://www.beyenetwork.de/blogs/vierkorn/blogpic.gif
http://www.emeraldinsight.com/fig/0680060403008.png
http://www.j-biomed-discovery.com/content/figures/
1747-5333-1-10-5-l.jpg
SEMESTERARBEIT JUREK BREUNINGER
171
ABBILDUNGSVERZEICHNIS
Abbildung 9.1-3:
Abbildung 9.1-4:
Abbildung 9.2-1:
Abbildung 9.2-2:
Abbildung 10.1-1:
Abbildung 10.2-1:
Abbildung 10.2-2:
Abbildung 10.2-3:
Abbildung 10.2-4:
Abbildung 10.2-5:
Abbildung 10.4-1:
Abbildung 10.4-2:
Abbildung 10.4-3:
http://www.ibm.com/developerworks/rational/library/content/
RationalEdge/oct01/t_activityDiagrams_fig4.jpg
selbst erstellt
http://www.qtsoftware.com/images/products/
qt-designer-screenshot-mac
selbst erstellt
selbst erstellt
Richter 2005, S. 33
Richter 2005, S. 37
selbst erstellt
http://www.ergosign.de/de/user-centered-design/
usability-evaluation/lab.jpg
http://www.etnoteam.fi/uploads/images/usability-lab2_600.jpg
http://www.qmethods.com/glossary/qs-testmanagement/
wasserfallmodell.jpg
http://upload.wikimedia.org/wikipedia/commons/5/55/
Spiralmodel_nach_Boehm.png
http://www.qmethods.com/glossary/qs-testmanagement/
v-modell.jpg
SEMESTERARBEIT JUREK BREUNINGER
172
ANHANG: LITERATUREMPFEHLUNG
Anhang: Literaturempfehlung
Markus Dahm
Grundlagen der Mensch-Computer-Interaktion
Pearson Studium, 2006
Gut strukturierter Überblick, sehr nah an dieser Vorlesung, geht nicht allzu sehr in die
Tiefe
Ben Shneiderman, Catherine Plaisant
Designing the User Interface, Fourth Edition
Strategies for Effective Human-Computer Interaction
Pearson Education, 2005
Sehr guter Einstiegspunkt, wenn man sich tiefer in die Materie einarbeiten will, sehr
umfangreiche Literaturangaben, recht ausführlich geschrieben ohne stark auf die
technische Realisierung einzugehen, neben etablierten Konzepten werden auch seltene und ungewöhnliche Lösungen und aktuelle Forschungsgebiete angesprochen,
fokussiert den PC-Bereich
Alan Cooper, Robert Reimann, David Cronin
About Face 3
The Essentials of Interaction Design
Wiley, 2007
Wie der Shneiderman ein Standardwerk in diesem Bereich, gut illustriert, zeigt viele
Vorgehensweisen und Empfehlungen für den Entwicklungsprozess und eine Menge
Beispiele von Realisierungen. Erste Anlaufstelle, wenn man sich weniger für die
Grundlagen interessiert, sondern für unmittelbare Richtlinien in Projekten. Fokussiert
ebenfalls den PC-Bereich, andere Gebiete werden nur gestreift.
Michael Richter, Markus Flückiger
Usability Engineering kompakt
Benutzbare Software gezielt entwickeln
Spektrum, 2007
Sehr gelungene kurze Zusammenfassung aller wichtigen Elemente des Usability Engineering im unternehmerischen Umfeld, konkrete Berichte aus der Praxis
SEMESTERARBEIT JUREK BREUNINGER
173