Ergonomische Konzepte und Interaktionsformen bei softwarebasierten
Transcription
Ergonomische Konzepte und Interaktionsformen bei softwarebasierten
Jurek Breuninger Ergonomische Konzepte und Interaktionsformen bei softwarebasierten Systemen und eine Einführung in Usability Engineering Ergonomic Concepts and Forms of Interaction in Software-Based Systems and an Introduction to Usability Engineering Lehrstuhl für Ergonomie Technische Universität München Theoretische Semesterarbeit Verfasser: Jurek Breuninger Module: Elektronik und Informatik Informationstechnik Betreuer: Prof. Dr. rer. nat. Heiner Bubb Dipl.-Ing. Martin Wohlfarter: Ausgabe am: 01.12.2008 Abgabe am: 01.06.2009 SEMESTERARBEIT JUREK BREUNINGER 2 EIDESSTATTLICHE ERKLÄRUNG Hiermit versichere ich, diese Studienarbeit ohne fremde Hilfe selbständig verfasst und nur die angegebenen Quellen und Hilfsmittel verwendet zu haben. Wörtlich oder dem Sinn nach aus anderen Werken entnommene Stellen sind unter Angabe der Quellen kenntlich gemacht. Garching, den Jurek Breuninger VEREINBARUNG ZUM URHEBERRECHT Hiermit gestatte ich dem Lehrstuhl für Ergonomie, diese Studienarbeit bzw. Teile davon nach eigenem Ermessen an Dritte weiterzugeben, zu veröffentlichen oder anderweitig zu nutzen. Mein persönliches Urheberrecht ist über diese Regelung hinaus nicht beeinträchtigt. Eventuelle Geheimhaltungsvereinbarungen über den Inhalt der Arbeit zwischen mir bzw. dem Lehrstuhl für Ergonomie und Dritten bleiben von dieser Vereinbarung unberührt. Garching, den Jurek Breuninger SEMESTERARBEIT JUREK BREUNINGER 3 EINLEITUNG 1 EINLEITUNG 8 2 NORMEN 9 2.1 Warum Normen? 9 2.2 ISO 9126: Software-Qualität 10 2.3 Die wichtigste Norm zur Mensch-Computer-Interaktion: DIN 9241 10 2.3.1 Aufgabenangemessenheit 11 2.3.2 Selbstbeschreibungsfähigkeit 11 2.3.3 Steuerbarkeit 12 2.3.4 Erwartungskonformität 13 2.3.5 Fehlertoleranz 14 2.3.6 Individualisierbarkeit 14 2.3.7 Lernförderlichkeit 15 2.4 Weitere Normen zur Mensch-Computer-Interaktion 16 2.4.1 VDI 5005 16 2.4.2 DIN EN ISO 14915: Software-Ergonomie für Multimedia-Benutzungsschnittstellen 16 2.4.3 VDI/VDE 3850: Maschinen-Bediensysteme 17 2.4.4 ISO/TS 16701: Gestaltung barrierefreier Software 17 2.4.5 DIN EN ISO 13407: Benutzerorientierte Gestaltung interaktiver Systeme 18 3 GESETZE 19 3.1 Bildschirmarbeitsverordnung (BildscharbV) 19 3.2 Barrierefreie Informationstechnik-Verordnung (BITV) 20 4 EMPFEHLUNGEN UND RICHTLINIEN 21 4.1 Acht goldene Regeln nach Shneiderman 21 4.2 Zehn Usability-Heuristiken nach Nielsen 23 4.3 Sieben Ergänzungen nach Dahm 25 4.4 Guidelines und Styleguides 27 SEMESTERARBEIT JUREK BREUNINGER 4 EINLEITUNG 5 HARDWARE 30 5.1 Tastaturen 30 5.1.1 Belegungen 30 5.1.2 Mechanik 37 5.1.3 Spezielle Tastaturen 40 5.2 Zeigegeräte 49 5.2.1 Maus 49 5.2.2 Trackball 50 5.2.3 Trackpoint 51 5.2.4 Touchpad 51 5.2.5 Joystick 53 5.2.6 Räder und Drehknöpfe 55 5.2.7 Lichtgriffel 56 5.2.8 Grafiktablett 56 5.2.9 Touchscreen 57 5.3 3D-Eingabegeräte 62 5.3.1 Spacemouse 62 5.3.2 Dataglove 63 5.3.3 Gamepads mit Bewegungssensoren 64 5.4 Darstellung 65 5.4.1 CRT 65 5.4.2 LCD 68 5.4.3 OLED 70 5.4.4 E-Paper 71 5.4.5 Beamer 72 5.4.6 Head-Up-Displays 73 5.4.7 Head-Mounted-Displays 76 5.4.8 3D-Darstellung 77 6 INTERAKTIONSFORMEN 80 6.1 Tastaturbedienung 80 6.2 Direkte Manipulation 83 6.2.1 WIMP 85 6.2.2 WYSIWYG 90 6.2.3 Besonderheiten des Touchscreens 91 SEMESTERARBEIT JUREK BREUNINGER 5 EINLEITUNG 6.3 Sprachdialog 93 6.3.1 Spracheingabe 93 6.3.2 Sprachausgabe 96 6.4 Kommandosprache 96 7 GRAPHISCHE BENUTZEROBERFLÄCHEN 99 7.1 Gestaltungsziele 99 7.2 Interaktionselemente 99 7.2.1 Imperative Bedienelemente 100 7.2.2 Selektive Bedienelemente 102 7.2.3 Eingabeelemente 107 7.2.4 Gruppierung 109 7.3 Menüs 114 7.3.1 Kontextmenüs 116 7.3.2 Pie Menues 117 7.4 Dialoge 119 7.5 Formulare 120 7.6 Metaphern 121 7.7 Icons 122 7.8 Erwartungskonformität, Konsistenz und Innovation 122 7.9 Ästhetik und Freude 123 7.10 Sprache 124 7.11 Fehlerbehandlung 124 7.12 Online-Hilfe 126 7.13 Ungewöhnliche Darstellungsformen 128 7.13.1 ZUI 130 7.13.2 Fish-Eye View 130 7.13.3 Hyperbolische Bäume 131 7.13.4 Mehrdimensionale Darstellung 132 SEMESTERARBEIT JUREK BREUNINGER 6 EINLEITUNG 8 EINGEBETTETE COMPUTER 135 8.1 Spezielle Anforderungen 135 8.2 Möglichkeiten 136 9 WERKZEUGE 9.1 Methoden zur Spezifikation 138 9.2 Werkzeuge zum Erstellen von Oberflächen 141 138 10 USABILITY ENGINEERING 144 10.1 Die drei Säulen des Entwurfs nach Shneiderman 144 10.2 Methoden 145 10.2.1 Contextual Inquiry 145 10.2.2 Personas und Szenarien 146 10.2.3 Storyboards 148 10.2.4 UI Prototyping 149 10.2.5 Use Cases 151 10.2.6 Guidelines und Styleguides 152 10.2.7 Usability Testing 153 10.2.8 Fragebögen 156 10.3 Planung 158 10.4 Integration in bekannte Vorgehensmodelle 159 10.4.1 Wasserfallmodell 159 10.4.2 Spiralmodell 160 10.4.3 V-Modell 161 10.4.4 Moderne Vorgehensmodelle mit UCD 162 10.5 Strategische Usability 11 LITERATURVERZEICHNIS 166 12 ABBILDUNGSVERZEICHNIS 168 ANHANG: LITERATUREMPFEHLUNG SEMESTERARBEIT JUREK BREUNINGER 163 173 7 EINLEITUNG 1 Einleitung In der ersten Semesterarbeit „Physiologische, psychologische und systemergonomische Grundlagen der Mensch-Computer-Interaktion“ wurde das Basiswissen behandelt, das nötig ist, um sich mit der Umsetzung, also der Entwicklung von Softwaresystemen nach ergonomischen Kriterien, zu beschäftigen. In dieser Arbeit werden zuerst technische und rechtliche Randbedingungen behandelt, die die Entwicklung beeinflussen. Dazu gehören sowohl Vorgaben des Gesetzgebers als auch die Empfehlungen anderer Softwarehersteller, auf deren Arbeit unter Umständen aufgebaut wird. Es folgt eine kleine Übersicht über die Ein- und Ausgabegeräte, die für die Mensch-Computer-Interaktion relevant sind. Dann werden bereits etablierte Konzepte der Interaktion mit Software wie das WIMP-Prinzip und die einzelnen Element von graphischen Oberflächen untersucht. Darüber hinaus werden kurz einige Werkzeuge aufgezählt, die die Entwicklung von Oberflächen erleichtern und es wird auf die Eigenheiten von eingebetteten Computern eingegangen. Der letzte Teil beschäftigt sich mit den Maßnahmen, mit denen ein Ingenieur während des ganzen Entwicklungsprozesses eines softwarebasierten Produkts einen ergonomischen Entwurf gewährleisten kann. Diese Vorgehensweise nennt man Usability Engineering. SEMESTERARBEIT JUREK BREUNINGER 8 NORMEN 2 Normen 2.1 Warum Normen? Normen ermöglichen Massenproduktion, Modularisierung und reibungslose Interaktion zwischen Geräten verschiedener Hersteller. Den Herstellern ersparen sie so meist Entwicklungszeit und -kosten. Dem Käufer ermöglichen sie einfachere Produktwahl und unproblematischen Betrieb. Auch in der Ergonomie gibt es Normen, um vor allem am Arbeitsplatz Voraussetzungen zu schaffen, die den ergonomischen Erkenntnissen gerecht werden und so den Arbeiter schützen und hohe Produktivität ermöglichen. Sie legen gewisse Mindestund Höchstmaße für Möbel und Maschinen fest, um allen Menschen angenehmes Arbeiten damit zu garantieren (Abbildung 2.1-1). Auch für die Arbeitsbedingungen gibt es Richt- und Grenzwerte, etwa für Beleuchtung, Lärm, Belastungen und Arbeitszeiten. Abbildung 2.1-1: Die Produktionsergonomie beschäftigt sich mit ergonomischen Arbeitsbedingungen. Sie werden in entsprechenden Normen festgehalten. Seit den 1980er Jahren gibt es Bestrebungen, auch Softwarebenutzerschnittstellen zu normen. Allerdings soll nicht erreicht werden, dass alle Benutzerschnittstellen SEMESTERARBEIT JUREK BREUNINGER 9 NORMEN gleich oder ähnlich aussehen. Stattdessen sollen den Entwicklern Hinweise, Richtlinien und Erfahrungen präsentiert werden, wie sie für den Benutzer möglichst ergonomische Software erstellen können. Dies erspart Entwicklungszeit und Fehlinvestitionen. Diese Normen sind allgemeingültig gehalten. Sie beschreiben keine speziellen Anwendungsfälle, wie zum Beispiel eine Steckernorm. Jede Software hat andere Anforderungen an ihre Funktionalität und an die Möglichkeiten ihrer Benutzerschnittstelle. Für konkrete Typen von Software gibt es auch detailliertere Normen. 2.2 ISO 9126: Software-Qualität In der Norm ISO 9126 sind die Merkmale für die Qualität von Software festgelegt. Danach ist einer der sechs Punkte, die die Qualität von Software ausmachen, die Benutzbarkeit (mit den Unterpunkten Verständlichkeit, Erlernbarkeit, Bedienbarkeit, Attraktivität und Konformität). Trotz des sehr unscharfen Begriffes „Benutzbarkeit“ ist die zentrale Aussage klar: Die Ergonomie ist ein wichtiger Faktor für die Qualität der Software. ISO/IEC 9126 bzw. DIN 66272 bzw. ISO/IEC 25000 2.3 Die wichtigste Norm zur Mensch-Computer-Interaktion: DIN 9241 Die wichtigsten grundlegenden Eigenschaften jeder interaktiven Software werden in der ursprünglich für Büro-Software entworfenen Norm DIN EN ISO 9241 „Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten“ beschrieben. Bereits in den Grundlagen wurden die drei Hauptziele der Software-Ergonomie erwähnt, die hier beschrieben werden: Effektivität, Effizienz und Zufriedenheit. Es sind nichtoperationale Oberziele, die sich nicht an den technischen Gegebenheiten, sondern primär am Anwender orientieren. Aus diesen Oberzielen wird die Definition für Gebrauchstauglichkeit (usability) abgeleitet: Gebrauchstauglichkeit ist das Maß an Effektivität, Effizienz und Zufriedenheit, mit der Benutzer mit diesem System vorgegebene Ziele erreichen können. In Teil 10 „Prinzipien der Dialoggestaltung“ werden folgende Eigenschaften für einen Software-Dialog gefordert. Sie sind für jede Art von Benutzerschnittstelle erstrebenswert und haben somit universelle Gültigkeit. Zusätzlich zur Definition gibt die SEMESTERARBEIT JUREK BREUNINGER 10 NORMEN Norm auch einige Empfehlungen, wie sich die geforderten Eigenschaften erreichen lassen: 2.3.1 Aufgabenangemessenheit „Ein Dialog ist aufgabenangemessen, wenn er den Benutzer unterstützt, seine Arbeitsaufgabe effektiv und effizient zu erledigen.“ Der Dialog sollte dem Benutzer nur solche Informationen anzeigen, die im Zusammenhang mit der Erledigung der Arbeitsaufgabe stehen. Die angezeigte Hilfe-Funktion sollte von der Aufgabe abhängen. Alle Aufgaben, die sinnvollerweise automatisch vom Dialogsystem erledigt werden können, sollen auch von diesem ausgeführt werden, um den Anwender zu entlasten. Das Dialogsystem sollte den Benutzer bei der Erledigung wiederkehrender Aufgaben unterstützen. Das Dialogsystem sollte keine unnötigen Arbeitsschritte erforderlich machen. Gibt es für eine Arbeitsaufgabe Standardwerte, sollten diese dem Anwender als Vorgabe angeboten werden. Dieses Kriterium erfordert eine Fokussierung ausschließlich auf die notwendigen Informationen und Handlungsschritte. Alles andere soll den Benutzer nicht belasten. Dazu sollte der Arbeitsvorgang betrachtet werden, nicht der Aufgabeninhalt. 2.3.2 Selbstbeschreibungsfähigkeit „Ein Dialog ist selbstbeschreibungsfähig, wenn jeder einzelne Dialogschritt durch Rückmeldung des Dialogsystems unmittelbar verständlich ist oder dem Benutzer auf Anfrage erklärt wird.“ Nach jeder Handlung des Benutzers sollte das Dialogsystem dort, wo es zweckmäßig ist, eine Rückmeldung geben. Wenn die Ausführung einer Handlung schwerwiegende Folgen haben kann, sollten diese vor der Ausführung erläutert und eine Bestätigung verlangt werden. SEMESTERARBEIT JUREK BREUNINGER 11 NORMEN Rückmeldungen und Erläuterungen sollten sich in ihrer Terminologie aus dem Arbeitsgebiet statt aus den technischen Eigenschaften des Dialogsystems ableiten. Rückmeldungen sollten den Kenntnissen des erwarteten Anwenders angepasst werden. Falls für eine Aufgabe eine Liste von vorgegebenen Eingabewerten vorliegt, sollte sie dem Benutzer verfügbar gemacht werden. Wenn eine Eingabe verlangt wird, sollte der Anwender über den Wertebereich und das erwartete Format informiert werden. Wie bereits bei der Aufgabenangemessenheit beschrieben, sollte das System über sich und die Interaktionsvorgänge so viel Information wie nötig ausgeben, nicht so viel wie möglich. Gute Selbstbeschreibungsfähigkeit zu erreichen ist schwierig, da sie stark vom Wissen und der Erfahrung des Anwenders abhängig ist. 2.3.3 Steuerbarkeit „Ein Dialog ist steuerbar, wenn der Benutzer in der Lage ist, den Dialogablauf zu starten, sowie seine Geschwindigkeit und Richtung zu beeinflussen, bis das Ziel erreicht ist.“ Die Geschwindigkeit des Dialogablaufs sollte nicht vom Dialogsystem bestimmt werden, sondern unter der Kontrolle des Benutzers stehen. Das Dialogsystem sollte dem Benutzer die Kontrolle darüber geben, wie der Dialog fortgesetzt werden soll. Soweit möglich sollten Dialogschritte wieder rückgängig gemacht werden können. Die Art der Anzeige von Daten (Format und Typ) sollte vom Benutzer beeinflussbar sein. Wenn alternative Eingabeformen vorgesehen sind, sollte der Benutzer selbst entscheiden, welche Alternative er wählt. Unterschiedliche Benutzertypen sollten unterschiedliche Formen und Darstellungen von Dialogen auswählen können. SEMESTERARBEIT JUREK BREUNINGER 12 NORMEN Gute Steuerbarkeit erfordert meist technischen Mehraufwand; vor allem die sehr wichtige Maxime, dass alle Aktionen rückgängig gemacht werden können. Hier müssen die Daten konsistent gehalten werden, egal wann Vorgänge unterbrochen oder revidiert werden. Wie wichtig Steuerbarkeit ist, offenbart sich häufig dann, wenn Systeme nicht (mehr) steuerbar sind. 2.3.4 Erwartungskonformität „Ein Dialog ist erwartungskonform, wenn er konsistent ist und den Merkmalen des Benutzers entspricht, zum Beispiel seinen Kenntnissen aus den anerkannten Konventionen.“ Das Verhalten des Dialogsystems und die Informationsdarstellung sollen einheitlich sein. Änderungen und Funktionsaufrufe werden auf einheitliche Art und Weise herbeigeführt. Der Dialog sollte die Terminologie des Anwenders und der Arbeitsaufgabe verwenden. Die Einfügemarke sollte an der Stelle stehen, bei der die nächsten Eingaben erwartet werden. Bei ähnlichen Arbeitsaufgaben sollten Dialoge ähnlich aufgebaut sein und ähnlich ablaufen. Ist mit erheblichen Bearbeitungszeiten zu rechnen, so ist der Benutzer über die voraussichtliche Wartezeit zu informieren. Die Norm fordert durch dieses Kriterium die Konsistenz von Benutzerschnittstellen. Es ist aber nicht immer leicht zu gewährleisten, dass ein Programm in sich konsistent ist, mit Programmen des gleichen Typs oder der gleichen Funktionalität konsistent ist und mit völlig anderen Programmen konsistent ist. Dies gilt besonders wenn technische Einschränkungen bestehen. SEMESTERARBEIT JUREK BREUNINGER 13 NORMEN 2.3.5 Fehlertoleranz „Ein Dialog ist fehlertolerant, wenn das beabsichtigte Arbeitsergebnis trotz fehlerhafter Eingaben entweder mit keinem oder mit minimalem Korrekturaufwand seitens des Benutzers erreicht werden kann.“ Das Dialogsystem sollte den Benutzer dabei unterstützen, Eingabefehler zu entdecken und zu vermeiden. Fehler sollten dem Benutzer zu Korrekturzwecken erläutert werden. Wenn Fehler automatisch korrigiert werden können, sollte das Dialogsystem den Benutzer auf den Fehler hinweisen und einen Korrekturvorschlag machen. Die Prüfung auf Gültigkeit der Daten sollte während der Eingabe und nicht erst bei Übernahme erfolgen. Die Fehlermeldung und Vorschläge für Verbesserungen sollten, wenn es erforderlich ist, erst auf Verlangen und nicht bereits bei Eingabe erscheinen. Falls Fehler korrigiert werden müssen, sollte das mit möglichst wenig Aufwand geschehen, auch ohne den Zustand des Dialogsystems ändern zu müssen. Fehler sind die größten Feinde der drei Oberziele der Software-Ergonomie. Also sollte man sie auf jeden Fall vermeiden. Da sie nie völlig auszuschließen sind, müssen beim Auftreten von Fehlern schnelle und einfache Maßnahmen zur Behebung der Situation vorgesehen sein. Vor allem sollte zu jeder Zeit kommuniziert werden, warum Fehler entstanden sind und in welcher Form sie korrigiert werden. Die Qualität der Fehlermeldungen ist ein wichtiger Teil der Software-Ergonomie. 2.3.6 Individualisierbarkeit „Ein Dialog ist individualisierbar, wenn das Dialogsystem Anpassungen an die Erfordernisse der Arbeitsaufgabe sowie an die individuellen Fähigkeiten und Vorlieben des Benutzers zulässt.“ Das Dialogsystem sollte eine Anpassung an Sprache, kulturelle Eigenheiten und individuelles Wissen und Erfahrung des Anwenders ermöglichen. SEMESTERARBEIT JUREK BREUNINGER 14 NORMEN Für körperlich eingeschränkte Benutzer sollte eine Anpassung des Dialogsystems möglich sein. Der Umfang von Erläuterungen bei Fehlermeldungen oder Hilfeinformationen sollte entsprechend dem Kenntnisstand des Benutzers einstellbar sein. Der Benutzer sollte die Möglichkeit haben, Menüs nach seinen speziellen Arbeitsaufgaben zu konfigurieren. Für unterschiedliche Arbeitsaufgaben sollte zwischen verschiedenen Interaktionsformen gewechselt werden können. Der Benutzer sollte für seine speziellen Arbeitsaufgaben wiederkehrende Vorgänge automatisieren können. Die Individualisierbarkeit ist ein vor allem für Experten sehr wünschenswertes Kriterium, das die Produktivität stark steigern kann. Sie birgt allerdings die Gefahr, dass das System für andere Benutzer deutlich schwieriger zu bedienen wird. Es muss also sichergestellt sein, dass die Individualisierung personenspezifisch bleibt. Sie zu realisieren ist oft ein zusätzlicher technischer Aufwand. 2.3.7 Lernförderlichkeit „Ein Dialog ist lernförderlich, wenn er den Benutzer beim Erlernen des Interaktionssystems unterstützt und anleitet.“ Dem Dialogsystem zugrunde liegende Konzepte und Regeln sollen dem Benutzer zugänglich gemacht werden, damit sich dieser eigene Schemata und Regeln aufbauen kann. Wichtige Lernstrategien sollen unterstützt werden, beispielsweise Learning-bydoing, Exploration oder verständnisorientiertes Lernen. Das Wiederauffrischen von Gelerntem sollte unterstützt werden. Eine Reihe von Mitteln zur Verbesserung der Lernförderlichkeit sollte verwendet werden, um dem Benutzer zu helfen, mit den Teilen des Dialogsystems vertraut zu werden. Die Lernförderlichkeit wird bei Software-Systemen meist implizit vorausgesetzt, denn sie ist eins der am leichtesten ersichtlichen Kriterien. Sie wird erst in Kombination mit SEMESTERARBEIT JUREK BREUNINGER 15 NORMEN den Kriterien Aufgabenangemessenheit und Individualisierbarkeit zu einer großen Herausforderung. Die Informationen, die angeboten werden, sollten relevant sein und dem Kenntnisstand des Benutzers angepasst. Darüber hinaus sollten dem Benutzer im Sinne der Steuerbarkeit lernunterstützende Funktionen nur auf eigene Initiative angeboten werden, damit er nicht unnötig mit dem Herausfiltern der wichtigen Informationen belastet wird. Dahm 2006, S. 132–141 DIN EN ISO 9241 2.4 Weitere Normen zur Mensch-Computer-Interaktion Es gibt eine Reihe anderer Normen die sich im weitesten Sinne mit der Ergonomie von Software auseinandersetzen. Sie sind fast alle stärker auf ein spezielles Themengebiet fokussiert als die allgemeine DIN 9241. Es wird hier nicht im Detail auf sie eingegangen, sondern nur der Vollständigkeit halber einen kurzen Überblick über die wichtigsten gegeben. 2.4.1 VDI 5005 Diese Richtlinie des Vereins Deutscher Ingenieure dient der Beurteilung der ergonomischen Qualität von Büro-Software anhand der folgenden drei Kriterien: Kompetenzförderlichkeit Handlungsflexibilität Aufgabenangemessenheit 2.4.2 DIN EN ISO 14915: Software-Ergonomie für MultimediaBenutzungsschnittstellen Dies ist eine Erweiterung für DIN 9241, die zusätzliche Anforderungen an solche Benutzungsschnittstellen formuliert, die mehrere Medien (Text, Grafik, Fotografie, Animation, Audio, Video) zum Informationstransfer nutzen. Hinzu kommen Ausführungen über Gestaltungsgrundsätze und Rahmenbedingungen, Multimedia-Navigation und Steuerung, sowie Auswahl und Kombination von Medien. Multimediale Systeme haben andere Anforderungen und Auswirkungen auf die menschliche Aufmerksamkeit, Wahrnehmung, Kognition und Kommunikation. Sie SEMESTERARBEIT JUREK BREUNINGER 16 NORMEN sind nicht auf Büroaufgaben beschränkt und werden zu einem großen Teil durch Exploration, also das spielerische, zwanglose Ausprobieren, erlernt. Dadurch ergeben sich für Multimedia-Systeme folgende zusätzliche Anforderungen: Eignung für das Kommunikationsziel Eignung für Wahrnehmung und Verständnis Eignung für Exploration Eignung für Benutzungsmotivation 2.4.3 VDI/VDE 3850: Maschinen-Bediensysteme Diese Norm aus der klassischen Ergonomie ist auch für die Software-Ergonomie relevant, da sie wertvolle Hinweise für das Design von Ein- und Ausgabegeräten von Software-Systemen liefert. Sie beschreibt in drei Teilen die Grundlagen der Gestaltung von Bediensystemen und Empfehlungen für die Kodierung und Darstellung von Informationen, eine Beschreibung von koordinatengebenden Eingabegeräten (Schieberegler, Drehknöpfe, Tastaturen), eine Anleitung für eine ergonomische Gestaltung von Dialogen für Touchscreens. 2.4.4 ISO/TS 16701: Gestaltung barrierefreier Software Ein Teil der Bevölkerung ist eingeschränkt in Bezug auf seine Sehkraft, das Hören oder die motorischen Fähigkeiten. Diese Norm enthält ergänzende Anforderungen an Web-, Büro- und Multimediaanwendungen, sowie Hardware, um diesen Menschen gerecht zu werden. Sie fordert zum Beispiel komplette Steuerbarkeit von Programmen mit der Tastatur, screenreadertaugliches Design und Informationskodierung, die nicht allein von Form oder Farbe abhängig ist. SEMESTERARBEIT JUREK BREUNINGER 17 NORMEN 2.4.5 DIN EN ISO 13407: Benutzerorientierte Gestaltung interaktiver Systeme Diese Norm ist mehr eine Sammlung von Vorgehensweisen, um die in den anderen Normen geforderten Grundsätze zu erreichen. Wie in DIN 9241 sind die obersten Ziele Effektivität, Effizienz und Zufriedenheit. Der Anwender soll während des Software-Entwicklungsprozesses möglichst früh durch folgende Aufgaben einbezogen werden: Verstehen und Festlegen des Nutzungskontexts Festlegen von Benutzeranforderungen und organisatorischen Anforderungen Entwerfen von Gestaltungslösungen Beurteilen von Gestaltungslösungen bezüglich der Anforderungen Die Norm legt außerdem die Multidisziplinarität der Software-Entwicklung nahe und fordert dementsprechende Ausbildungen für die Beteiligten. Es wird weiterhin auf die Anforderungsspezifikation eingegangen und eine exakte Festlegung der Funktionsaufteilung zwischen Bediener und Software-System empfohlen. Für die Implementierung schlägt die Norm iterative Vorgehensweisen vor, die zuletzt eine gute Absicherung des Konzepts durch die Beurteilung der zukünftigen Benutzer garantiert. Dahm 2006, S. 141–145 SEMESTERARBEIT JUREK BREUNINGER 18 GESETZE 3 Gesetze Eine Norm ist eine Empfehlung oder genaue Beschreibung von Anforderungen an ein Objekt. Sie garantiert aber allein noch nicht die Einhaltung dieser Vorgaben durch die Hersteller am Markt. Oft regelt die Nachfrage der Kunden nach Produkten mit problemloser Benutzung und Interoperabilität das Angebot von Produkten, die sich an eine Norm halten. Man nennt dies die „normative Kraft des Faktischen“. Wenn aber keine Randbedingungen die Einhaltung einer sinnvollen Norm bewirken, so ist oft der Gesetzgeber gezwungen, die Einhaltung von Normen durchzusetzen. Die ergonomischen Eigenschaften von Software-Systemen sind meist schwer quantifizierbar. Deshalb sind die Normen hauptsächlich qualitativ formuliert. Darauf basierende gesetzliche Verpflichtungen sind schwierig überprüfbar. So gibt es keine gesetzliche Vorgabe, Software nach DIN 9241 zu entwickeln. Ein Software-Hersteller ist nur dann für die ergonomischen Eigenschaften seiner Produkte haftbar, wenn er einen speziellen Vertrag mit seinem Kunden abschließt, der eine gute Gebrauchstauglichkeit der Software garantiert. 3.1 Bildschirmarbeitsverordnung (BildscharbV) Für Arbeitgeber gibt es allerdings verpflichtende Vorgaben, die die Qualität und ergonomischen Eigenschaften der Arbeitsplätze sicherstellen und so den Arbeitnehmer schützen sollen. Für Arbeitsplätze, die die Arbeit mit Computern voraussetzen, gilt die Bildschirmarbeitsverordnung, die für die eingesetzte Software folgende Bedingungen stellt: Die Software muss an die auszuführende Aufgabe angepasst sein. Die Systeme müssen den Benutzern Angaben über die jeweiligen Dialogabläufe unmittelbar oder auf Verlangen machen. Die Systeme müssen den Benutzern die Beeinflussung der jeweiligen Dialogabläufe ermöglichen, sowie eventuelle Fehler bei der Handhabung beschreiben und deren Beseitigung mit begrenztem Arbeitsaufwand erlauben. Die Software muss entsprechend den Kenntnissen und Erfahrungen der Benutzer im Hinblick auf die auszuführende Aufgabe angepasst werden können. SEMESTERARBEIT JUREK BREUNINGER 19 GESETZE In diesen Forderungen kann man die Prinzipien aus DIN 9241 wieder erkennen. So gibt es seit 1. Januar 2000 doch eine gesetzliche Grundlage, die nach ergonomischen Gesichtspunkten entwickelte Software verpflichtend macht. Die Einhaltung dieser gesetzlichen Richtlinien ist für alle Softwarehersteller von Belang, da sie von Auftraggebern gefordert wird und ein und ein wichtiges Verkaufsargument ist. 3.2 Barrierefreie Informationstechnik-Verordnung (BITV) Seit 2006 müssen alle Internetauftritte und öffentlichen graphischen Informationssysteme der deutschen Bundesbehörden den Richtlinien der BITV genügen, die einen einfachen Zugang zu den Informationen für Menschen mit körperlichen Einschränkungen ermöglichen sollen. Dahm 2006, S. 145–147 SEMESTERARBEIT JUREK BREUNINGER 20 EMPFEHLUNGEN UND RICHTLINIEN 4 Empfehlungen und Richtlinien Man kann Software nach ergonomischen Kriterien entwerfen, die einfach überprüfbar sind. Die Herausforderung liegt allerdings darin, dass dies nur eine gute Grundlage ergibt, aber noch keine Garantie für ergonomische Software ist. Es gibt leider einen großen Anteil am Entwurf, der sich nicht aus quantifizierbaren Regeln ableiten lässt, sondern das Gespür und die Erfahrung des Entwicklers voraussetzt. Nicht zu jedem Problem gibt es eine eindeutig richtige und beste Lösung. Außerdem zeigen Benutzerexperimente manchmal gute Ergebnisse mit Konzepten, die einer oder mehreren der bisher eingeführten Erkenntnisse widersprechen. Deshalb gibt es in der Software-Ergonomie neben den bereits bekannten Grundlagen vor allem viele Empfehlungen von zahlreichen Experten, die meist aus den Erfahrungen langjähriger Forschung und Anwendung resultieren. Die Aussagen sind oft recht ähnlich und basieren auf den bereits vorgestellten Grundlagen. Stellvertretend für alle werden hier nur die Vorschläge von Shneiderman, einem der bekanntesten Forscher auf diesem Gebiet, und von Nielsen, der einen sehr minimalistischen Ansatz vertritt, vorgestellt. 4.1 Acht goldene Regeln nach Shneiderman Ben Shneiderman, einer der Pioniere der Software-Ergonomie, hat empirisch acht goldene Regeln für den Entwurf von Benutzerschnittstellen aufgestellt. Konsistenz Verwende Styleguides. Trage Sorge, dass alle Designer und Programmierer die gleichen Styleguides verstanden haben und verwenden. So sind alle Teile der Benutzerschnittstelle einheitlich. Konsistenz umfasst Aussehen und Platzierung von Bedienungselementen, Wortwahl, Beschriftungen, Schriftgrößen und -farben, Abfolgen von Aktionen. Berücksichtige unterschiedliche Erfahrungen Die Benutzerschnittstelle sollte jedem Benutzer je nach Vorkenntnissen und Erfahrung eine für ihn effiziente Interaktionsform bereitstellen. Anfänger können der expliziten Beschreibung im Menü besser folgen, Experten arbeiten schneller mit Tastaturkürzeln und Makros. Rückmeldungen auf Aktionen des Benutzers SEMESTERARBEIT JUREK BREUNINGER 21 EMPFEHLUNGEN UND RICHTLINIEN Rückmeldungen bestätigen die Handlungen des Anwenders und geben ihm Sicherheit, dass das System seine Eingabe bearbeitet. Meist ist sie visuell wie das Eindrücken eines Knopfes oder das farbige Hinterlegen beim Markieren eines Textes. Auch kurze Textnachrichten können eine Handlung erklären. Bei direkter Manipulation ist die Rückmeldung meist Teil des Konzeptes und somit sofort zu sehen (wie beim Ziehen eines Objektes). Auch akustische Rückmeldung ist möglich, sollte aber vorsichtig eingesetzt werden, da sie schnell als störend empfunden werden kann. Deshalb eignet sie sich besonders für seltene Fehlersituationen. Auch eine Fehlermeldung ist eine Rückmeldung. Sie sollte besonders auf die Behebung des Fehlers gerichtet sein (konstruktive Fehlermeldung). Abgeschlossene Operationen Bei einer Handlung, die aus mehreren Schritten besteht, sollte die Zusammengehörigkeit immer deutlich sein. Es empfiehlt sich eine Übersicht über alle Schritte und eine Fortschrittsanzeige, die den aktuellen Schritt kennzeichnet. Fehler verhindern Noch besser als eine konstruktive Fehlermeldung ist es zu vermeiden, dass der Fehler überhaupt auftritt. Irrelevante Interaktionsmöglichkeiten sollten ausgeblendet und deaktiviert werden. Das Format für beispielsweise ein Datum sollte vorgegeben sein und die Eingabemaske keine Fehleingaben zulassen. Dies kann besonders elegant durch die Darstellung eines Kalenders realisiert werden, auf dem das gewünschte Datum ausgewählt werden kann. Nach Auftreten eines Fehlers sollte dieser mit möglichst wenigen Aktionen rückgängig gemacht werden können. Einfache Rücksetzmöglichkeiten Jede Aktion revidieren zu können ermöglicht dem Anwender spielend ein System zu erkunden ohne schwerwiegende Folgen fürchten zu müssen. Nur so kann kreativ gearbeitet werden. Dabei sind auch ein mehrfaches Rückgängigmachen und das Rückgängigmachen des Rückgängigmachens nützlich und gewünscht. Wenn ein Rückgängigmachen technisch nicht möglich ist, sollte der Benutzer deutlich darauf hingewiesen werden. Die Rückgängigfunktion ist vor allem für das explorative Erlernen einer Software sehr hilfreich. SEMESTERARBEIT JUREK BREUNINGER 22 EMPFEHLUNGEN UND RICHTLINIEN Benutzerbestimmte Eingaben Jede Operation sollte jederzeit vom Benutzer unterbrochen oder abgebrochen werden können. Eine Bedienungsabfolge sollte nie aufgezwungen sein, sondern vom Benutzer kontrolliert werden können. Aktionen und Informationen sollten einfach und schnell gefunden werden können. Geringe Belastung des Kurzzeitgedächtnisses Die bekannten 7±2 chunks Kapazität des Kurzzeitgedächtnisses sollten nie ausgereizt werden. Die Anzahl an Optionen oder gleichzeitig präsentierten Informationen sollte möglichst gering gehalten werden. Also lieber breite Menüstrukturen mit vielen Menüpunkten auf der obersten Ebene und wenigen Unterpunkten statt tiefe Menüstrukturen mit wenig Menüpunkten auf der obersten Ebene und vielen Unterpunkten benutzen. Der Benutzer braucht einen Großteil seiner mentalen Kapazität, um sich auf die eigentliche Aufgabe zu konzentrieren Dahm 2006, S. 151–154 Shneiderman 2005, S. 74–76 4.2 Zehn Usability-Heuristiken nach Nielsen Auch Jakob Nielsen, ein weiterer Software-Ergonom, der auf Web-Usability spezialisiert ist, schlägt zehn Richtlinien für den Entwurf vor. Er nennt sie Heuristiken, um zu betonen, dass sie nur auf Erfahrung basieren. Die Vorgehensweise, beim Design einer Software nur diese zehn Heuristiken zu beachten, die ein Minimalmaß an Gebrauchstauglichkeit gewährleisten, nennt Nielsen „Discount Usability Engineering“. Einfache und natürliche Dialoge Die nötigen Informationen werden dem Benutzer angezeigt und der Ablauf ist seinem Handeln angepasst. Dies benötigt ein gewisses Einfühlungsvermögen des Entwicklers in den Benutzer. Ausdrucksweisen des Anwenders Alle Informationen sollen in der Fachsprache des Anwendungsgebietes präsentiert werden, damit sie der Anwender jederzeit versteht. Es empfiehlt sich, einen Mann vom Fach hinzuzuziehen. SEMESTERARBEIT JUREK BREUNINGER 23 EMPFEHLUNGEN UND RICHTLINIEN Minimale mentale Belastung des Benutzers Die Anzahl an gleichzeitig präsentierter Information sollte auf ein Minimum beschränkt werden, um die 7±2 chunks Kapazität des Kurzzeitgedächtnisses nicht über zu strapazieren. Gruppierungen und unterschiedliche Farben verbessern diese Limitation kaum. Sie erhöhen eher das Risiko wichtige Information zu übersehen. Konsistenz Dialoge folgen immer der gleichen Logik. Der markierte Knopf ist immer entweder „Abbrechen“ oder „Aktion ausführen“. Auch Fehlermeldungen sehen je nach Typ immer gleich aus und haben gleiches Verhalten. Rückmeldungen Dem Benutzer wird immer signalisiert wenn er eine Aktion angestoßen hat, entweder optisch oder akustisch. Bei längerer Verzögerung wird er über den Verlauf unterrichtet, wenn möglich mit der genauen Restzeit der Bearbeitung. Klare Auswege Wenn der Benutzer bei der Lösung seiner Aufgabe in eine Sackgasse gerät, sollte er immer einfach zu einem bekannten Startpunkt zurückkehren können. Zum Beispiel bei Aktionen, die länger dauern als erwartet, muss das Abbrechen möglich sein. Abkürzungen Geübte Benutzer sollen ihre Arbeitsprozesse beschleunigen können. Sie bevorzugen dafür meist Tastaturkürzel und Mausbedienung mit Modifikatoren statt der Menüsteuerung. Häufig verwendete Eingaben sollten automatisch vorgeschlagen werden. Dies beschleunigt das Arbeiten und vermeidet Fehleingaben. Gute Fehlermeldungen Gute Fehlermeldungen sind konstruktiv formuliert und für den Anwender verständlich. Sie helfen den Fehler zu beheben anstatt den Benutzer zu verärgern. Es ist auch möglich, Fehlermeldungen an die Benutzerklassen anzupassen und so zusätzliche Information an Experten auszugeben. SEMESTERARBEIT JUREK BREUNINGER 24 EMPFEHLUNGEN UND RICHTLINIEN Fehlervermeidung Statt Fehlermeldungen sollten die Fehler besser gleich vermieden werden. Standardwerte, Auswahlmöglichkeiten und Hinweise helfen hierbei. Eine bestimmte Aktion sollte möglichst nicht in anderem Kontext einen völlig anderen Effekt haben. Zum Beispiel Tastaturkürzel sollten immer identisch sein oder dem gleichen Muster folgen. Hilfe und Dokumentation Die Dokumentation ist sehr wichtig, um dem Benutzer in jeder Situation zu helfen. Sie soll immer den aktuellen Kontext beschreiben, um ihn dabei zu unterstützen, was er gerade macht. Die Dokumentation muss vollständig, übersichtlich, aktuell und korrekt sein. Dahm 2006, S. 154–156 4.3 Sieben Ergänzungen nach Dahm Markus Dahm ergänzt die Richtlinien von Shneiderman und Nielsen in seinem Buch mit sieben weiteren, die noch nicht erwähnt wurden. Diese beschäftigen sich unter anderem auch mit dem subjektiven Empfinden des Benutzers: Freude bei der Arbeit Obwohl in DIN 9241 ausdrücklich Zufriedenheit des Benutzers gefordert wird, wird die leichte Steigerung zur Freude fast nie eingefordert. Dahm empfindet dies jedoch als sehr wichtig und verweist auf die dadurch gesteigerte Produktivität. Allerdings gibt es keine allgemein anerkannten Methoden, um Freude an der Arbeit mit einer Software zu gewährleisten. Ansprechende Gestaltung Eng mit dem vorher genannten Punkt ist auch die Ästhetik von Software verbunden. Auch hier gilt, dass die Einordnung sehr subjektiv erfolgt und es wenige garantierte Erfolgsrezepte gibt. Die Mitarbeit von gelernten Designern bei Softwareprojekten ist empfehlenswert und hilft auch der ergonomischen Gestaltung. Provozierende Gestaltungsvorschläge SEMESTERARBEIT JUREK BREUNINGER 25 EMPFEHLUNGEN UND RICHTLINIEN Dies ist eine einfache Empfehlung an Oberflächenentwickler, sich nicht auf die bekannten und festgefahrenen Konzepte zur beschränken, sondern offen für neue Wege zu sein. Minimale Gestaltung Das Benutzungskonzept sollte schlank sein und mit einem Minimum an Funktionen und gestalterischen Elementen auskommen. Erst wenn Funktionen in Benutzertests vermisst werden, sollten sie nach und nach hinzugefügt werden. Softwaregestaltung ist Arbeitsgestaltung Die Qualität eines Arbeitsplatzes und der Arbeitsvoraussetzungen resultiert aus der Qualität der Software, die dort eingesetzt wird. Durch Einbeziehung des Nutzers in den Entwicklungsprozess kann die Entwicklung verbessert werden. Orientierung an Abläufen Beim Entwurf von Software sollte man sich eher am Ablauf der Geschäftsprozesse orientieren und nicht, wie meist realisiert, ähnliche Funktionen gruppieren. Informelle Informationen Neben den formalen Anforderungen, wie in Abläufen dokumentierten Geschäftsprozessen, gibt es im betrieblichen Umfeld auch bewährte undokumentierte Regeln und Vorgehensweisen, die manchmal den vorgeschriebenen Prozessen widersprechen können beziehungsweise Regeln umgehen. Trotzdem können sie für die Produktivität wichtig oder sogar zwingend sein. Wenn diese vor der Entwicklung erfasst und als zusätzliche Anforderungen erkannt werden, steigert dies den Wert der Software deutlich. Da es für externe Entwickler nur selten möglich und aufwändig ist, diese Elemente der Unternehmenskultur kennen zu lernen, sollte Software zumindest hohe Flexibilität mitbringen, um mögliche informelle Vorgehensweisen zu ermöglichen. Dahm 2006, S. 157f. SEMESTERARBEIT JUREK BREUNINGER 26 EMPFEHLUNGEN UND RICHTLINIEN 4.4 Guidelines und Styleguides Neben den Empfehlungen anerkannter Experten und einer eigenen fundierten Kenntnis software-ergonomischer Prinzipien richten sich gute Oberflächenentwickler möglichst auch nach den Gestaltungsrichtlinien, den so genannten Styleguides oder Human Interface Guidelines, die die Umgebung des Softwareprojektes vorgibt. Während Guidelines meist nur das Verhalten der Software beschreiben, enthalten Styleguides zusätzlich oder ausschließlich Informationen über das Aussehen (Look&Feel). Das Einhalten dokumentierter Richtlinien erzwingt automatisch gute Konsistenz verschiedener Anwendungen innerhalb der Umgebung, für die die Richtlinien gelten. Diese Umgebung ist meist eine Softwareplattform, ein Betriebssystem oder ein Unternehmen. So sind die bekanntesten Styleguides jene von Microsoft und Apple, die gewisse Grundregeln des Aussehens und Verhaltens von Anwendungen für ihre Betriebssysteme vorschreiben. Abbildung 4.4-1: Eine verbreitete MS-DOS-Anwendung, die noch nicht dem CUA folgte: Wordstar. Die Befehlsleiste befindet sich an der Unterkante und wird mit den Funktionstasten angesteuert. Es werden die heute nicht mehr gebräuchlichen Tastaturkombinationen eingeblendet. Einer der prägendsten Styleguides im Computerbereich war der Common User Access von IBM, der 1987 veröffentlicht wurde. Er war der erste erfolgreiche Versuch, die bis dahin sehr unterschiedlichen Bedienkonzepte von Programmen (Abbildung 4.4-1) auf dem IBM-PC zu vereinheitlichen. Dies betrifft vor allem Menüstrukturen SEMESTERARBEIT JUREK BREUNINGER 27 EMPFEHLUNGEN UND RICHTLINIEN und Tastatur-Shortcuts. Die meisten dieser Richtlinien, wie die grundlegende Struktur des Menüs einer Anwendung und viele der Tastaturkombinationen, haben sich bewährt und sind bis heute gültig (Abbildung 4.4-2). Abbildung 4.4-2: Die Entwicklungsumgebung QBASIC unter MS-DOS. Alle mit DOS gelieferten Programme folgten ab DOS 5.0 (1991) dem CUA. Die Menüstruktur an der Oberkante hat die bekannte Struktur. Es gibt Scrollbalken und eine Statuszeile an der Unterkante. Die Tastaturkombinationen für Ausschneiden, Kopieren und Einfügen funktionieren auch auf modernen Windows-Systemen noch. Weitere bekannte Styleguides sind die von Sun für Anwendungen in Java sowie die Empfehlungen der Entwicklergruppen von KDE und Gnome für Anwendungen für ihre Benutzeroberflächen. Die Einhaltung dieser Styleguides wird oft durch die Verwendung der gebräuchlichen Entwicklungswerkzeuge vereinfacht und teilweise erzwungen. Zum Beispiel hat man bei Fenstersystemen meist wenig Einfluss auf Aussehen und Verhalten von Fensterleisten und Buttons, da man aus Zeitgründen bereits vorgefertigte Bausteine aus Programmierbibliotheken verwendet. Neben diesen Gestaltungsrichtlinien im PC-Bereich gibt es oft auch unternehmensspezifische Richtlinien, die meist einen bestimmten optischen Stil vorschreiben, der der „corporate identity“ entspricht (Abbildung 4.4-3 und Abbildung 4.4-4). Dies gilt vor allem für Webanwendungen, kommt aber auch bei anderer Software vor. Auch Bedienungsrichtlinien sind gebräuchlich. So soll die Konsistenz innerhalb mehrerer Anwendungen eines Unternehmens gewährleistet bleiben. SEMESTERARBEIT JUREK BREUNINGER 28 EMPFEHLUNGEN UND RICHTLINIEN Abbildung 4.4-3: Der Internetauftritt der Automobilsparte von BMW… Abbildung 4.4-4: … folgt den gleichen Gestaltungsrichtlinien wie der Internetauftritt der Motorradsparte von BMW. So wird die Corporate Identity gestärkt. Dahm 2006, S. 150 Berry 1988, S. 282ff. SEMESTERARBEIT JUREK BREUNINGER 29 HARDWARE 5 Hardware Wie bereits erwähnt ist die Software-Ergonomie mit der Hardware-Ergonomie eng verknüpft. Deshalb werden hier nun die wichtigsten Ein- und Ausgabegeräte von Softwaresystemen vorgestellt. Beim Design neuer Softwaresysteme sollten die Rahmenbedingungen, also auch vorhandene, zwingend notwendige oder neu zu entwickelnde Hardware, mit in die Überlegungen einbezogen werden. Während klassische PC-Anwendungen wenig Spielraum bei der Ein-/Ausgabe lassen, ist vor allem im Bereich der eingebetteten Computer ein dedizierter ergonomischer und an die Software angepasster Entwurf der Bedien- und Anzeigeelement eine wichtige Chance, ein effektives und effizientes System zu entwickeln. 5.1 Tastaturen Die Tastatur ist das älteste und wichtigste Eingabegerät für softwarebasierte Systeme. Obwohl immer wieder gerne ihre Ablösung durch Touchscreens, Blick-, Gestenoder Sprachsteuerung prognostiziert wird, wird die Tastatur auch in absehbarer Zukunft das wichtigste Eingabeelement bleiben. Die Gründe hierfür sind: ihre je nach Anwendungszweck mittlere bis sehr hohe Eingabegeschwindigkeit technische Ausgereiftheit Eindeutigkeit der Eingabe (im Gegensatz zu Sprachsteuerung) intuitive Bedienbarkeit (beinahe) lautlose Bedienung (wichtig in manchen Arbeitsumfeldern) bei ergonomischer Auslegung von Tastatur und Software hohe Effizienz durch wenig Körperbewegung 5.1.1 Belegungen 5.1.1.1 QWERTY, QWERTZ Die Anordnung der Tasten moderner Computertastaturen – das nach der Buchstabenbelegung der oberen Reihe benannte QWERTY oder das davon abgeleitete SEMESTERARBEIT JUREK BREUNINGER 30 HARDWARE deutsche QWERTZ – basieren auf dem Entwurf einer Schreibmaschinentastatur des Amerikaners Christopher Latham Sholes aus dem Jahr 1868 (Abbildung 5.1-10). Diese Belegung wurde vor allem durch den Schreibmaschinenhersteller Remington etabliert und führte aufgrund seiner mechanischen Überlegenheit gegenüber der bis dahin häufigen alphabetischen Ausrichtung der Tasten zu seiner allgemeinen Verbreitung. Obwohl die Anordnung auf den ersten Blick willkürlich erscheinen mag, sind in sie eine Menge Überlegungen und statistische Auswertungen eingeflossen. Allerdings waren diese Überlegungen eher technischer denn ergonomischer Natur. Das QWERTY-Layout bewirkt, dass beim Schreiben englischen Textes häufig aufeinanderfolgende Buchstaben auf der Tastatur möglichst weit auseinander liegen. Dies verhindert, dass sich die mechanischen Typenhebel, die die Lettern durch ein Farbband auf das Papier schlagen, verklemmen. Abbildung 5.1-1: Das QWERTY-Layout des Amerikaners Sholes (1868). Wegen des Aufwands zusätzlicher Mechanik fehlen die 0 (Ersatz: O) und die 1 (Ersatz: I). Auch waren diese frühen mechanischen Schreibmaschinen (aufgrund des nötigen Kraftaufwandes) noch nicht für Zehn-Finger-Schreiben gedacht. Da das Problem der verklemmenden Typenhebel bald keines mehr war (elektrische Schreibmaschinen verzögerten zwei benachbarte Typenhebel) und bei Computersystemen mangels Mechanik nicht relevant ist, ist die QWERTY-Tastaturbelegung aus heutiger Sicht ein Anachronismus. Das Gleiche gilt für das QWERTZ-Layout, bei dem die einzige Anpassung an die deutsche Sprache das Austauschen der Buchstaben Z und Y – da Y viel seltener und Z deutlich häufiger als im Englischen ist – sowie das Einfügen der deutschen Umlaute und des „ß“ auf Kosten einiger Satzzeichen war (Abbildung 5.1-2). Die deutsche Tastatur hat eine Taste mehr als die amerikanische (neben der linken Umschalttaste, die dafür nur halb so breit ist). Außerdem ist die Anordnung der Tasten um die Enter-Taste anders (vgl. Abbildung 5.1-3). SEMESTERARBEIT JUREK BREUNINGER 31 HARDWARE Abbildung 5.1-2: Ein modernes 105-Tasten-PC-Keyboard mit deutscher QWERTZBelegung. Durch die historisch bedingte Tastenbelegung ergeben sich aus ergonomischer Sicht folgende Nachteile: QWERTZ belastet die linke Hand stärker als die rechte, was bei einer Mehrzahl von Rechtshändern in der Bevölkerung ungünstig ist. Häufige Buchstaben und Zeichen liegen nicht an den am einfachsten zu erreichenden Plätzen, sondern weit verstreut. Beim Zehn-Finger-Schreiben liegen viele dann unter „schwachen“ Fingern (z. B. das häufige A unter dem linken kleinen Finger). Es ist beim Schreiben sehr häufig ein Springen der Finger von der Grundreihe in die obere und untere Reihe nötig. Es entstehen beim Tippen häufig sogenannte Kollisionen: Das heißt der gleiche Finger muss direkt hintereinander Buchstaben eingeben; ein stetiger Wechsel zwischen den Fingern verschiedener Hände ist vorteilhafter. Moderne 105-Tasten-Tastaturen kranken darüber hinaus an einigen weiteren Einschränkungen aus der Schreibmaschinenzeit: Viele Zeichen lassen sich gar nicht oder nur als Ersatzzeichen eingeben, um die aufwändigere Mechanik durch zusätzliche Tasten zu vermeiden: Es fehlen Anführungszeichen wie „“ und »« (und ihre eingestrichenen Varianten). Das Anführungszeichen " auf der QWERTY/QWERTZ-Tastatur ist ein Ersatzzeichen, das eigentlich Angaben in Zoll bezeichnet und eine Taste spart, da es öffnendes und schließendes Zeichen nicht unterscheidet. SEMESTERARBEIT JUREK BREUNINGER 32 HARDWARE Unterschiedliche Striche für den Viertelgeviertstrich (Bindestrich), Halbgeviertstrich (Gedankenstrich), Geviertstrich (Spiegelstrich) und ein echtes Minus (gleich lang und auf der gleichen Höhe wie der Querbalken des Plus) fehlen. Für den Apostroph wird ein Ersatzzeichen verwendet, das eigentlich Minuten bei Gradangaben bezeichnet ('). Der korrekte Apostroph (’) fehlt (nicht mit den Akzenten zu verwechseln). Durch die weite Verbreitung von QWERTY/QWERTZ und die Angst vor aufwendiger, teurer und risikoreicher Umschulung konnte sich jedoch bis heute keine Alternative durchsetzen. Dahm 2006, S. 150 Shneiderman 2005, S. 350f. Meier 1967, S. 342 http://discovermagazine.com/1997/apr/thecurseofqwerty1099/ 5.1.1.2 Dvorak Aufgrund der offensichtlichen Schwächen von QWERTY begann 1932 eine amerikanische Kommission unter Auguste Dvorak eine neue auf Zehnfingerschreiben ausgelegte Tastaturbelegung zu entwickeln, die für die englische Sprache optimiert, einfach erlernbar und schnell anwendbar sein sollte (Abbildung 5.1-30). Neben der Buchstabenhäufigkeit untersuchte sie auch die Physiologie der Hände. Beim Schreiben sollen so viele Wörter wie möglich auf der Grundlinie, der Ruhestellung der Hände beim Zehnfingerschreiben, getippt werden können. Darüber hinaus wird ein Wechseln in die obere Reihe der unteren vorgezogen und die stärkeren Finger (Zeigefinger, Mittelfinger) häufiger eingesetzt. Es wurde darauf geachtet, dass die häufig aufeinander folgenden Buchstaben möglichst abwechselnd auf beide Hände verteilt sind. Abfolgen auf der gleichen Hand werden mit Abrollbewegungen von außen nach innen getippt. Es gibt zahlreiche Studien zum Dvorak-Tastaturlayout, die die erhöhte Tippgeschwindigkeit, geringere Fehleranfälligkeit, Vermeidung von RSI (Repetitive Strain Injury, Sehnenscheidenentzündung oder ähnlichen Krankheiten) und schnellere Erlernbarkeit des Zehnfingerschreibens beweisen oder widerlegen sollen. Trotz der mehrheitlich akzeptierten Vorteile hat sich diese Belegung im englischsprachigen Raum nie durchgesetzt, da die meisten Benutzer den Aufwand des Lernens scheuen. Es soll 1982 etwa 100 000 Dvorak-Nutzer in USA gegeben haben. SEMESTERARBEIT JUREK BREUNINGER 33 HARDWARE Abbildung 5.1-3: Die Belegung des Dvorak Simplified Keyboard. Es existieren auch länderspezifische Dvorak-Varianten, unter anderen ein deutsches. Doch da es ähnlich wie QWERTZ nur ein an Deutsch angepasstes englisches Layout ist, fehlt auch ihm die Akzeptanz. Shneiderman 2005, S. 351 http://www.theworldofstuff.com/dvorak/ 5.1.1.3 Weitere ergonomische Ansätze: Meier, de-ergo, Neo Auch im deutschen Sprachraum hat man sich schon öfter Gedanken über eine ergonomisch optimierte Alternative für das QWERTZ-Layout gemacht. Der Germanist Helmut Meier schlug in seiner 1964 veröffentlichten „Deutschen Sprachstatistik“ eine europäische Universaltastatur vor, die den Vorteil der Einheitlichkeit mit einer Optimierung auf die europäischen Sprachen Deutsch, Englisch und Spanisch verbinden sollte (Abbildung 5.1-4). Er griff dabei auf die Erkenntnisse von Dvorak und anderer ähnlicher Untersuchungen zurück. Abbildung 5.1-4: Der Vorschlag für eine europäische Tastaturbelegung von Meier. SEMESTERARBEIT JUREK BREUNINGER 34 HARDWARE Basierend auf den statistischen Erkenntnissen Meiers entstand 2003 die Belegung de-ergo, die nur die für die deutsche Sprache optimiert wurde. Ein neuer Ansatz, basierend auf Dvorak, Meier und de-ergo, wurde 2004 auf der Mailingliste von de-ergo vorgestellt: Die Neo-Tastaturbelegung (Abbildung 5.1-5). Diese Tastaturbelegung bezog neben der deutschen Sprache auch Anglizismen mit in die Layout-Gestaltung ein. Die Neo-Tastaturbelegung wurde als Open-SourceProjekt weiterentwickelt und enthält in der Version 2 auch eine ergonomische Verteilung der Satzzeichen. Genau wie bei den Buchstaben wurde auch hier auf eine Optimierung der häufigsten Bi- und Trigramme (z. B. sch, der, ich, ein, :-), /*, +=) geachtet. Dies erleichtert zusätzlich das Eingeben der auf QWERTZ ungünstig liegenden Zeichen zum Programmieren. In einer anderen Ebene liegen die Cursortasten mitsamt einem kompletten Nummernblock im Haupttastaturfeld. Dies ermöglicht konsistentere Tastaturbedienung, da man die Hände nicht mehr aus der Grundstellung und zurückbewegen muss. Vor allem unter Linux-Benutzern gibt es inzwischen einen kleinen Anhängerkreis, da die meisten Distributionen die Neo-Tastaturbelegung bereits mitbringen. Abbildung 5.1-5: Das Neo-Tastaturlayout. Es ist eine ergonomisch auf die deutsche Sprache und Anglizismen angepasste Alternative zu QWERTZ für Standardtastaturen. Es besitzt neben der Umschalttaste für die Großschreibung zwei weitere komplette Ebenen, die durch die Tasten Mod3 und Mod4 (ehemals Alt Gr) erreicht werden können. Meier 1967, S. 333–344 http://forschung.goebel-consult.de/de-ergo/ http://wiki.neo-layout.org/wiki/Geschichte http://wiki.neo-layout.org/wiki/Tastaturbelegung SEMESTERARBEIT JUREK BREUNINGER 35 HARDWARE 5.1.1.4 Exkurs: Ziffernblock Eine besondere bekannte Form der numerischen Tastatur ist der Nummernblock, wie er aus Telefonen und Geldautomaten bekannt ist. Es hat sich aus Platzgründen eine 3 x 3-Matrix-förmige Anordnung etabliert. Diese bietet neben der kompakten Bauform den Vorteil, dass eine Einhandbedienung ohne Springen der Hand möglich ist, ähnlich dem Zehnfingerschreiben. Allerdings existieren zwei Varianten der Blockform: Der Telefon-Nummernblock und der Taschenrechner-Zahlenblock, wie er auch auf Computertastaturen verbaut ist (Abbildung 5.1-6). Bei ersterem sind die Zahlen von links nach rechts und von oben nach unten aufsteigend angeordnet. Beim Taschenrechner-Zahlenblock ist die Anordnung der Zahlen von links nach rechts und von unten nach oben aufsteigend. Es gibt einige Theorien, die historisch zu erklären versuchen, warum die Tastenanordnung auf Taschenrechnern anders ist als auf Telefonen (Dahm 2006, S. 166). 1 2 3 4 5 6 7 8 9 ? Leserichtung, Sortierung 2 3 4 5 6 7 8 9 Leserichtung 1 7 8 9 4 5 6 1 2 3 Sortierung Leserichtung, Sortierung Abbildung 5.1-6: Bei der blockförmigen Anordnung von Nummerntasten gibt es zwei verbreitete Möglichkeiten. Welche für einen Einsatzzweck besser geeignet ist, hängt davon ab, ob man mit Ziffern oder Zahlen hantiert. SEMESTERARBEIT JUREK BREUNINGER 36 HARDWARE Basierend auf dem bereits behandelten Grundwissen lässt sich aber eine einfache Logik hinter den beiden Entwürfen finden: Wichtig sind die Vorzugsrichtungen, wie sie durch die Leserichtung bekannt sind. Die Richtung von links nach rechts ist die primäre Leserichtung und bedeutet bei Anordnung „mehr“ und „aufsteigend“. Dies ist bei beiden Designs erfüllt. Bei der vertikalen Ausrichtung gibt es allerdings zwei sich widersprechende Prinzipien. Die Leserichtung spricht für eine aufsteigende Reihenfolge von oben nach unten. Die Systemergonomie würde jedoch eine Anordnung der höheren Werte oben und den kleineren Werten unten nahelegen. Und genau hier liegt auch der Unterschied in den beiden Ziffernblockvarianten in Anpassung an ihren Einsatzzweck: Eine Telefonnummer ist nichts anderes als ein Code dessen Bestandteile keine Wertigkeit besitzen. Sie ließe sich theoretisch auch mit Buchstaben oder Symbolen realisieren. Auf einem Telefon liegen auf den Tasten also Ziffern. Bei einem Taschenrechner haben die Ziffern aber einen Wert. Hier werden sie nicht als Ziffern sondern als Zahlen verstanden. Deshalb sind hier die größeren Zahlen oben und die kleineren unten angeordnet. Bei der Entwicklung der ersten Geldautomaten stellte man sich die Frage, welches Konzept des Ziffernblocks geeigneter erschiene. Der Ziffernblock wird für das Eingeben der PIN und selten (wegen der mittels Softkey vorgeschlagenen Beträge) für die Wahl des auszuzahlenden Betrages genutzt. Man entschied sich für den Telefonblock, was aufgrund der vornehmlichen Eingabe eines Codes auch sinnvoll ist. Dahm 2006, S. 166 5.1.2 Mechanik Bei einer Tastatur sind für eine gute haptische Rückmeldung zwei Eigenschaften bedeutend: Tastenhub Damit der Benutzer fühlt, dass er eine Taste gedrückt hat, sollte die sich einen gewisses Stück nach unten bewegen. Klassische Tastaturen haben ungefähr 4–5 mm Hub, moderne Laptop-Tastaturen meist nur 2–3 mm. Druckpunkt SEMESTERARBEIT JUREK BREUNINGER 37 HARDWARE Neben der Bewegung der Taste sollte auch der genaue Zeitpunkt, an dem die Eingabe erfolgt, spürbar sein. Dies wird durch zunehmenden nötigen Kraftaufwand beim Drücken erreicht, der genau am Punkt des Kontaktschließens stark abfällt (Abbildung 5.1-70). Kraft Kraft Schaltpunkt Weg Schaltpunkt Fehlende Kraftrückmeldung Weg Kraftrückmeldung am Schaltpunkt Abbildung 5.1-7: Diese Graphiken zeigen die Abhängigkeit des Weges von der Druckkraft für Schalter mit schlechter und guter haptischer Rückmeldung. Moderne Computertastaturen sind im Wesentlichen nach zwei mechanischen Prinzipien aufgebaut: Membrankontakte (Abbildung 5.1-8): Die meisten Tastaturen haben Membrankontakte, bei der die Tastenkappen auf kleinen Ausstülpungen einer Gummimatte aufliegen. Die Matte liegt auf einer elektronischen Platine, die unter jeder Taste eng beieinanderliegende Kontaktstellen hat. Wenn die Gummikuppel durch die Taste flach auf die Platine gedrückt wird, schließt ein Graphitblättchen in der Kuppel den Kontakt. Beim Loslassen hebt die Eigenspannung der Gummimatte den Tastenkopf wieder an. Der Tastenhub ist begrenzt und der Druckpunkt oft nicht sehr genau. Mechanische Tastaturen: Sehr hochwertige Tastaturen in Büroumgebungen haben Crosspoint-Kontakte, bei denen der Widerstand der Tasten durch Fe- SEMESTERARBEIT JUREK BREUNINGER 38 HARDWARE dern erzeugt wird. Solche Tastaturen sind deutlich langlebiger (>1 Milliarde Betätigungen) als Membrankontakt-Tastaturen, aber auch deutlich aufwendiger in der Herstellung. Dafür können im Fehlerfall einzelne Tasten ausgetauscht werden. Die Funktionsweise der Schalter kann sich je nach Hersteller unterscheiden. Zum Beispiel kommt der Kontakt zustande, wenn beim Herunterdrücken der Widerstandsfeder ein gewisser Punkt erreicht ist und die meist goldplattierte Kontaktfeder umspringt. Dies ergibt neben der sehr guten und exakten haptischen auch eine akustische Rückmeldung. Abbildung 5.1-8: Die meisten Tastaturen, hier eine Laptoptastatur, bestehen aus einer Platine, einer Tastaturmatte und den Tastenkappen. Abbildung 5.1-9: Professionelle Tastaturen bestehen aus Einzelschaltern für jede Taste. Diese haben eine gute haptische Rückmeldung und höhere Lebensdauer als Membrankontakte. Im Bild ein Crosspoint-Schalter von Cherry. Dahm 2006, S. 163f. SEMESTERARBEIT JUREK BREUNINGER 39 HARDWARE 5.1.3 Spezielle Tastaturen In der Anfangszeit der Computer und vor allem in der Blütezeit der Heimcomputer in den Achtzigerjahren gab es eine Vielzahl von Bauformen für Tastaturen. Heute hat sich im Prinzip nur die Tastatur des IBM-PC und die ihr inzwischen recht ähnliche Apple-Tastatur durchgesetzt. Auch wenn seit der Einführung des PC AT (1984) noch ein paar Tasten hinzukamen, ist die 105-Tasten-Tastatur (englisch 104 Tasten), die mit der Einführung von Windows 95 geschaffen wurde, bis heute der Stand der Technik. Sie ist (abgesehen von den Windows-Tasten) auch Teil der Norm DIN 2137, Teil 2 „Alphanumerische Tastaturen für die Daten- und Textverarbeitung“. Die Tastaturen der unterschiedlichen Hersteller setzen sich meist nur durch einige programmierbare Zusatztasten voneinander ab. Doch für einige spezielle Einsatzgebiete kommen auch deutlich andere Tastaturen zum Einsatz, die sich in ihrem Aufbau völlig von der Standard-PC-Tastatur unterscheiden können. 5.1.3.1 Winkeltastaturen Winkeltastaturen (Abbildung 5.1-10), von den Herstellern gerne als „ergonomische Tastaturen“ bezeichnet, sollen durch eine andere Handstellung Berufskrankheiten wie RSI vermeiden. Auch wenn die medizinischen Grundlagen für die geringere Belastung von Muskeln, Sehnen und Gelenken belegt sind, mangelt es an fundierten Langzeitstudien, die die positiven Effekte dieser Tastaturen beweisen. Abbildung 5.1-10: Eine beliebte Winkeltastatur: Das Natural Keyboard von Microsoft. Dahm 2006, S. 167f. Shneiderman 2005, S. 352 SEMESTERARBEIT JUREK BREUNINGER 40 HARDWARE 5.1.3.2 Matrixtastaturen Matrixtastaturen (Abbildung 5.1-11 und Abbildung 5.1-12) sind eine Variante klassischer Computertastaturen, die eine weitere von den Schreibmaschinen geerbte Schwäche beseitigen: Obwohl ein Computer keine Mechanik mehr hat sind die Reihen der Tasten bis heute gegeneinander versetzt. Eine Matrixtastatur ordnet die Tasten symmetrisch in einer Matrix an. Dies erleichtert den Fingern beim Zehn-FingerSchreiben das Wechseln in die untere und die oberen Reihen. Auch behaupten die Hersteller, dass dies die Belastung der Hände und die Gefahr für RSI reduziert. Abbildung 5.1-11: Eine Matrixtastatur ordnet die Tasten ohne den von der Schreibmaschine geerbten Versatz an. Abbildung 5.1-12: Eine besondere Form der Matrixtastaturen sind die Contoured Keyboards. Sie wollen eine günstigere Handstellung durch versenken der Tastenebene erreichen. Darüber hinaus werden hier einige Tasten neu angeordnet. http://www.typematrix.com/study/ http://www.kinesis-ergo.com/benefits.htm SEMESTERARBEIT JUREK BREUNINGER 41 HARDWARE 5.1.3.3 Folientastaturen Folientastaturen (Abbildung 5.1-14) funktionieren ähnlich wie MembrankontaktTastaturen (Abbildung 5.1-13), haben allerdings einen sehr kurzen Hub. Sie werden häufig an elektrischen Geräten eingesetzt, denn sie haben folgende Vorteile: Extrem flach Billig; auch spezielle Layouts lassen sich in kleinen Stückzahlen für Prototypen vergleichsweise billig herstellen. Einfache Möglichkeit bunter Gestaltung und integrierter Leuchtdioden Abwaschbar, staubdicht, wasserdicht, unempfindlich gegen Chemikalien, sterilisierbar (deshalb häufig in medizinischen Geräten) Abbildung 5.1-13: Funktionsweise von Folientastaturen: Das Drücken der oberen Folie auf die untere schließt den Kontakt. Durch die Eigenspannung der Folie kehrt die Taste in den offenen Zustand zurück. Abbildung 5.1-14: Eine individuell erstellte Folientastatur für Industrieanwendung. SEMESTERARBEIT JUREK BREUNINGER 42 HARDWARE Das wiegt jedoch bei häufiger Benutzung nicht ihren einzigen Nachteil auf: Sie haben eine sehr schlechte haptische Rückmeldung. Der Tastenhub ist sehr gering und der Druckpunkt meist sehr inexakt. Darüber hinaus ist zum Drücken ein relativ hoher Druck notwendig. Dahm 2006, S. 164f. 5.1.3.4 Vandalismus-sichere Tastaturen Für Softwaresysteme an öffentlichen Plätzen werden meist vandalismus-sichere Tastaturen verwendet; zum Beispiel an Geldautomaten, Fahrkartenautomaten, Auskunftsystemen. Diese unterscheiden sich von normalen Tastaturen durch ihre widerstandsfähige Bauweise, meistens aus Metall (Abbildung 5.1-15). Dadurch haben sie meist eine schlechtere Ergonomie, etwa einen kurzen Tastenhub. Abbildung 5.1-15: Vandalismussichere Tastaturen kommen bei Geräten im öffentlichen Raum zum Einsatz, zum Beispiel Bankautomaten. Dahm 2006, S. 167 SEMESTERARBEIT JUREK BREUNINGER 43 HARDWARE 5.1.3.5 Faltbare Tastaturen Um vollwertige Tastaturen für kleine mobile Geräte wie PDAs oder Smartphones zu ermöglichen, gibt es faltbare Tastaturen (Abbildung 5.1-16), die selbst auf kleines Packmaß reduziert werden können und so einfach zu transportieren sind. Sie bieten gegenüber anderen Lösungen wie virtuellen Tastaturen, rein numerischen Tastaturen oder Lasertastaturen den Vorteil einer mit normalen Tastaturen vergleichbaren Haptik und Eingabegeschwindigkeit. Abbildung 5.1-16: Ein faltbares Keyboard mit einer Halterung für einen PDA. Shneiderman 2005, S. 355f. 5.1.3.6 Lasertastaturen Lasertastaturen (Abbildung 5.1-17) sind ebenfalls Spezialtastaturen für mobile Geräte, bei denen es auf geringe Größe und Gewicht ankommt. Sie projizieren ein Tastaturfeld auf eine ebene Fläche und ermitteln mittels Infrarotsensor, wo der Benutzer dort „eine Taste drückt“. Sie sind gewöhnungsbedürftig, da ihnen jegliche haptische Rückmeldung fehlt. SEMESTERARBEIT JUREK BREUNINGER 44 HARDWARE Abbildung 5.1-17: Ein Laserkeyboard projiziert eine virtuelle Tastatur auf den Tisch. Dahm 2006, S. 168 Shneiderman 2005, S. 355f. 5.1.3.7 Ein-Hand-Tastaturen Ein-Hand-Tastaturen ermöglichen den kompletten Zeichenumfang klassischer Tastaturen mit einer Hand einzugeben. Dies ermöglicht, mit der anderen Hand gleichzeitig andere Eingabegeräte zu bedienen, etwa die Maus, Zeichenbrett oder spezielle Eingabegeräte. Auch in anderen Situationen, in denen Texteingabe erforderlich ist, aber nur eine Hand frei, können sie nützlich sein. Sie eignen sich für mobile Geräte, die in der einen Hand gehalten werden, während die andere tippt. Mit intensivem Training lassen sich ähnliche Tippgeschwindigkeiten wie mit zweihändigen Tastaturen erreichen, darüber hinaus verfügen sie über genauso gute Haptik. Abbildung 5.1-18: Eine Ein-Hand-Tastatur. Auf dem Bild ist ein Rechtshändermodell zu sehen. Die zweite (grüne) Ebene wird durch das Drücken der Leertaste als Modifikator erreicht. http://www.frogpad.com/FPInfo-FAQ.html SEMESTERARBEIT JUREK BREUNINGER 45 HARDWARE 5.1.3.8 Akkordtastaturen Eine Eingabemethode, die stark von klassischen Tastaturen abweicht, sind die Akkordtastaturen (Abbildung 5.1-19). Während bei einem normalen Keyboard ein Zeichen durch das Drücken genau einer Taste erreicht wird (Großschreibung und Symbole werden meist durch zusätzliches Drücken eines Modifikators erzeugt), erzeugt man auf Akkordtastaturen die Zeichen durch das gleichzeitige Drücken von bis zu fünf Tasten gleichzeitig. Dies erfordert das Erlernen der entsprechenden Kombinationen. Akkordtastaturen besitzen entsprechend weniger Tasten und sind meist auch einhändig zu bedienen (Abbildung 5.1-20). Aufgrund des Lernaufwandes können sie sich nur in Spezialanwendungen durchsetzen (Stenographie, Abbildung 5.1-21). Abbildung 5.1-19: Die meisten Akkordtastaturen sind einhändig bedienbar. Diese ist symmetrisch aufgebaut und damit wahlweise mit links oder rechts zu bedienen. Abbildung 5.1-20: Die Akkordtastatur Twiddler wird mit einem Band um die Hand getragen und ist somit auch für den mobilen Einsatz geeignet. SEMESTERARBEIT JUREK BREUNINGER 46 HARDWARE Abbildung 5.1-21: Die verbreiteteste Anwendung von Akkordtastaturen ist Maschinenstenographie. Mit diesen Tastaturen wird in Gerichtssälen und Parlamentssitzungen mitgeschrieben. Dahm 2006, S. 167 http://www.cykey.co.uk/ http://www.handykey.com/ 5.1.3.9 Tastaturen in eingebetteten Computern Tastaturen in eingebetteten Computern werden häufig speziell für ihren Einsatzzweck entworfen. Deshalb finden sich hier neben alphanumerischen und rein numerischen Tastaturen auch sehr spezielle Designs (Abbildung 5.1-22). Dies führt von einfachen Matrix-Tastaturen mit speziellen Belegungen in Kassensystemen (Abbildung 5.1-23) über auf die Menüstruktur abgestimmte Softkeys in Mobiltelefonen (Abbildung 5.1-24) und Geldautomaten bis zu komplexen Spezial-Layouts bei Industrieanwendungen. Abbildung 5.1-22: Diese Eingabegeräte für Videobearbeitung sind speziell für diesen Zweck entworfen. SEMESTERARBEIT JUREK BREUNINGER 47 HARDWARE Abbildung 5.1-23: POS-Tastaturen (Point of Sale) werden meist an die Verkaufsangebot des Anwenders angepasst. Sie haben für viele Produkte eine eigene Taste. Abbildung 5.1-24: Vor allem aus Mobiltelefonen sind die Softkeys unterhalb des Displays bekannt, die verschiedene Funktionen übernehmen können und wenig Platz beanspruchen. Moderne Smartphones besitzen oft auch eine komplette BuchstabenTastatur um die Texteingabe zu erleichtern. Dahm 2006, S. 165 SEMESTERARBEIT JUREK BREUNINGER 48 HARDWARE 5.2 Zeigegeräte Zeigegeräte steuern die Bewegung des Cursors oder Mauszeigers auf dem Bildschirm und ermöglichen direkte Manipulation. Moderne graphische Oberflächen sind stark auf Zeigegeräte angewiesen. Das meistgenutzte Zeigegerät war und ist die Maus, die von Engelbart 1963 für das NLS entwickelt wurde. Doch es gibt inzwischen eine Menge Alternativen zur Maus, die meist aus speziellen Anforderungen heraus entstanden sind. Man unterscheidet bei Zeigegeräten die Art der Positionierung: Relative Positionierung Die Position des Mauszeigers lässt sich nur ändern. Es ist kein Springen möglich. Beispiele: Maus, Trackball, Joystick, Trackpin, Touchpad Absolute Positionierung Die Position kann direkt eingegeben werden. Der Mauszeiger muss keinen Weg zurücklegen. Beispiele: Grafiktablett, Touchscreen, Lichtgriffel 5.2.1 Maus Die Maus hat sich in ihrer Grundfunktion seit ihrer Einführung nicht geändert (Abbildung 5.2-1). Die meisten Mäuse sind Zwei- oder Dreitastenmäuse, manche haben auch zusätzliche programmierbare Tasten. Die Abtastung des Untergrunds erfolgt heute meistens optisch und damit wartungsfrei statt mechanisch. Die Auflösung der optischen Sensoren, die die Genauigkeit der Positionierung bestimmen, hat sich in letzter Zeit stark gesteigert. Dies wird den auch gestiegenen Auflösungen der Bildschirme gerecht. Zum Verschieben des Fensterinhaltes (scrollen) oder Ändern der Vergrößerung (zoomen) besitzen die meisten Mäuse ein gerastertes Rad. Neben kabelgebundenen gibt es auch über Funk sendende Mäuse. Ein ergonomisch interessantes Konzept ist die Entwicklung von Mäusen mit haptischer Rückmeldung. Sie können durch Vibration oder dem Sperren der Tasten den Ort des Mauszeigers oder die Inaktivität bestimmter Schaltflächen verdeutlichen. Allerdings hat sich dieses Konzept wegen der bereits sehr gut funktionierenden Mausbedienung nicht durchgesetzt. Die Maus ist laut Studien von den bekannten Zeigegeräten die schnellste und präziseste. Einzig der Touchscreen ist ähnlich schnell, hat aber bei Fingerbedienung deutlich schlechtere Präzision. SEMESTERARBEIT JUREK BREUNINGER 49 HARDWARE Abbildung 5.2-1: Abgesehen vom zusätzlichen Mausrad hat sich die Computermaus seit ihrer Erfindung in der Form kaum geändert. Allerdings funktioniert das Bestimmen der Position inzwischen optisch und nicht mehr mechanisch. Cooper 2007, S. 377ff. Dahm 2006, S. 169 Shneiderman 2005, S. 362, S. 365 5.2.2 Trackball Der Trackball (Abbildung 5.2-2) funktioniert wie eine klassische mechanische Kugelmaus, nur dass man nicht das ganze Gehäuse bewegt, sondern direkt die Kugel. Dadurch bleibt der Trackball an einer festen Position und die Belastung der Hand ist geringer. Außerdem kann man die Kugel für eine gleichbleibende Bewegung anstoßen. Allerdings hat ein Trackball die Probleme der Kugelmaus wie Verschmutzung und die Genauigkeit und Bediengeschwindigkeit sind geringer als bei einer Maus. Er wird dort eingesetzt, wo für das Bewegen einer Maus kein Platz ist oder keine losen Gegenstände erwünscht sind, zum Beispiel in industriellen Umgebungen. Früher wurde er auch als Mausersatz bei Laptops eingesetzt, wurde dort aber inzwischen vom Touchpad verdrängt. Abbildung 5.2-2: Ein Trackball für die Benutzung am PC. Dort hat er allerdings kaum Bedeutung. Er kommt meist dort zum Einsatz, wo kein Platz für Mausbewegungen ist oder das Zeigegerät fest integriert sein muss. Dahm 2006, S. 170 Shneiderman 2005, S. 362, S. 364 SEMESTERARBEIT JUREK BREUNINGER 50 HARDWARE 5.2.3 Trackpoint Der Trackpoint (auch Trackpin, Abbildung 5.2-3) ist ein kleiner Joystick, der bei manchen Laptops als Mausersatz dient. Er wird vor allem dort eingesetzt, wo wenig Bauraum vorhanden ist. Im Gegensatz zum Joystick bewegt er sich selbst nicht, sondern misst den auf ihn ausgeübten Druck und ändert die Zeigergeschwindigkeit entsprechend. Man spricht auch von einem isometrischen Joystick. Dadurch, dass unterschiedlich starker Druck nicht zu unterschiedlichem Nachgeben führt, ist die Rückmeldung für den Anwender recht schlecht. Abbildung 5.2-3: Ein Trackpoint, der in eine Laptoptastatur integriert ist. Er liegt in der Mitte, damit er mit dem Zeigefinger bedient werden kann ohne die Hände aus der Grundstellung zu nehmen. Die Maustasten liegen meist unterhalb der Leertaste für Bedienung mit den Daumen. Der Trackpoint ist auf Laptops inzwischen von Touchpads verdrängt worden. Dahm 2006, S. 171 Shneiderman 2005, S. 364f. 5.2.4 Touchpad Das Touchpad ist ein gängiger Ersatz für die Maus der bei den meisten Laptops fest eingebaut ist (Abbildung 5.2-4). Man steuert den Mauszeiger durch Bewegung des Fingers auf der Touchpad-Oberfläche. Durch antippen lassen sich auch Klick, Doppelklick und das Ziehen von Objekten erreichen, dies erfordert allerdings etwas Gewöhnung und sollte deshalb abschaltbar sein. Darüber hinaus sind meist auch normale Tasten vorhanden. Wie der Trackpoint ist das Touchpad ein Mausersatz, der SEMESTERARBEIT JUREK BREUNINGER 51 HARDWARE nicht ihre Geschwindigkeit und Genauigkeit erreicht, aber überall dort zum Einsatz kommen kann, wo kein Platz für eine Maus ist (Abbildung 5.2-5). Abbildung 5.2-4: Das Touchpad eines Laptops. Es besitzt an den Rändern Bereiche, die das Scrollen steuern und somit die gleiche Funktionalität wie ein Mausrad haben. Abbildung 5.2-5: Ein weiterer Bereich, wo Touchpads inzwischen häufig eingebaut werden, ist die Unterhaltungselektronik. Bei Apples Ipod wird die menübasierte Steuerung mit einem kreisförmigen Touchpad kontrolliert. Dahm 2006, S. 170 Shneiderman 2005, S. 365 SEMESTERARBEIT JUREK BREUNINGER 52 HARDWARE 5.2.5 Joystick Der Joystick ist ein Eingabegerät, das dem Steuerknüppel eines Flugzeuges nachempfunden ist. Es fand durch die Flugsimulation seinen Weg zum Computer und wird vor allem in professionellen Simulatoren und für Computerspiele eingesetzt (Abbildung 5.2-6). Mit ihm ist eine realistische Steuerung um zwei oder drei Achsen möglich, die gute Rückmeldung bietet. Manche Joysticks enthalten Elektromotoren (Force Feedback), die mit Gegenkräften und Vibrationen die Rückmeldung stark erweitern. Neben diesen analogen Joysticks, die sich in jeder Achse über einen Bereich bewegen lassen, gibt es auch digitale Joysticks, die meist kurze Stellwege haben und die Bewegung in eine Richtung als einen oder selten mehrere diskrete Werte signalisieren (Abbildung 5.2-7). Abbildung 5.2-6: Ein analoger Joystick mit Schubkontrolle für Flugsimulatoren. Abbildung 5.2-7: Zwei Beispiele für digitale Joysticks: Der iDrive-Controller und der digitale Schaltgriff in einem BMW. SEMESTERARBEIT JUREK BREUNINGER 53 HARDWARE Abbildung 5.2-8: Eine Kombination aus Flughorn, Schubkontrolle und Ruderpedalen. Als spezielle Art von Joystick können andere aus der Realwelt stammende Eingabegeräte verstanden werden: Es gibt auch Flughörner, Triebwerksteuerungen, Lenkräder, Gas- und Ruderpedale (Abbildung 5.2-8). Außerdem gibt es speziell für Computerspiele entwickelte Eingabegeräte wie Gamepads (die viele Tasten und oft kleine Joysticks enthalten, Abbildung 5.2-9). Abbildung 5.2-9: Ein Gamepad mit integriertem Joystick. Dahm 2006, S. 170 Shneiderman 2005, S. 364 SEMESTERARBEIT JUREK BREUNINGER 54 HARDWARE 5.2.6 Räder und Drehknöpfe Obwohl kein Zeigegerät im eigentlichen Sinn, können einfach Räder oder Drehknöpfe oft geeignete Eingabemittel für (quasi)analoge, aber auch für diskrete Werte sein. Bekannt sind sie von der Lautstärkeneinstellung von Stereoanlagen oder der Zeiteingabe bei Mikrowellen. Sie sollten digitalen Knöpfen (+ und -) wenn möglich vorgezogen werden. Es gibt sie zum Einstellen absoluter Werte (mit Anschlag, oft mit Skala) und relativer Werte (endlos drehbar), gerastert (Jog Dial) und ungerastert. Vor allem in eingebetteten Computern kommen sie wegen ihrer kompakten Bauform und Stabilität zum Einsatz (Abbildung 5.2-10, Abbildung 5.2-11). Abbildung 5.2-10: Die Bedieneinheiten von Infotainmentsystemen sind oft Kombinationen aus Drehknöpfen und digitalen Joysticks. Abbildung 5.2-11: Dieses Mobiltelefon nutzt ein Jog Dial zur Navigation durch Menüs. Dahm 2006, S. 171 SEMESTERARBEIT JUREK BREUNINGER 55 HARDWARE 5.2.7 Lichtgriffel Der Lichtgriffel (Abbildung 5.2-12) ist ein Vorläufer des Grafiktabletts und des Touchscreens und erlaubt eine absolute Positionierung. Er kommt heute kaum noch zum Einsatz, da seine Technik nur bei Röhrenmonitoren funktioniert, die inzwischen weitgehend von Flachbildschirmen abgelöst worden sind. Der Lichtgriffel ist ein Stab, an dessen Spitze ein Fototransistor angebracht ist. Wenn er in die Nähe der phosphoreszierenden Schicht eines Röhrenbildschirms gebracht wird, gibt er in dem Augenblick, in dem der Elektronenstrahl der Röhre dort vorbeikommt, ein elektrisches Signal in Abhängigkeit der Bildschirmhelligkeit. Aus dem Auslösezeitpunkt des Signals und der Geschwindigkeit des über den Bildschirm geführten Elektronenstrahls kann die Position des Lichtgriffels errechnet werden. Er funktioniert nicht an schwarzen oder sehr dunklen Stellen des Bildschirms. Abbildung 5.2-12: Eine Hypertext-Editiersoftware auf einem Universitätscomputer Ende der Sechzigerjahre. Als Zeigegerät kommt ein Lichtgriffel zum Einsatz. Shneiderman 2005, S. 359 http://design.osu.edu/carlson/history/lesson2.html 5.2.8 Grafiktablett Ein Grafiktablett (Abbildung 5.2-13) ist eine berührungsempfindliche Oberfläche ähnlich einem Touchpad, das vornehmlich zum Zeichnen eingesetzt wird. Es gibt Tabletts von DIN A6 bis DIN A2. Statt mit dem Finger wird es mit einem Stift oder einer speziellen Maus bedient. Der Stift übermittelt immer seine absolute Position im Gegensatz zu den meisten anderen Zeigegeräten. Ein Sensor im Stift misst den Druck, mit dem aufgedrückt wird (Abbildung 5.2-18). Dadurch wird zum Beispiel die Linienbreite oder die Farbsättigung bestimmt. Während klassische Grafiktabletts dedizierte SEMESTERARBEIT JUREK BREUNINGER 56 HARDWARE Eingabegeräte sind, die auf dem Tisch liegen und dadurch etwas Übung für die Hand-Auge-Koordination benötigen, gibt es inzwischen auch Geräte, die eine Kombination aus Tablett und Bildschirm sind. Man sieht auf ihnen sofort die Wirkung des Stiftes an der Stelle der Berührung. Dies ist eine gute optische Rückmeldung. Es hat allerdings den Nachteil, dass die Hand und der Arm des Anwenders einen Teil des Bildschirms verdecken. Die haptische Rückmeldung von Grafiktabletts, wie unterschiedlicher Widerstand oder Druck, ist sehr begrenzt. Abbildung 5.2-13: Ein Grafiktablett für das Zeichnen am PC. Dahm 2006, S. 171 Shneiderman 2005, S. 365 5.2.9 Touchscreen Alle bisher genannten Eingabegeräte setzen eine gute Hand-Auge-Koordination voraus, da die Bedienung des Stellteils örtlich getrennt ist vom Beobachten der Rückmeldung auf dem Bildschirm. Der Mauszeiger ist nur ein Hilfsmittel, der vergessen macht, dass die Manipulation der Software-Elemente indirekt geschieht. Echte direkte Manipulation erlaubt ein Touchscreen, ein berührungsempfindlicher Bildschirm (Abbildung 5.2-14, Abbildung 5.2-15). Ein Touchscreen ist Eingabe- und Ausgabegerät in einem. Die meisten Touchscreens lassen sich entweder mit einem (je nach Technologie speziellen) Stift (Stylus) oder den Fingern bedienen. Stiftbedienung erlaubt neben präziser Auswahl bei klassischen Mausaufgaben auch Handschrifterkennung (Optical Character Recognition, OCR). SEMESTERARBEIT JUREK BREUNINGER 57 HARDWARE Abbildung 5.2-14: Touchscreens gibt es von recht kleinen für Mobiltelefone (meist resistiv oder kapazitiv)… Abbildung 5.2-15: …bis zu sehr großen, wie diesen Touchscreen-Tisch von Microsoft, der auch mehrere Berührungen gleichzeitig erkennt. Er ist eine spezielle Form des optischen Touchscreens: Ein Projektor bildet das Bild von unten auf der Tischfläche ab. Mehrere Infrarotkameras erkennen von unten die Positionen von Gegenständen, die die Oberfläche berühren. SEMESTERARBEIT JUREK BREUNINGER 58 HARDWARE Für die Erkennung der Finger- oder Stylusposition gibt es verschiedene Technologien: Ultraschall (Surface Accoustic Wave, SAW) Am Bildschirmrand sind Ultraschallaktoren und -sensoren angebracht. Die Wellen, die sich über den Bildschirm ausbreiten, werden an den Stellen, wo ein Finger die Oberfläche berührt, gedämpft. Aus dem Zeitpunkt der Abschwächung ist die Position bestimmbar (Abbildung 5.2-16). Der eigentliche Bildschirm muss nicht geändert werden. Diese Technik wird vor allem bei vandalismus-sicheren Anlagen eingesetzt, da man den Bildschirm durch eine dicke Scheibe, durch die die Wellen laufen, schützen kann. Infrarot Ein regelmäßiges Strahlengitter aus Infrarotlichtstrahlen wird über dem Bildschirm gespannt. Die Sender und Empfänger sitzen am Rand. Dort wo ein Finger die Oberfläche berührt (oder auch nur fast berührt), werden die jeweiligen Strahlen unterbrochen. Damit ist die X- und Y-Komponente des Fingers bekannt (Abbildung 5.2-16). Abbildung 5.2-16: Prinzipbild eines optischen (links) und eines akustischen Touchscreens (rechts). Resistiv Auf dem Bildschirm klebt eine Folie mit zwei Schichten aus durchsichtigen Widerstandsdrähten, die sich nicht berühren. Durch Druck mit dem Finger wird dort ein Kontakt geschlossen und die Position kann aus den Widerständen errechnet werden (Abbildung 5.2-17). Der Nachteil ist, dass eine weitere Schicht über dem Bildschirm liegt, die die Sicht und die Schärfe beeinträchtigen und verkratzen kann. SEMESTERARBEIT JUREK BREUNINGER 59 HARDWARE Kapazitiv Auf dem Bildschirm klebt eine Folie, durch die ein geringer konstanter Strom bei bekannter Kapazität fließt. Berührt ein Finger die Oberfläche, so ändert sich die Kapazität, was durch Messung des Stroms an den vier Ecken des Touchscreens die Bestimmung der Position zulässt (Abbildung 5.2-17). Dies funktioniert nicht, wenn man den Bildschirm mit nicht leitenden Materialien berührt. Die Einschränkungen des resistiven Touchscreens gelten ebenfalls. Abbildung 5.2-17: Prinzipbild eines resistiven (links) und eines kapazitiven Touchscreens (rechts). Piezoelektronisch Bei einem piezoelektronischen Touchscreen sitzt an den vier Ecken einer Glasplatte über dem Bildschirm jeweils ein Piezoelement. Piezoelemente erzeugen aus Druck eine Spannung (Abbildung 5.2-18). Durch die verschiedenen Spannungen der vier Elemente kann auf Ort und Höhe der Krafteinwirkung einer Berührung geschlossen werden. Da eine klare Glasplatte verwendet wird, gelten die Einschränkungen von resistiven und kapazitiven Touchscreens bezüglich Sichtbeeinträchtigung nicht. Man kann bestehende Monitore mit dieser Technik nachrüsten. Moderne Eingabekonzepte werden mit Touchscreens realisiert, die mehr als eine Fingerberührung gleichzeitig auswerten können. Dies ist am einfachsten mit kapaziti- SEMESTERARBEIT JUREK BREUNINGER 60 HARDWARE ven und Infrarot-Touchscreens möglich. Die wichtigsten Eigenschaften der verschiedenen Technologien zeigt Tabelle 5-1. Abbildung 5.2-18: Prinzipbild eines piezoelektronischen Touchscreens (links) und eines Grafiktabletts (rechts). Tabelle 5-1: Technische Realisierungen von Touchscreens Funktionsprinzip optisch akustisch resisitv kapazitiv Piezo Auflösung niedrig hoch hoch mittel mittel Lichtdurchlässig- 100% > 90% > 70% > 90% Bis > 94% beliebig weich, beliebig leitend beliebig einmalig wieder- einmalig keit Griffelmaterial energieabsorbierend Kalibrierung nie einmalig holt Haltbarkeit nahezu nahezu mittel hoch unbegrenzt unbegrenzt Information nein ja nahezu unbegrenzt nein nein Ja über Anpresskraft Schenk 2007, S. 16–21 Dahm 2006, S. 173f. Shneiderman 2005, S. 359–361 SEMESTERARBEIT JUREK BREUNINGER 61 HARDWARE 5.3 3D-Eingabegeräte Klassische Zeigegeräte sind für die Ansteuerung in einem zweidimensionalen Raum ausgelegt. In vielen Computeranwendungen sind aber drei Dimensionen vorhanden (CAD, Virtual Reality, Augmented Reality, Computerspiele, moderne Bedienkonzepte). Man kann diese Anwendungen meist auch mit den zweidimensionalen Zeigegeräten steuern, allerdings mit gewissen Einschränkungen. Es gibt auch Zeigegeräte, die für den dreidimensionalen Raum ausgelegt sind (Abbildung 5.3-3). 5.3.1 Spacemouse Die Spacemouse oder 3D-Maus (Abbildung 5.3-1), auch je nach Bauart Spaceball (Abbildung 5.3-2) genannt, da sie wenig mit einer Maus gemein hat, ist ein verbreitetes Eingabegerät beim CAD im Maschinenbau und in der Architektur. Sie ist eine spezielle Form des isometrischen Joysticks, der sich in drei Richtungen drücken lässt und auch Drehmomente um die drei Achsen misst. Somit ist eine Steuerung in alle Raumrichtungen möglich. Abbildung 5.3-1: Eine 3D-Maus für CAD. Neben dem isometrischen Joystick besitzt dieses Modell noch einige zusätzliche Tasten, um effizient zu arbeiten. Abbildung 5.3-2: Ein Spaceball funktioniert wie ein 3D-Maus. Der Isometrische Joystick hat die Form einer Kugel. SEMESTERARBEIT JUREK BREUNINGER 62 HARDWARE Abbildung 5.3-3: Eine Art dreidimensionaler Force-Feedback-Joystick ist der Novint Falcon. Die Kugel lässt sich in alle Richtungen drücken und drehen, Elektromotoren sorgen für eine haptische Rückmeldung. Dahm 2006, S. 172 5.3.2 Dataglove Der Dataglove (Abbildung 5.3-4) oder Cyberglove wurde speziell für Virtual-RealityAnwendungen entwickelt. Es handelt sich um einen Handschuh, der Beugung und Bewegung jedes einzelnen Fingers misst. Zusätzlich werden die Position und die Orientierung der Hand im Raum berücksichtigt. Dies geschieht für die Position mittels Ultraschall- oder Infrarottriangulation und für die Richtung mittels eines PolhemusSensors. Das sind drei orthogonale Spulen, deren Ausrichtung in einem dafür erzeugten Magnetfeld gemessen werden können. Der Dataglove bewegt meist keinen Mauszeiger, sondern eine virtuelle Hand in der Anwendung. Um auch eine haptische Rückmeldung beim Berühren virtueller Objekte zu erreichen, gibt es Modelle mit Vibrationselementen und sogar solche mit Exoskelett, die die Bewegung bei virtueller Berührung einschränken und so massives Material suggerieren (Abbildung 5.3-5). Abbildung 5.3-4: Ein Dataglove von 5DT. Datagloves werden v. a. für VR verwendet. SEMESTERARBEIT JUREK BREUNINGER 63 HARDWARE Abbildung 5.3-5: Cybergloves mit Exoskelett ermöglichen die haptische Simulation massiver virtueller Gegenstände. Dahm 2006, S. 172 Shneiderman 2005, S. 370f. 5.3.3 Gamepads mit Bewegungssensoren Eine Technologie für die Erfassung dreidimensionaler Bewegungen, die bei Spielekonsolen verwendet wird, ist, die etablierten Gamepads mit Bewegungssensoren auszustatten. Der bekannteste Controller dieser Art ist die Wiimote von Nintendo (Abbildung 5.3-6). Mit Hilfe einer Infrarotkamera, die Referenzpunkte über- und unterhalb des Bildschirms erkennt, sowie von Bewegungssensoren, die translatorische und rotatorische Bewegungen erkennen, kann dieses Eingabegerät sowohl als Spielsteuerung mit völlig neuen Bedienkonzepten sowie als Mausersatz genutzt werden. Abbildung 5.3-6: Die Wiimote von Nintendo kann mittels Beschleunigungssensoren Bewegungen in alle Richtungen erkennen. Zusätzlich erkennt eine Infrarotkamera die Ausrichtung zum Bildschirm. http://www.mynintendo.de/wii-mote-controller/ SEMESTERARBEIT JUREK BREUNINGER 64 HARDWARE 5.4 Darstellung Da das Sehen der wichtigste Sinneskanal des Menschen ist, nutzen fast alle softwarebasierten Systeme irgendeine Form von Bildschirmanzeige zur Ausgabe. Die wichtigsten Display-Typen werden im Folgenden kurz vorgestellt. Für eine ergonomische Gestaltung sind folgende Kriterien der Darstellungstechnologie entscheidend: Größe der Anzeigefläche (bei Monitoren meist die Diagonale in Zoll) Auflösung (Anzahl der darstellbaren Bildpunkte (Pixel), meist angegeben in xund y-Richtung, bestimmt den Detailgrad) Punktedichte (Anzahl der Pixel pro Fläche, ergibt sich aus Größe und Auflösung, meist in dots per inch (dpi) angegeben, bestimmt den Detailgrad) Anzahl der darstellbaren Farben, Darstellung eines bestimmten Farbraumes, Farbtreue Leuchtstärke, Kontrast, Spiegelung (beeinflusst Erkennbarkeit unter verschiedenen Bedingungen) Bildwiederholraten (wie häufig ein neues Bild aufgebaut wird, entscheidet darüber, ob das Bild als flimmerfrei und Bewegungen als fließend empfunden werden) Reaktionszeit, Trägheit (entscheidet ob ein „Nachziehen“ bei bewegten Bildern beobachtet wird) Shneiderman 2005, S. 385 Dahm 2006, S. 175–178 5.4.1 CRT Der Röhrenmonitor (Cathode Ray Tube, CRT, Abbildung 5.4-2) funktioniert wie ein Fernseher nach dem Prinzip der Braunschen Röhre. In einer evakuierten Glasröhre werden Elektronen beschleunigt und auf eine phosphoreszierende Schicht geschossen, die zu leuchten beginnt. Durch Magnetfelder wird der Elektronenstrahl so abgelenkt, dass er zeilenweise ein Bild auf dem Schirm aufbaut. Die Geschwindigkeit des Elektronenstrahls bestimmt die Intensität der Leuchtpunkte. Für Farbdarstellung gibt es drei Elektronenkanonen und drei Typen von Phosphorpunkten für die Farben Rot, SEMESTERARBEIT JUREK BREUNINGER 65 HARDWARE Grün und Blau. Damit jeder Elektronenstrahl auf die richtigen Phosphorpunkte trifft, liegt vor der Leuchtschicht eine Maske mit Löchern oder Schlitzen (Abbildung 5.4-1). Abbildung 5.4-1: Das Funktionsprinzip eines CRTs: Glühkathoden (1) erzeugen Elektronenstrahlen (2). Bündelungsspulen (3) fokussieren die Elektronenstrahlen, die von Ablenkspulen (4) zeilenweise auf die Lochmaske (6) geworfen werden. Durch die Fluoreszenzschicht (7) mit roten, grünen und blauen Subpixeln (8) entsteht ein Farbbild. Abbildung 5.4-2: CRT-Monitore sind heute weitgehend von LCD-Monitoren verdrängt und nur noch in Nischen-Anwendungen eingesetzt. SEMESTERARBEIT JUREK BREUNINGER 66 HARDWARE Der Röhrenmonitor hat folgende Vorteile: Auflösungen unterhalb der Maximalauflösung sind ohne sichtbaren Qualitätsverlust darstellbar. Die Farbtreue und Helligkeit sind unabhängig vom Blickwinkel des Betrachters. CRTs können sehr große Farbräume darstellen und kalibriert werden, das heißt auf eine realitätstreue Darstellung geeicht werden. Dies ist für Anwendungen wichtig, bei denen die Darstellung am Monitor genau der Vorgabe entsprechen muss (Druckvorstufe). Hoher Kontrast Guter Schwarzwert Kurze Reaktionszeit Dem stehen folgende Nachteile gegenüber: Größe und Gewicht, tiefe Bauform Ab gewisser Größe Einschränkung der Bildqualität durch fehlende Konvergenz der Elektronenstrahlen (v. a. in den Ecken, erzeugt Farbsäume) Geringe ionisierende Strahlung, kann Augen und Schleimhäute des Nutzers durch aufgeladene Luft reizen Bei andauernder Benutzung ermüden die Augen relativ schnell, vor allem bei zu schwacher Umgebungsbeleuchtung. Dies kommt von der hohen Helligkeit und dem kontinuierlichen Bildaufbau. Verstärkt wird der Effekt, wenn das Bild durch zu geringe Wiederholfrequenzen flimmert. Inzwischen werden Röhrenmonitore nur noch für Spezialaufgaben eingesetzt, da sie von LCD-Bildschirmen abgelöst wurden. Schenk 2007, S. 27–29 Shneiderman 2005, S. 386 Dahm 2006, S. 178 SEMESTERARBEIT JUREK BREUNINGER 67 HARDWARE 5.4.2 LCD Die meisten Computermonitore sind heutzutage Flüssigkristall-Anzeigen (Liquid Crystal Display, LCD). Diese bestehen aus einer Matrix von Transistoren, die einen Flüssigkristall enthalten. Polarisiertes Licht aus einer Hintergrundbeleuchtung wird durch den Flüssigkristall auf einen Polarisierungsfilter geleitet. Je nach angelegter Spannung des Transistors richtet sich der Flüssigkristall aus und ermöglicht ein Passieren des Lichtes durch den Filter oder nicht (Abbildung 5.4-3). Zur Farbdarstellung wird ein Pixel aus Subpixeln in den Farben Rot, Grün und Blau zusammengesetzt. Abbildung 5.4-3: Ein aktiver roter Subpixel in einem LCD-Display. Das vertikal polarisierte Licht der Hintergrundbeleuchtung wird durch den Flüssigkristall um 90° in seiner Polarisation gedreht und kann so durch den horizontalen Filter und den Farbfilter treten. Beim Anlegen einer Spannung ändert sich die Lage des Flüssigkristalls und er dreht die Polarisation weniger oder gar nicht. Dann kommt weniger oder kein Licht durch den horizontalen Filter und der Pixel bleibt dunkler oder schwarz. LCDs habe folgende Vorteile: Flache Bauform Größen von Zentimetern bis Metern in der Diagonale möglich Flimmerfreiheit durch Trägheit der Kristalle Hohe Punktedichten von 300 dpi möglich SEMESTERARBEIT JUREK BREUNINGER 68 HARDWARE Aber sie haben diese Nachteile: Trägheit der Kristalle kann zur Schlierenbildung bei schnellen Bewegungen führen. Andere Auflösungen als die native, durch die Transistormatrix vorgegebene müssen unter Qualitätsverlust interpoliert werden. Je nach Technologie haben LCDs eine gewisse Blickwinkelabhängigkeit der Darstellung von Helligkeit, Kontrast und Farbdarstellung. LCDs können (noch) nur etwas kleinere Farbräume darstellen als CRTs. Abbildung 5.4-4: Ein LCD-Monitor mit 27 Zoll Diagonale. LCD-Bildschirme sind die am weitesten verbreitete Bildschirmart. Je nach Art der Hintergrundbeleuchtung unterscheidet man zwischen den zwei Typen Transflektiv Die meisten Computerdisplays besitzen eine aktive Hintergrundbeleuchtung aus Kaltkathodenstrahlenröhren (CCRT) oder LEDs. Das Bild kann nur erkannt werden, wenn die Hintergrundbeleuchtung eingeschaltet ist. Sie sind auch in dunklen Umgebungen gut lesbar. Allerdings bedarf es für eine gute Lesbarkeit unter Sonneneinstrahlung einer starken Hintergrundbeleuchtung. SEMESTERARBEIT JUREK BREUNINGER 69 HARDWARE Reflektiv Diese Displays besitzen statt einer Hintergrundbeleuchtung Spiegel, die das Umgebungslicht zur Anzeige nutzen. Sie können unter Sonnenlicht sehr gut erkannt werden, sind im Dunkeln aber nicht lesbar (Abbildung 5.4-5). Abbildung 5.4-5: Für Geräte, die unter starker Sonneneinstrahlung gut lesbar sein müssen, werden häufig reflektive Displays eingesetzt. Dieser PDA besitzt keine Hintergrundbeleuchtung. Das spart zusätzlich Strom und verlängert die Batterielaufzeit. Normalerweise haben LCDs eine diffuse Beschichtung auf der Oberfläche, da das Glas des Bildschirms sonst stark spiegelt. Diese trübt allerdings den Farbeindruck und den Kontrast. Deshalb gibt es inzwischen auch häufig Bildschirme ohne Entspiegelung. Diese lassen sich allerdings in hellen Umgebungen sehr schlecht ablesen. Schenk 2007, S. 29–32 Dahm 2006, S. 179f. Shneiderman 2005, S. 386 5.4.3 OLED Als Nachfolgetechnologie der LCDs gelten die OLEDs (Organic Light Emitting Diode). Sie bestehen aus Schichten organischer, halbleitender Materialien. Diese lassen sich auf einer Menge möglicher Trägersubstanzen aufbringen und ermöglichen so sehr dünne und auch biegsame Bildschirme (Abbildung 5.4-6). Sie können aus spitzen Ablesewinkeln ohne Einschränkungen erkannt werden und haben sehr kurze Reaktionszeiten. Darüber hinaus sind sie selbstleuchtend, also im Dunklen ablesbar. Da man das Trägermaterial reflektiv gestalten kann, können sie auch unter Sonnenlicht gut erkannt werden. SEMESTERARBEIT JUREK BREUNINGER 70 HARDWARE Abbildung 5.4-6: OLED-Displays sind flexibel und ermöglichen aufrollbare Bildschirme. Dahm 2006, S. 180 Shneiderman 2005, S. 386 5.4.4 E-Paper Eine weitere junge Technologie, die biegsame Displays ermöglichen soll, ist das EPaper. Damit ließen sich Geräte mit aufrollbarem Bildschirm zum Lesen einer digitalen Zeitung oder von E-Books realisieren. In einem E-Paper sind viele schwarze oder farbige Partikel in eine Folie integriert, die sich durch das Anlegen einer Spannung drehen lassen. Je nach Spannung entsteht ein weißer oder ein schwarzer/farbiger Punkt. Die Orientierung der Partikel bleibt auch ohne angelegte Spannung erhalten. Dadurch ist die Energieaufnahme sehr niedrig. Die optischen Eigenschaften ähneln echtem Papier. E-Paper hat den Nachteil, dass es sehr langsam schaltet und so nicht für bewegte Bilder geeignet ist. Abbildung 5.4-7: E-Paper ist ein Displaytechnologie, die genauso gut lesbar ist wie echtes Papier und einen sehr geringen Energieverbrauch hat. Dahm 2006, S. 182 SEMESTERARBEIT JUREK BREUNINGER 71 HARDWARE 5.4.5 Beamer Große Darstellungsflächen lassen sich nur eingeschränkt mit normalen Monitortechnologien erreichen. In Unternehmen können für so genannte Informational Wall Displays und Interactive Wall Displays schachbrettartig angeordnete LCDs zum Einsatz kommen. Ebenso werden Projektoren (Abbildung 5.4-8) verwendet, da deren Bild übergangslos ist. Weitere Anwendungsgebiete sind Fahr- und Flugsimulatoren, Virtual Reality Caves (Abbildung 5.4-9) und Heimkinos. Bei Beamern gibt es im Wesentlichen zwei Technologien: LCD Der Projektor funktioniert ähnlich wie ein Dia-Projektor. Statt durch ein Dia wird das Licht durch ein LCD-Scheibe geworfen. DLP (Digital Light Processing) Das Licht wird auf eine Anordnung winziger Spiegel geworfen, die gedreht werden können. Sie werfen das Licht entweder auf die Leinwand oder auf eine Fläche im Projektor. Vor der Lichtquelle dreht sich mit hoher Geschwindigkeit ein Farbrad, sodass in schneller Abfolge rotes, grünes, blaues und weißes Licht projiziert wird. Allerdings ist bei schnellen Bewegungen die Separation in drei verschieden farbige Bilder sichtbar. Abbildung 5.4-8: Ein für Heimkinos entwickelter Projektor mit LCD-Technik. Beamer haben mit LCD-Bildschirmen vergleichbare Auflösungen. Hochwertige Modelle mit 2000 Lumen oder mehr Leuchtstärke können auch in sonnenbeleuchteten Räumen eingesetzt werden. SEMESTERARBEIT JUREK BREUNINGER 72 HARDWARE Abbildung 5.4-9: Eine Virtual Reality Cave ist ein kleiner, häufig würfelförmiger Raum aus Leinwänden, die von außen mit Projektoren bestrahlt werden. In ihm können zum Beispiel Ingenieure maßstabsgetreue virtuelle Modelle ihrer Entwürfe betrachten. Häufig werden in VR Caves auch Technologien für dreidimensionale Darstellung genutzt. Der Nachteil von Beamern ist vor allem ihre eingeschränkte Helligkeit und der für eine Projektion nötige Abstand zwischen Projektor und Bild. Dahm 2006, S. 181f. Shneiderman 2005, S. 388f. 5.4.6 Head-Up-Displays Head-Up-Displays (HUDs) sind eine aus der Luftfahrt stammende Anzeigetechnologie. Sie finden inzwischen auch in Autos Anwendung. Ihr Vorteil ist, dass sie die Information in das für die Anwendung wichtige Sichtfeld projizieren. So ist kein Blickwechsel und keine Neufokussierung zwischen der Beobachtung der Primäraufgabe und der unterstützenden Information des Software-Systems nötig. Sie bieten sich für alle Aufgaben an, in denen das Software-System unterstützende Wirkung hat und nicht die Primäraufgabe ist (Abbildung 5.4-10). SEMESTERARBEIT JUREK BREUNINGER 73 HARDWARE Abbildung 5.4-10: Head-Up-Displays eignen sich als Anzeigen für sekundäre Informationen. Im Bild zeigt das HUD eines Autos Navigationsinformationen in der Windschutzscheibe an, sodass der Fahrer den Blick nicht von der Straße nehmen muss. Head-Up-Displays bestehen meist aus einer Optik, einem Display und einem Combiner (einer halbreflektierenden, lichtdurchlässigen Fläche, im Auto meist die Windschutzscheibe). Das Optikmodul projiziert das Bild des Displays auf den Combiner. Für den Benutzer erscheint das Bild auf dem Combiner als würde es in einiger Entfernung in der Umgebung schweben (Abbildung 5.4-11). Es ist bei geeigneter Konfiguration nicht einmal ein Scharfstellen der Augen notwendig. Abbildung 5.4-11: Prinzipbild eines HUD. Statt Kathodenstrahlröhren kommen heute meist LCD-Projektoren zum Einsatz. Mit einem Head-Up-Display lassen sich neben umgebungsunabhängigen Informationen wie aktueller Geschwindigkeit auch kontaktanaloge Informationen anzeigen (Abbildung 5.4-12). Diese werden in Abhängigkeit der sichtbaren Umgebung erzeugt. Zum Beispiel kann das Navigationssystem eines Autos nicht nur einen Pfeil in den Bereich vor dem Auto projizieren mit dem Hinweis, in 200 Metern abzubiegen. Der Pfeil kann auf die dahinter sichtbare Straße gelegt werden und in genau die AbzweiSEMESTERARBEIT JUREK BREUNINGER 74 HARDWARE gung zeigen, in die abgebogen werden muss. Während der Fahrt verkürzt sich der Pfeil entsprechend, sodass er immer korrekt in die Abzweigung zeigt. Ein einfaches kontaktanaloges System wird seit langem in Kampfflugzeugen verwendet. Ein künstlicher Horizont wird in Abhängigkeit der Flugzeuglage eingeblendet (Abbildung 5.4-13). Andere Flugzeuge werden im HUD markiert. Die Markierung folgt dem realen Flugzeug und zeigt immer seine aktuelle Position. Abbildung 5.4-12: Simulation eines kontaktanalogen Head-Up-Displays im Auto. Andere Autos werden erkannt und markiert; die Anweisungen des Navigationssystems direkt auf der Straße eingeblendet. Abbildung 5.4-13: Das HUD eines Flugzeuges zeigt den künstlichen Horizont kontaktanalog an. Shneiderman 2005, S. 392 Bubb 2006, Kap. 3.4 http://www.uni-protokolle.de/Lexikon/Head-Up-Display.html http://www.bmw.com/com/de/insights/explore/bmw_magazine/03_2006/hud.html SEMESTERARBEIT JUREK BREUNINGER 75 HARDWARE 5.4.7 Head-Mounted-Displays Eine besondere Form der Anzeige sind Head-Mounted-Displays (HMDs), die der Benutzer am Körper trägt. Sie wurden durch die ersten Virtual-Reality-Anwendungen bekannt (in Kombination mit dem Dataglove). Sie können Ersatz für klassische Bildschirme sein (geschlossene Brillen, Abbildung 5.4-14) oder aber wie HUDs funktionieren. Das heißt, der Benutzer kann seine Umgebung betrachten, die mit zusätzlichen Informationen überlagert wird. Man spricht hierbei von Augmented Reality, also erweiterter Realität. Dies ermöglicht zum Beispiel digitale interaktive Bedienungsanleitungen oder Reperaturhilfen für mechanische Geräte. Man spricht bei den blickdurchlässigen Brillen auch von Immersive Head Mounted Displays (iHMD, Abbildung 5.4-15). Abbildung 5.4-14: Geschlossene HMDs haben meist einen größeren Blickwinkel als immersive HMDs. Abbildung 5.4-15: Ein iHMD, das das Betrachten der Umwelt zulässt. Es ist Vorraussetzung für Augmented Reality, bei der das Umgebungsbild mit virtuellen Bildern überlagert wird. SEMESTERARBEIT JUREK BREUNINGER 76 HARDWARE Technisch funktionieren HMDs genau wie ihre stationären Gegenstücke. Bei geschlossenen Brillen kommen meist zwei kleine LCDs zum Einsatz, die durch ihre optische Ausrichtung dem Betrachter eine große Leinwand in ein paar Metern Abstand suggerieren. Die durchlässigen Brillen funktionieren genauso oder wie kleine HUDs. Das erzeugte Bild kann monokular oder binokular sichtbar sein. Binokulare HUDs haben einen höheren Sichtbarkeitsbereich und die Möglichkeit der dreidimensionalen Darstellung. Eine besondere technische Realisierung des HMD ist die Retina-Projektion (Abbildung 5.4-16). Hier wird das virtuelle Bild mittels LEDs oder Laser direkt auf die Netzhaut des Benutzers projiziert. Diese besonders kleinen und leichten Apparate können nur einfarbige, aber sehr scharfe und kontrastreiche Bilder erzeugen. Abbildung 5.4-16: Ein Retinal-Imaging-Display-Prototyp projiziert Informationen direkt ins Auge. Um bei HMDs eine kontaktanaloge Anzeige zu ermöglichen, muss die Kopfstellung messbar sein. Es sind deshalb Sensoren für alle Raumrichtungen und Rotationen nötig. Dahm 2006, S. 188f. Shneiderman 2005, S. 392 5.4.8 3D-Darstellung Die meisten der bisher vorgestellten Darstelltechniken können nur zweidimensionale Bilder erzeugen. Es gibt mehrere Ansätze, Bilder mit dreidimensionalem Raumeindruck darzustellen: SEMESTERARBEIT JUREK BREUNINGER 77 HARDWARE Holographie Die Holographie ist ein sehr aufwändiges Verfahren, das bis heute keine Verbreitung in interaktiven Systemen gefunden hat. Die dreidimensionale Information von Objekten wird mittels der Interferenz zwischen einem Referenzund einem vom Objekt reflektierten monochromatischen Laserstrahl auf Film gespeichert. Wegen der nötigen Interferenz sind die Bilder zwingend einfarbig. Anaglyphenverfahren Bei diesem aus alten 3D-Kinos bekannten Verfahren werden zwei leicht versetzte Bilder derselben Szene mit komplementären Farbfiltern (bei modernen Verfahren Rot und Cyan) übereinander projiziert. Der Betrachter trägt eine Brille mit den entsprechenden Farbfiltern für je ein Auge. Der dreidimensionale Eindruck ist gut, aber durch die Farbfilter ist es schwierig, Echtfarben darzustellen. Shutterbrillen Bei Shutterbrillen (Abbildung 5.4-17) werden die stereoskopischen Bilder nicht übereinander projiziert, sondern abwechselnd hintereinander gezeigt. Der Betrachter muss eine Brille tragen, die das jeweils andere Auge im richtigen Takt abdeckt. Die Verdunklung wird durch zwei Polarisierungsfilter erreicht, die schnell von einer zueinander parallelen zu einer orthogonalen Stellung geschaltet werden können. Damit das Bild flimmerfrei erscheint, muss der Monitor in doppelter Verschmelzungsfrequenz darstellen (etwa 2 ∙ 80Hz = 160Hz bei CRTs). Polarisierte Brillen Eine einfachere Form der aktiven Shutterbrille ist eine Brille mit festen, zueinander orthogonalen Polarisationsfiltern. Dann muss das Anzeigegerät die wechselnden Bilder polarisiert anzeigen. Dies ist bei Monitoren mit einem Aufsatz möglich, der mit der Wiederholfrequenz des Monitors synchronisiert sein muss. Bei modernen 3D-Kinos, bei denen dieses Verfahren auch zum Einsatz kommt, werden die Bilder von zwei verschieden polarisierten Projektoren gezeigt, die zueinander synchronisiert sein müssen (Abbildung 5.4-18). Damit SEMESTERARBEIT JUREK BREUNINGER 78 HARDWARE die Polarisation des Lichtes bei der Reflektion nicht geändert wird, werden spezielle metallisierte Leinwände verwendet. Abbildung 5.4-17: Eine Shutterbrille von Nvidia. kabellose Abbildung 5.4-18: In modernen 3DKinos kommen hauptsächlich passive Polfilterbrillen zum Einsatz. 3D-Monitor Um gänzlich auf Hilfsmittel wie Brillen verzichten zu können, werden beim hochauflösenden 3D-Monitor (Abbildung 5.4-19) die beiden stereoskopischen Bilder gleichzeitig streifenweise gezeigt. Eine Prismenoptik sorgt dafür, dass direkt vor dem Monitor das eine Bild nur vom einen Auge zu sehen ist und das andere vom anderen. Eine weiterentwickelte Version erkennt mittels einer Kamera die Position des Betrachters und passt die Prismen entsprechend an. Abbildung 5.4-19: Dieser 3D-Monitor verfolgt mit Hilfe von Kameras die Position des Betrachters und kommt dadurch ohne zusätzliche Geräte wie Brillen aus. Dahm 2006, S. 182–186 SEMESTERARBEIT JUREK BREUNINGER 79 INTERAKTIONSFORMEN 6 Interaktionsformen Da die technischen Grundlagen behandelt sind, wird nun die Anwendung in der Realität besprochen. Es haben sich in der Mensch-Computer-Interaktion einige Bedienkonzepte etabliert. Es folgt nun ein Überblick, wie der Mensch mit Hilfe der bereits beschriebenen Geräte mit Software-Systemen interagieren kann. 6.1 Tastaturbedienung Die Eingabe von Daten erfolgt bis heute in den meisten Fällen mittels der Tastatur. Auch zur Steuerung von Anwendungen ist die Tastatur neben der Maus ein wichtiges Instrument. In Geräten, die kein Zeigegerät besitzen, also vielen eingebetteten Computern, ist die Tastatur das einzige Mittel um die Software zu steuern. Im Idealfall ist die Bedienung einer Software mit der Tastatur schneller als das Auswählen der Funktionen in Menüs durch Maussteuerung. Für viel benutzte Funktionen gibt es auf Standardtastaturen die Funktionstasten, die eine direkte Auswahl ermöglichen. Der Geschwindigkeitsvorteil gilt vor allem dann, wenn die Hände bereits auf der Tastatur liegen, um beispielsweise Text einzugeben. Doch für ein effektives Nutzen der Funktionstasten muss man deren Bedeutung für jede Anwendung auswendig gelernt haben oder Bildschirmplatz für ihre Beschriftung opfern. Bei modernen Anwendungen werden die Funktionstasten kaum noch belegt. Aber es haben sich Standards für Betriebssystem- und allgemeine Dateiverwaltungsfunktionen etabliert, die beim Entwurf von Software bedacht werden sollten, um die Benutzererwartung zu erfüllen (F1 für Hilfe, F2 Umbenennen etc.). Als Alternative zu den Funktionstasten werden in den meisten Anwendungen zum direkten Aufruf einer Funktion Tastenkombinationen genutzt. Unter Windowssystemen wird für diese Abkürzungen (shortcuts) die Steuerungs-Taste (Strg, Ctrl) und ein naheliegendes Zeichen genutzt. Für das Ansteuern der Menüstruktur wird die AltTaste verwendet in Kombination mit dem im Menüpunkt unterstrichenen Buchstaben. Diese Kombinationen können bei Bedarf mit der Umschalt-Taste (Shift) um weitere Ebenen der Belegung erweitert werden. Für Betriebssystemfunktionen gibt es die Windows-Taste. Auf Apple-Systemen sind ähnliche Kombinationen möglich, allerdings werden hier neben der Strg-Taste die apple-spezifische Befehlstaste (⌘ ) und SEMESTERARBEIT JUREK BREUNINGER 80 INTERAKTIONSFORMEN die Wahltaste (⌥) verwendet. Auf Unix-Systemen werden Tastenkombinationen ähnlich wie auf Windowssystemen verwendet. Hier sind Tastenkürzel aufgrund der fortgeschritteneren Benutzer noch verbreiteter und häufiger. Dementsprechend gibt es auch sehr komplizierte Kombinationen. Als gutes Beispiel für eine sehr weitgehende Steuerung einer Software mit Tastenkürzeln ist der Texteditor Emacs (Abbildung 6.1-1). Während sich viele häufig genutzte Tastaturkürzel über Betriebssystemgrenzen gleichen, kann es bei verschiedenen Sprachversionen Unterschiede geben. Das kommt daher, dass sinnvollerweise oft der Anfangsbuchstabe eines Befehls als Merkhilfe benutzt wird (z. B. Strg+Shift+K = Kursiv im deutschen Word, Strg+Shift+I = Italic im englischen Word). Als Konvention werden die Tastaturkürzel der Befehle neben ihrem Namen in der Menüstruktur gezeigt. Tasten wie Steuerung und Alt, die nur in Kombination mit anderen Tasten benutzt werden, nennt man Modifikatoren oder Meta-Tasten. In komplexen Programmen mit erfahrenen Benutzern ist neben einer Standardlösung die Möglichkeit sinnvoll, spezielle Tastaturbefehle frei zu vergeben. Abbildung 6.1-1: Der Texteditor Emacs lässt sich in hohem Maße mit Tastaturkombinationen steuern. SEMESTERARBEIT JUREK BREUNINGER 81 INTERAKTIONSFORMEN Eine andere Möglichkeit effektiv Softwarefunktionen mit der Tastatur aufzurufen sind die kontextabhängigen Softkeys (Abbildung 6.1-2). Sie sind vor allem aus Mobiltelefonen und Geldautomaten bekannt. Sie sind „weich“, weil sie keine feste Funktion haben, sondern in Abhängigkeit vom darauf oder daneben auf einem Bildschirm festgelegten Befehl funktionieren. Man kann so auf kleinen Geräten mit wenig Tasten einen großen Funktionsumfang bequem steuern. Eine begrenzte Anzahl von Bedienelementen ist vor allem bei sehr komplexen Systemen (Infotainment im Auto, Messgeräte) zentral für die Bedienergonomie. Darüber hinaus ist eine einfache Anpassung des Funktionsumfangs für Aufrüstung oder Systemvarianten mit der gleichen Hardware möglich. Am wichtigsten bei der guten Gestaltung von Softkeys ist die eindeutige Zusammengehörigkeit von Taste und Beschriftung. Schon bei einem Zentimeter Abstand kann es zu Verunsicherung kommen. In diesem Fall können fest aufgedruckte Linien hilfreich sein. Am eindeutigsten, aber aufwendig, ist ein eigenes Display in der Taste (Abbildung 6.1-3). Abbildung 6.1-2: Dieses Flugzeug-MFD (Multi Function Display) wird über die Softkeys an der rechten Seite bedient. Um die Zuordnung zu verdeutlichen sollten sich die Tasten jedoch näher am Bildschirm befinden. SEMESTERARBEIT JUREK BREUNINGER 82 INTERAKTIONSFORMEN Abbildung 6.1-3: Diese Tastatur besteht nur aus Softkeys. Sie hat ein kleines OLEDDisplay auf jeder Taste, die somit immer ihre derzeitige Belegung anzeigen kann. Dahm 2006, S. 194–197 Sheiderman 2005, S. 354 Cooper 2007, S. 490f. 6.2 Direkte Manipulation Nach der Entwicklung der Fähigkeit zur graphischen Darstellung auf Computern und der Entstehung von objektorientiertem Denken auf Programmierebene wurde kurz darauf das Prinzip der direkten Manipulation als Interaktionsform entwickelt. Es wurde 1974 von Ben Shneiderman das erste Mal beschrieben: Visuelle Repräsentation der Objekte, die für die Anwendung von Belang sind Sichtbare Gesten-Befehle, um mit diesen Objekten zu interagieren Sofort sichtbare Resultate der Aktionen Dies hat gegenüber den bis dahin gebräuchlichen Möglichkeiten der Tastatursteuerung und der Kommandosprachensteuerung den Vorteil, dass die Interaktion mit Objekten intuitiver und mit besserer Rückmeldung vonstatten geht. Direkte Manipulation ist eine Art Objektorientierung auf Bedienschnittstellenebene. Datenstrukturen und Befehle werden als Objekte verstanden, die miteinander interagieren können. Die graphische Darstellung ermöglicht physische Aktionen mit den Objekten, die dem Benutzer aus der echten Welt bekannt und intuitiv verständlich sind. Beispiele sind das „Anfassen“ und „Verschieben“ von Ordnern und Dateien. Das „Fallenlassen“ über dem Papierkorb ist eine Metapher für das Löschen der Datei auf der Festplatte (Abbildung 6.2-1). SEMESTERARBEIT JUREK BREUNINGER 83 INTERAKTIONSFORMEN Abbildung 6.2-1: Die bekannteste Metapher der direkten Manipulation ist das Ziehen einer Datei in den Papierkorb. Fehler und Verwechslungen kommen so kaum vor, solange die Metaphern der Benutzeroberfläche gut mit den Erwartungen der Benutzer bezüglich der tatsächlich durchgeführten Befehle übereinstimmen. Vor allem geht das Verständnis für eine direkte Manipulation meist bereits nach einer einmaligen Ausführung in das Gedächtnis über, während Kommandobefehle, Tastaturkombinationen und ab einer gewissen Komplexität selbst Menüstrukturen mühselig auswendig gelernt werden müssen. Direkte Manipulation gilt heute als die ergonomischste Form der Bedienoberflächen und sollte bevorzugt verwendet werden. Allerdings sollte immer auch eine alternative Tastatursteuerung vorhanden und ein Wechsel zwischen Zeigegerät und Tastatur möglichst selten nötig sein. Die Nachteile direkter Manipulation sind die Abhängigkeit von einem geeigneten Zeigegerät (vorzugsweise Maus) und die längere Bearbeitungsdauer unter folgenden Umständen: Wenn viele Objekte vorhanden sind und der Name des zu bearbeitenden Objektes bekannt ist, ist es oft schneller seinen Namen einzugeben als das Objekt auf dem Bildschirm zu suchen. Nach einem Algorithmus automatisierbare Stapelaufgaben sind mit Kommandosprache um ein Vielfaches schneller durchführbar als „von Hand“ mit direkter Manipulation. Beispiel: Lösche alle Dateien mit der Endung „.tmp“, die älter als drei Tage und größer als ein Megabyte sind. Die graphische Darstellung kann rechenaufwändig sein. Dies gilt heutzutage nicht mehr für PC-Systeme, kann aber auf kleinen eingebetteten Computern eine Rolle spielen. Dahm 2006, S. 197–199 Sheiderman 2005, S. 214ff. Cooper 2007, S.375–377 SEMESTERARBEIT JUREK BREUNINGER 84 INTERAKTIONSFORMEN 6.2.1 WIMP Die graphische Umsetzung der direkten Manipulation ist das WIMP-Konzept. WIMP steht für Windows, Icons, Menus und Pointer, also Fenster, bildliche Darstellung von Objekten, Menüs und Zeiger. Dieses Konzept hat sich seit seiner Entstehung langsam etabliert und ist im Prinzip bis heute unverändert. Weitere mit WIMP verwandte Konzepte, die ebenfalls die direkte Manipulation nutzen, sind: Die Bedienoberflächen vieler Computerspiele funktionieren mit direkter Manipulation. Beispiele: Das Kombinieren von Gegenständen in Adventures, das Inventar in Rollenspielen (Abbildung 6.2-2). Interaktive Formulare, die das Ausfüllen am Bildschirm ermöglichen und digital versendet oder ausgefüllt ausgedruckt werden können (Abbildung 6.2-3). Kalender- oder Raumplanungssysteme in Unternehmen, Kongresszentren oder Krankenhäusern, die ein Verschieben der Termine/Belegung ermöglichen (Abbildung 6.2-4). Dreidimensionale Darstellungen in Architektur oder Chirurgie, die zur Demonstration oder Ausbildung eingesetzt werden (Abbildung 6.2-9). Abbildung 6.2-2: Manche Computerspiele zeigen im Inventarbildschirm den Spielcharakter mit seiner aktuellen Ausstattung (WYSIWYG). Gegenstände werden als Icons symbolisiert. Der Charakter kann mittels direkter Manipulation mit den Gegenständen ausgerüstet werden. SEMESTERARBEIT JUREK BREUNINGER 85 INTERAKTIONSFORMEN Abbildung 6.2-3: Um bei TUMOnline ein Benutzerkonto anzulegen, muss man ein Online-Formular ausfüllen. Formulare sind ein Bedienkonzept, das mit WYSIWYG verwandt ist. Abbildung 6.2-4: In dieser Kalenderapplikation kann man mit direkter Manipulation Einträge greifen und verschieben. SEMESTERARBEIT JUREK BREUNINGER 86 INTERAKTIONSFORMEN Die reine Lehre der direkten Manipulation geht von genau einer unmittelbaren Interaktion mit einem Objekt aus. Bei WIMP kommen jedoch Hilfsmittel wie Menüs zum Einsatz, die mehrere Bedienschritte benötigen. Bei der Gestaltung eines auf WIMP basierenden Benutzerkonzepts sollte auf die Konsistenz der Bedienreihenfolge geachtet werden. Die häufigere und meist erwartete Reihenfolge ist erst die beteiligten Objekte festzulegen und dann die durchzuführenden Aktionen zu bestimmen. Aber auch die umgekehrte Reihenfolge ist möglich und in manchen Situationen sinnvoll. 6.2.1.1 Fenster Fenster stellen einzelne Anwendungen oder Dialoge innerhalb von Anwendungen dar. Sie können sich überlappen, auf dem Bildschirm verschoben, in der Größe verändert und geschlossen werden (Abbildung 6.2-5). Es gibt immer ein aktives Fenster, in das die Eingabe erfolgt. Es sollte vor allen anderen Fenstern liegen und als aktiv erkennbar sein. Das Aussehen der Fenster variiert je nach Betriebssystem und Fenstermanager. Meist verfügen sie über Interaktionselemente für das Aktivieren, Bewegen, Schließen und die Größenänderung. Innerhalb des Fensters gibt es zur Steuerung der Anwendung neben der Menüleiste oft Icons, Scrollbalken und unter Umständen Unterfenster. 6.2.1.2 Icons Icons sind kleine graphische Darstellungen von Objekten. Sie können direkt manipuliert werden. Die gängigste Interaktion ist das „Anfassen“ und Verschieben eines Icons (Drag&Drop, Abbildung 6.2-1). 6.2.1.3 Menüs Mit der wachsenden Komplexität von Softwaresystemen wird es nötig ihre Funktionen strukturiert zugänglich zu machen. Menüs zeigen nur die oberste Hierarchieebene und stellen bei Auswahl weitere Unterpunkte zur Verfügung (Abbildung 6.2-6). Diese sollten zum aktuellen Kontext der Anwendung passen. Menüs haben den Vorteil, dass der Befehlsumfang nicht erlernt und exakt wiedergegeben werden muss, da die Menüpunkte die Auswahl aus ausgeschriebenem Text zulassen. So werden bei unbekannter Software die Eingabezeit verkürzt und Fehler vermieden. SEMESTERARBEIT JUREK BREUNINGER 87 INTERAKTIONSFORMEN Abbildung 6.2-5: Fünf geöffnete Anwendungen mit jeweils eigenem Fenster. Jedes Fenster hat nach Konvention Interaktionselemente am oberen Fensterrand. Außerdem kann die Größe der Fenster durch Ziehen an den Kanten geändert werden. Wenn das Fenster zu klein für den Inhalt ist, erscheinen Scrollbalken. Abbildung 6.2-6: Hier ist die Menüstruktur am oberen Rand des Fensters angebracht. Die oberste Ebene öffnet weitere Listen von Funktionen. Kaskadierende Menüs wie im Bild erlauben auch tiefere Ebenen. SEMESTERARBEIT JUREK BREUNINGER 88 INTERAKTIONSFORMEN 6.2.1.4 Zeiger Der Mauszeiger, manchmal auch Cursor genannt, obwohl dies auch die Eingabemarkierung für Text bezeichnet, macht die direkte Manipulation erst möglich. Er wird mittels eines Zeigegerätes positioniert. Seine wichtigsten Funktionen sind das Selektieren von Objekten, das Ausführen einer Aktion aus dem Kontext des Objektes und das Bewegen von Objekten. Für die meisten Objekte ist eine Standardaktion definiert (bei einer Anwendung z. B. das Ausführen), um Zugriff auf andere mögliche Aktionen zu erhalten wird die Menüstruktur benutzt. Der Zeiger kann auch hilfreiche Rückmeldungen geben indem er sein Aussehen ändert. Bekannt sind die Sanduhr oder Animationen um die Auslastung des Systems zu verdeutlichen. Außerdem können mögliche Interaktionsarten mit Objekten durch die Form des Mauszeigers beim Berühren veranschaulicht werden: Die meisten Betriebssystem zeigen Pfeile für die Größenänderung von Fenstern oder eine Texteinfügemarke über Formularfeldern (Abbildung 6.2-7). Abbildung 6.2-7: Verschiedene Formen von Mauszeigern. Der Mauszeiger ändert seine Form bei Systemauslastung (Uhr) und kontextsensitiv, um mögliche Interaktionen kenntlich zu machen (Link, Hilfe, Texteingabe, Fenster bewegen, Fenstergröße ändern, Präzisionsauswahl). Ein weitere Interaktionsart mit Hilfe der Zeigegeräte sind Mausgesten (Abbildung 6.2-8). Sie erfüllen eine ähnliche Funktion wie Tastaturkürzel oder Funktionstasten auf der Tastatur. Einer bestimmten Kombination aus (Maus-)Knopfdruck und einer einfachen Zeigerbewegung wird ein Befehl zugewiesen. Dies ermöglicht vor allem in Anwendungen, die viel auf Maussteuerung ausgelegt sind, dass mehrere Befehle schnell ausgeführt werden können ohne dass komplexe Menüstrukturen nötig sind oder eine Vielzahl Icons die Oberfläche verkomplizieren und den Platz der Ausgabe einschränken. SEMESTERARBEIT JUREK BREUNINGER 89 INTERAKTIONSFORMEN Abbildung 6.2-8: Vor allem in Browsern werden gerne Mausgesten als Interaktionsform genutzt. Da im Internet surfen vor allem mausgesteuert erfolgt, vermeiden Mausgesten als Ersatz für Tastenkombinationen einen Wechsel zwischen Tastatur und Zeigegerät. Dahm 2006, S. 199–205 6.2.2 WYSIWYG Das WYSIWYG-Konzept (What you see is what you get) ist die logische Fortführung des WIMP-Prinzips. Nicht nur das Interaktionskonzept besteht aus interaktiven Objekten, sondern auch die Datenstrukturen. Am bekanntesten ist das WYSIWYGKonzept aus modernen Textbearbeitungsprogrammen. Sie stellen nicht den Text und die Formatierungsinformationen, die in der Datei gespeichert werden, sondern das fertige Papier dar, wie es erscheinen würde, wenn es gedruckt würde. Auch die meisten Programme mit 3D-Darstellung, etwa CAD-Programme, sind eine Realisierung dieses Konzeptes (Abbildung 6.2-9). Die Voraussetzung dafür ist, dass die Hardware das geplante Arbeitsprodukt realistisch genug darstellen kann (hängt neben der Arbeitsgeschwindigkeit des Computers hauptsächlich von der Punktedichte der Monitore ab). SEMESTERARBEIT JUREK BREUNINGER 90 INTERAKTIONSFORMEN Abbildung 6.2-9: Ein CAD-Programm zeigt das entwickelte Produkt in einer realistischen Darstellung. Shneiderman 2005, S. 216f. Dahm 2006, S. 205 6.2.3 Besonderheiten des Touchscreens Der Touchscreen ist eine Kombination aus Eingabegerät und Ausgabegerät. Er hat gegenüber anderen Zeigegeräten den Vorteil, dass er sehr geringe Anforderungen an die Hand-Auge-Koordination stellt. Er eignet sich deshalb besonders für die direkte Manipulation. Allerdings muss die Gestaltung der Bedienoberfläche für Touchscreens in Abhängigkeit der Bedienung (Finger/Stift) einige Besonderheiten berücksichtigen: Vor allem bei Fingerbedienung müssen die Interaktionselemente groß genug und weit genug voneinander entfernt sein (Abbildung 6.2-10). Sie sollten auch von einem großen Finger mit der Kuppe (nicht dem Fingernagel) exakt zu bedienen sein. Bei Spezialanwendungen kann auch eine Bedienung mit Handschuhen nötig sein (z. B. Motorradnavigationssystem). SEMESTERARBEIT JUREK BREUNINGER 91 INTERAKTIONSFORMEN Ein- und Ausgabeelemente müssen nahe beieinander liegen, damit Augenbewegung beim Wechsel zwischen Bedienung und Kontrollieren der Rückmeldung minimiert werden. Interaktionselemente sollten so angeordnet werden, dass die Hand und der Arm den Bildschirm möglichst wenig verdecken, um die Ausgabe nicht zu beeinträchtigen. Es empfiehlt sich, die wichtigsten Eingabe-Elemente auf die untere Hälfte des Bildschirms zu legen. Die Software sollte kurze Bewegungen beim Antippen eines Elements ignorieren und nicht fälschlicherweise als „Ziehen“ interpretieren. Das Erkennen des Ziehens eines Elementes ist wegen der technischen Einschränkungen des Touchscreens schwierig. Die Software sollte gegenüber kurzen Aussetzern durch Kontaktverlust oder „rubbeln“ tolerant sein. Die fehlende haptische Rückmeldung von Touchscreens sollte möglichst gut durch andere Rückmeldung kompensiert werden. Eine akustische Rückmeldung kann geeignet sein, wenn sie nicht zu aufdringlich ist und die Umgebung es zulässt. Eine graphische Rückmeldung ist sehr wichtig, allerdings sollte die Besonderheit des Touchscreens bedacht werden, dass das Objekt, mit dem interagiert wird, meist vom Finger verdeckt ist (Abbildung 6.2-11). Abbildung 6.2-10: Der Startbildschirm von Apples iPhone. Vor allem bei eingebetteten Computern mit kleinen Touchscreens ist es sehr wichtig, dass sie „fingerfreundlich“ bedienbar sind. Das heißt, dass die Interaktionsflächen groß genug sind und weit genug auseinander liegen. SEMESTERARBEIT JUREK BREUNINGER 92 INTERAKTIONSFORMEN Abbildung 6.2-11: Die virtuelle Tastatur des iPhones. Als optische Rückmeldung für das Drücken einer Taste wird sie vergrößert oberhalb des Fingers angezeigt, da die die eigentliche Taste vom Finger verdeckt ist. Dahm 2006, S. 205f. 6.3 Sprachdialog Die natürliche Form des Informationsaustauschs bei Menschen ist die Sprache. Da sie das Erlernen neuer Interaktionsformen unnötig macht, kann die natürliche Sprache ein mächtiges und ergonomisches Ein- und Ausgabeprinzip bei Softwaresystemen sein. Doch in einem freien natürlichsprachlichen Dialog mit einem Computer zu stehen, wie in vielen Science-Fiction-Szenarien dargestellt, ist bisher weder schriftlich noch mündlich möglich. Sprachsysteme werden aber bereits bei telefonischen Auskunft- oder Banking-Systemen, Diktiersoftware, Sprachsteuerung von Autos und Mobiltelefonen benutzt, sowie bei Onlinehilfesystemen, die frei formulierte Fragen zulassen. 6.3.1 Spracheingabe Das Erkennen gesprochener Sprache als Eingabemöglichkeit hat neben der intuitiven Benutzung folgende Vorteile: Die Hände sind frei, es ist kein Arbeitsplatz mit Tastatur nötig. Das Betrachten der Ausgabeeinheit ist zu keiner Zeit durch die Eingabe beeinträchtigt. Durch die fehlende Ortsgebundenheit und Mechanik (nur ein Mikrophon) lässt sich Spracheingabe auch gut mit mobilen Geräten nutzen. SEMESTERARBEIT JUREK BREUNINGER 93 INTERAKTIONSFORMEN Es erfolgt fast keine Ermüdung durch Spracheingabe. Dagegen können andere Eingabemöglichkeiten wie Mobiltelefontastaturen nur für kurze Texte effizient genutzt werden. Sprachsysteme können theoretisch hierarchiefrei gestaltet werden, da jeder Befehl zu jeder Zeit gegeben werden kann. Das „Auswählen“ eines (bekannten) Sprachbefehls erfolgt augenblicklich. Bei graphischen Interaktionsformen benötigt dies Zeit. Die Nachteile aktuell eingesetzter Sprachsysteme sind: Software kennt nur einen begrenzten Wortschatz. Dies hat zur Folge, dass sich der Benutzer in seinem Sprechverhalten an die Software anpassen muss. Wenn die Sprache zur Steuerung dient, ist entweder ein Auswendiglernen der gültigen Befehle oder zuerst das Ausgeben der gültigen Befehle notwendig, was die Sprachsteuerung verglichen mit graphischen Lösungen sehr langsam macht. Spracherkennungs-Software hat eine Erkennungsrate zwischen 90% und 98%. Dies hängt stark von der Einsatzumgebung ab. Sprecherabhängige Systeme (die auf einen bestimmten Sprecher trainiert werden müssen) haben deutlich höhere Erkennungsraten als sprecherunabhängige. Das Erkennen diskreter Wörter funktioniert besser als die Erkennung kontinuierlicher Sprache. Doch selbst 98% bedeutet, dass alle hundert Wörter zwei Wörter korrigiert werden müssen oder zu Falscheingaben führen. Dies verhindert den effizienten Einsatz von Sprachsteuerung in vielen Bereichen. Vor allem bei Störgeräuschen oder Änderung der Geräuschkulisse, aber auch bei Änderung des Tonfalls durch Stress oder Krankheit und ähnlichen Worten steigt die Fehlerrate selbst bei sprecherabhängigen Systemen schnell an. Die sprachliche Interaktion mit Computern weckt in den Benutzern unbewusst hohe Erwartungshaltungen an den Funktionsumfang und die Flexibilität (sowohl in der Spracherkennung als auch in der Interpretation der Befehle) des Softwaresystems. Computersysteme haben aber enge Grenzen beim Erkennen von ungewöhnlicher Wortwahl, unvollständigen Sätzen und Interjektionen („nicht wahr?“). Die Uneindeutigkeit der natürlichen Sprache ist ein großes SEMESTERARBEIT JUREK BREUNINGER 94 INTERAKTIONSFORMEN Problem für sie, da sie sehr eingeschränkt kontextbewusst sind und keine Ausdrucksmittel wie Ironie verstehen. Hinzu kommen die allgemeinen Probleme: In bestimmten Arbeitsumgebungen ist die Geräuschkulisse, die mit Sprachsteuerung arbeitende Personen erzeugen, nicht erwünscht. Sie kann zur Störung und schlechteren Konzentration anderer führen. Sprachsteuerung für Computersysteme ist ungeeignet für Aufgaben, bei denen Sprache bereits für andere Tätigkeiten parallel genutzt wird, zum Beispiel Call-Center. In Arbeitsumgebungen mit lauter Geräuschkulisse ist Sprachsteuerung nicht möglich. Entgegen der Erwartung ist Sprachsteuerung nicht unbedingt eine Arbeitserleichterung, vor allem bei komplexen Aufgabestellungen. Studien zeigen, dass sie kognitiv fordernder ist als die Hand-Auge-Koordination für die Bedienung der Maus. Sprache benötigt einen Teil der begrenzten Ressourcen in denselben Gehirnbereichen, in denen auch analytisches Denken durchgeführt wird. Die Hand-Auge-Koordination wird in anderen Bereichen gesteuert und ist deshalb leichter mit Planungs- und Problemlösungsprozessen parallel durchführbar. Bei der direkten Manipulation von Objekten, die über kontinuierliche Wertebereiche verändert werden können, ist eine direkte Steuerung mittels Tastatur oder Zeigegerät immer schneller als Sprachsteuerung. Beispiele: Schieberegler; das Drehen eines Bauteils in einem CAD-Programm. Man kann natürliche Sprache auch durch Texteingabe per Tastatur als Eingabemöglichkeit am Computer nutzen. Dies erleichtert vor allem die Probleme der Erkennung, da das nötige Textanalyse und -erkennungsprogramm, ein Parser, einfacher zu realisieren ist als akustische Spracherkennung. Aber auch hier gelten die Einschränkungen durch die Uneindeutigkeit. An Stelle der Flexibilität bei akustischer Spracherkennung bezüglich Tonfall, Geschwindigkeit, Dialekt, Geschlecht, Stimmung und Betonung tritt eine nötige Toleranz gegenüber Rechtschreib- und Tippfehlern. Es gibt einige Versuche in diese Richtung vor allem im Bereich der Internetsuchmaschinen. SEMESTERARBEIT JUREK BREUNINGER 95 INTERAKTIONSFORMEN Diese sollen mittelfristig auf natürlichsprachliche Fragen umfassend antworten können. Shneiderman 2005, S. 374–380 Dahm 2006, S. 207–212 6.3.2 Sprachausgabe Sprachausgabe ist bereits seit langem auf Computern möglich. Ursprünglich handelte es sich nur um die Wiedergabe aufgenommener Sätze oder Satzbausteine (Sprachsampling). Sie kommt auch heute noch zum Einsatz, wenn alle Texte bei der Programmierung oder Konfiguration der Programme vorhersehbar und statisch sind (Navigationssysteme, Informationssysteme mit Menüstruktur). Das Generieren von gesprochener Sprache aus beliebigen Texten (Text-To-Speech, TTS) ist technisch deutlich einfacher zu lösen als freie Spracherkennung und seit den 80er Jahren möglich. Die kontinuierlichen Verbesserungen liegen darin, die künstliche Stimme immer menschlicher wirken zu lassen, auch durch komplizierte Algorithmen für Sprachmelodie und Pausen. Darüber hinaus haben moderne TTS-Programme Datenbanken für Wörter, die nicht den normalen Ausspracheregeln folgen wie etwa Abkürzungen und Lehnwörter. Für die Sprachausgabe gelten die gleichen Vorteile wie für die Spracheingabe. Ihr zentraler Nachteil ist allerdings, dass Menschen wichtige Informationen schneller und lieber optisch aufnehmen. Neben der akustischen Sprachausgabe kann natürliche Sprache auch optisch ausgegeben werden. Dies klingt banal, doch nur sehr wenige Software-Systeme (meist künstliche Intelligenzen) bieten eine freie natürlichsprachliche Ausgabe, da sonst die Grammatik und der Wortschatz der Sprache implementiert werden müssten. In einer sehr einfachen Form wird NLTG (Natural-Language Text Generation) zum Kreieren von Wetternachrichten oder medizinischen Befunden aus Computerdaten genutzt. Hierbei wird nicht die komplette Grammatik implementiert, sondern einfache Algorithmen für eine begrenzte Anzahl von Textbausteinen. Shneiderman 2005, S. 380–385, S. 338 Dahm 2006, S. 212 6.4 Kommandosprache Eine der ältesten Formen der Mensch-Computer-Interaktion ist die Kommandosprache. Eine Kommandosprache ist eine künstliche Sprache mit einer einfachen und SEMESTERARBEIT JUREK BREUNINGER 96 INTERAKTIONSFORMEN eindeutigen Syntax und Semantik und meist recht begrenztem Wortschatz. Zu den Kommandosprachen zählen neben den Programmiersprachen auch die ShellSprachen (Command Line Languages) und die Skriptsprachen. Abbildung 6.4-1: Auf Linux-Systemen ist das Benutzen von Kommandosprachen recht verbreitet. Auf dem Bild werden mittels eines Befehls mit mehreren Parametern alle Dateien mit der Endung „.tmp“ gelöscht, die älter als drei Tage und größer als ein Megabyte sind. Kommandosprachen sind für Ungelernte kryptisch zu lesen, da ihr Wortschatz zwar an die natürliche Sprache (meist Englisch) angelehnt ist, aber aus vielen Abkürzungen besteht. Da früher ein Großteil der Steuerung eines Computers mittels Kommandosprache geschah, sind sie auf schnelle Eingabe ausgelegt. So bestehen die meisten Befehle der UNIX-Kommandozeile aus zwei oder drei Buchstaben (ls, cd, pwd). Die Grammatik der Sprachen ist oft für eine einfache Prozessierung durch Parser, Interpreter oder Compiler ausgelegt und dementsprechend anders als natürliche Sprache. Bei Programmiersprachen folgt sie zusätzlich oft einem besonderen Programmierparadigma. Kommandosprachen geben dem Benutzer ein hohes Maß an Kontrolle über die Anwendung. Durch Parameter kann ein einzelner Befehl eine Vielzahl Funktionen erfüllen. Allerdings haben Kommandosprachen eine schlechte Selbstbeschreibungsfähigkeit. Sie erfordern deshalb eine intensive Einarbeitung. Da sich Computer bisher nicht mit mehrdeutiger natürlicher Sprache steuern lassen, gibt es einige Kommandosprachen, die ihre Eindeutigkeit mit einer den natürlichen Sprachen ähnlichen Lesbarkeit verbinden wollen. Diese Sprachen nennt man Fortual Languages, eine Kombination aus formal und natural. Beispiele für Fortual Languages sind COBOL (1960), SQL (1970), HyperTalk/Apple Script (1987) und Visual Basic (1991). SEMESTERARBEIT JUREK BREUNINGER 97 INTERAKTIONSFORMEN Abbildung 6.4-2: Eine Anwendung, die zu einem hohen Anteil mit Kommandosprache kontrolliert wird, ist MATLAB. Seit der breiten Verfügbarkeit von graphischen Oberflächen haben Kommandosprachen an Bedeutung als allgemeine Interaktionsform verloren. Sie werden weiterhin für komplexere Aufgaben (Abbildung 6.4-2) und zur Programmierung von Anwendungen durch fortgeschrittene Benutzer verwendet. Da die Weiterverwendung von Programmcode bei heutigen komplexen Softwareprojekten sehr wichtig ist, sollte die Programmiersprache die einfache Lesbarkeit von fremdem Code unterstützen. Eine moderne Programmier- und Skriptsprache, die dies durch einen kleinen Wortschatz und reduzierte Syntax erreichen will, ist Python. Shneiderman 2005, S. 316–331 Dahm 2006, S. 213–215 SEMESTERARBEIT JUREK BREUNINGER 98 GRAPHISCHE BENUTZEROBERFLÄCHEN 7 Graphische Benutzeroberflächen Nachdem die wichtigsten Interaktionsformen allgemein besprochen wurden, behandelt das folgende Kapitel die technische Realisierung dieser Konzepte. Fast alle modernen Software-Systeme benutzen graphische Bedienoberflächen zur Darstellung und Steuerung. Es folgt ein Überblick über bekannte Elemente von GUIs und Hinweise für den Entwurf spezifischer GUIs. 7.1 Gestaltungsziele Die Gestaltungsziele von graphischen Dialogsystemen sind laut Teil 12 der Norm DIN 9241: Klarheit: Schnelle Informationsübermittlung Unterscheidbarkeit: Abgrenzung zwischen Informationen möglich Kompaktheit: Nur Darstellung relevanter Information Konsistenz: Zusammengehörige Information wird nach den Erwartungen des Benutzers immer gleich dargestellt. Erkennbarkeit: Lenken der Aufmerksamkeit auf relevante Information Lesbarkeit: Information leicht lesbar Verständlichkeit: Information ist verständlich, eindeutig und interpretierbar. Dahm 2006, S. 218 7.2 Interaktionselemente Hier werden die gängigsten Interaktionselemente (widgets) vorgestellt mit Hinweisen unter welchen Bedingungen ihr Einsatz sinnvoll ist. Es werden die meist etablierten englischen Lehnwörter benutzt, da deutsche Formen ungebräuchlich sind oder nicht existieren. SEMESTERARBEIT JUREK BREUNINGER 99 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.1 Imperative Bedienelemente 7.2.1.1 Schaltflächen, Buttons Die häufigste Form eine Funktion graphisch ausführbar darzustellen ist der meist rechteckige Button (Abbildung 7.2-1). Er sieht durch einen leichten dreidimensionalen Effekt wie ein mechanischer Knopf aus und bietet durch die Sichtbarkeit seines Zustands, gedrückt oder nicht gedrückt, gute Rückmeldung. Normale Buttons sind mit einem kurzen Text beschriftet. Eine spezielle Form des Buttons ist der Butcon, der statt einer Beschriftung nur ein Icon zeigt (Abbildung 7.2-2). Dies ist dort von Vorteil, wo eine Vielzahl Buttons beschränkten Platz belegen, wie in der Toolbar. Da die Funktion anhand des Icons für unerfahrene Benutzer oft nicht sofort ersichtlich ist, sollte ein ToolTip, das Erscheinen einer Beschreibung wenn der Mauszeiger auf einem Element verharrt, vorhanden sein. Abbildung 7.2-1: Buttons sind meist durch einen Schatteneffekt als „eindrückbare“ virtuelle Knöpfe erkennbar. Abbildung 7.2-2: Die Icons in der Toolbar funktionieren wie Buttons. Da diesen „Butcons“ die Beschriftung fehlt, sollte diese durch eine Anzeigemöglichkeit wie den ToolTip, der nach einer guten Sekunde erscheint, gezeigt werden. Cooper 2007, S. 440–442 7.2.1.2 Hyperlinks Ein Hyperlink, oder kurz Link, ist ein Element aus dem World Wide Web, das seinen Weg in viele mögliche Anwendungen gefunden hat. Typischerweise ist ein Link ein (meist blaues) unterstrichenes Textstück. Er kommt vor allem in Hypertextsystemen wie Onlinehilfen (Abbildung 7.2-3) oder als direkter Verweis ins Internet vor. Er ist ein imperatives Bedienelement für Navigation. Links sollten ausschließlich für die NaviSEMESTERARBEIT JUREK BREUNINGER 100 GRAPHISCHE BENUTZEROBERFLÄCHEN gation in Datenstrukturen benutzt werden, bei Nutzung zur Ausführung einer Aktion können sie den Benutzer verwirren (Abbildung 7.2-4). Abbildung 7.2-3: Neben ihrem bekannten Vorkommen im World Wide Web, sind Links auch in anderen Hypertexten wie diesem Hilfesystem eine nützliche Interaktionsform zur Navigation. Abbildung 7.2-4: In der Systemsteuerung von neueren Windows-Systemen werden Links zum Aufruf verschiedener Funktionen genutzt, die neue Dialoge öffnen. Dies entspricht nicht ihrer erwarteten Funktionalität. Für dieses Verhalten wären Buttons angebracht. Cooper 2007, S. 442f. SEMESTERARBEIT JUREK BREUNINGER 101 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.2 Selektive Bedienelemente 7.2.2.1 Check-Boxen Check-Boxen präsentieren eine einfache binäre Auswahl (Abbildung 7.2-5). Checkboxen sind rechteckig und werden bei Aktivierung durch Klick mit einem Kreuz oder Häkchen gefüllt. Eine sinnvolle Konvention ist, dass sie auch bei Klick auf den beschreibenden Text rechts daneben aktiviert bzw. deaktiviert werden. Die Qualität der Beschreibung bestimmt die Eindeutigkeit und Verständlichkeit. Allerdings kann langer Text auch den Benutzer verlangsamen. Eine Spezialform der Check-Box ist ihre Überführung in einen Butcon. Dieser Latching (einrastender) Butcon oder Toggle ist ebenfalls aus der Toolbar bekannt. Er führt keine Aktion aus, sondern verdeutlicht durch bleibendes „gedrückt sein“ (erkennbar am Schatten), dass eine Option eingeschaltet ist, zum Beispiel, dass Text kursiv angezeigt werden soll (Abbildung 7.2-12). Abbildung 7.2-5: Vor allem in den Einstellungsdialogen kommen Checkboxen sehr häufig vor. Die Kombination aus Listenansicht und Check-Boxen nennt sich Earmarking. Cooper 2007, S. 443–445 7.2.2.2 Flip-Flop-Buttons Eine übliche Bedienelementvariante um Bildschirmplatz zu sparen ist der Flip-FlopButton. Er ändert seine Beschriftung oder sein Icon bei Benutzung. Ein klassisches Beispiel ist das Zusammenlegen von Play- und Pause-Taste bei Mediaplayern (Abbildung 7.2-6). Allerdings kann sein Verhalten auf zwei Arten interpretiert werden. Das Icon kann für durchgeführte Aktion beim darauf Klicken stehen, aber auch für den aktuellen Zustand der Software. Bei einer Beschriftung statt eines Icons wird SEMESTERARBEIT JUREK BREUNINGER 102 GRAPHISCHE BENUTZEROBERFLÄCHEN meist ersteres interpretiert. Um jedoch Verwirrung zu vermeiden, sollten andere Konzepte für solche Fälle genutzt werden. Abbildung 7.2-6: Bei diesem Mediaplayer wechselt die Kennzeichnung der PlayTaste je nach Systemstatus. Um Verwirrung zu vermeiden wird hier zusätzlich der aktuelle Status darüber angezeigt. Cooper 2007, S. 445 7.2.2.3 Radio-Buttons Radio-Buttons bestimmen die Auswahl genau einer Option aus mehreren. Wie bei alten Radiogeräten, bei denen beim Drücken einer der mechanischen StationsTasten die zuvor gedrückte heraussprang, führt die Aktivierung einer Option zur Deaktivierung der anderen. Die Aktivierung erfolgt durch Klick auf den nach Konvention runden Radio-Button oder den Beschreibungstext rechts daneben (Abbildung 7.2-7). Die Zusammengehörigkeit der Optionen muss deutlich ersichtlich sein. Da jede Option aus der Beschriftung und einem Radio-Button besteht, brauchen größere Auswahlen viel Bildschirmplatz und sollten stattdessen mit Drop-Down-Listen realisiert werden. Genau wie bei den Checkboxen gibt es auch eine Kombination aus Radio-Button und Butcon, den Radio-Butcon. Radio-Butcons sind eine Gruppe von Latching Butcons, die sich gegenseitig ausschließen. Nur einer kann gedrückt sein. Wie alle Butcons ist er aus der Toolbar bekannt (z. B. für die Textausrichtung, Abbildung 7.2-12). Abbildung 7.2-7: Radio-Buttons für fünf sich ausschließende Optionen. Dahm 2006, S. 219 Cooper 2007, S. 446f. SEMESTERARBEIT JUREK BREUNINGER 103 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.2.4 Listen Listen erlauben Benutzern aus einer begrenzten Zahl von Textzeilen auszuwählen, die jeweils einen Befehl, ein Objekt oder ein Attribut repräsentieren. Ähnlich wie Radio-Buttons sind sie wichtige Interaktionselemente, da sie eine ungültige Auswahl verhindern. Je nach Größe haben sie eine vertikale Scroll-Leiste rechts, die aktuelle Auswahl ist durch Markierung hinterlegt (Abbildung 7.2-8). Normalerweise schließen sich die Listenelemente gegenseitig aus, eine Variante lässt aber auch mehrfache Auswahl zu. Das Hinzufügen zur Auswahl geschieht dann meist mittels Mausklick bei gedrückter Strg-Taste. Da bei größeren Listen die markierten Elemente außer Sichtweite gescrollt werden können, empfiehlt es sich bei möglicher Mehrfachauswahl die Listenelemente mit Check-Boxen zu versehen. Dies verhindert, dass Verwirrung durch die automatische Abwahl oder Nicht-Abwahl unsichtbarer Elemente entsteht, weil es keine sichtbare Unterscheidung zwischen Listen mit gegenseitigem Ausschluss und Mehrfachauswahl gibt. Eine Check-Box hingegen ist ein bekanntes Idiom, von dem keine automatische Abwahl erwartet wird. Diese Kombination aus Liste und Check-Boxen nennt man Earmarking (Abbildung 7.2-5). Abbildung 7.2-8: Dieser Dialog zeigt zwei Formen von Listen an. Rechts eine simple Einfachauswahl, links eine Baumstruktur. SEMESTERARBEIT JUREK BREUNINGER 104 GRAPHISCHE BENUTZEROBERFLÄCHEN Listen haben meist vertikale Scroll-Leisten. Es ist auch möglich horizontale ScrollLeisten einzubauen, allerdings sollte es auf jeden Fall vermieden werden (Abbildung 7.2-9). Wenn eine Liste mit Text horizontal gescrollt wird, werden einer oder mehrere der ersten Buchstaben jeder Zeile verdeckt. Der ganze Text wird unlesbar und die Kontinuität wird zerstört. Cooper erhebt es sogar zum Designprinzip: Scrolle Text nie horizontal. Abbildung 7.2-9: Die Standard-Dateiansicht des Öffnen-Dialogs von Windows ist die Listenansicht. Allerdings scrollt sie von links nach rechts statt von oben nach unten. Um ein teilweises Verdecken zu verhindern springt die Liste spaltenweise bei Betätigung des Scroll-Leiste, was dem erwarteten kontinuierlichen Verhalten von ScrollLeisten widerspricht. Die Drop-Down-Box oder -Liste ist eine spezielle Form, die normalerweise nur das ausgewählte Element anzeigt (Abbildung 7.2-10). Erst bei Klick auf einen Pfeil nach unten auf der rechten Seite wird eine Liste aller Elemente ausgeklappt. Eine Variante der Drop-Down-Box ist die Combo-Box. Sie funktioniert zusätzlich als Texteingabefeld und ermöglicht so die Auswahl vorgegebener oder selbst formulierter Elemente (Abbildung 7.2-11). SEMESTERARBEIT JUREK BREUNINGER 105 GRAPHISCHE BENUTZEROBERFLÄCHEN Abbildung 7.2-10: Eine Drop-Down-Box im ausgeklappten Zustand. Abbildung 7.2-11: Die Adresszeile im Windows Explorer ist eine Combo-Box. Sie bietet zwar verschiedene Möglichkeiten an, lässt aber auch freie Eingaben zu. Cooper 2007, S. 449–456 7.2.2.5 Combutcons Combutcons sind eine Kombination aus Butcons und Combo-Box (eigentlich DropDown-Liste, aber die Namen lassen sich wohl nicht so gut kombinieren). Sie sind also sowohl selektives als auch imperatives Bedienelement. Ein Combutcon ist in normalem Zustand ein Butcon, der zusätzlich einen kleinen Pfeil nach unten (manchmal auch nach rechts) hat. Beim Klicken auf das Icon in der Mitte des Butcons wird die entsprechende Aktion ausgeführt. Beim Klick auf den Pfeil klappt eine Liste mit alternativen Icons und somit Befehlen aus (Abbildung 7.2-12). Durch Auswahl einer Alternative wird Aussehen und Funktion des Combutcons verändert. Eine Variante davon ist die Zurück-Schaltfläche in modernen Browsern. Auch sie funktioniert wie ein Combutcon durch einen zusätzlichen Pfeil. Allerdings wird hier durch Klick auf eine der Listenelemente nicht das Verhalten geändert, sondern direkt SEMESTERARBEIT JUREK BREUNINGER 106 GRAPHISCHE BENUTZEROBERFLÄCHEN der Alternativbefehl ausgeführt. Bei einem Browser etwa das Zurückspringen um mehrere Seiten (Abbildung 7.2-13). Abbildung 7.2-12: Die Schalter für fette, kursive und unterstrichene Schrift sind Toggles. Die linksbündige Textausrichtung wird per Radio-Butcon angezeigt. Die verschiedenen Rahmentypen lassen sich mit einem Combutcon aktivieren. Abbildung 7.2-13: Der Zurück-Button vieler Browser ist eine spezielle Form des Combutcons. Die ausgewählte Alternative wird direkt angesteuert. Cooper 2007, S. 447f. 7.2.3 Eingabeelemente 7.2.3.1 Textboxen Das einfachste Eingabeelement ist die Textbox, auch Textfeld genannt. Sie lässt die Eingabe beliebigen Textes meist einzeilig zu. Es gibt auch eine Variante für mehrzeiligen Text. Diese kann mittels Scroll-Balken auch beliebig langen Text aufnehmen. Der Text kann linksbündig oder rechtsbündig ausgerichtet sein. Text wird meist linksbündig, Zahlen rechtsbündig angegeben. Die Beschriftung sollte nahe am Feld stehen, um den Zusammenhang klar zu machen. Textboxen müssen als aktive Eingabe-Elemente erkennbar sein und dürfen nicht mit passiven Beschriftungen verwechselt werden können. Dies wird normalerweise durch einen dreidimensionalen Effekt erreicht, der das Eingabefeld etwas versenkt erscheinen lässt (Abbildung 7.2-14). Dahm 2006, S. 219f. SEMESTERARBEIT JUREK BREUNINGER 107 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.3.2 Spinner Spinner sind eine spezielle Form von Textbox für numerische Werte, in die meist frei eingetragen werden kann. Zusätzlich erlauben zwei kleine Auf- und Ab-Pfeile (Abbildung 7.2-14) das Erhöhen und Verringern des aktuellen Wertes auf einem festgelegten Raster. Dies erlaubt die Eingabe mittels der Maus. Abbildung 7.2-14: Diese Textfelder für Zeitangaben lassen sich mit Spinnern auch mit der Maus bedienen. Cooper 2007, S. 459f. 7.2.3.3 Schieberegler Eine weitere Möglichkeit der Manipulation von numerischen Daten mittels der Maus sind Schieberegler (Abbildung 7.2-15). Hier sind die möglichen Werte vom Programmierer begrenzt. Der Schieberegler ist ein intuitives Widget, da er aus der Realität bekannt ist und gute optische Rückmeldung über die Einstellung gibt. Abbildung 7.2-15: Dieser Dialog zur Lautstärkeregelung enthält mehrere vertikale und horizontale Schieberegler sowie einen Drehregler. SEMESTERARBEIT JUREK BREUNINGER 108 GRAPHISCHE BENUTZEROBERFLÄCHEN Varianten des Schiebereglers sind der Drehregler (Abbildung 7.2-15) und das Thumbwheel. Der Drehregler sollte auf keinen Fall ein Drehbewegung der Maus zur Manipulation benötigen, sondern bei Klick und Rechts- oder Auf-Bewegung der Wert erhöhen und bei Links- oder Ab-Bewegung den Wert verringern. In den meisten Fällen ist ein Schieberegler aber die bessere Wahl. Das Thumbwheel ist eine Umsetzung des Mausrades in Software. Es sieht wie ein in die Bildschirmebene gedrehter Drehregler aus. Dadurch hat es eindeutige Interaktionsrichtungen, nämlich auf und ab oder links und rechts. Es bietet sich für Wertebereiche ohne Start- oder Endwert an, da es wie ein Mausrad keinen Anschlag hat. Bewegung auf der Zeitachse, Zoomen oder sich wiederholende Folgen sind Anwendungsgebiete (Abbildung 7.2-16). Abbildung 7.2-16: In der CAD-Software Solidworks lassen sich Längenmaße wahlweise per Texteingabe, Drop-Down-Liste, Spinner oder mit einem horizontalen Thumbwheel manipulieren. Cooper 2007, S. 460–462 7.2.4 Gruppierung Visuelle Gruppierung ist elementar, um die logische Zusammengehörigkeit von Interaktionselementen untereinander und von Interaktionselementen und Beschriftungen zu verdeutlichen. Die Gruppierung kann auf zwei Arten erfolgen (Abbildung 7.2-17): Implizit: Unter Anwendung der Gestaltgesätze (Nähe, Ähnlichkeit, etc.) Explizit: Unter Anwendung graphischer Hilfsmittel (Umrandung, Hintergrundfarbe, etc.) Abbildung 7.2-17: Verschiedene Formen von Gruppierung SEMESTERARBEIT JUREK BREUNINGER 109 GRAPHISCHE BENUTZEROBERFLÄCHEN Die explizite Gruppierung kann auch durch Interaktionselemente erreicht werden. Dies ist vor allem durch den begrenzten Platz auf dem Bildschirm häufig notwendig. Dahm 2006, S. 222 7.2.4.1 Tabs Ein beliebte Methode für diese aktive Gruppierung sind Tabulatoren oder kurz Tabs (Abbildung 7.2-18). Im Deutschen werden sie auch Reiter oder Register genannt, da sie eine Softwareanalogie zu Karteireitern bzw. Registerkarten sind, mit denen man Akten oder Karteikarten alphabetisch einordnen kann. Sie ermöglichen aufgeräumte und strukturierte Oberflächen. Allerdings sollten Tabs nur eingesetzt werden solange sie in eine Reihe passen. Da Fenster auch verkleinert werden können, gelten fünf bis sechs Reiter als praktikable Grenze. Manche Programme verbergen weitere Tabs und haben Pfeile zum Blättern (Abbildung 7.2-19). Gestapelte Tabulatoren sollten auf jeden Fall vermieden werden, da sie wegen fehlender Symmetrie und Ordnung schwierig zu durchsuchen sind (Abbildung 7.2-20). Außerdem haben sie das sehr verwirrende Verhalten, die Reihe, in der der aktive Tab steht, immer in den Vordergrund zu bringen. Als Alternative bieten sich Listen an (Abbildung 7.2-8, Abbildung 7.2-22). Abbildung 7.2-18: Bei neueren Versionen von MacOS X sind die Tabs so stark stilisiert, dass sie kaum noch als Karteireiter-Metapher erkennbar sind. SEMESTERARBEIT JUREK BREUNINGER 110 GRAPHISCHE BENUTZEROBERFLÄCHEN Abbildung 7.2-19: Die Möglichkeit Tabs scrollbar zu machen, sollte nur für Anwendungen benutzt werden, bei denen der Benutzer die Tabs selbst öffnet (Dokumente, Webseiten). Für statische Dialoge sind sie ungeeignet, da sie das Suchen erschweren. Abbildung 7.2-20: Tabs sollten nie gestapelt werden. Abbildung 7.2-21: Diese Tabs haben neben der Textbeschriftung auch Icons. Abbildung 7.2-22: Bei mehr als sechs Gruppen empfehlen sich Alternativen zu Tabs wie diese Liste am linken Rand. Cooper 2007, S. 523–526 SEMESTERARBEIT JUREK BREUNINGER 111 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.4.2 Toolbars Toolbars (Werkzeugleisten, Abbildung 7.2-2) sind eine häufig eingesetzte Art, Interaktionselemente, vor allem Butcons und Buttons, zu gruppieren. Sie sollen im Gegensatz zu Menüs den schnellen Zugriff auf häufig benutzte Funktionen ermöglichen. Eine Toolbar ist meist eine horizontale Sammlung von zusammengehörigen Butcons, die unterhalb der Menüleiste platziert ist. Eine Toolbar kann sich auch aus einer Ansammlung mehrerer dieser einzelnen Streifen zusammensetzen, wodurch eine Gruppierung erfolgt. Nicht relevante Butcons sollten ausgegraut und nicht zu drücken sein. Neben Butcons können auch Drop-Down-Listen oder andere Elemente Teil einer Toolbar sein. Moderne Toolbars sind verschiebbar und können auch an anderen Stellen auf dem Bildschirm befestigt werden. Da Toolbars eine Sammlung von für den Benutzer wichtigen Funktionen sind, können sie idealerweise von ihm an seine Bedürfnisse angepasst werden. Eine moderne Form der Toolbar sind die mit Microsoft Office 2007 eingeführten Ribbons (Bänder, Abbildung 7.2-23). Es handelt sich um eine Kombination aus Menü und Toolbar. Die Toolbar wird um größere Buttons, Beschriftungen und Vorschauen erweitert und ist mit Tabs strukturiert. Eine ebenfalls junge Form ist die kontextabhängige Toolbar, eine Alternative zum Kontextmenü. Sie erscheint ähnlich einem ToolTip in der Nähe eines selektierten Elements und bietet nur relevante Funktionen an (Abbildung 7.2-24). Abbildung 7.2-23: Ribbons in Microsoft Word 2007. Abbildung 7.2-24: Eine kontextabhängige Toolbar erscheint in Word 2007 wenn man etwas markiert. Cooper 2007, S. 493–503 SEMESTERARBEIT JUREK BREUNINGER 112 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.2.4.3 Tiling, Multipane Für die Übersichtlichkeit, das Finden der richtigen Interaktionselemente und die schnelle Erfassbarkeit der Informationen ist es wichtig, nicht nur die Elemente innerhalb eines Dialogfensters oder einer Toolbar zu gruppieren, sondern die gesamte Anwendung zu strukturieren. Auf Betriebssystemebene werden zur Abgrenzung von Anwendungen meist Fenster genutzt, die beliebig verschiebbar und überlappend sein können. Es existieren allerdings auch sogenannte Tiling Window Managers, die den Anwendungen den Platz auf dem Bildschirm ohne Überlappung und Freiraum zuweisen. Dieses „Kacheln“ ist innerhalb von Anwendungen viel verbreiteter, da sich hier Gruppierungen mittels vieler (Unter-)Fenster nicht bewährt haben. Man spricht hier allerdings nicht von Tiling, sondern von Multipane-Anwendungen. Eine klassische Multipane-Anwendung ist Microsoft Outlook, das separate Bereiche für die Auflistung der Postfächer, den Inhalt des gewählten Postfachs, eine geöffnete Nachricht und einen Überblick über kommende Verabredungen und Aufgaben besitzt. Abbildung 7.2-25: Der Window-Manager XMonad ordnet Anwendungen automatisch mit maximaler Raumausnutzung an. SEMESTERARBEIT JUREK BREUNINGER 113 GRAPHISCHE BENUTZEROBERFLÄCHEN Abbildung 7.2-26: Outlook teilt die Anwendung in mehrere Bereiche. Cooper 2007, S. 428–430 7.3 Menüs Menüs sind strukturierte Auflistungen der verfügbaren Funktionen in Textform. Bei modernen Anwendungen wird oft zusätzlich auch ein Icon angezeigt, was die Assoziation mit dem Butcon gleicher Funktion erleichtert. Im Gegensatz zu Kommandosprachen, Funktionstasten oder Tastenkombinationen muss der Benutzer die Befehle nicht auswendig lernen, sondern kann das Menü nach einer gewünschten Aktion absuchen. Eine logische Gliederung der Menüpunkte ist deshalb unverzichtbar für schnelle Bedienung. Menüs unterstützen ein exploratives Erlernen der Anwendung, verringern den Aufwand für Schulung und ermöglichen den Zugang auch Gelegenheitsnutzern. Menüs wurden schon vor der Einführung graphischer Benutzeroberflächen verwendet und sind auch gut mit der Tastatur steuerbar. Inzwischen werden sie fast immer mit einem Zeigegerät bedient, die Möglichkeit für Tastaturbedienung (laut Konvention mit der Alt-Taste, Navigation mit den Cursortasten) sollte aber auf alle Fälle erhalten bleiben. Dies ermöglicht die effiziente Steuerung von Anwendungen, die primär mit der Tastatur bedient werden (z. B. Texteditoren), da ein Wechsel zwischen Maus und Tastatur nicht nötig ist. Geübte Benutzer können mit den Menü-Tastaturkürzeln ähnSEMESTERARBEIT JUREK BREUNINGER 114 GRAPHISCHE BENUTZEROBERFLÄCHEN lich schnell arbeiten wie mit den normalen Tastaturkombinationen (z. B. Alt+(B, K) für das Menü Bearbeiten und den Befehl Kopieren statt Strg+C). Eine solche Ansteuerung des Menüs ist schneller als Mausbedienung. Der Aufbau eines Menüs besteht aus mehreren Ebenen. Die erste Ebene ist immer sichtbar und enthält meistens die bekannten Menüpunkte Datei, Bearbeiten, Ansicht und Hilfe wie im CUA festgelegt. Die zweite Ebene erscheint erst auf Aufruf und zeigt die eigentlichen Befehle. Eine Verwendung so genannter Bang-Menüs, also ein direkter Befehlsaufruf aus der ersten Ebene, sollte vermieden werden, da er der Erwartung der Anwender widerspricht. Die Befehle auf der zweiten Ebene sollten auf jeden Fall gut strukturiert sein, um schnelle Erfassbarkeit der Informationen zu gewährleisten. Typischerweise werden Menüpunkte entweder funktionsorientiert oder ablauforientiert angeordnet. Bei Standardanwendungen, die von vielen verschiedenen Benutzern für verschiedene Zwecke eingesetzt werden, empfiehlt sich die funktionsorientierte Strukturierung. Für Software, die im betrieblichen Umfeld für spezielle Anwendungsfälle verwendet wird, ist eine ablauforientierte Strukturierung vorzuziehen, um ein Springen zwischen vielen verschiedenen Menüs zu vermeiden. Die Strukturierung der Menüpunkte kann durch graphische Hilfsmittel wie verschiedene Abstände oder Trennlinien verbessert werden. Manche Menüpunkte ändern nicht nur den Zustand, sondern offenbaren zusätzlich auch den aktuellen Zustand. Dafür sollten Checkmarks (aus Check-Boxen bekannt) vor dem Menüpunkt gezeigt werden (Abbildung 7.3-1); diese lassen allerdings nur binäre Zustandswechsel zu. Flip-FlopMenüpunkte, die ihre Beschriftung ändern, können zu den gleichen Problemen wie Flip-Flop-Buttons führen. Abbildung 7.3-1: Dieses Menü zeigt die Strukturierung mittels Trennlinien, zusätzlichen Icons, Angabe der Tastenkombination und Checkmarks als Statusinformation. SEMESTERARBEIT JUREK BREUNINGER 115 GRAPHISCHE BENUTZEROBERFLÄCHEN Bei großem Funktionsumfang können manche Menüpunkte auch eine dritte Ebene öffnen, man spricht dann von kaskadierenden Menüs (Abbildung 6.2-6). Diese Punkte, die keinen Befehl ausführen, sondern weitere Punkte anzeigen, sollten erkennbar sein, meist durch einen kleinen Pfeil nach rechts. Mehr als drei Menüebenen sollten vermieden werden, da sie von Benutzern schlecht erfasst werden und das Wiederfinden von bekannten Funktionen erschweren. Es ist darauf zu achten, dass ein Menü nicht das Fassungsvermögen des Kurzzeitgedächtnisses überschreitet. Bei großem Funktionsumfang wird man auf einen Konflikt zwischen diesen beiden Prinzipien treffen. Ob tiefe oder breite Menüstrukturen ergonomischer sind, ist nicht endgültig geklärt. Es sollte von Fall zu Fall entschieden werden. Wenn die Menüstruktur zu komplex wird, muss mehr Funktionalität in Dialoge verschoben werden. Das Menü hat auch pädagogische Funktion für den Anwender. Er bekommt wiederholt den gesamten Funktionsumfang des Programms präsentiert und hat so den Ort von Befehlen bereits einmal gesehen, obwohl er sie noch nicht angewendet hat. Die Benutzer memorieren Menüs meist in ihrer gesamten Struktur. Eine Anpassung der Menüstruktur an das Benutzerverhalten, wie in Microsoft Office 2000 eingeführt (Abbildung 7.3-2), hat sich nicht bewährt. In der Menüstruktur sollten im Kontext nicht anwendbare Befehle ausgegraut, aber trotzdem angezeigt werden. Abbildung 7.3-2: Microsoft Office 2000 blendete in der Standardeinstellung viele Menüpunkte aus. Dahm 2006, S. 223–225 Cooper 2007, S. 473–492 7.3.1 Kontextmenüs Eine spezielle Form des Menüs ist das Kontextmenü. Es ist nicht ortsgebunden in einer Menüleiste, sonder erscheint als Pop-Up-Menü bei der direkten Manipulation eines Objektes (Abbildung 7.3-3). Außerdem ist sein zentraler Vorteil, dass es nur Befehle enthält, die für dieses Objekt in diesem Kontext sinnvoll sind. DementspreSEMESTERARBEIT JUREK BREUNINGER 116 GRAPHISCHE BENUTZEROBERFLÄCHEN chend klein und einfach erfassbar ist die Liste. Sie erspart das Anfahren der Menüleiste mit der Maus. Das Kontextmenü wird in den meisten GUIs mit einem Rechtsklick auf ein Objekt geöffnet. Bei Text beziehen sich seine Aktionen nur auf die aktuelle Auswahl. Abbildung 7.3-3: Das Kontextmenü für Dateien von Windows XP Dahm 2006, S. 202 7.3.2 Pie Menues Pie Menues („Kuchenmenüs“) sind eine alternative Darstellungsform für Kontextmenüs. Statt in einer vertikalen Liste werden die Befehle kreisförmig um das Objekt angeordnet. Dadurch sind alle Menüpunkte gleich weit vom Ursprung entfernt und dementsprechend schnell anwählbar. Für geübte Benutzer bieten sie den Vorteil, dass sie blind bedienbar sind, falls wiederkehrende Befehle immer an der gleichen Stelle angezeigt werden. Ihr Nachteil ist, dass sie maximal sechs bis acht Elemente enthalten sollten. Mehr sollten aber auch listenförmige Menüs idealerweise nicht haben. Pie Menues kommen vor allem in Computerspielen (Abbildung 7.3-4) vor und konnten sich in professionellen Anwendungen bisher kaum etablieren. Abbildung 7.3-4: Im Computerspiel Die Sims steuert man Figuren mittels Pie Menu. SEMESTERARBEIT JUREK BREUNINGER 117 GRAPHISCHE BENUTZEROBERFLÄCHEN Pie Menues können kaskadieren (Abbildung 7.3-5) und auch um einige Funktionalitäten erweitert werden. Die zweidimensionale Auswahl lässt z. B. in einem Schritt zwei Einstellungen zu (etwa Richtung für die Schriftart, Entfernung vom Mittelpunkt für die Schriftgröße). Wenn anstatt eines Mausklicks das Anfahren eines bestimmten Bereichs des Menüs als Auswahl interpretiert wird, spricht man von Control Menues. Marking Menues selektieren alle Elemente, die mit dem Mauszeiger angefahren wurden, beim Loslassen der Maustaste. Das FlowMenu ist eine Spezialform des kaskadierenden Pie-Menüs, bei dem die Elemente der tieferen Ebenen nicht eine Ausdehnung des Menüs bewirken, sondern immer die erste Ebene ersetzen. Abbildung 7.3-5: Dieses Pie Menu kaskadiert. Links unten ist die oberste Ebene zu sehen, die Auswahl öffnet das Menü darüber und eine weitere das rechts daneben. Dahm 2006, S. 203 Shneiderman 2005, S. 303 SEMESTERARBEIT JUREK BREUNINGER 118 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.4 Dialoge Als Dialoge versteht man in GUIs spezielle Fenster, die temporär und meist zusätzlich zum Hauptfenster der Anwendung erscheinen. Es gibt aktive und reaktive Dialoge: Ein aktiver Dialog erscheint, wenn ein externes Ereignis eintritt, das eine Reaktion des Benutzers auf die Änderung des Systemzustandes erfordert. Ein reaktiver Dialog erscheint auf Anforderung des Benutzers, der somit eine Änderung des Systemzustandes herbeiführen will. Eine weitere für die Bedienung wichtige Entscheidung ist die Modalität des Dialogs: Nichtmodale Dialoge schränken den Benutzer nicht in seiner Arbeit ein. Sie können geöffnet bleiben ohne die Interaktion mit anderen Bereichen oder Fenstern zu beeinträchtigen. Modale Dialoge setzen das System in einen anderen Zustand (mode). Dieser Zustand kann erst mit der Beendung des Dialogs (mit OK oder Abbrechen) verlassen werden. Solange ist keine Interaktion mit anderen Bereichen der Anwendung möglich. Ist ein Dialog systemmodal statt applikationsmodal, so ist überhaupt keine Aktion außerhalb des Dialogs möglich. Abbildung 7.4-1: Bei diesem modalen Einstellungsdialog wird gezeigt, dass er das darunterliegende Fenster sperrt indem es verdunkelt angezeigt wird. Modale Dialoge sollten sparsam eingesetzt werden. Ihre Informationen müssen vom Benutzer auf jeden Fall zur Kenntnis genommen werden wie bei wichtigen FehlerSEMESTERARBEIT JUREK BREUNINGER 119 GRAPHISCHE BENUTZEROBERFLÄCHEN meldungen. Auch Dialoge wie Speichern oder Drucken sind üblicherweise modal, da die Daten im Hintergrund für diese Aktionen in einem definierten Zustand bleiben müssen. Es ist sehr wichtig, dass ein modaler Dialog als solcher erkannt wird (Abbildung 7.4-1), da der Benutzer sonst seinen Arbeitsfluss fortsetzt und verwirrt ist, dass seine Eingaben nicht angenommen werden. Ein Dialog wird durch Bestätigen (OK) oder Abbruch (Abbrechen, Fenster schließen) beendet. Beim Abbruch erwartet der Benutzer, dass seine Änderungen nicht übernommen werden. Die Kontrolle über das Hauptfenster wird wieder übergeben. Dahm 2006, S. 225–227 7.5 Formulare Formulare – früher auch als Masken bezeichnet – bestehen aus einer Anzahl von Anzeigefeldern und Eingabefeldern (Abbildung 6.2-3). Sie bieten eine geführte Eingabe. Für jedes Datum wird ein dediziertes Feld angeboten. Die Felder sollten genau beschriftet sein und nur gültige Eingaben zulassen. Dazu bieten sich gegebenenfalls spezielle Widgets oder Dialoge an, wie etwa ein ausklappbarer Kalender für eine Terminfestlegung. Häufig sind Softwareformulare die Nachbildung oder der Ersatz für Papierformulare. Bei der Gestaltung von Softwareformularen basierend auf existierenden Papierformularen muss darauf geachtet werden, dass die geforderten Daten auch in digitaler Form relevant sind und dass sie in einem für den Benutzer intuitiven Format eingegeben, aber einem technisch sinnvollen Format abgespeichert werden. Außerdem sollten Einschränkungen, vor allem was den Platzbedarf angeht, nicht übernommen werden, da sie auf dem Bildschirm meist nicht gelten. Es sollte auf gut erfassbare Gruppierung gemäß den Gestaltgesetzen geachtet werden. Da die Textfelder und Beschriftungen meist unterschiedliche Längen haben, ist eine ordnende horizontale Ausrichtung sehr wichtig für die Übersichtlichkeit. Für gute Lesbarkeit sorgen Schriftgrößen ab 10 pt, serifenlose Schriften (im Gegensatz zu Papierformularen, wo Serifenschriften bevorzugt werden) und hoher Kontrast (schwarz auf weiß). Generell ist darauf zu achten, dass längerer Text mit nicht mehr als 60 Zeichen pro Zeile dargestellt wird. Bei längeren Zeilen verliert das Auge den optischen Halt und das Lesen erfordert mehr Konzentration. Innerhalb eines Formulars muss jederzeit ein beliebiges Springen zwischen den Feldern möglich sein. Außerdem muss das SEMESTERARBEIT JUREK BREUNINGER 120 GRAPHISCHE BENUTZEROBERFLÄCHEN Ansteuern der Felder sowohl mit Maus als auch Tastatur (Tabulator-Taste) erfolgen können, da geübte Anwender mit reiner Tastatureingabe deutlich schneller arbeiten. Dahm 2006, S. 227–230 7.6 Metaphern Eine Metapher ist ein bildlicher Vergleich, der der Verdeutlichung einer Sache dient (z. B. „Drahtesel“). In GUIs dienen Metaphern dazu, abstrakte Funktionen in bildlicher Form darzustellen und somit die Erlernbarkeit der Benutzung zu erleichtern. Metaphern können nicht nur für ein einzelnes Element, sondern auch für ein ganzes Bedienkonzept herangezogen werden. Zum Beispiel kann die Navigation durch einen langen digitalen Text mit einer Buchmetapher visualisiert werden (Abbildung 7.6-1), bei der ein Blättern durch die Seiten und ein Springen zu Lesezeichen möglich ist. Die Herausforderung liegt darin, dass die Metapher stimmig sein muss und alle Funktionalitäten nachvollziehbar abbilden kann. Dann kann ein Anwender sie intuitiv bedienen, weil er auf seine Erfahrungen aus der Realität zurückgreifen kann. Die Metapher wird dann transparent, das heißt sie bedarf keiner Aufmerksamkeit. Metaphern kommen vor allem bei direkter Manipulation vor, manchmal mit detaillierter Visualisierung, oft auch stark stilisiert (Tabs sind Karteireiter). Viele Metaphern sind so verbreitet, dass sie kaum mehr als solche erkannt werden. Sie werden dann ein eigenständiges Konzept (z. B. Ordner in der Datenstruktur). Abbildung 7.6-1: Diese Webseite ist wie ein Buch designt. Die Navigation mittels Knicken an den unteren Ecken und Lesezeichen ist durch diese Metapher sehr intuitiv. Dahm 2006, S. 230–232 SEMESTERARBEIT JUREK BREUNINGER 121 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.7 Icons Icons sind das wichtigste Mittel, um Metaphern für Objekte und Funktionen anzuzeigen (Abbildung 7.7-1). Je nach Fall können sie eine Funktion oder Aktion, den Effekt der Aktion auf ein Objekt, eine abstrakte Grafik oder eine Assoziation zu einer bekannten Funktion darstellen. Wenn bereits etablierte Bilder für Funktionen existieren, sollten diese übernommen werden. Ein Icon sollte aus einer Funktion nach dem Prinzip „function follows form“ hergeleitet werden und nicht „form follows function“. Das heißt der Benutzer muss aus der Gestalt auf die Funktion schließen können, nicht der Entwickler die Form aus der technischen Funktion entwickeln. Da aufgrund der technisch begrenzten Darstellungsmöglichkeiten eines Icons gerade bei komplexen Anwendungen das Erstellen intuitiver Icons für alle Funktionen sehr schwierig ist, sollte ein ergänzender Text die Bedeutung verdeutlichen. Dies kann z. B. durch ToolTips oder die Erweiterung der Toolbar als Ribbon erfolgen. Abbildung 7.7-1: Die Icons in Apples Mac OS X sind besonders detailliert. Allerdings kann zu starker Detailgrad auch von der Funktion ablenken. Dahm 2006, S. 232–234 Cooper 2007, S. 302–304 7.8 Erwartungskonformität, Konsistenz und Innovation Wie bereits mehrmals erwähnt, ist Konsistenz sehr wichtig für ergonomische Software. Das bedeutet, dass Begriffe, Icons, Gestaltung und Funktionsbezeichnung gleich bleiben. Dies wird meist durch Festhalten einer Spezifikation in einem Styleguide erreicht. Dann kann auch bei verteilter Entwicklung die Konsistenz gewährleistet werden. SEMESTERARBEIT JUREK BREUNINGER 122 GRAPHISCHE BENUTZEROBERFLÄCHEN Die Erwartungskonformität geht noch über die Konsistenz hinaus. Sie beachtet die Erwartungen der Benutzer und ihre Erfahrungen auf dem Arbeitsgebiet und mit ähnlicher Software. Sie wird erfüllt, wenn etwa für Funktionen, die in verschiedenen Anwendungen vorkommen, die dafür gängigen Tastaturkombinationen benutzt werden. Auch ein gewisser Transfer zwischen ähnlichen Aufgaben ist nötig. Strg+A markiert in Texteditoren den ganzen Text, in anderen Zusammenhängen dafür alle Objekte. Erwartungskonformität macht Software schneller erlernbar und vermeidet Frustration beim Anwender. Allerdings ist die Kehrseite der Medaille, dass ein striktes Einhalten der Erwartungskonformität auch die Innovation bei Bedienkonzepten dämpft. Man muss nicht krampfhaft an einem schlechten oder mittelmäßigen Bedienkonzept festhalten, nur um die Erwartungen zu erfüllen. Es erfordert allerdings Weitsicht und Mut, neue Konzepte einzuführen. Neue Konzepte können auf viel Widerstand stoßen, selbst wenn sie überlegen sind. Ein Beispiel für einen radikalen Bruch mit Bewährtem hat z. B. Microsoft mit der Bedienphilosophie in Office 2007 gewagt. Dahm 2006, S. 234f. 7.9 Ästhetik und Freude Ein von Ingenieuren gerne vernachlässigter Punkt beim Entwurf von Bedienkonzepten ist die Ästhetik des Designs und die dadurch herbeigeführte Freude der Anwender an der Benutzung. Jedoch zeigen die Erfolge entsprechend entworfener Software, dass diese nichtfunktionale Anforderung an Software-Systeme entscheidend für die wirtschaftliche Rentabilität und Produktivität der Anwender sein kann. Man spricht auch von der hedonischen Qualität einer Software. Das Problem ist, dass der viel diskutierte „Joy of Work“ weder quantitativ messbar ist, noch überhaupt objektiv bewertbar, da Schönheit sehr häufig im Auge des Betrachters liegt. Laut den Studien von Noam Tranctinsky kann die gelungene Ästhetik andere ergonomische Schwächen ausgleichen („What is beautiful is usable.“). Laut seinen Studien bewerten Anwender eine Software als einfacher bedienbar, wenn sie sie ästhetisch ansprechend finden. Die von Vergleichsgruppen kritisierten Schwächen des Bedienkonzeptes werden als nicht so störend empfunden. Dahm 2006, S. 236 Tranctinsky 2000, S. 139–142 SEMESTERARBEIT JUREK BREUNINGER 123 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.10 Sprache Trotz der heutzutage wichtigen direkten Manipulation ist der größte Teil der Information, die in Software-Systemen mit dem Anwender ausgetauscht wird, in Textform. Damit sich Dialoge, Meldungen und Aufforderungen selbst erklären und vom Anwender akzeptiert werden, sollten folgende Kriterien beachtet werden. Wenn sie eingehalten werden, reduziert sich die Fehlerrate der Benutzer. Die Sprache des Anwenders ist zu benutzen. IT-Jargon ist zu vermeiden. Stattdessen ist die Fachsprache des Anwendungsgebietes zu verwenden. Anwendungen sollten immer komplett in die Muttersprache der Benutzer übersetzt sein und keine Fremdsprachenkenntnisse erfordern. Meldungen und Aufforderungen sind neutral zu formulieren. Sie dürfen weder Wertungen enthalten, noch sollte die Anwendung sich personalisieren („Die Dateien wurden kopiert.“ statt „Ich habe die Dateien kopiert.“) Formulierungen sind einheitlich zu halten. Meist werden Meldungen beschreibend („Dateien werden kopiert.“) und Menüpunkte und Buttons auffordernd („Kopieren“) beschriftet. Substantivische Formulierung („Kopie“) sollte nur in Spezialfällen verwandt werden, wenn es vom Benutzer erwartet wird. Bei speziellen Anforderungen an das Format von einzugebenden Daten muss der Text darauf hinweisen („Geben sie Ihr Geburtsdatum im Forma TT/MM/JJJJ an.“). Am besten findet zusätzlich eine Prüfung statt, oder es werden Widgets verwendet, die keine Fehleingabe zulassen (Kalender). Statt programmiertechnisch einfacheren Lösungen wie „Es wurde 1 Datei(en) gefunden.“ sollten korrekte Lösungen wie „Es wurde eine Datei gefunden.“ bevorzugt werden. Dahm 2006, S. 237 7.11 Fehlerbehandlung Da Software (und auch die darunterliegende Hardware) zu den komplexesten Systemen gehört, die der Mensch geschaffen hat, kommt es unvermeidlich immer wieder zu Fehlern. Dies können Programmfehler durch die Programmierer sein, Funktionsstörungen der Hardware oder Fehlbedienungen der Hardware oder der Software durch den Benutzer (fehlender Datenträger, ungültige Eingaben, etc.). SEMESTERARBEIT JUREK BREUNINGER 124 GRAPHISCHE BENUTZEROBERFLÄCHEN Programmierfehler können nur sehr eingeschränkt abgefangen werden, da sie schwer antizipierbar sind. Mit Exception Handling steht Programmierern aber ein Werkzeug zur Verfügung, allgemeine und spezielle Fehlerbehandlungen vorzusehen. Auf Störungen der Funktion der Hardware oder Fehlbedienung durch den Benutzer muss die Software auf jeden Fall reagieren. Es gibt drei Möglichkeiten mit Fehlern umzugehen: Fehler melden Meist wird der Benutzer auf das Auftreten eines Fehlers hingewiesen. Er sollte sowohl Symptom und Auswirkung, als auch Ursache des Fehlers mitgeteilt bekommen. Wenn möglich wird auch ein Hinweis auf die Korrektur des Fehlers gemacht. Die Fehlermeldung muss für den Benutzer in Abhängigkeit seines Wissensstandes informativ und verständlich sein. Auch sollte bei unkritischen Fehlern der Arbeitsfluss des Benutzers nicht unterbrochen werden (Hinweisbereich statt modaler Dialog). Fehler korrigieren In wenigen Fällen kann die Software einfach eine automatische Korrektur von Fehleingaben vornehmen. Ein bekanntes Beispiel ist die automatische Korrektur von häufigen Tippfehlern in Textverarbeitungsprogrammen (dre → der). Fehler vermeiden Am besten treten Fehler gar nicht erst auf. Für die Vermeidung gibt es drei Ansatzmöglichkeiten: o Organisatorisch Man kann Fehler durch eine gute Anpassung an die Arbeitsprozesse des Benutzers vermeiden. So können Mehrfacheingaben und logische Brüche umgangen werden. o Logisch Durch Einbeziehung des Kontextes kann die Relevanz von Daten und Aktionen bewertet werden. Der Benutzer soll sich nur mit relevanten Dingen beschäftigen müssen. o Inhaltlich SEMESTERARBEIT JUREK BREUNINGER 125 GRAPHISCHE BENUTZEROBERFLÄCHEN Die Qualität von Beschriftungen und Ausgaben ist wichtig für die Fehlervermeidung. So werden die häufigsten Fehler, wie Eingabe von falschen Daten oder falsche Interaktion, vermieden. Dahm 2006, S. 238f. 7.12 Online-Hilfe Ein großer Vorteil von Computerprogrammen ist, dass theoretisch kein gesondertes Handbuch nötig ist, da das Programm selbst die Möglichkeit hat, sich zu erklären und in speziellen Fällen Hilfe zu leisten. Ein Programm kann außerdem den Kontext des aktuellen Problems erkennen und dem Anwender das Suchen der relevanten Kapitel sparen. Die wichtigsten Anlaufstellen für Hilfe sind die dafür reservierte Taste F1 und der Menüpunkte Hilfe oder „?“ in der obersten Menüebene. Es gibt mehrere Möglichkeiten, eine Hilfe online, also bei laufendem System, zu realisieren: Online-Handbuch Eine digitale Form des gedruckten Handbuches; wird oft als Hypertext realisiert, das heißt ein direktes Ansteuern bestimmter Kapitel mittels Links ist vielerorts möglich. Online-Handbücher beschreiben sehr ausführlich den gesamten Funktionsumfang der Anwendung. Sie werden von vielen Benutzern nicht gerne lange am Bildschirm gelesen. Online-Hilfe Ähnlich wie das Handbuch meist ein Hypertext (Abbildung 7.2-3); allerdings sind die Beschreibungen viel kürzer und problembezogener. Enthält sowohl kurze Einleitungen in bestimmte Funktionen, als auch Handlungsanweisungen in besonderen Fehlersituationen; dient oft als Nachschlagewerk/Referenz Kontextsensitive Hilfe, Hilfe-Modus Vom Benutzer kontrollierte Hinweise zu bestimmten Elementen; z. B. Balloon Tips, ToolTips, Assistenten, die das Benutzerverhalten überwachen und kontextabhängig Vorschläge machen (Abbildung 7.12-1). Beim Schalten in einen Hilfe-Modus werden Elemente bei Interaktion erklärt (meist statt aktiv zu sein, Abbildung 7.12-2). Die Hilfe ist so kein abgegrenzter Teil im Programm, sondern in das Bedienkonzept integriert. SEMESTERARBEIT JUREK BREUNINGER 126 GRAPHISCHE BENUTZEROBERFLÄCHEN Online Tutorial Eine Trainingsumgebung, die das Erlernen der Anwendung durch realistische Szenarien mit multimedialen Beschreibungen erleichtert. Je nach Gestaltung bieten Tutorials ein hohes Maß an Interaktivität. Sie führen anhand von Beispielen durch die Benutzung der Anwendung. Animierte Demonstrationen Im einfachsten Fall eine Diaschau von Screenshots beim Durchführen bestimmter Vorgänge. Meist ein Video, das auch die Mausbewegung und erklärenden Text oder Tonaufnahmen enthält. Audio/Video Guides Eine spezielle Form der animierten Demonstration, bei der eine mit der Materie vertraute Person ihre Arbeitsweise vorstellt und kommentiert. Während unpersönliche animierte Demonstrationen meist recht begrenzte Bereiche beschreiben, können Guides über viele Arbeitsschritte hinweg einen kompletten Arbeitszyklus präsentieren. Abbildung 7.12-1: Der Assistent von Microsoft Office bietet kontextabhängig Hilfe an. Fortgeschrittene Benutzer empfinden das allerdings als störend. Abbildung 7.12-2: Manche Programme bieten einen Hilfemodus an, der den Mauszeiger in einen Hilfemodus bringt, mit der die Funktionsweise von Elementen abgefragt werden kann. Zusätzlich zur Hilfe bei Problemen sollte Software eine problemvermeidende Bedienführung haben. Vor allem bei kritischen Aufgaben, die eher selten vorkommen, wie Installationen oder Konfigurationen, hat sich die geführte Bedienung in Form von As- SEMESTERARBEIT JUREK BREUNINGER 127 GRAPHISCHE BENUTZEROBERFLÄCHEN sistenten (Wizards, Abbildung 7.12-3) etabliert. Diese sind Abfolgen von Dialogen, die Arbeitsaufgaben schrittweise erklären und meist Eingaben erwarten. Es werden nur im Kontext sinnvolle Aktionen angeboten. Assistenten sind ungeeignet für häufig benötigte Arbeitsfolgen, da ihr großer Anteil an erklärendem Text und die starre Abfolge die Arbeitsgeschwindigkeit einschränken können. Außerdem lassen sie nur die vom Entwickler vorgesehene Bearbeitung zu. Abbildung 7.12-3: Vor allem bei Installations- oder Erstkonfigurationsvorgängen haben sich Assistenten, eine Folge gleichartiger Dialoge, in denen beliebig vor und zurück navigiert werden darf, bewährt. Shneiderman 2005, S. 539–551 Dahm 2006, S. 239–241 7.13 Ungewöhnliche Darstellungsformen Neben den vorgestellten Widgets und Interaktionskonzepten gibt es eine Vielzahl alternativer Realisierungen von graphischen Bedienkonzepten. Sie sind das Gebiet aktueller Forschung. Neben wissenschaftlicher und betrieblicher Forschung sind auch Computerspiele eine stete Quelle neuer Bedienkonzepte. Ob ungewöhnliche Konzepte für bestimmte Zwecke taugen, lässt sich am besten mit Benutzerexperimenten herausfinden. Es folgen ein paar Ideen, die sich (noch) nicht auf breiter Ebene durchgesetzt haben. Shneiderman 2005, S. 222–224, S. 228–231 SEMESTERARBEIT JUREK BREUNINGER 128 GRAPHISCHE BENUTZEROBERFLÄCHEN Abbildung 7.13-1: Diese Website hat eine auf Betrachtungsentfernung basierende Struktur. Man kann den Betrachtungsausschnitt mit der Maus und direkter Manipulation verschieben. Mit dem Mausrad kann man weiter hereinzoomen, wodurch periphere Elemente aus dem Betrachtungsausschnitt verschwinden, aber vorher unsichtbare „entferntere“ Elemente sichtbar werden. SEMESTERARBEIT JUREK BREUNINGER 129 GRAPHISCHE BENUTZEROBERFLÄCHEN 7.13.1 ZUI Das Zoomable (auch Zooming) User Interface ist eine Möglichkeit, Informationen strukturiert anzuzeigen (Abbildung 7.13-1). Statt Fenstern und Menüs nutzt es zur Strukturierung und Hierarchisierung die Blickentfernung. Man navigiert durch Vergrößern, Verkleinern und Verschieben des Blickbereichs. Informationen auf sehr niedrigen, also weit entfernten Ebenen werden sehr klein und unsichtbar. Die Steuerung ist intuitiv (da sie die direkte Manipulation nutzt) und meistens mausbasiert. Das Mausrad wird für das Zoomen verwendet. Mit dem Zeiger kann man Objekte bzw. den Bildausschnitt verschieben. Voraussetzung für das Funktionieren dieses Konzeptes ist eine kontinuierliche Anpassung des Detailgrades. Dies wird häufig durch Vektorgraphiken erreicht. ZUIs spielen ihre Vorteile vor allem auf kleinen Bildschirmen aus, da sie fast unabhängig von der Bildschirmauflösung funktionieren. Mobiles Surfen im Internet, z. B. auf dem iPhone, wird dadurch erleichtert. Bederson 1998, S. 1–4, S. 8, S. 12 http://www.cs.umd.edu/hcil/piccolo/learn/about.shtml 7.13.2 Fish-Eye View Der Fisheye-View ist eine graphische Möglichkeit, Informationen mit hoher Komplexität und vielen Elementen einfacher erfassbar zu machen. Dabei werden Elemente, die wichtig für die aktuelle Arbeit sind, zentral und groß angezeigt, alle anderen werden in den Ecken kleiner und dichter dargestellt. Mit Fish-Eye-Menüs lassen sich sehr viele Menüpunkte auf gängigen Bildschirmen anzeigen (Abbildung 7.13-3). Darüber hinaus wird diese Darstellung zum Beispiel in Apples „Dock“-Programmstartleiste (Abbildung 7.13-2) gebraucht. Auch für die Strukturierung von Informationen in sehr großen Graphen und Strukturbildern kann Fisheye-View verwendet werden. Abbildung 7.13-2: Neuere Versionen von Apples Programmstartleiste Dock zeigen die Elemente unter dem Mauszeiger vergrößert an. SEMESTERARBEIT JUREK BREUNINGER 130 GRAPHISCHE BENUTZEROBERFLÄCHEN Abbildung 7.13-3: Auch dieses Fish-Eye Menu bildet die Elemente unter dem Mauszeiger größer ab als die peripheren. Dadurch bleibt ein Gesamtüberblick über die Anzahl der Elemente erhalten, ohne dass zu viele Elemente die Aufmerksamkeit des Betrachters beanspruchen. Shneiderman 2005, S. 276, S. 507f. Dahm 2006, S. 242 7.13.3 Hyperbolische Bäume Eine Möglichkeit, eine Vielzahl von Daten und ihre Zusammenhänge untereinander zu visualisieren, sind die hyperbolischen Bäume (kurz Hypertree, Abbildung 7.13-4). Sie versuchen die Unübersichtlichkeit, die eine quasi-eindimensionale Baumdarstellung ab einer gewissen Anzahl von Elementen und Tiefe der Ebenen bietet, zu verbessern. Das Konzept wird etwa in kaskadierenden Pie-Menüs genutzt. Es kann wie der Fisheye-View auch für komplexe Struktur- oder Funktionsgraphen verwendet werden, am besten in Kombination mit einem ZUI. Um mit einem hyperbolischen Baum einen Übersichtsgewinn zu erreichen, ist es wichtig, dass bei einer Änderung SEMESTERARBEIT JUREK BREUNINGER 131 GRAPHISCHE BENUTZEROBERFLÄCHEN des Fokus die Darstellung des Baumes neu berechnet wird. Wie beim Fisheye-View sollten zentrale Elemente größer dargestellt werden als periphere. Abbildung 7.13-4: Hyperbolische Bäume eignen sich zur strukturierten Darstellung von weitreichenden Informationen. http://sigchi.org/chi95/Electronic/documnts/papers/jl_bdy.htm Shneiderman 2005, S. 594 7.13.4 Mehrdimensionale Darstellung Während Computer in der Anfangszeit nur zweidimensionale Graphik darstellen konnten, machten die Fortschritte in der Hardware und das Bedienungskonzept der direkten Manipulation bald dreidimensionale Darstellung in Computerprogrammen gebräuchlich. Die Ausgabe von Computerspielen, CAD und Virtual-RealityAnwendungen ist fast immer dreidimensional, um ihre Räumlichkeit zu simulieren. Doch in anderen Bereichen gibt es noch Entwicklungspotential. Konzepte für drehbare Desktopoberflächen (Abbildung 7.13-5) und kippbare Fenster versuchen diese klassischen zweidimensionalen Anwendungsbereiche um neue Möglichkeiten zu erweitern (Abbildung 7.13-6). Sie können allerdings auch zu mehr Verwirrung bei den Anwendern führen als vereinfachte 2D-Oberflächen. Ein großes Problem der dreidimensionalen Darstellung ist die mögliche Verdeckung einzelner Elemente. Es sollte SEMESTERARBEIT JUREK BREUNINGER 132 GRAPHISCHE BENUTZEROBERFLÄCHEN nicht nach einer realistischeren Imitation der Realität gestrebt werden, sondern die Produktivität gesteigert werden. Dies gelingt gerade mit Konzepten, die über das in der echten Welt Machbare hinausgehen, wie das Sehen durch massive Objekte, freie Manipulation von Objekten und Mehrfachblicke auf das gleiche Objekt. Deswegen kommen sie oft aus dem kreativen Bereich der Computerspiele. Abbildung 7.13-5: Beryl nutzt dreidimensionale Darstellung für intuitives Umschalten zwischen virtuellen Arbeitsflächen. Abbildung 7.13-6: Der 3D-Desktop Bumptop setzt die bekannte Schreibtischmetapher dreidimensional um. Außerdem erlaubt er weitgehende direkte Manipulation, z. B. das Stapeln von Objekten. Bei der Darstellung vieler statistischer oder betrieblicher Daten kommt man mit dreidimensionaler Darstellung schnell an die Grenzen, da hier oft nicht räumliche sondern höherdimensionale Abhängigkeiten zwischen Daten bestehen. Dann werden oft SEMESTERARBEIT JUREK BREUNINGER 133 GRAPHISCHE BENUTZEROBERFLÄCHEN zusätzliche Darstellungsmöglichkeiten wie Farbe, Größe, räumliche Nähe zur Unterscheidung eingesetzt. Solche Darstellungskonzepte sind aber leider nicht besonders intuitiv und benötigen eine gewisse Schulung, damit sie produktiv angewandt werden können (Abbildung 7.13-7, Abbildung 7.13-8). Abbildung 7.13-7: Der Hierarchical Clustering Explorer verfügt über diverse graphische Darstellungsformen für vieldimensionale Daten. Sie basieren fast immer auf zweidimensionaler Darstellung. Abbildung 7.13-8: InfoZoom zeigt mehrdimensionale Daten mit einem ZUI. Shneiderman 2005, S. 241–246, S. 586 SEMESTERARBEIT JUREK BREUNINGER 134 EINGEBETTETE COMPUTER 8 Eingebettete Computer Embedded Computer sind Computer, die nicht sofort als solche erkennbar sind. Sie besitzen im Allgemeinen eine andere Form und andere Eingabe- und Ausgabemöglichkeiten als ein klassischer Desktopcomputer oder Laptop. Praktisch alle Geräte aus dem Bereich der Unterhaltungselektronik (Consumer Electronics) wie Mobiltelefone, Stereoanlagen, Fernseher oder Spielekonsolen sind im Kern Computer. Zusätzlich befinden sich in sehr vielen Gebrauchsgeräten inzwischen auch Computer (Waschmaschinen, Messgeräte, Industriemaschinen, Autos). 8.1 Spezielle Anforderungen Da eingebettete Computer unter anderen Randbedingungen eingesetzt werden als normale Computer, gelten eine Reihe von Einschränkungen: Manche Geräte sind sehr klein (Fernbedienungen, Mobiltelefone), die Fläche der Eingabeelemente und Anzeigen ist daher sehr begrenzt. Die Benutzung gerade von Unterhaltungselektronik, aber auch Autos oder Waschmaschinen, muss selbsterklärend sein und sollte ohne Studium eines Handbuches auskommen. Die kognitive Kapazität der Benutzer sollte voll der Aufgabenbewältigung zur Verfügung stehen und nicht der Bedienung. Doch die Selbstbeschreibungsfähigkeit wird oft vernachlässigt. Manche eingebettete Computer werden häufig von verschiedenen Anwendern verwendet (Kopierer, Festnetztelefon, Industriemaschinen). Bei ihnen machen Personalisierungsmöglichkeiten keinen Sinn, da sie die verschiedenen Benutzer verwirren können. Im Gegensatz zu normalen Computern, die Allzweckgeräte sind, sind eingebettete Computer auf einen Anwendungszweck spezialisiert. Der Funktionsumfang ist begrenzt. Das ist auch gut so. Der Funktionsumfang sollte nicht unnötig gesteigert werden, da die Ergonomie darunter meist leidet. Bei manchen eingebetteten Computern haben die Benutzer deutlich höhere Ansprüche an die Verfügbarkeit und Reaktionszeit als bei Desktopcomputern. SEMESTERARBEIT JUREK BREUNINGER 135 EINGEBETTETE COMPUTER Boot-, Lade- oder Berechnungszeiten im Minutenbereich werden bei Mobiltelefonen oder Infotainmentsystemen in Autos nicht akzeptiert. Wegen der Spezialisierung ist der Kontext der Bedienung dem Benutzer immer klar. Dies ermöglicht die eindeutige Verwendung von allgemeinen Symbolen und kann Oberflächen schlanker machen. Während das Arbeiten an einem normalen Computer fast immer eine Primäraufgabe ist, werden eingebettete Computer oft auch für Sekundär- oder Tertiäraufgaben eingesetzt. Das bedeutet, dass der Hauptanteil der kognitiven Kapazität des Benutzers nicht für die Arbeit mit dem Software-System zur Verfügung steht und in Anspruch genommen werden darf. Man kann davon ausgehen, dass sich dadurch die Leistungsfähigkeit des Benutzers reduziert, zum Beispiel ist das Fassungsvermögen des Kurzzeitgedächtnisses bei paralleler Beschäftigung nicht mehr 7 ± 2 chunks, sondern nur noch etwa 3 ± 1 chunks, da andere Aufgaben ein paar chunks binden können. Klassische Beispiele für eingebettete Computer zur Erfüllung von Tertiäraufgaben sind die Infotainmentsysteme in Autos. Die Primär- und Sekundäraufgaben sind hier Fahrzeugbedienung, Verkehrsbeobachtung und Navigation. Die Hardware ist meist nicht so leistungsfähig wie bei einem normalen Computer. Manche Darstellungskonzepte sind dadurch nicht realisierbar (direkte Manipulation mangels Zeigegerät nicht sinnvoll, Auflösung gibt Minimalgröße des Textes vor, Dreidimensionalität zu rechenaufwändig). Für eingebettete Computer gilt durch die Zweckbezogenheit, dass die Bedienung in den meisten Fällen aufgabenorientiert sein sollte. Eine funktionsorientierte Bedienung ist nur in Spezialfällen sinnvoll. Denn dadurch kann ein nicht aufgabenangemessener Bedienaufwand bei häufigen Problemstellungen entstehen. Dahm 2006, S. 290f. Shneiderman 2005, S. 304–309, S. 392–395, S. 463 Bubb 2006, Kap. 3-4 8.2 Möglichkeiten Ein nicht zu unterschätzender Vorteil von eingebetteten Computern ist aber auch, dass sie gewisse Einschränkungen der normalen Computer nicht mitbringen. Oft ist SEMESTERARBEIT JUREK BREUNINGER 136 EINGEBETTETE COMPUTER eine freie Gestaltung der Ein- und Ausgabegeräte möglich, die durch die Anpassung an den Einsatzzweck höhere Produktivität erreichen als die Standardgeräte Tastatur und Maus. Viele auf Computern etablierte Bedienkonzepte und Metaphern müssen auf eingebetteten Computern nicht unbedingt eingesetzt werden, wenn ergonomisch günstigere Alternativen erdacht werden können. Der andere Kontext als beim Desktopcomputer sorgt dafür, dass ein Bruch mit PC-Gepflogenheiten vom Benutzer verstanden und akzeptiert wird. Wenn das neue Konzept aber keine deutliche Verbesserung der Ergonomie verspricht, sind Lösungen, die bestehendes Wissen aus anderen Bereichen nutzen, vorzuziehen. Ein weiterer Vorteil von manchen eingebetteten Computern (z. B. Mobiltelefon) ist, dass sie stark personalisierbar sein können. Mit an den Benutzer und seine Aufgabenstellungen angepassten Bedienkonzepten können Effizienz und Zufriedenheit des Benutzers steigen. Dahm 2006, S. 290ff. SEMESTERARBEIT JUREK BREUNINGER 137 WERKZEUGE 9 Werkzeuge Zur Erstellung ergonomischer Softwareoberflächen bedarf es neben dem ergonomischen Grundwissens und den Ideen für die Realisierung auch noch einiger hilfreicher Werkzeuge. Diese kommen aus den allgemeinen Softwareentwicklungsprozessen und sind Software-Ingenieuren deshalb recht vertraut. Da sich der Entwurf ergonomischer Benutzerschnittstellen zu einem immer wichtigeren Gebiet entwickelt, gibt es inzwischen aber auch reine User-Interface-Architekten, die nicht zwingend Informatiker o. ä. sind. Dies führt oft zu einem besseren Design, da so die interdisziplinären Aspekte der Software-Ergonomie mehr betont werden und die Software nicht nur anhand technischer Rahmenbedingungen ausgelegt wird. Es folgt eine kurze Übersicht wichtiger Werkzeuge. 9.1 Methoden zur Spezifikation In modernen Software-Entwicklungsprozessen erfolgt die Implementierung erst, wenn eine Spezifikation existiert. Das kreative Entwickeln einzelner Programmierer, die gleichzeitig Lösungen erstellen und Programmcode schreiben und verbessern („code and fix“), ist schon ab Softwareprojekten mittleren Umfangs ungeeignet. Für die Spezifikation von Softwareoberflächen kommen die gleichen Werkzeuge zum Einsatz wie für allgemeine Software, neben textuellen Spezifikationen vor allem mehrere Diagrammtypen. Die meisten Diagrammtypen sind durch die Unified Modeling Language (UML) beschrieben. Da diese primär für den klassischen Software-Entwurf gedacht ist, gibt es eine Erweiterung für das Benutzerschnittstellendesign namens UMLi (UML for Interactive Applications). Die wichtigsten Methoden für die UISpezifikation sind: Menüauswahl- und Dialogbäume (Abbildung 9.1-1): Eine komplette graphische Aufführung aller Menüebenen und Punkte oder die logische Abfolge von Dialogen in einer Baumstruktur; wird ab einer gewissen Komplexität sehr groß und gerne an komplette Wände gehängt; ermöglicht die gesamte Struktur auf einmal zu überblicken und auf Konsistenz, Vollständigkeit und fehlende Redundanz und Doppeldeutigkeit zu überprüfen. SEMESTERARBEIT JUREK BREUNINGER 138 WERKZEUGE Abbildung 9.1-1: Ein einfacher Menüstrukturbaum Zustandsdiagramme (UML): Graphische Darstellung eines endlichen Automaten; bei der UI-Spezifikation werden für die Zustände auch manchmal Screenshots oder Skizzen der Oberfläche verwendet. Die Zustandsübergänge sind entweder Benutzereingaben oder externe Ereignisse (Abbildung 9.1-2). Zustandsautomaten lassen sich automatisiert auf die Erreichbarkeit aller Zustände und die Verlassbarkeit aller Zustände hin überprüfen. Statt der UMLForm werden manchmal auch noch die Vorgängerformen Zustandsübergangsdiagramm/Statecharts genutzt. Abbildung 9.1-2: Ein Zustandsdiagramm eines interaktiven Programms SEMESTERARBEIT JUREK BREUNINGER 139 WERKZEUGE Aktivitätsdiagramme (UML, Abbildung 9.1-3): Beschreiben das Verhalten der Software. Sie können im Gegensatz zu Zustandsdiagrammen auch dynamische Aspekte wie Nebenläufigkeit darstellen. Die Aktivitäten sind meist die Benutzereingaben. Aktivitätsdiagramme lassen sich allerdings nur schlecht mit Screenshots illustrieren. Abbildung 9.1-3: Ein UML-Aktivitätsdiagramm, das den Aufbau eines Druckassistenten beschreibt. Prototypen: Eine weitere Möglichkeit, die geplante Anwendung zu spezifizieren, ist das Erstellen eines Prototyps. Dieser hat, je nachdem was spezifiziert wird, nicht den kompletten Funktionsumfang, zeigt aber zum Beispiel die komplette Menüstruktur, das Fensterlayout und den Aufbau der Dialoge. Die meisten genannten Arten der Spezifikation lassen sich theoretisch mit Papier und Stift durchführen. In der Praxis kommen dafür aber häufig Softwarewerkzeuge zum Einsatz. Diese reichen von einfachen Zeichenprogrammen für Skizzen über PräsenSEMESTERARBEIT JUREK BREUNINGER 140 WERKZEUGE tationsprogramme für Diagramme bis zu Programmen, mit denen sich aus bekannten GUI-Bausteinen Oberflächen ohne Funktion erstellen lassen (Abbildung 9.1-4). Für Prototypen werden meist für Rapid Prototyping geeignete Programmiersprachen wie Python und GUI-Bibliotheken benutzt. Abbildung 9.1-4: Mit Microsoft Visio lassen sich Softwareoberflächen ohne Funktion aus Bausteinen zusammensetzen. Shneiderman 2005, S. 178–183, S. 185 Pinheiro 2003, S. 62ff. 9.2 Werkzeuge zum Erstellen von Oberflächen Um die Spezifikation einer Software in ein funktionierendes Produkt umzusetzen, muss man sie in Programmcode implementieren. Da moderne Software sehr komplex ist, und der Quellcode mehrere zehn- oder hunderttausend Zeilen umfassen kann, ist die Wiederverwendung existierender Implementierungen eine wichtige Voraussetzung für wirtschaftliches Entwickeln. Vor allem im Bereich der Bedienoberflächen kommt es zu viel Wiederverwendung. Es gibt diverse Codesammlungen, so genannte Bibliotheken, die die bekannten Widgets und Darstellungskonzepte bereits implementiert zur Verfügung stellen. Diese GUI-Toolkits sind hauptsächlich für den PC-Bereich verfügbar, aber es gibt inzwischen auch für verbreitete Embedded- SEMESTERARBEIT JUREK BREUNINGER 141 WERKZEUGE Plattformen wie Mobiltelefone entsprechende Unterstützung. Bekannte GUIBibliotheken sind: MFC (Microsoft Foundation Class) und Windows Forms für die .NET-SoftwarePlattform sind die wichtigsten Bibliotheken für Windowsprogramme. Windows selbst und ein Großteil der dafür verfügbaren Programme sind mit ihnen geschrieben. Sie sollen langfristig von der WPF (Windows Presentation Foundation) abgelöst werden. Cocoa ist die Software-Plattform für Apples Mac OS X. Die meisten Programme für Apple verwenden ihre GUI-Bibliothek. Qt und GTK+ sind etablierte Open-Source-GUI-Toolkits, die vor allem in der Unix-Welt eingesetzt werden (Die Desktopumgebung KDE ist mit Qt geschrieben, Gnome mit GTK+). Sie haben den Vorteil, dass sie plattformübergreifend sind, Programme also auch auf Windows- und Apple-Systemen funktionieren. Java-Programme nutzen meist die Bibliotheken AWT, SWT oder Swing. Sie funktionieren wie alle Java-Programme plattformübergreifend. Während AWT und SWT die Widgets des aktuellen Betriebssystems übernehmen, sehen Swing-Programme auf allen Betriebssystemen gleich aus. Tk ist ein GUI-Toolkit für die Skriptsprache Tcl. Die Kombination Tcl/Tk ist beliebt für einfache schnelle Programmierung und eignet sich gut für Prototypen. Inzwischen gibt es auch Umsetzungen von Tk für andere Skriptsprachen wie Python oder Perl. Darüber hinaus existieren noch zahlreiche weitere Bibliotheken etwa für die Webprogrammierung (Rails, Django, Fusion) oder für eingebettete Systeme (Android). Für die Programmierung werden heute meist IDEs (integrierte Entwicklungsumgebungen) genutzt. Manche IDEs geben dem Programmierer die Möglichkeit, neben der Bearbeitung des Quellcodes Bedienoberflächen mittels direkter Manipulation zusammenzufügen (Abbildung 9.2-1). Sie erzeugen aus der graphischen Darstellung automatisch Programmcode. Diese Funktion wurde 1991 von Visual Basic eingeführt. Der funktionale Teil der Anwendung muss allerdings immer noch von Hand erstellt werden. Noch eine Ebene höher als das visuelle Programmieren mit vorgefertigten Toolkits ist die modellbasierte Entwicklung: Programme wie Microsoft Access SEMESTERARBEIT JUREK BREUNINGER 142 WERKZEUGE oder Sybase PowerDesigner ermöglichen ein Erstellen von graphischen Frontends für Datenbanken, ohne dass der Designer zwingend programmieren können muss (Abbildung 9.2-2). Abbildung 9.2-1: Mit IDEs wie dem Qt Designer lassen sich Benutzeroberflächen mittels direkter Manipulation aus Bausteinen zusammenfügen. Abbildung 9.2-2: Mit Microsoft Access lassen sich Formulare und Berichte mit Abfragen aus der Datenbank ohne Programmierkenntnisse erstellen. Shneiderman 2005, S. 183–202 SEMESTERARBEIT JUREK BREUNINGER 143 USABILITY ENGINEERING 10 Usability Engineering Nachdem die menschlichen und technischen Grundlagen der Software-Ergonomie, Gestaltungsempfehlungen von Experten, sowie bestehende und mögliche Realisierungen auf dieser Basis besprochen wurden, wird zuletzt die wichtige Fragestellung behandelt, wie diese theoretischen Erkenntnisse in der Praxis der Software- und Produktentwicklung im Unternehmen umgesetzt werden können. Den Einsatz geeigneter Prozesse und Methoden, um ein ergonomisches Softwareprodukt zu entwickeln, nennt man Usability Engineering. Diese Prozesse und Methoden müssen stark an den speziellen Entwicklungsprozess und die Anforderungen des Projektes angepasst werden. Deshalb werden hier die wichtigsten Methoden allgemein beschrieben, denn eine genaue schrittweise Anleitung ist meist nicht sinnvoll. In der Software-Entwicklung haben sich bereits einige Vorgehensmodelle etabliert, die die Qualität und Rentabilität der zu entwickelnden Software gewährleisten sollen. Es soll diskutiert werden, wo die Methoden und Prozesse des Usability Engineering in diesen Vorgehensmodellen zum Tragen kommen oder wie sie sich integrieren lassen. 10.1 Die drei Säulen des Entwurfs nach Shneiderman Um die zentrale Bedeutung des Usability Engineering für eine erfolgreiche Benutzerschnittstelle zu zeigen, seien hier kurz die drei Säulen des Entwurfs nach Shneiderman (Abbildung 10.1-1) gezeigt: Dokumentierte Richtlinien und Prozesse Softwarewerkzeuge zur Benutzerschnittstellengestaltung Expertenbewertung und Usability Testing Richtlinien und Softwarewerkzeuge wurden bereits in den jeweiligen Kapiteln behandelt und sind in fast allen Unternehmen der IT-Branche etabliert. Doch die übrigen Elemente, die laut Shneiderman eine fundamentale Voraussetzung für gutes Software Engineering sind, werden sehr häufig zu wenig oder gar nicht beachtet und praktiziert. Sie sind Teil des Usability Engineering. SEMESTERARBEIT JUREK BREUNINGER 144 USABILITY ENGINEERING Erfolgreiche Bedienschnittstellen Dokumentierte Richtlinien & Prozesse Softwarewerkzeuge zur Benutzerschnittstellengestaltung Expertenbewertung & Usability Testing Theorien & Modelle Algorithmen & Prototypen Kontrollierte Experimente Wissenschaftliche Forschung Abbildung 10.1-1: Die drei Säulen des Entwurfs nach Shneiderman Man kann auch die Richtlinien- und Prozessdokumentation als Teil des Usability Engineering verstehen; besonders dann, wenn die Richtlinien und Prozesse speziell für das aktuelle Projekt definiert werden und nicht auf bestehende Dokumente zurückgegriffen wird. Shneiderman 2005, S. 114 10.2 Methoden Unvollständige Anforderungen und mangelnder Einbezug des Nutzers sind laut einer Studie der Standish Group zwei der führenden Gründe, warum Softwareprojekte scheitern (Standish Group 1994). Die Methoden und Prozesse des Usability Engineering fokussieren Anforderungsfindung, Entwicklung und Tests unter maximaler Einbeziehung des Anwenders. Dies nennt man User Centered Design (UCD). Im Folgenden werden die wichtigsten Methoden vorgestellt. Die Reihenfolge, in der sie beschrieben sind, kann – muss aber nicht – ihrem Auftreten während des Entwicklungsprozesses entsprechen. 10.2.1 Contextual Inquiry Contextual Inquiry ist eine Methode, die zur Analyse der Benutzer und des Einsatzumfelds dient. Dies ist ein zentraler Teil des Requirements Engineering, also der An- SEMESTERARBEIT JUREK BREUNINGER 145 USABILITY ENGINEERING forderungsfindung. Man beobachtet die Benutzer und ihre Tätigkeiten während der Arbeit und befragt sie darüber. Da die meisten Menschen ihr implizites Anwendungswissen nicht in einem einmaligen Interview kommunizieren können, ist dies ein iterativer Prozess. Aus den Beobachtungen und Befragungen sollten sich Informationen über die Rollenverteilung und Kommunikation, die Handlungsstrategien, bei der Arbeit benutzte Dokumente und Werkzeuge, kulturelle und soziale Einflüsse und das physische Umfeld beziehen lassen. Bereits während der Beobachtung kann Optimierungspotential identifiziert werden, mögliche Lösungsstrategien dazu sollten protokolliert werden. Neben einem Analysten können auch Entwickler und Produktmanager bereits in dieser Phase mit einbezogen werden. Die Ergebnisse des Contextual Inquiry werden meist in informeller Textform dokumentiert. Es kommen aber auch Skizzen, Screenshots, Video- und Audioaufnahmen zum Einsatz. Eine weiterführende Methodik ist das Contextual Design, in welchem die Ergebnisse der Analyse in graphischen Modellen festgehalten werden. Zum Beispiel kann man die Kommunikation der beteiligten Personen mit einem Informationsflussdiagramm festhalten. Richter 2007, S. 13f., S. 19–24 Cooper 2007, S. 58f., S. 106f. 10.2.2 Personas und Szenarien Personas und Szenarien sind zwei Techniken, die unterschiedlichen Anforderungen zu modellieren und daraus passende Lösungen abzuleiten. Personas sind prototypische Benutzerprofile und stellen deren unterschiedliche Ziele und Verhaltensweisen dar. Sie werden aus den Ergebnissen von Contextual Inquiry und Fragebögen oder in eigenen Workshops erarbeitet. Eine Persona spiegelt die für die Projektziele relevanten Eigenschaften der Benutzer wider. Eine Persona steht somit für eine Benutzergruppe und nicht für einen reellen Benutzer. Die Persona sollte folgende Informationen enthalten: Ziele der Benutzer Beruf, Funktion, Verantwortlichkeiten, Aufgaben Ausbildung, Wissen, Fähigkeiten Verhaltensmuster, Vorgehensweisen Vorlieben, Werte, Sehnsüchte, Ängste SEMESTERARBEIT JUREK BREUNINGER 146 USABILITY ENGINEERING Computerkenntnisse Kenntnisse über verwandte Produkte, Vorgängersysteme, Konkurrenzprodukte Verbesserungspotential der bestehenden Lösung Erwartungen an neue Lösung Um die Persona einprägsamer und menschlicher wirken zu lassen, kann man sie mit zusätzlicher fiktiver Information wie Name, Alter, Geschlecht, Bild, Zitaten aus Interviews oder einer Beschreibung „Ein Tag im Leben von …“ erweitern. Die Personas können nach ihrer Relevanz noch in primäre, sekundäre, ergänzende und NonPersonas eingeteilt werden. Dies entscheidet, wie stark die Persona vom Projektteam berücksichtigt werden. Gibt es mehrere unterschiedliche primäre Personas, kann zum Beispiel das Entwickeln von Systemvarianten sinnvoll sein. Anwendungsszenarien oder kurz Szenarien sind ein weiteres zentrales Element der benutzerorientierten Entwicklung. Sie dienen wie Personas zur Lösungsfindung aus den Anforderungen. Ein Szenario beschreibt beispielhaft wie der Anwender mit dem geplanten System interagieren wird. Der Ablauf wird meist in Textform, oft mittels Aufzählung, beschrieben. Deswegen sind die Szenarien leicht verständlich und können früh im Entwicklungsprozess von Entwicklern, Auftraggebern und Anwendern überprüft, ergänzt und verbessert werden. Ein Szenario hat folgende Eigenschaften: Es wird für eine bestimmte Benutzergruppe entworfen. Es stellt einen konkreten Fall der Anwendung dar. Es zeigt, wie die Benutzer die Software unter realen Bedingungen einsetzen. Es zeigt die für die Entwicklung relevanten Aspekte der Lösung. Es muss nicht nur den vorgesehenen Ablauf beschreiben, sondern kann auch exemplarisch wichtige Ausnahme- und Fehlerfälle illustrieren. Szenarien können an mehreren Stellen im Entwicklungsprozess eingesetzt werden: Erhebung und Validierung von Anforderungen Spezifikation Benutzerschnittstellenkonzept SEMESTERARBEIT JUREK BREUNINGER 147 USABILITY ENGINEERING Usability-Testszenarien Testszenarien (Funktionsumfang, Fehlerfreiheit) Schulung Der ständige Nutzen von Szenarien über den gesamten Entwicklungsprozess machen sie zu einem effektiven Mittel bei der Gestaltung guter interaktiver Systeme. Cooper 2007, S. 75–106, S. 109–123 Richter 2007, S. 14, S. 24–31 Dahm 2006, S. 317f. 10.2.3 Storyboards Storyboards (Abbildung 10.2-1) sind ein wichtiges Mittel der Kommunikation im Entwicklungsprozess. Sie ermöglichen es Entwicklern und Designern, mit Auftraggebern und Anwendern Konzepte, Fragen und Ideen auszutauschen. Sie sind aus der Filmbranche bekannt, wo sie einem Regisseur helfen, den Schauspielern und dem Filmteam den geplanten Aufbau des Films zu vermitteln. Storyboards stellen wichtige Aspekte einer Software bildlich dar und zeigen anhand der Benutzerschnittstelle, wie das System verwendet wird. Je nach Kommunikationszweck kann ein Storyboard aus einer Abfolge von Skizzen oder realistischen Abbildungen der Benutzeroberflächen (User Interface Storyboard) bis hin zu Bildergeschichten, die die ausführenden Personen und das Umfeld darstellen, bestehen. Storyboards müssen überall dort eingesetzt werden, wo eine textuelle Beschreibung nicht ausreicht und eine Visualisierung notwendig ist. Ein Storyboard kann helfen, folgende Sachverhalte verständlich zu kommunizieren: Dialogabläufe der Benutzeroberfläche Schwer verständliche Konzepte Wichtige Aspekte des Anwendungskontextes Spezielle oder komplexe Umgebungen, in denen das System eingesetzt wird Storyboards eignen sich gut, um Konzepte in Workshops einzubringen und über Annahmen und Unterschiede zur aktuellen Situation zu diskutieren und Missverständnisse auszuräumen. SEMESTERARBEIT JUREK BREUNINGER 148 USABILITY ENGINEERING Abbildung 10.2-1: Storyboards können aus Abfolgen von Dialogskizzen oder auch Bildergeschichten bestehen. Richter 2007, S. 14f., S. 32–35 10.2.4 UI Prototyping UI Prototyping wird genutzt, um Aspekte der Benutzerschnittstelle zu entwerfen, zu evaluieren und zu verbessern, ohne dass funktionierende Software geschrieben werden muss. Dies kann mit einfachsten Mitteln geschehen. Oft skizziert man die ersten Entwürfe der Benutzerschnittstelle auf Papier. Bei dieser geringen Detailtreue spricht man von auch von LoFi (low fidelity) Prototyping (Abbildung 10.2-2). Abbildung 10.2-2: Vom LoFi-Skizzenprototyp über ein mit Präsentationssoftware gestalteten Entwurf bis zum Softwareprototypen Man benutzt je nach Ziel unterschiedliche Arten von Prototypen, die sich anhand folgender Kriterien unterscheiden: Funktionsumfang: Wie viele der geplanten Funktionselemente sind vorhanden? Funktionstiefe: Wie detailliert sind Funktionselemente? SEMESTERARBEIT JUREK BREUNINGER 149 USABILITY ENGINEERING Darstellungstreue: Wie groß ist die Ähnlichkeit zwischen dem Aussehen des Prototyps und dem des Endprodukts? Interaktivität: Wie viel Benutzerinteraktion ist möglich? Datengehalt: Werden reale Datensätze, Beispiele oder Platzhalter benutzt? Technische Reife: Wie stark entspricht die Technologie dem Endprodukt? Umso mehr dieser Kriterien verfolgt werden und umso feiner ihre Ausarbeitung ist, desto aufwändiger und zeitintensiver wird die Prototypenerstellung. Deshalb muss meist ein Kompromiss zwischen Detailliertheit und Eignung für den geplanten Zweck gemacht werden. Die wichtigsten Verwendungszwecke für UI-Prototypen sind: Anforderungen klären Hierfür werden sogenannte Mock-ups erstellt, damit konkrete Fälle mit Benutzern durchgespielt und diskutiert werden können. Sie besitzen einen großen Funktionsumfang (meist auf mehrere Prototypen verteilt) und realistische Daten. Benutzerschnittstelle konzipieren Dafür erstellte Prototypen habe mittlere Darstellungstreue. Der Funktionsumfang beschränkt sich auf bestimmte Gebiete, ist dort aber detailliert ausgeführt. Manchmal sind sie auch eingeschränkt interaktiv. Benutzerschnittstelle optimieren Die Prototypen haben eine hohe Darstellungstreue, die relevanten Funktionen sind interaktiv. Dadurch sind meist reale Daten notwendig. Die Optimierung kann erst stattfinden, wenn eine hohe technische Reife erreicht ist. Für gutes Aussehen sorgen Hierfür ist nur eine sehr hohe Darstellungstreue Voraussetzung. User Interface spezifizieren In der Spezifikation sind vor allem mittlerer bis hoher Funktionsumfang und mittlere bis hohe Interaktivität und Funktionstiefe erforderlich. UI Prototyping sollte immer mit Paper Prototyping beginnen. Dies ist einfach, billig, für alle verständlich und vermeidet die Probleme detaillierterer Prototypen: Diese SEMESTERARBEIT JUREK BREUNINGER 150 USABILITY ENGINEERING suggerieren Projektleitern oder Auftraggebern oft einen Entwicklungsfortschritt, der noch nicht erreicht ist. Papierprototypen signalisieren durch ihre Skizzenhaftigkeit, das noch vieles offen ist und diskutiert werden darf. Und vor allem kann man Papierprototypen problemlos wegwerfen, während hoch entwickelte Softwareprototypen oft dazu verführen, sie für den Produktiveinsatz weiterzuentwickeln, was auf jeden Fall vermieden werden sollte. Richter 2007, S. 15, S. 36–43 Dahm 2006, S. 313f. 10.2.5 Use Cases Anwendungsfälle (Use Cases) sind eine bekannte und verbreitete Technik aus dem Software Engineering. Obwohl sie keine Usability-Methode im engeren Sinn sind und auch dort eingesetzt werden, wo man sich keine besonderen Gedanken über benutzerorientierten Entwurf macht, sind sie ein wichtiges Element für das Usability Engineering. Anwendungsfälle beschreiben das Verhalten eines Systems aus Benutzersicht. Die Beschreibung kann als Text erfolgen, was den Vorteil hat, dass sie im Lauf des Entwicklungsprozesses für alle verständlich bleibt. Es hat sich aber die graphische Notation nach den Regeln der Modellierungssprache UML durchgesetzt. Eine Funktionalität wird durch sogenannte Akteure dargestellt, die mit dem System interagieren. Akteure verkörpern Benutzer oder andere Systeme. Die Anwendungsfälle beschreiben die verschiedenen Funktionalitäten, die der Akteur nutzt, und sind dementsprechend mit den Akteuren verknüpft. Die Anwendungsfälle können strukturiert werden. Innerhalb eines oder mehrerer Anwendungsfälle benutzte Funktionalitäten werden mittels „include“-Beziehungen als weitere Anwendungsfälle angebunden. Seltene spezielle oder außergewöhnliche Funktionalitäten werden mittels „extend“Beziehungen verknüpft. Die Gesamtheit der Akteure und Anwendungsfälle eines Systems werden als Use-Case-Modell (Abbildung 10.2-3) bezeichnet. Es wird nur das Verhalten beschrieben ohne auf die Realisierung dieses Verhaltens einzugehen (Black Box). Dementsprechend sollten die Anwendungsfälle unabhängig von einer Benutzeroberflächenstruktur oder speziellen technischen Lösung sein. Man spricht dann von Essential Use Cases. SEMESTERARBEIT JUREK BREUNINGER 151 USABILITY ENGINEERING Abbildung 10.2-3: Ein einfaches UML-Anwendungsfalldiagramm Use-Case-Modelle dienen neben der Modellierung auch häufig der Spezifikation von Systemen. Richter 2007, S. 14, S. 43–48 10.2.6 Guidelines und Styleguides Guidelines und Styleguides wurden im entsprechenden Kapitel bereits einmal angesprochen. Da sie zu den wichtigsten Methoden des Usability Engineering gehören, werden sie hier trotzdem noch einmal aufgeführt. Während Guidelines sich mehr mit dem Verhalten von Bedienoberflächen beschäftigen, behandeln Styleguides zusätzlich auch das Aussehen (Look&Feel) detailliert. Vor allem das Erstellen eigener Richtlinien ist ein zentraler Punkt des Usability Engineering. Dabei können und werden häufig bestehende Guidelines und Empfehlungen übernommen und eingearbeitet. Manche Anforderungen erfordern aber auch projektspezifische Richtlinien. Die Quellen für Guidelines können die bekannten Normen und Gesetze, die bereits besprochenen Regelsammlungen, hersteller- und plattformspezifische oder unternehmensweite Styleguides sein. Mit sogenannten User Interface Patterns wird versucht, häufig auftretende Designprobleme zu standardisieren und in generischen Mustern zu beschreiben. Das Einsetzen etablierter Guidelines und Styleguides ist noch keine Garantie für benutzergerechte Lösungen. Die Auswahl oder Erstellung der richtigen Richtlinien hängt auch von den Benutzergruppen und dem Nutzungskontext ab. Beim Erstellen von Styleguides, die möglicherweise SEMESTERARBEIT JUREK BREUNINGER 152 USABILITY ENGINEERING projektübergreifend weiterverwendet werden sollen, muss darauf geachtet werden, dass sie nicht zu stark auf das aktuelle Projekt abgestimmt sind. Andernfalls können sie zu kontraproduktiven, aber erzwungenen Lösungen in anderen Projekten führen. Neben dem Ziel, die Konsistenz der Software zu gewährleisten, dienen Styleguides auch als wichtiges Kommunikationsmittel im Entwicklungsprozess. Wenn bestimmte Muster und Konzepte festgelegte Namen haben, kann mangelnde Eignung für geplante Funktionen früh erkannt werden. Verwechslungen und doppelte Entwicklungen werden vermieden. Richter 2007, S. 16, S. 48–54 10.2.7 Usability Testing Die wichtigste Methode des Usability Engineering ist das Usability Testing. Hiermit lassen sich zumeist viele der schlechten Designentscheidungen feststellen, die durch fehlendes oder mangelhaftes Usability Engineering entstehen. Das Testen findet meist in Usability Labs statt. Diese Tests sind formalisiert, um Vergleichbarkeit und Reproduzierbarkeit zu gewährleisten. Es wird zwischen formativer Evaluation und summativer Evaluation unterschieden. Formative Evaluation soll eine Verbesserung des bestehenden Systems bewirken. Summative Evaluation entspricht einer zusammenfassenden Endabnahme im Sinne der Qualitätssicherung. Für die Tests wird eine Sammlung von Aufgaben erstellt, meist vom Testleiter und vom Auftraggeber. Sie heißen Standardaufgaben, da sie für alle Testpersonen gleich sind. Die Qualität und Relevanz dieser Aufgaben ist sehr wichtig für die Aussagekraft der Tests. Meist dienen existierende Szenarien als Grundlage. Die Aufgaben sollten folgende Eigenschaften haben: Aus Benutzersicht realistisch Mittlerer Schwierigkeitsgrad; lösbar, aber nicht trivial Ziel aus Benutzersicht formuliert, keine an die Technik angepasste Anleitung (z. B. Erwähnung eines Interaktionselements) Allgemeine Beschreibung, nutzt nicht die Nomenklatur der Software (z. B. Erwähnung einer Menüpunktes) SEMESTERARBEIT JUREK BREUNINGER 153 USABILITY ENGINEERING Das zu prüfendende System oder der Prototyp, an dem getestet wird, muss in den gewünschten Systemzustand gebracht werden. Die Testpersonen sollten unbedingt aus der geplanten Zielgruppe stammen. Meist sind kleine Testserien mit fünf bis sieben Personen ausreichend um qualitative Aussagen zu treffen. Bei Systemen mit hohem Anspruch an die Benutzbarkeit sind bis zu 15 Testpersonen sinnvoll; bei kritischen Systemen, Abschlusstests der Qualitätssicherung und um quantitative Aussagen zu treffen mindestens 15 Testpersonen in Abhängigkeit vom Systemumfang. Bei Expertensystemen mit hoher Komplexität ist oft eine kurze Einführung nötig und sinnvoll. Die Testperson wird meist gebeten, ihre Gedanken bei der Arbeit laut auszusprechen. Sie kann den Test jederzeit unterbrechen oder zur nächsten Aufgabe springen. Die Beobachter (Auftraggeber, Entwickler, Usability-Experte) sollten den Testverlauf möglichst nicht beeinflussen. Sie sitzen meist in einem separaten Raum und beobachten und protokollieren den Test und problematische Situationen mittels Videoaufnahme (Abbildung 10.2-4). Eine Testphase sollte nicht über eine Stunde dauern. Abbildung 10.2-4: Ein Usability Lab ist meist in zwei Räume geteilt: Einen Benutzerund einen Observationsraum, der durch eine einseitig verspiegelte Scheibe abgetrennt ist. In einer Nachbesprechung werden entsprechende Stellen im Video mit der Testperson analysiert und Verbesserungsvorschläge im Testbericht dokumentiert. Oft bringen Kommentare der Testperson in der Nachbesprechung wertvolle Hinweise. Der Testbericht fasst gute wie schlechte Ergebnisse zusammen, illustriert Schwachstellen mit Screenshots, teilt ihnen einen Schweregrad zu, SEMESTERARBEIT JUREK BREUNINGER 154 USABILITY ENGINEERING unterscheidet beobachtete Probleme von persönlichen Meinungen und Vorschlägen, enthält die Standardaufgaben und Beschreibung der Testperson. Der formale Usability-Test hat einige Vorteile: Schwachstellen unter Laborbedingungen eindeutig nachweisbar Objektivität (unabhängig von Rahmenbedingungen), Reliabilität (wiederholte Durchführung führt zu gleichen Ergebnissen), Validität (Aussagekraft über die Benutzerfreundlichkeit) Gute Beobachtungssituation Kein Eingreifen der Beobachter oder Entwickler Kapitale Schwierigkeiten schnell ersichtlich Doch es ergeben sich auch Nachteile: Aufwändig, teuer Erst relativ spät im Entwicklungsprozess möglich, da Prototypen hoch entwickelt sein müssen Formale Testberichte fließen schwer wieder in den Verbesserungsprozess ein, da neue Analyse- und Designphase nötig. Deshalb kommt als Alternative und Ergänzung häufig der Usability Walktrough zum Einsatz. Hierbei arbeitet eine Testperson nicht isoliert unter kontrollierten Bedingungen, sondern unter Anleitung des Testleiters (Abbildung 10.2-5). Es werden auch realistische Aufgaben gestellt, aber der Testleiter kann jederzeit eingreifen und Fragen stellen oder Abläufe mit dem Benutzer durchgehen. Das hat den Vorteil, dass man auch an frühen Prototypen bereits Aussagen über die Benutzerfreundlichkeit machen kann, ohne dass das System lauffähig ist. Allerdings sind viele der Vorteile eines Tests unter Laborbedingungen nicht mehr gegeben: Die Ergebnisse sind stark vom Testleiter und der Umgebung abhängig. SEMESTERARBEIT JUREK BREUNINGER 155 USABILITY ENGINEERING Abbildung 10.2-5: Beim Usability Walktrough bewältigt eine Testperson realistische Aufgaben mit der Software unter Anleitung eines Testleiters. Ein mobiles Usability Lab ist ein normaler Arbeitsplatz, an dem eine Testperson ohne Anleitung und Eingriff eines Testleiters Aufgaben bearbeiten kann und dabei von einer Webcam gefilmt wird während der Bildschirminhalt von einer Software aufgenommen wird. Dies ermöglicht relativ formale Tests mit geringeren Kosten als mit einem normalen Usability Lab. Es eignet sich vor allem auch dann, wenn in einer möglichst realistischen Umgebung wie in Fabriken, an öffentlichen Plätzen oder im Freien getestet werden soll. Man spricht von Usability-Feldtests. Cooper 2007, S. 70f. Dahm 2006, S. 318–321 Richter 2007, S. 16, S. 54–61 Shneiderman 2005, S. 117f., S. 144–150 10.2.8 Fragebögen Um von einem großen Personenkreis Informationen zur Benutzerfreundlichkeit einer Software zu erhalten, sind Fragebögen eine wichtige Methode des Usability Engineering. Die Aussagekraft der Ergebnisse einer Untersuchung mit Fragebögen hängt von der Gestaltung des Fragebogens, der Anzahl der Befragten und der Durchführung der Befragung ab. Fragebögen werden in zwei verschiedenen Phasen des EntSEMESTERARBEIT JUREK BREUNINGER 156 USABILITY ENGINEERING wicklungsprozesses eingesetzt. Sie dienen in der Analysephase zur Anforderungsfindung und zum Erfassen der Benutzergruppen und des Arbeitskontextes. Außerdem können sie während der Testphase zur Evaluation der Benutzerfreundlichkeit des Systems verwendet werden. Ihr größter Vorteil liegt in der deutlich größeren Anzahl der Personen, die erreicht werden können. Sie unterscheiden sich auch dadurch von vergleichbaren Methoden wie Textual Inquiry oder Usability Testing, dass sie meist auf quantitative Informationen abzielen und nicht auf qualitative. Dementsprechend sollte beim Entwurf der Fragebögen auch darauf geachtet werden, dass die Fragestellungen quantitative Aussagen überhaupt zulassen. Auch qualitative Analysen sind mit Fragebögen möglich, aber sie sind in der Auswertung ungleich aufwendiger. Hier kommen statt geschlossener Fragen, die z. B. eine Bewertung auf einer vorgegebenen Skala fordern, offene Fragen zur Anwendung, die dem Benutzer eine freie Formulierung der Antwort ermöglichen. Solche Fragebögen kommen vor allem bei der Anforderungsanalyse zum Einsatz. Sie sind allerdings meist nur bei der Identifikation bestehender Probleme hilfreich. Die Fragen nach gewünschter Funktionalität oder Notwendigkeit bestimmter Funktionen führen oft zu irreführenden oder wertlosen Antworten, da sich die Benutzer die neue Lösung nicht genau vorstellen oder die Probleme, die daraus entstehen, nicht abschätzen können. Zur Evaluation der Benutzerfreundlichkeit von Softwaresystemen existieren verbreitete Standardfragebögen. Diese garantieren eine gewisse Vergleichbarkeit der Umfrageergebnisse bei verschiedenen Systemen. Bei der Interpretation der Ergebnisse von Fragebögen sollten folgende Effekte in Betracht gezogen werden: Beurteiler differenzieren nicht zwischen den einzelnen Kriterien, sondern lassen sich vom Gesamteindruck leiten (Halo-Effekt). Beurteiler bewerten systematisch zu hoch oder zu niedrig (Milde-Härtefehler). Die Ursachen dafür sind vielfältig (z. B. Vorlieben). Beurteiler tendieren dazu alle Kriterien im mittleren Bereich der Skala einzuordnen (zentrale Tendenz). Dies ist oft ein Zeichen für mangelnde Kenntnis des Objekts. Dahm 2006, S. 321f. Richter 2007, S. 16f., S. 61–68 SEMESTERARBEIT JUREK BREUNINGER 157 USABILITY ENGINEERING 10.3 Planung Usability Engineering wird heutzutage in den meisten Unternehmen noch zu zögerlich oder gar nicht eingesetzt. Nur langsam setzt sich die Einsicht durch, dass die höhere Qualität der Produkte die zusätzlichen Entwicklungskosten leicht amortisiert. Gerade deswegen ist es wichtig, dass bei der Planung von Usability Engineering im Entwicklungsprozess auf Effektivität und Wirtschaftlichkeit geachtet wird. Bei der Planung sollte man folgende Punkte bedenken: Ziele definieren und erreichen: Statt einfach „hohe Usability“ zu fordern, sollten abschätzbare, besser noch messbare Ziele definiert werden. Die Usability-Methoden und ihr Aufwand werden dann in Abhängigkeit gewählt. Mögliche Ziele sind: o Arbeitsgeschwindigkeit maximieren o Anzahl der Bearbeitungsschritte minimieren o Ausbildungsaufwand minimieren o Qualität des Arbeitsresultats steigern o Fehler der Benutzer minimieren o Zufriedenheit der Benutzer erhöhen Risiken kontrollieren: Risiken in der Produktentwicklung müssen identifiziert und angegangen werden. Man unterscheidet zwischen Projektrisiken, die den erfolgreichen Abschluss des Projekts gefährden oder stark verzögern – z. B. zu spätes Erkennen von Anforderungen – und Produktrisiken, die den erfolgreichen Einsatz des fertigen Produktes gefährden. Das Finden und Beseitigen der Produktrisiken ist die primäre Aufgabe des Usability Engineering. Rahmenbedingungen beachten Der effektive Einsatz von Usabiltiy-Methoden ist nur unter bestimmten Rahmenbedingungen möglich. So ist vor allem in der Analysephase und in der Testphase ein direkter Kontakt zum Kunden und vor allem zum Endnutzer von zentraler Bedeutung. Darüber hinaus müssen z. B. Fachwissen und spezielle SEMESTERARBEIT JUREK BREUNINGER 158 USABILITY ENGINEERING Eigenschaften der Benutzer, Ort der Entwicklung, Einsatzort des Produktes, verpflichtenden Firmenrichtlinien und Vorgehensmodelle oder spezielle Hardware beachtet werden. Richter 2007, S. 69–77 10.4 Integration in bekannte Vorgehensmodelle Aufgrund der Komplexität von Softwaresystemen lassen sich in der SoftwareEntwicklung ab einer gewissen Projektgröße nur noch mit definierten Vorgehensweisen qualitativ gute und rentable Produkte erstellen. Diese Vorgehensmodelle sind in Unternehmen weit verbreitet und oft verpflichtend, aber auch weiterhin Gegenstand aktueller Forschung. Sie sollen im Rahmen dieser Arbeit nicht eingehend behandelt werden, aber anhand der wichtigsten und bekanntesten soll gezeigt werden, wie sich Usability-Engineering-Maßnahmen in die älteren Vorgehensmodelle integrieren lassen beziehungsweise wie moderne Ansätze das Usability Engineering bereits gezielt forcieren. 10.4.1 Wasserfallmodell Das Wasserfallmodell (Abbildung 10.4-1) ist ein altes Vorgehensmodell der SoftwareEntwicklung und gilt ab Projekten mittlerer Komplexität und mittleren Umfangs als überholt. Es ist aufgrund seiner einfachen Struktur aber immer noch eine häufig praktizierte Abfolge von Tätigkeiten im Entwicklungsprozess. Die bekannten Usability-Engineering-Techniken lassen sich einfach in den entsprechenden Projektphasen anwenden: Contextual Inquiry und Fragebögen in der Analysephase Use Cases, Personas, Szenarien, Storyboards, UI-Prototypen, Styleguides in der Designphase Guidelines und Styleguides in der Implementierungsphase Usability Testing und Fragebögen in der Testphase Trotzdem ist das Wasserfallmodell nur sehr bedingt für die Entwicklung ergonomischer Software geeignet, da es auch bei der Anwendung von Usability-EngineeringMethoden unter seiner größten Schwäche leidet: Iterationen und Wechselwirkungen SEMESTERARBEIT JUREK BREUNINGER 159 USABILITY ENGINEERING bestehen nur zwischen benachbarten Phasen. So fließen zum Beispiel Erkenntnisse des Usability Testing nicht mehr in die abgeschlossenen vorangegangenen Phasen ein. Abbildung 10.4-1: Das Wasserfallmodell, ein Vorgehensmodell für die SoftwareEntwickung Dahm 2006, S. 311f. Richter 2007, S. 17 10.4.2 Spiralmodell Das Spiralmodell ist ein stark iteratives Software-Entwicklungsmodell (Abbildung 10.4-2). Es ist aus dem Wasserfallmodell entstanden, versucht aber, dessen Schwäche durch sehr viele Rückkopplungsmöglichkeiten zu beheben. Während eines Projektes kommt es wieder und wieder zu dem gezeigten Ablauf aus Analyse, Design, Implementierung und Test. Dies gilt nicht nur für das Gesamtprojekt, sondern auch für die Teilbereiche, die so ebenfalls iterativ verbessert werden. Das Spiralmodell erzwingt an sich noch keinen software-ergonomisch günstigen Entwurf, aber wie beim Wasserfallmodell lassen sich die Usability-EngineeringTechniken einfach in den passenden Phasen anwenden. Durch die häufige Analyse, in der auch immer eine Anforderungsfindung und -überprüfung stattfinden sollte, und die frühen und häufigen Tests kann unter Einbeziehung des Anwenders ein sehr benutzergerechtes Design gewährleistet werden. SEMESTERARBEIT JUREK BREUNINGER 160 USABILITY ENGINEERING Abbildung 10.4-2: Das Spiralmodell zur Software-Entwicklung nach Boehm Dahm 2006, S. 313 10.4.3 V-Modell Das V-Modell und seine Entwicklungsstufen V-Modell 97 und V-Modell XT (2005) sind die wichtigsten und etablierten Software-Entwicklungs-Vorgehensmodelle in großen Unternehmen und bei komplexen Softwareprojekten. Seit dem V-Modell XT wurden sich auch verstärkt Gedanken über die Einbindung des Auftraggebers in den Entwicklungsprozess und die Integration von definierten Prozessen zur benutzergerechten Gestaltung gemacht. Dies ermöglicht es, die ergonomischen Anforderungen der Anwender im Entwicklungsprozess zu bestimmen und in Spezifikationen einfließen zu lassen (Abbildung 10.4-3). Allerdings erzwingt auch das V-Modell keinen software-ergonomischen Entwurf. Aber auch hier hilft die testorientierte Struktur, die zum Beispiel ermöglicht, dass Rückmeldungen aus Usability-Tests Auswirkungen auf Anforderungs- und Designphase haben. SEMESTERARBEIT JUREK BREUNINGER 161 USABILITY ENGINEERING Abbildung 10.4-3: Das V-Modell ist ein verbreitetes Vorgehensmodell in der Software-Entwicklung. Die Graphik verdeutlicht die Struktur (aber nicht zwingend die zeitliche Abfolge) des Modells. V-Modell XT 2006, S. 1-35, S. 3-129, S. 4-17, S. 6-128–6-131 10.4.4 Moderne Vorgehensmodelle mit UCD Als Beispiel für User Centered Design (UCD), also Vorgehensmodelle, die die Einbeziehung des Anwenders vorsehen und erzwingen, seien hier noch kurz das eXtreme Programming (XP) und Scrum erwähnt. Beides sind relativ junge Vorgehensweisen des Softwareentwurfs, die noch nicht weit verbreitet sind. Es gibt auch durchaus Kritik und Zweifel an ihrer effektiven Umsetzbarkeit. 10.4.4.1 XP XP ist eine sogenannte agile Software-Entwicklungsmethode, die das Lösen der eigentlichen Programmieraufgabe über formale Prozesse und Dokumentation stellt. Sie entstand als Antwort auf die häufigen Anforderungsänderungen bei Softwareprojekten, die schnelles Reagieren nötig machen. Dies wird hauptsächlich durch kleine Schritte und häufige Rückkopplung erreicht. Die bei XP beschriebene Anforderungsfindung wird gemeinsam mit dem Kunden in sogenannten User Stories dokumentiert. Dies sind im Prinzip Szenarien und Use Cases. Der Kunde ist am Entwicklungsort, jederzeit ansprechbar und dient als „laufende Spezifikation“. XP erzwingt testorientierte Entwicklung (Test Driven Development), indem die Testfälle geschrieben werden, bevor der sie erfüllende Code geschrieben wird. Dies lässt sich zu einem gewissen Grad auch mit Usabiltiy Tests durchführen. Es werden häufig stabile Fassungen der Software veröffentlicht, damit anhand dieser ständig überprüft werden kann, ob SEMESTERARBEIT JUREK BREUNINGER 162 USABILITY ENGINEERING die Entwicklung noch in die richtige Richtung geht. Darüber hinaus führt XP einige weitere revolutionäre Methoden wie Programmieren in Zweierteams ein, die allerdings die Akzeptanz erschweren. Jeffries 2001 10.4.4.2 Scrum Auch Scrum ist eine agile Software-Entwicklungsmethode, die sich von älteren Vorgehensweisen vor allem durch häufigere Iterationen, Betonung guter Kommunikation und kürzere Prozessphasen unterscheidet. Scrum nennt die Prozessphasen Sprints; sie dauern zwei bis vier Wochen. Auch bei Scrum ist vorgesehen, dass sich der Kunde, genannt Product Owner, vor Ort befindet und in den Entwicklungsprozess eingebunden ist. Bei Entwicklungen, die nicht als Kundenauftrag entstehen, übernimmt diese Rolle ein Mitarbeiter. Er ist dann nur dafür zuständig, dass das Produkt den benötigten Funktionsumfang hat und priorisiert die benötigten Funktionen in einer Liste, dem Product Backlog. Das Scrum Team besteht typischerweise aus fünf bis sechs Leuten, die für die eigentliche Entwicklung verantwortlich sind. Das interdisziplinäre Team besteht nicht nur aus Programmierern, sondern auch aus Benutzerschnittstellendesignern und Mitarbeitern der Qualitätssicherung. Weiterhin nutzt Scrum sehr einfache Prozesse mit klar definierten Regeln, welche erreichen, dass die Kommunikation häufig, aber nicht zu zeitintensiv ist und regelmäßige Rückmeldung über die erreichten Meilensteine stattfindet. Es vermeidet aber extreme Maßnahmen, wie den vollständigen Verzicht auf Dokumentation (wie XP). Schwaber 2002, S.7–10, S. 32–37 10.5 Strategische Usability Damit Usability Engineering nicht als ungeliebte und teure Zusatzaufgabe für die Entwickler gesehen wird, ist es notwendig, dass benutzerorientiertes Vorgehen unternehmensweit etabliert und akzeptiert ist. Dazu müssen alle Maßnahmen in die bestehenden Geschäftsprozess integriert sein und der Wert dieser neuen Informationsquellen gut kommuniziert werden. Usability Engineering ändert die klassische Sicht auf die Entwickler, die isoliert Daten sammeln, Benutzeroberflächen entwerfen und die Benutzerfreundlichkeit testen. Es bringt die Entwickler mit den Benutzern SEMESTERARBEIT JUREK BREUNINGER 163 USABILITY ENGINEERING zusammen, was für die Entwicklung von ergonomischer und auf die Bedürfnisse abgestimmter Software unverzichtbar ist. Usability Engineering spielt sich an der Grenze zwischen zwei Unternehmensbereichen ab, die allgemein als „Business“ und „Technik“ bezeichnet werden können. Es ist wichtig, dass der zu etablierende Entwicklungsprozess den Informationsverkehr zwischen diesen beiden Bereichen zu den richtigen Zeitpunkten ermöglicht. Um den benutzerorientierten Aktivitäten das notwendige Gewicht zu verleihen, sollten entsprechende Rollen und Lieferergebnisse in den Prozess aufgenommen und Ressourcen zugeteilt werden. Wichtiger als die theoretische Korrektheit des Prozesses ist die Akzeptanz. Folgende drei Punkte sind essenziell für die Beschaffenheit des Prozesses: Requirements Engineering: Bei der Anforderungsanalyse und Spezifikation müssen die UsabilityEngineering-Maßnahmen ansetzen. Hier wird die Basis einer guten Lösung geschaffen. Später im Prozess kann nur noch korrigiert werden. Iteratives Vorgehen: Anforderungen und Spezifikationen müssen wiederholt überprüft und bei Bedarf angepasst werden. Dies sollte Voraussetzung für eine formale Freigabe sein. Gemeinsame konkrete Sprache: Benutzer, Business-Einheiten, Usability-Experten und Entwickler müssen ein gemeinsames Verständnis der Materie haben. Statt abstrakten Beschreibungen sind hierfür die erwähnten Methoden wie Szenarien, Storyboards und Prototypen hilfreich. Ein effektives Mittel, konsistente Kommunikation und konsistente Softwareentwürfe herbeizuführen, sind – wie bereits erwähnt – unternehmensweite Guidelines und Styleguides. Besonders lohnend sind sie, wenn mehrere sich ähnelnde Produkte entwickelt werden. Bei stark unterschiedlichen Produkten kann der Aufwand der nötigen Änderungen oder der erneuten Ausarbeitung allerdings zu hoch sein. Gute Styleguides werden unternehmensweit als Hilfsmittel und nicht als Einschränkung empfunden. SEMESTERARBEIT JUREK BREUNINGER 164 USABILITY ENGINEERING Vor allem für größere Unternehmen mit mehreren Projekten kann sich eine Institutionalisierung von Usability-Wissen lohnen. Dies bedeutet, statt auf externe Dienstleister zu vertrauen, ein eigenes Usability Team aufzubauen. Dies führt dazu, dass sich die benutzerorientierten Prozesse und Methoden langfristig besser etablieren und das Bewusstsein für die Thematik im Unternehmen gestärkt wird. Außerdem hat ein internes Team bereits mehr domänenspezifisches Wissen und wirkt von Anfang an am Entwicklungsprozess mit. Mögliche Nachteile sind bei internen UsabilitySpezialisten fehlende Objektivität und die Gefahr, dass die Kritik interner Kollegen negativer aufgenommen wird als die beauftragter externer Dienstleister. Richter 2007, S. 78–87 SEMESTERARBEIT JUREK BREUNINGER 165 LITERATURVERZEICHNIS 11 Literaturverzeichnis Autoren des V-Modell XT V-Modell XT, 2006 http://ftp.tu-clausthal.de/pub/institute/informatik/vmodell-xt/Releases/1.3/V-Modell-XT-Gesamt.pdf Bederson Ben, Meyer Jon Implementing a Zooming User Interface: Experience Building Pad++; Software: Practice and Experience, 1998 http://www.cs.umd.edu/hcil/pad++/papers/spe-98padimplementation/spe-98-padimplementation.pdf Berry, R. E. Common User Access – A consistent and usable human-computer interface for the SAA environments, IBM Systems Journal, Volume 27, Issue 3 (1988), S. 281-300 Bubb, Heiner Produktergonomieskript Lehrstuhl für Ergonomie der TU München 2006, http://www.lfe.mw.tum.de/lehre/lehrveranstaltungen/Pr oduktergonomie/Produktergoskripten.html Cooper, Alan; Reimann, About Face 3, The Essentials of Interaction Design; Robert; Cronin, David Wiley 2007 Dahm, Markus Grundlagen der Mensch-Computer-Interaktion, Pearson Studium 2006 Herczeg, Michael Software-Ergonomie, Grundlagen der Mensch- Computer-Kommunikation, Oldenbourg 2005 Jeffries, Ron What ist Extreme Programming? http://www.xprogramming.com/xpmag/whatisxp.htm 2001 Meier, Helmut Deutsche Sprachstatistik, Georg Olms Verlagsbuchhandlung, Hildesheim 1967 SEMESTERARBEIT JUREK BREUNINGER 166 LITERATURVERZEICHNIS Pinheiro da Silva, Paulo; UMLi: The Unified Modeling Language for Interactive Paton, Norman W. Applications; IEEE Software, Vol.20 No. 4, July/August 2003, S. 62–69 Richter, Michael; Usability Engineering kompakt, Benutzbare Software Flückiger, Markus gezielt entwickeln, Spektrum 2007 Schenk, Joachim; Rigoll Mensch-Maschine-Kommunikation 1, Manuskript zur Gerhard Vorlesung; Lehrstuhl für Mensch-Maschine- Kommunikation, TU München 2007 Schwaber, Ken; Beedle, Agile Software Development with Srum, Pearson Mike Prentice Hall 2002 Shneiderman, Ben; Plai- Designing the User Interface, Strategies for Effective sant, Catherine Human-Computer Interaction, Pearson Addison- Wesley 2005 Standish Group Chaos Report, 1994 http://www.standishgroup.com/chaos/ Tractinsky, Noam et al. What is beautiful is usable; Interacting with Computers 13(2), S. 127–145, Elsevier 2000 http://www.ise.bgu.ac.il/faculty/noam/papers/00_nt_as k_di_iwc.pdf SEMESTERARBEIT JUREK BREUNINGER 167 ABBILDUNGSVERZEICHNIS 12 Abbildungsverzeichnis Alle Abbildungen zuletzt heruntergeladen am 25.05.2009 Abbildung 2.1-1: Abbildung 4.4-1: Abbildung 4.4-2: Abbildung 4.4-3: Abbildung 4.4-4: Abbildung 5.1-1: Abbildung 5.1-2: Abbildung 5.1-3: Abbildung 5.1-4: Abbildung 5.1-5: Abbildung 5.1-6: Abbildung 5.1-7: Abbildung 5.1-8: Abbildung 5.1-9: Abbildung 5.1-10: Abbildung 5.1-11: Abbildung 5.1-12: Abbildung 5.1-13: Abbildung 5.1-14: Abbildung 5.1-15: Abbildung 5.1-16: Abbildung 5.1-17: Abbildung 5.1-18: Abbildung 5.1-19: Abbildung 5.1-20: Abbildung 5.1-21: Abbildung 5.1-22: Abbildung 5.1-23: http://upload.wikimedia.org/wikipedia/commons/3/35/ Computer_Workstation_Variables.jpg http://alenvers.files.wordpress.com/2008/09/wordstar.gif selbst erstellt selbst erstellt selbst erstellt http://upload.wikimedia.org/wikipedia/commons/8/87/ QWERTY_1878.png http://upload.wikimedia.org/wikipedia/commons/3/3c/ Cherry_keyboard_105_keys.jpg http://upload.wikimedia.org/wikipedia/commons/2/25/ KB_United_States_Dvorak.svg Meier 1967, S. 343 http://www.neolayout.org/grafik/tastatur3d/hauptfeld/tastatur_neo_Ebene1.png selbst erstellt selbst erstellt http://upload.wikimedia.org/wikipedia/en/9/97/ Keyboard_Construction.JPG http://www.cherry.de/deutsch/schalter_steuerungen/bilder/ tastenmodule_mx.jpg http://www.pacificergo.com/catalog/images/MSN-4000bl.jpg http://www.typematrix.com/images/bepo/ 2030usb_us_qwerty_703x290.png http://www.kinesis-ergo.com/images/kb_advpro_met720x471.jpg http://upload.wikimedia.org/wikipedia/commons/2/21/ Membrane_keyboard_diagram_FULL_SCALE.png http://img.directindustry.de/images_di/photo-g/folientastatur363948.jpg http://img.directindustry.de/images_di/photo-g/industriemetalltastatur-27244.jpg http://images.wmexperts.com/articleimages/2007/11/ IMG_0126.jpg http://aleptu.com/wp-content/uploads/2009/03/ laser_keyboard.jpg http://www.frogpad.com/Images/FPBKUSBRight.jpg http://www.adapt-it.org.uk/images/cykey2.jpg http://w.tf/~fool/cs/sts331/twiddler.jpg http://upload.wikimedia.org/wikipedia/commons/3/34/ Estenotipia.jpg http://www.pelco.com/products/images/21522.jpg http://www.nwpump.com/images/Topaz%20lg.jpg SEMESTERARBEIT JUREK BREUNINGER 168 ABBILDUNGSVERZEICHNIS Abbildung 5.1-24: Abbildung 5.2-1: Abbildung 5.2-2: Abbildung 5.2-3: Abbildung 5.2-4: Abbildung 5.2-5: Abbildung 5.2-6: Abbildung 5.2-7: Abbildung 5.2-8: Abbildung 5.2-9: Abbildung 5.2-10: Abbildung 5.2-11: Abbildung 5.2-12: Abbildung 5.2-13: Abbildung 5.2-14: Abbildung 5.2-15: Abbildung 5.2-16: Abbildung 5.2-17: Abbildung 5.2-18: Abbildung 5.3-1: Abbildung 5.3-2: Abbildung 5.3-3: Abbildung 5.3-4: Abbildung 5.3-5: Abbildung 5.3-6: Abbildung 5.4-1: Abbildung 5.4-2: Abbildung 5.4-3: Abbildung 5.4-4: Abbildung 5.4-5: Abbildung 5.4-6: http://img.alibaba.com/photo/104913105/New_Nokia_E75 _buisness_Phone_16GB_Silver_Black_or_Red.jpg http://www.logitech.com/repository/174/jpg/4527.1.0.jpg http://upload.wikimedia.org/wikipedia/commons/9/96/ Trackball-Kensington-ExpertMouse5.jpg http://www.wired.com/images/slideshow/2008/12/ gallery_40_years_mouse/trackpoint.jpg http://www.hardwarezone.com/img/data/articles/2007/2354/ m1330_touchpad.jpg http://www.cnet.de/i/cnet/galleries/0709_ipod-nano/ipodnano_01-ig.jpg http://www.fspilotshop.com/images/x52.jpg http://z.about.com/d/cars/1/0/0/a/1/10_bmwz4_ctrconsole.jpg http://www.transair.co.uk/images/saitek/saitek_yoke_pedals.jpg http://media.arstechnica.com/staff/fatbits.media/n64-controller.jpg http://www.edmunds.com/media/news/column/carmudgeon/ idrive.wont.fly/04.audi.mmi.500.jpg http://jamesoff.net/site/wp-content/uploads/2008/02/dsc_4161.jpg http://upload.wikimedia.org/wikipedia/commons/c/cd/ HypertextEditingSystemConsoleBrownUniv1969.jpg http://www.oberlehrer.de/wp-content/uploads/2009/03/wacomintuos4.jpg http://img.areamobile.de/images/handies/LG/KE850/ 200612180918LG_KE850_Hand_1.jpg http://www.lars-inselmann.de/wordpress/wp-content/uploads/ 2009/01/microsoft_surface_demo.jpg Schenk 2007, Abb. 2.8, S. 17 Schenk 2007, Abb. 2.9, S. 19 Schenk 2007, Abb. 2.10, S. 21 http://www.3dsolidcadworks.co.uk/pix/uploaded/Library/ SpaceExplorer.jpg http://grafika.ia.agh.edu.pl/spaceball.jpg http://www.vossey.com/gallery2/d/60923-1/novint-falcon.jpg http://www.5dt.com/products/images/ hw_data_glove_ultra_5_001.jpg http://www.vrealities.com/cyberg.jpg http://twenty7studio.ch/BA/wordpress/wpcontent/uploads/2009/03/pry-wiimote.gif http://upload.wikimedia.org/wikipedia/commons/9/9b/ CRT_color_enhanced.png http://www.germesonline.com/direct/dbimage/50284903/CRT_Monitor.jpg http://upload.wikimedia.org/wikipedia/commons/d/d9/ LCD_subpixel_%28en%29.png http://www.robinmajumdar.com/wp-content/uploads/2009/01/ dell2709_front_view.jpg http://images.amazon.com/images/P/ B0000CBJ8J.01.PT01._SCLZZZZZZZ_.jpg http://www.wired.com/images_blogs/photos/uncategorized/ 2008/12/31/flexible_display_rollout.jpg SEMESTERARBEIT JUREK BREUNINGER 169 ABBILDUNGSVERZEICHNIS Abbildung 5.4-7: Abbildung 5.4-8: Abbildung 5.4-9: Abbildung 5.4-10: Abbildung 5.4-11: Abbildung 5.4-12: Abbildung 5.4-13: Abbildung 5.4-14: Abbildung 5.4-15: Abbildung 5.4-16: Abbildung 5.4-17: Abbildung 5.4-18: Abbildung 5.4-19: Abbildung 6.1-1: Abbildung 6.1-2: Abbildung 6.1-3: Abbildung 6.2-1: Abbildung 6.2-2: Abbildung 6.2-3: Abbildung 6.2-4: Abbildung 6.2-5: Abbildung 6.2-6: Abbildung 6.2-7: Abbildung 6.2-8: Abbildung 6.2-9: Abbildung 6.2-10: Abbildung 6.2-11: Abbildung 6.4-1: Abbildung 6.4-2: Abbildung 7.2-1: Abbildung 7.2-2: Abbildung 7.2-3: Abbildung 7.2-4: Abbildung 7.2-5: Abbildung 7.2-6: Abbildung 7.2-7: Abbildung 7.2-8: Abbildung 7.2-9: http://oilandglory.com/uploaded_images/Epaper-Fujitsu742628.jpg http://www.sanyo.de/produkte_daten/projektoren/bilddb/ SANYO_PLV_Z700_schreag.jpg http://lndw.tu-berlin.de/lndw08/file.php/745/Cave.jpg http://www.bmw.ch/ch/de/newvehicles/6series/coupe/2004/ allfacts/_shared/img/ergonomics_hud.jpg Bubb 2006, Kap. 3-4 http://www.ini.tum.de/initum/images/Initum/images/projekte/ schneid2.jpg http://blog.flightstory.net/wp-content/uploads/hud-sample.jpg http://www.sensics.com/images/products/ xsight_goggles_smaller.jpg http://www.caiuamarreta.net/wp-content/uploads/2008/12/ wrap2_view1.jpg http://www.gadgettastic.com/wp-content/2008/04/ brither_retinal.jpg http://www.tweakpc.de/gallery/data/533/ wireless_shutter_brille.jpg http://www.wienweb.at/pictures/pict58/big/wg58291.jpg http://www.jiad.org/images/article_images/vol8num1/ appendix1_spatialscreen.JPG http://www.linux-user.de/ausgabe/2000/00/Papierlos/emacs.gif http://www.aircraftspruce.com/catalog/graphics/11-00044.jpg http://iuinfoi101.files.wordpress.com/2009/02/ optimus_maximus3.jpg selbst erstellt http://www.alquier.org/TES/images/Oblivion/ inventory-list-vanilla-ps3.jpg selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt http://www.develop3d.com/uploaded_images/Auto02-706008.jpg http://iphone.macworld.com/images/2007/09/hack3.jpg http://img.areamobile.de/images/handies/Apple/iPhone/ 200706080937iphone-keyboard.jpg selbst erstellt http://people.inf.ethz.ch/arbenz/MatlabKurs/matlab.png selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt SEMESTERARBEIT JUREK BREUNINGER 170 ABBILDUNGSVERZEICHNIS Abbildung 7.2-10: Abbildung 7.2-11: Abbildung 7.2-12: Abbildung 7.2-13: Abbildung 7.2-14: Abbildung 7.2-15: Abbildung 7.2-17: Abbildung 7.2-18: Abbildung 7.2-19: Abbildung 7.2-20: Abbildung 7.2-21: Abbildung 7.2-22: Abbildung 7.2-23: Abbildung 7.2-24: Abbildung 7.2-25: Abbildung 7.2-26: Abbildung 7.3-1: Abbildung 7.3-2: Abbildung 7.3-3: Abbildung 7.3-4: Abbildung 7.3-5: Abbildung 7.4-1: Abbildung 7.6-1: Abbildung 7.7-1: Abbildung 7.12-1: Abbildung 7.12-2: Abbildung 7.12-3: Abbildung 7.13-1: Abbildung 7.13-2: Abbildung 7.13-3: Abbildung 7.13-4: Abbildung 7.13-5: Abbildung 7.13-6: Abbildung 7.13-7: Abbildung 7.13-8: Abbildung 9.1-1: Abbildung 9.1-2: selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt http://i463.photobucket.com/albums/qq352/Katarrh/ Mixereinstellungen.jpg?t=1243988708 selbst erstellt http://www.easysoft.com/products/data_access/ odbc_odbc_bridge/manual /images/ mac-osx-oob-client-dsn-dialog-box-target-dsn-tab.gif selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt selbst erstellt http://img337.imageshack.us/img337/4873/xmonadef7.png http://www.vrz.net/Site/collection/images/products/office2007/ ueberblickoutlookgross.jpg selbst erstellt selbst erstellt selbst erstellt http://gamestudies.org/articleimages/1_Figure_4.jpg http://circular-application-menu.googlecode.com/svn/trunk/ images/two.png selbst erstellt http://www.framfab.ch/ kompetenzen_loesungen_kommunikation.html http://grafikdesign.files.wordpress.com/2007/08/ black-26blue-icons.jpg http://www.lbp.ch/_pics/413/KarlKlammer.png selbst erstellt selbst erstellt http://zoomism.com/ http://www.maceinsteiger.de/wp-content/uploads/2009/02/ bild-42.jpg http://www.cs.umd.edu/class/fall2002/cmsc838s/tichi/fisheye1.gif http://www.sapdesignguild.org/community/images/ hyp_tree_new.gif http://www.desktoplinux.com/files/misc/beryl-cube.jpg http://www.organizeyourdesktopwithbumptop.com/gfx/download/ BumpTop_Screenshot_with_Printer.jpg http://hcil.cs.umd.edu/trs/2004-13/images/2004-13_img_0.jpg http://www.beyenetwork.de/blogs/vierkorn/blogpic.gif http://www.emeraldinsight.com/fig/0680060403008.png http://www.j-biomed-discovery.com/content/figures/ 1747-5333-1-10-5-l.jpg SEMESTERARBEIT JUREK BREUNINGER 171 ABBILDUNGSVERZEICHNIS Abbildung 9.1-3: Abbildung 9.1-4: Abbildung 9.2-1: Abbildung 9.2-2: Abbildung 10.1-1: Abbildung 10.2-1: Abbildung 10.2-2: Abbildung 10.2-3: Abbildung 10.2-4: Abbildung 10.2-5: Abbildung 10.4-1: Abbildung 10.4-2: Abbildung 10.4-3: http://www.ibm.com/developerworks/rational/library/content/ RationalEdge/oct01/t_activityDiagrams_fig4.jpg selbst erstellt http://www.qtsoftware.com/images/products/ qt-designer-screenshot-mac selbst erstellt selbst erstellt Richter 2005, S. 33 Richter 2005, S. 37 selbst erstellt http://www.ergosign.de/de/user-centered-design/ usability-evaluation/lab.jpg http://www.etnoteam.fi/uploads/images/usability-lab2_600.jpg http://www.qmethods.com/glossary/qs-testmanagement/ wasserfallmodell.jpg http://upload.wikimedia.org/wikipedia/commons/5/55/ Spiralmodel_nach_Boehm.png http://www.qmethods.com/glossary/qs-testmanagement/ v-modell.jpg SEMESTERARBEIT JUREK BREUNINGER 172 ANHANG: LITERATUREMPFEHLUNG Anhang: Literaturempfehlung Markus Dahm Grundlagen der Mensch-Computer-Interaktion Pearson Studium, 2006 Gut strukturierter Überblick, sehr nah an dieser Vorlesung, geht nicht allzu sehr in die Tiefe Ben Shneiderman, Catherine Plaisant Designing the User Interface, Fourth Edition Strategies for Effective Human-Computer Interaction Pearson Education, 2005 Sehr guter Einstiegspunkt, wenn man sich tiefer in die Materie einarbeiten will, sehr umfangreiche Literaturangaben, recht ausführlich geschrieben ohne stark auf die technische Realisierung einzugehen, neben etablierten Konzepten werden auch seltene und ungewöhnliche Lösungen und aktuelle Forschungsgebiete angesprochen, fokussiert den PC-Bereich Alan Cooper, Robert Reimann, David Cronin About Face 3 The Essentials of Interaction Design Wiley, 2007 Wie der Shneiderman ein Standardwerk in diesem Bereich, gut illustriert, zeigt viele Vorgehensweisen und Empfehlungen für den Entwicklungsprozess und eine Menge Beispiele von Realisierungen. Erste Anlaufstelle, wenn man sich weniger für die Grundlagen interessiert, sondern für unmittelbare Richtlinien in Projekten. Fokussiert ebenfalls den PC-Bereich, andere Gebiete werden nur gestreift. Michael Richter, Markus Flückiger Usability Engineering kompakt Benutzbare Software gezielt entwickeln Spektrum, 2007 Sehr gelungene kurze Zusammenfassung aller wichtigen Elemente des Usability Engineering im unternehmerischen Umfeld, konkrete Berichte aus der Praxis SEMESTERARBEIT JUREK BREUNINGER 173