Physiologische, psychologische und systemergonomische

Transcription

Physiologische, psychologische und systemergonomische
Lehrstuhl für Ergonomie
Jurek Breuninger
Physiologische, psychologische und systemergonomische Grundlagen der Mensch-ComputerInteraktion
Physiological, Psychological and System Ergonomic
Basics of Human-Computer-Interaction
Lehrstuhl für Ergonomie
Technische Universität München
Theoretische Semesterarbeit
Verfasser:
Jurek Breuninger
Module:
Elektronik und Informatik
Informationstechnik
Betreuer:
Prof. Dr. rer. nat. Heiner Bubb
Dipl.-Ing. Martin Wohlfarter:
Ausgabe am:
28.08.2008
Abgabe am:
16.01.2009
SEMESTERARBEIT JUREK BREUNINGER
2
EIDESSTATTLICHE ERKLÄRUNG
Hiermit versichere ich, diese Studienarbeit ohne fremde Hilfe selbständig verfasst
und nur die angegebenen Quellen und Hilfsmittel verwendet zu haben. Wörtlich oder
dem Sinn nach aus anderen Werken entnommene Stellen sind unter Angabe der
Quellen kenntlich gemacht.
Garching, den
Jurek Breuninger
VEREINBARUNG ZUM URHEBERRECHT
Hiermit gestatte ich dem Lehrstuhl für Ergonomie, diese Studienarbeit bzw. Teile davon nach eigenem Ermessen an Dritte weiterzugeben, zu veröffentlichen oder anderweitig zu nutzen. Mein persönliches Urheberrecht ist über diese Regelung hinaus
nicht beeinträchtigt.
Eventuelle Geheimhaltungsvereinbarungen über den Inhalt der Arbeit zwischen mir
bzw. dem Lehrstuhl für Ergonomie und Dritten bleiben von dieser Vereinbarung unberührt.
Garching, den
Jurek Breuninger
SEMESTERARBEIT JUREK BREUNINGER
3
EINLEITUNG
1
EINLEITUNG
6
1.1
Einordnung der Software-Ergonomie
6
1.2
Folgen schlechter Software-Ergonomie
9
1.3
Ziele der Software-Ergonomie
2
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
10
11
2.1
Geschichte der Maschine
11
2.2
Der Computer und die Entstehung graphischer Oberflächen
14
2.3
Weitere Gebiete der Mensch-Computer-Interaktion
29
3
GRUNDLAGEN
3.1
Die menschliche Wahrnehmung
33
33
3.1.1
Sensorik
33
3.1.2
Sehen
34
3.1.3
Wahrnehmungsfehler
38
3.1.4
Farben
42
3.1.5
Tiefensehen
45
3.1.6
Gestaltgesetze
49
3.1.7
Leserichtung
52
3.1.8
Hören
56
3.2
Gedächtnis und Erfahrung
59
3.2.1
Sensorisches Kurzzeitgedächtnis
60
3.2.2
Kurzzeitgedächtnis (Arbeitsgedächtnis, primäres Gedächtnis)
61
3.2.3
Langzeitgedächtnis (sekundäres Gedächtnis, tertiäres Gedächtnis)
63
3.2.4
Assoziationen und Metaphern
67
3.2.5
Mentale Modelle
67
3.2.6
Erfahrung
71
3.2.7
Lernunterstützung
73
Handlungsprozesse
74
3.3.1
Aufmerksamkeit
74
3.3.2
Handlungsregulation
75
3.3.3
Zeitverhalten
80
3.3
SEMESTERARBEIT JUREK BREUNINGER
4
EINLEITUNG
3.3.4
Die sieben Handlungsschritte von Norman
86
3.3.5
Affordances und Mappings
89
3.3.6
Das GOMS-Modell
90
3.3.7
Fitts Gesetz
91
3.3.8
Das Hicksche Gesetz
92
3.4
Kommunikation
93
3.4.1
Ebenen der Kommunikation
94
3.4.2
Dialogformen
97
3.4.3
Dialogprinzipien von Grice
98
3.4.4
Axiome der Kommunikation von Watzlawick
99
3.5
Systemergonomie
100
3.5.1
Der Systemgedanke
100
3.5.2
Einteilung von Mensch-Maschine-Systemen anhand der Funktion
102
3.5.3
Rückmeldung
109
3.5.4
Kompatibilität
109
4
LITERATURVERZEICHNIS
114
5
ABBILDUNGSVERZEICHNIS
116
ANHANG: LITERATUREMPFEHLUNG
119
SEMESTERARBEIT JUREK BREUNINGER
5
EINLEITUNG
1 Einleitung
Warum sind manche Computerprogramme, Mobiltelefone, Navigationssysteme oder
andere technische Geräte sofort intuitiv bedienbar? Ohne sich mit dem Handbuch
beschäftigen zu müssen erfüllen sie ihre Funktionen so, wie wir es erwarten.
Aber warum gibt es auch so viele Gegenbeispiele, bei denen sich die Funktionsweise
sehr schlecht erschließt? Manche technische Möglichkeiten von Geräten oder Programmen bleiben immer ungenutzt, da sie nicht verinnerlicht werden oder gar unbekannt bleiben.
Ein gutes technisches Produkt braucht für den wirtschaftlichen Erfolg nicht nur eine
gute Funktionalität, ein ansprechendes Design und einen attraktiven Preis. Die Akzeptanz beim Kunden folgt auch aus seinen Erfahrungen mit dem Produkt in der
Praxis. Die faszinierendsten Funktionen sind nicht nützlich, wenn sie nicht gut bedienbar sind. Ein Programm, das lange Ausbildung erfordert oder komplizierte und
lange Prozesse bedingt, rechnet sich für ein Unternehmen nicht. Produktivität wird
durch schlechtes Design der Mensch-Maschine-Schnittstelle gebremst oder gar verhindert.
Wie kann man ein einfach bedienbares Produkt entwickeln?
Warum ist es so schwierig und geht so oft schief?
Diese Vorlesung beschäftigt sich mit den Regeln und Möglichkeiten des Entwurfs der
Mensch-Maschine-Schnittstelle von softwaregesteuerten Systemen, also allen Computern und Geräten mit eingebetteten (embedded) Computern. Da dabei viele Konzepte der klassischen Ergonomie angewandt werden, die hier nicht alle im Detail behandelt werden können, sei auch auf die Vorlesung „Produktergonomie“ hingewiesen, die einen tieferen Einblick gestattet, aber nicht Voraussetzung für das Verständnis dieser Vorlesung ist.
1.1 Einordnung der Software-Ergonomie
All diese Systeme sollen uns durch ihre Funktionen helfen, eine Arbeit zu verrichten
oder zu erleichtern. Dies gilt auch für die Geräte der Unterhaltungselektronik, auch
wenn wir deren Funktionen nicht als „Arbeit“ empfinden. Man kann statt Arbeit allgemeiner von Aufgabe sprechen.
SEMESTERARBEIT JUREK BREUNINGER
6
EINLEITUNG
Die Wissenschaft, die sich mit dem Entwurf und der Integration dieser Arbeitsmittel
beschäftigt ist, die Arbeitswissenschaft (engl. Ergonomics, amerik. Human Factors).
Häufig spricht man auch von den Arbeitswissenschaften, da die Arbeitswissenschaft
ein interdisziplinäres Gebiet ist, das sich der Erkenntnisse aus den Humanwissenschaften (z. B. Medizin, Psychologie, Soziologie, Pädagogik), den Ingenieurwissenschaften (Physik, Konstruktion, Mess- und Regelungstechnik), der Wirtschaftswissenschaft (Ökonomie) und der Sozialwissenschaft (Rechtswissenschaft) bedient.
Die Arbeitswissenschaft kann man grob zweiteilen:
•
In den Bereich, der sich mit der Gestaltung der Arbeitsmittel beschäftigt, der
Ergonomie (engl. Micro Ergonomics) und
•
in den Bereich, der sich mit der Gestaltung der Organisation, dem Betrieb und
den Arbeitsgruppen innerhalb von Arbeitsprozessen beschäftigt, die Arbeitsorganisation (engl. Macro Ergonomics).
Das Wort Ergonomie ist ein Kunstwort, zusammengesetzt aus ergon (gr. für Arbeit)
und nomos (gr. für Gesetz, Gesetzmäßigkeit).
In der Ergonomie beschäftigt man sich neben der aus dem Sprachgebrauch bekannten gesundheitlichen Verträglichkeit von Produkten auch mit dem Aspekt der einfachen Erfassbarkeit der Funktionen, der effizienten Ausführung, der Optimierung des
Komforts und auch den Forderungen der Ästhetik.
Es gibt neben Ergonomie eine Menge Begriffe für diesen Bereich, die in der Literatur
teilweise unterschiedlich definiert und strukturiert werden. Die folgende Abbildung
1.1-1 zeigt einige:
SEMESTERARBEIT JUREK BREUNINGER
7
EINLEITUNG
(intuitiv e)
Bedienbarkeit
usability
Dienlichkeit
Benutzerf reundlichkeit
Gebrauchstauglichkeit
(dt. Übersetzung v on usability nach DIN 9241)
Kommunikation
Maschine-
Mensch-
Interaktion
ComputerSchnittstelle
Communication
MachineHuman-
Interaction
ComputerInterf ace
Abbildung 1.1-1: Eine Sammlung von Begriffen aus dem Bereich der SoftwareErgonomie. Sie werden je nach Literatur oft synonym verwendet.
Die Mensch-Computer-Interaktion, mit der wir uns im Rahmen dieser Vorlesung beschäftigen, ist eine Untermenge der Mensch-Maschine-Interaktion (Abbildung 1.1-2).
Hier wird die Besonderheit der Interaktion mit softwaregesteuerten Maschinen untersucht.
Mensch-Maschine-Interaktion
Mensch-Com puter-Interaktion
HardwareErgonomie
SoftwareErgonomie
Abbildung 1.1-2: Die Mensch-Computer-Interaktion ist eine Untermenge der MenschMaschine-Interaktion.
Auch innerhalb dieses Gebietes gibt es wieder eine Aufteilung: Hardware- und Software-Ergonomie. Trotz des Titels der Vorlesung beschäftigen wir uns hier mit beiden,
da sie eng miteinander verknüpft sind. Wenn man bei einer Produktentwicklung Einfluss auf die Hardware-Ergonomie hat (z. B. bei eingebetteten Systemen), hat dies
SEMESTERARBEIT JUREK BREUNINGER
8
EINLEITUNG
weitreichende Folgen für Software-Ergonomie. In manchen Publikationen wird die
Hardware-Ergonomie sogar als Teil der Software-Ergonomie aufgefasst. Aber es gibt
Bereiche (vor allem der PC-Bereich), in denen der Entwickler wenig oder gar keinen
Einfluss auf die Hardware-Ergonomie hat.
1.2 Folgen schlechter Software-Ergonomie
Gute Ergonomie wird leider meist kaum wahrgenommen. Erst wenn Dinge nicht so
funktionieren, wie wir es erwarten, wird die Wichtigkeit dieses Themas ersichtlich.
Dabei kann eine schlechte Gestaltung der Mensch-Computer-Interaktion weitreichende Folgen haben. Die meisten sind nur sehr aufwendig (das heißt teuer) oder
gar nicht zu reparieren:
•
Der Benutzer wird frustriert. Seine Motivation und Leistungsfähigkeit sinken
(wichtig im betrieblichen Umfeld).
•
Arbeitszeit wird in das Erreichen einer Funktion investiert und nicht in die
Funktion selbst (workarounds). Diese Zeit ist verschwendet und kostet den
Arbeitgeber Geld.
•
Die durch die Anschaffung eines Gerätes oder einer Software erhoffte Steigerung an Produktivität wird durch schlechte Bedienbarkeit abgeschwächt oder
zunichte gemacht.
•
Die durch die Anschaffung eines Gerätes oder einer (automatisierten) Software erhoffte Entlastung des Personals tritt nicht ein.
•
Der Kunde wendet sich vom Produkt ab zugunsten der Konkurrenz. Dies bedeutet einen Umsatzverlust.
•
Ein Kunde, der keinen Produktivitätszwang hat (z. B. Unterhaltungselektronik),
gibt nach wenigen Versuchen auf. Die Folge ist Kundenunzufriedenheit.
•
Das Unternehmen, das mit dem Produkt assoziiert wird (meist der Hersteller,
in manchen Fällen auch der Integrator), erleidet einen Imageverlust. Dieser ist
langfristig meist folgenreicher als der unmittelbare Umsatzverlust.
•
Da gewisse Eigenschaften vom Auftraggeber einklagbar sind (siehe Kapitel
Normen), kann ein Produkt, das ohne Beachtung der Bedienbarkeit entwickelt
SEMESTERARBEIT JUREK BREUNINGER
9
EINLEITUNG
wurde, für den Hersteller unerwartete Verluste bedeuten (meist Minderung
des Kaufpreises).
•
Bei sicherheitskritischen Systemen kann eine schlecht gestaltete MenschComputer-Schnittstelle Gefahr für Gesundheit oder Leben der Beteiligten bedeuten.
1.3 Ziele der Software-Ergonomie
Es ist natürlich im Interesse des Entwicklers, die oben genannten Folgen zu vermeiden. Er soll den Anwender bei der Erledigung seiner Aufgabe unterstützen. Dadurch
ergeben sich die wichtigsten Ziele der Software-Ergonomie:
•
Effektivität (≙Wirkung) des Anwenders – das heißt, er kann seine Aufgabe erfüllen
•
Effizienz (≙Wirkung pro Aufwand) des Anwenders – das heißt, er erfüllt seine
Aufgabe mit minimalem Aufwand (Zeit, Kosten, Übung)
•
Zufriedenheit des Anwenders – das heißt, er muss sich nicht ärgern beim Erfüllen seiner Aufgabe (besser noch es macht ihm Freude)
Dies sind die von DIN ISO 9241 definierten Ziele. Zusätzlich fordert das U.S. Militär:
•
Zuverlässigkeit der Kombination Anwender – Software/Gerät
•
Förderung von Standards innerhalb von Systemen und zwischen Systemen
Literatur:
Dahm 2006, S. 16-26
Shneiderman 2005, S. 4-14, S. 17-24
Bubb 2006, Kap. 1
SEMESTERARBEIT JUREK BREUNINGER
10
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
2 Kleine Geschichte der Mensch-Maschine-Interaktion
Doch zuerst ein kleiner Abriss, wie sich die Arbeit der Menschen mit ihren Maschinen
entwickelt hat. In der Moderne mit besonderem Fokus auf die Entwicklung der Computer und ihrer Bedienoberflächen.
2.1 Geschichte der Maschine
Der Mensch benutzt seit Jahrtausenden Werkzeuge, die ihm die Arbeit, das Erfüllen
seiner Aufgaben erleichtern sollen. Für viele ist das eines der wichtigsten Unterschiede des Menschen zum Tier und die Voraussetzung für die Entwicklung einer
Zivilisation. Die Abgrenzung zwischen Werkzeug und Maschine (von gr. mechané:
Gerüst, Vorrichtung) ist oft ein fließender Übergang. Maschinen weisen eine höhere
Komplexität als Werkzeuge auf und bestehen meist aus mehreren Maschinenelementen. Aristoteles bezeichnete im vierten Jahrhundert vor Christus Hebel und
Schraube als Maschinen. Das sind nach unserem heutigen Verständnis aber nur
Maschinenelemente. Aber bereits bei den Schöpfwerken (Abbildung 2.1-1) zur Ackerbewässerung der Babylonier im siebten Jahrhundert vor Christus kann man nach
unserem modernen Verständnis von Maschinen sprechen. Oft wird auch das Rad,
aus heutiger Sicht ebenfalls ein Maschinenelement, und die ersten Karren als die
erste Maschine gesehen. Das Rad entstand an wahrscheinlich mehreren Orten unabhängig voneinander etwa 4000 vor Christus. Vor allem für die Baukunst war bereits in der Frühantike der Flaschenzug (Abbildung 2.1-2) eine der wichtigsten Maschinen.
Abbildung 2.1-1: Eine der ersten Maschinen, ein persisches Schöpfwerk (600 v.Chr.)
SEMESTERARBEIT JUREK BREUNINGER
11
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.1-2: Bereits seit der Antike bekannt: Der Flaschenzug
In der Antike und im Mittelalter waren Maschinen von eingeschränkter Komplexität.
Der Bediener war meist auch der Entwickler und der Erbauer; das Funktionsprinzip
einfach erfassbar. Erst in der Neuzeit nahm die Komplexität rapide zu: z. B. Entwürfe
für Kriegs- und Flugmaschinen von Leonardo da Vinci im 15. Jahrhundert (Abbildung
2.1-3), Rechenmaschinen von Pascal (Abbildung 2.1-4) und Leibnitz im 17. Jahrhundert, vollmechanisierter Webstuhl von Carthwright (Abbildung 2.1-5) im 18. Jahrhundert.
Abbildung 2.1-3: Entwurf einer Flugmaschine von Leonardo da Vinci (1488)
SEMESTERARBEIT JUREK BREUNINGER
12
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.1-4: Eine der ersten mechanischen Rechenmaschinen: Die Pascaline
(1643)
Abbildung 2.1-5: Webmaschine von Cartwright (1785)
Mit dem Beginn der industriellen Revolution nahmen Maschinen einen bestimmenden Platz in der Gesellschaft ein. Durch die Erfindung der Dampfmaschine konnte
die Arbeitskraft statt durch Menschen oder Tiere durch die Maschine erzeugt werden.
Durch diese Entwicklung der Maschine wandelte sich das Arbeitsbild des Menschen.
Die Rolle des Menschen änderte sich immer mehr vom ausführenden zum kontrollierenden und überwachenden Arbeiter. Die Maschine hilft ihm, physische Arbeit zu
vermeiden und bringt neue Möglichkeiten und Notwendigkeiten geistiger Arbeit mit
sich. Umso komplexer die Maschinen wurden, desto unverständlicher wurden deren
interne Vorgänge für die bedienenden Arbeiter (Black-Box-Prinzip). Maschinen wurden nun meist von verschiedenen Menschen entwickelt, aufgebaut und bedient.
Strandh 1992, S. 26ff., S. 37f., S. 74f., S. 77ff.
SEMESTERARBEIT JUREK BREUNINGER
13
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
2.2 Der Computer und die Entstehung graphischer Oberflächen
Einen weiteren Schub in Komplexität und Leistungsfähigkeit erlangte die Entwicklung
der Maschinen im 20. Jahrhundert durch die Erfindung des integrierten Schaltkreises
durch Kilby im Jahr 1958 (Abbildung 2.2-1).
Abbildung 2.2-1: Der erste integrierte Schaltkreis von Kilby (1958) besteht aus einem
Transistor und hat eine Größe von etwa 150 mm².
Mit dieser Technik ist es möglich, Rechenmaschinen zu bauen, die mehrere Tausend
Operationen pro Sekunde ausführen. Das Computerzeitalter hatte begonnen. Die
Computertechnologie entwickelte sich schneller weiter als jede andere Technologie
bis dahin. Sie folgt bis heute dem Moore’schen Gesetz (Abbildung 2.2-3), das 1965
von Intel-Chef Gordon Moore postuliert wurde. Es besagt, dass sich die Komplexität
(d. h. die Anzahl der Transistoren) auf einem Computerchip alle 18 bis 24 Monate
verdoppelt. Da die Leistungsfähigkeit eines Chips stark an die Anzahl der Transistoren gekoppelt ist, kann man von einer Verdopplung der Leistungsfähigkeit alle zwei
Jahre sprechen (Abbildung 2.2-2).
Abbildung 2.2-2: Ein Intel Itanium II Prozessor (2008) vereint 2 Milliarden Transistoren auf einer Fläche von 600 mm².
SEMESTERARBEIT JUREK BREUNINGER
14
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-3: Moore’s Law: Die Anzahl der Transistoren in verschiedenen
Prozessoren aufgetragen über ihr Erscheinungsdatum.
Durch ihre extreme Arbeitsgeschwindigkeit und das Fehlen einer optisch erfassbaren
Mechanik gilt für Computer das Black-Box-Prinzip besonders. Der Anwender kann
nicht auf die Funktionsweise schließen. Hinzu kommt, dass Computer Universalmaschinen sind, die ihre Logik erst durch Programmierung erhalten. Zwei identische
Computerchips können also durch unterschiedliche Programmierung völlig verschiedene Aufgaben lösen. Dies stellt besonders hohe Anforderungen an die MenschMaschine-Schnittstelle, da sie ohne dem Menschen ersichtliche physikalische Abhängigkeiten (z. B. Hebel bewegt Stellteil) auskommen muss. Außerdem kann die
Bedienung einer Maschine durch die Computertechnik nun an einem anderen Ort
erfolgen als die Maschine steht. Daraus folgt selbst für einfache mechanische Maschinen, dass der Arbeitsprozess für den Benutzer nicht mehr sichtbar ist.
Die Bedienung von Computern änderte sich mit ihrer Zunahme an Komplexität. In
der Anfangszeit war der Entwickler meist auch der Erbauer und Bediener (Programmierer). Lange Zeit war das Benutzen von Computern einer kleinen Gruppe vorbe-
SEMESTERARBEIT JUREK BREUNINGER
15
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
halten, da Computer sehr groß und teuer waren und so nur von Forschungseinrichtungen, großen Firmen und dem Militär benutzt wurden. Die Anwender waren hoch
spezialisiert und hatten gutes Verständnis der Funktionsweise. Die Steuerung der
Computer erfolgte oft durch Eingriff in die Hardware, also das Verschalten einzelner
Module je nach Anwendungszweck. Vor allem bei Analogcomputern bildeten große
Steckbretter ein wichtiges Eingabeinstrument (Abbildung 2.2-4).
Abbildung 2.2-4: Steckbretter, Schalter und Analoganzeigen eines Analogcomputers
Die ersten programmierbaren Computer machten eine Speichermöglichkeit der Programme zur Wiederverwendung nötig. Erst benutzte man Lochkarten (Abbildung
2.2-5) und Widerstandsmatrizen, ab den 1950er Jahren auch Magnetspeicher (Bänder, später Festplatten, Abbildung 2.2-6).
Abbildung 2.2-5: Die Eingabeeinheit eines IBM Lochkartenstanzers und eine Lochkarte
SEMESTERARBEIT JUREK BREUNINGER
16
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-6: IBM 305 RAMAC (1956): Der erste Computer mit Festplatte (Die
beiden Schränke links und in der Mitte enthalten je eine IBM 350 mit ca. 5 Megabyte
Kapazität)
Neben der Eingabe des Programms durch das Speichermedium waren Schalter anfangs die einzige Eingabemöglichkeit; die Ausgabe erfolgt über Analoginstrumente
und Signalleuchten. Ab den 1950er Jahren wurden Fernschreiber, bald auch Bildschirme und alphanumerische Tastaturen benutzt. Mit dem Aufkommen der Großrechenanlagen in den 60ern konnten erstmals mehrere Benutzer über so genannte
Terminals (eine Bildschirm-Tastatur-Einheit, Abbildung 2.2-7) einen Computer bedienen.
Abbildung 2.2-7: Das bekannteste aller Terminals: Das VT100 von DEC (1979). Es
enthält selber keinen vollständigen Computer, sondern ermöglicht den Zugriff auf
eine entfernte Großrechenanlage
SEMESTERARBEIT JUREK BREUNINGER
17
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Die Bedienung erfolgte durch Ein- und Ausgabe von Text, anfangs nur zeilenweise,
später auch seitenweise.
1963 entstand mit Sketchpad (Abbildung 2.2-8), der Doktorarbeit von Ivan Sutherland am MIT (Sutherland 2003, S. 31-36), ein erster Schritt in Richtung graphische
Benutzeroberfläche. Das Programm nutzte einen Lichtgriffel, mit dem auf einem Röhrenmonitor Positionen eingegeben werden konnten. Es war als rudimentäres Zeichen- und Konstruktionsprogramm ausgelegt. Es wurde später im amerikanischkanadischen computergesteuerten Luftverteidigungssystem zum Abfangen von Interkontinentalraketen als Steuerung der Radarerfassung eingesetzt.
Abbildung 2.2-8: Sketchpad: Die erste GUI. Bedient wird sie mit einem Lichtgriffel.
1968 stellte Douglas Engelbart in der so genannten „Mutter aller Demos“ das NLS
(oNLine System), das Ergebnis der vergangenen fünf Jahre Forschung am Stanford
Research Institute, vor (Abbildung 2.2-9). Es nutzte erstmals den 1963 dafür entwickelten „X-Y-Positions-Anzeiger für ein Bildschirmsystem“, die spätere Computermaus. Neben der Maus und einer Akkordtastaur (Abbildung 2.2-10) zeigte NLS viele
Fähigkeiten moderner Computer zum ersten Mal: interaktiver Text, Videokonferenz,
Email und Hypertext.
SEMESTERARBEIT JUREK BREUNINGER
18
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-9: Ein Screenshot des NLS bei seiner ersten Präsentation 1968. Der
Mauszeiger ist ein kleiner Strich, genannt „Bug“. Graphische Strukturierung von Information ist bereits möglich.
Abbildung 2.2-10: Die Eingabeinstrumente des NLS sind neben einer alphanumerischen Tastatur erstmals die Maus und eine Akkordtastatur.
Aufgrund der nun möglichen billigen Massenfertigung von Mikroprozessoren, wurden
Computer immer kleiner und leistungsfähiger. Es entstanden die ersten Heimcomputer, anfangs als Bausatz, später in Serienproduktion. Diese Heimcomputer, die in den
80ern den Höhepunkt ihrer Popularität erreichten, unterschieden sich durch die vielen Hersteller stark. Es gab eine Vielzahl an Betriebssystemen, die sich in ihrer Bedienung unterschieden. Auch die Tastaturen waren meist je nach Herstellern
verschieden in Umfang und Anordnung ihrer Zusatztasten (Abbildung 2.2-11,
Abbildung 2.2-12, Abbildung 2.2-13, Abbildung 2.2-14).
SEMESTERARBEIT JUREK BREUNINGER
19
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-11: Einer der ersten populären Heimcomputer: Der Apple II (1977)
Abbildung 2.2-12: Der erste Heimcomputer von Commodore: Der PET 2001 (1977).
Man beachte die Tastatur in Matrixanordnung, oft „Micky-Maus-Tastatur“ genannt.
Abbildung 2.2-13: Der Atari 400 (1979) mit Folientastatur
SEMESTERARBEIT JUREK BREUNINGER
20
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-14: Zusammen mit seinem Nachfolger einer der bekanntesten Heimcomputer: Commodore VC-20 (1982), Vorgänger des C64 (1982), genannt ‚Brotkasten“
1973 entwickelte Xerox am Forschungszentrum Xerox PARC den Alto (Abbildung
2.2-15). Er war der erste Computer mit einer graphischen Benutzeroberfläche
(graphical user interface, GUI) mit Fenstern, Menüs, Icons und Maussteuerung. Die
Bedienung des Computers wurde erstmals durch die Schreibtischmetapher (Desktop) vereinfacht (Abbildung 2.2-16). Vor allem die Textverarbeitung wird durch das
WYSIWYG-Prinzip (What you see is what you get) deutlich intuitiver.
Abbildung 2.2-15: Ein Meilenstein in der Geschichte der Mensch-ComputerInteraktion: Der Xerox Alto.
SEMESTERARBEIT JUREK BREUNINGER
21
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-16: Die Benutzeroberfläche des Alto mit der Programmierumgebung
für Smalltalk
Das Forschungsprojekt wurde zum Xerox Star weiterentwickelt und kam 1981 auf
den Markt, wurde aber wegen des hohen Preises ein kommerzieller Misserfolg. Mit
einem sehr ähnlichen GUI-Konzept kam 1983 der Apple Lisa auf den Markt, war aber
ebenfalls zu teuer. Erst der in der Hardware abgespeckte und deutlich billigere Apple
Macintosh (Abbildung 2.2-18, Abbildung 2.2-19) brachte 1984 der GUI den Durchbruch.
Abbildung 2.2-17: Der kommerzielle Erbe des Alto, der Xerox Star.
SEMESTERARBEIT JUREK BREUNINGER
22
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-18: Der erste kommerziell erfolgreiche Computer mit graphischer Bedienoberfläche: Der Apple Macintosh.
Abbildung 2.2-19: Die GUI des Macintosh. Sie weist hohe Ähnlichkeit zu der von Xerox auf.
Der Anfang der 80er bereits eingeführte IBM-PC (Personal Computer, Abbildung
2.2-20, ) wurde immer populärer und brachte dem Computermarkt einige HardwareStandards, die andere Hersteller übernahmen. Bis 1990 verloren alle nicht IBMkompatiblen Computer außer denen von Apple weitgehend an Bedeutung. Auf
Heimsystemen hatte sich mit Microsofts MS-DOS das Betriebssystem des IBM-PCs
durchgesetzt, das weiterhin textbasiert gesteuert wurde. Zusatzprogramme, die DOS
um eine graphische Oberfläche erweitern, konnten sich lange nicht durchsetzen
(Abbildung 2.2-21).
SEMESTERARBEIT JUREK BREUNINGER
23
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-20: Der IBM Personal Computer (1981)
Abbildung 2.2-21: Die GUI GEM von Digital Research: Während sie auf dem Atari
erfolgreich war, konnte sie sich auf dem PC nicht durchsetzen.
Apple entwickelte das Betriebssystem des Macintosh (das seit Version 7.5 Mac OS
heißt) kontinuierlich weiter. Apples Anteil am Computermarkt aber schwand, viele
Entwicklungen blieben ohne Bedeutung für die breite Masse.
Auf professionellen Computersystemen und an Universitäten hatten sich seit den
80er das Betriebssystem Unix und seine Derivate durchgesetzt. Dieses wurde weiterhin recht lange textgesteuert, da die Benutzer meist mit der Materie vertraute Experten oder gut geschult waren. Mit dem X-Window-System gibt es aber auch auf
ihm bereits seit 1984 eine betriebssystemweite Möglichkeit der graphischen Ausga-
SEMESTERARBEIT JUREK BREUNINGER
24
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
be. Basierend darauf setzte sich die Bedienoberfläche CDE (Common Desktop Environment, Abbildung 2.2-22) als Standardlösung für kommerzielle Unixsysteme durch.
Abbildung 2.2-22: CDE auf dem Betriebssystem Sun Solaris. CDE war lange Zeit die
Standard-GUI kommerzieller Unix-Systeme.
Auch Microsoft versuchte seit 1983 mit Windows (Abbildung 2.2-23) einen graphischen Aufsatz für das populäre MS-DOS zu vermarkten. Doch erst mit Windows 3.1
(1992, Abbildung 2.2-24) gelang auch auf dem PC der Durchbruch der GUI. Windows NT 3.1 und Windows 95 waren dann die ersten rein graphischen Betriebssysteme von Microsoft, am Grundaufbau der Bedienoberfläche von Windows 95
(Abbildung 2.2-25) orientieren sich alle seine Nachfolger (Abbildung 2.2-26).
Abbildung 2.2-23: Windows 1.0 (1983): Ein Vorläufer der Programmleiste (grüner
Bereich), rudimentäres Multitasking, keine überlappenden Fenster
SEMESTERARBEIT JUREK BREUNINGER
25
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-24: Windows 3.1 (1992): Die Programmleiste ist wieder verschwunden, dafür gibt es inzwischen überlappende Fenster.
Abbildung 2.2-25: Windows 95 (1995): Startmenü, Programmleiste, Icons auf dem
Desktop
SEMESTERARBEIT JUREK BREUNINGER
26
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.2-26: Führt die Bedienoberflächenphilosophie von Microsoft weiter: Windows Vista (2007).
Da Apple seit 1999 wieder an Marktanteilen gewinnt, hat auch sein Betriebssystem
Mac OS wieder an Bedeutung gewonnen. Mit zahlreichen Neuerungen in der Oberfläche ist Mac OS X (2001, Abbildung 2.2-27) wieder ein wichtiger Vorantreiber der
Entwicklung der graphischen Benutzeroberfläche.
Abbildung 2.2-27: Apples Betriebssystem Mac OS X mit der Bedienoberfläche Aqua.
SEMESTERARBEIT JUREK BREUNINGER
27
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Auf Unix-kompatiblen Systemen haben sich seit Ende der 90er die Open-SourceDesktopoberflächen KDE (Abbildung 2.2-28) und Gnome (Abbildung 2.2-29) durchgesetzt.
Abbildung 2.2-28: Einer der beiden wichtigsten Desktopoberflächen für Unix-Derivate
wie Linux: KDE
Abbildung 2.2-29: Eine weitere populäre GUI für Linux: Gnome.
SEMESTERARBEIT JUREK BREUNINGER
28
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Die Bedienoberflächen aller modernen Betriebssysteme beherrschen inzwischen
auch durch die Grafikkarte beschleunigte Darstellung. (Mac OS seit 2001, Unix
(compiz) seit 2004, Windows Vista seit 2007). Dies ermöglicht dreidimensionale und
andere Effekte.
http://arstechnica.com/old/content/2005/05/gui.ars
http://www.computergeschichte.de/
http://www.heise.de/newsticker/Vor-40-Jahren-die-Maus-kreisste-und-gebar-eine-neue-Welt-/meldung/120106
http://sloan.stanford.edu/MouseSite/
http://www.mac-history.de/
http://winhistory.de/
2.3 Weitere Gebiete der Mensch-Computer-Interaktion
Neben den PCs nimmt auch die Entwicklung der eingebetteten Computer einen rasanten Verlauf. Durch die billige Massenherstellung kleiner Mikrochips werden immer
mehr Geräte ab den 80er Jahren mit elektronischen Fähigkeiten ausgestattet. Vor
allem der Siegeszug der Mobiltelefone in den 90er Jahren führt dazu, dass heute fast
jeder einen eingebetteten Computer mit sich herumträgt. Die Entwicklung ihrer Bedienoberflächen
vom
einfachen
Tastentelefon
zum
touchscreen-gesteuerten
Smartphone (Abbildung 2.3-1) ähnelt der der Computer.
Abbildung 2.3-1: 15 Jahre Mobiltelefonentwicklung: Motorola 3200 International von
1992, Siemens S10 mit Vier-Farben-Display von 1997, Apple iPhone mit Touchscreen von 2007.
SEMESTERARBEIT JUREK BREUNINGER
29
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Militärflugzeuge (Abbildung 2.3-2) besitzen seit den 80ern, Zivilflugzeuge (Abbildung
2.3-3) seit den 90ern, so genannte MFDs (Multi-Function-Displays). Diese zeigen
menügesteuert verschiedene Informationen an und sparen Schalter und Analoganzeigen. HUDs (Head-Up-Displays) ermöglichen optische Übermittlung von Information ohne den Blick vom Geschehen abzuwenden.
Abbildung 2.3-2: Das Cockpit einer Saab Gripen mit HUD und drei MFDs.
Abbildung 2.3-3: Das Cockpit des Airbus A350 mit zwei HUDs und zehn MFDs.
Mit der Vorstellung des COMAND-Systems (Abbildung 2.3-4) in der Mercedes SKlasse im Jahr 1998 hält die graphische Bedienung auch in Automobilen Einzug.
BMW stellte 2001 den Siebener mit iDrive (Abbildung 2.3-5) vor, dessen Bedienung
auf viele Knöpfe verzichtet zugunsten einer menübasierten Steuerung mit einem einzigen Mehrwege-Schalter (Abbildung 2.3-6). Auch HUDs haben von den Flugzeugen
ihren Weg in Autos gefunden.
SEMESTERARBEIT JUREK BREUNINGER
30
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
Abbildung 2.3-4: Das COMAND-System in der Mercedes S-Klasse war ab 1998 das
erste software-basierte Infotainmentsystem mit Farbbildschirm im Auto.
Abbildung 2.3-5: BMW brachte 2001 im Siebener mit dem iDrive eine noch radikalere
Lösung, bei der die Bedienung fast aller nicht sicherheitskritischen Funktionen über
ein einzelnes Bedienelement erfolgt.
Abbildung 2.3-6: Die überarbeitete Form des iDrive-Controllers mit Schnellwahltasten.
SEMESTERARBEIT JUREK BREUNINGER
31
KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION
In weiterer Zukunft wird Elektronik und damit softwarebasierte Bedienung in immer
mehr Geräten zu finden sein. Die Computertechnik ist pervasiv, das heißt sie durchdringt alle Bereiche (Abbildung 2.3-7).
Abbildung 2.3-7: Waschmaschine mit Touchscreen-Bedienung.
Spitzer 2006, Kap. 7
Braess 2007, S. 682-690
SEMESTERARBEIT JUREK BREUNINGER
32
GRUNDLAGEN
3 Grundlagen
Bevor wir uns mit Gestaltungsregeln und vorhandenen technischen Realisierungen
beschäftigen können, müssen wir uns mit den psychologischen und physiologischen
Grundlagen der Mensch-Maschine-Interaktion beschäftigen. Das heißt, wie interagiert ein Mensch mit einer Maschine oder speziell einem Computer und warum.
Was sind die Möglichkeiten der menschlichen Informationsaufnahme und verarbeitung und wo liegen ihre Grenzen?
Bei der Entwicklung einer Mensch-Maschine-Schnittstelle sollten die menschlichen
Möglichkeiten ausgeschöpft werden, aber auch die Einschränkungen in Betracht gezogen werden.
3.1 Die menschliche Wahrnehmung
Um ein Produkt zu entwickeln, das von den Benutzern gut bedient werden kann und
ihnen so das Erledigen ihrer Arbeit effektiv, effizient und zufriedenstellend ermöglicht,
muss sich der Entwickler Gedanken über den Informationsaustausch zwischen Gerät
(bzw. Software) und dem bedienenden Menschen machen. Die Schnittstelle zwischen beiden sollte an die Möglichkeiten des Menschen angepasst werden, um den
Informationsaustausch ohne unnötige Vorverarbeitung oder Wandlung seitens des
Menschen zu gestatten. Deswegen gehört es zu den Grundlagen eines Ergonomen,
die Funktionsweise der menschlichen Wahrnehmung (also Informationsaufnahme)
zu verstehen.
3.1.1 Sensorik
Zur Aufnahme von Informationen aus seiner Umwelt besitzt der Mensch nach klassischer Ansicht fünf Sinneskanäle:
•
Sehen (visuelle Wahrnehmung)
•
Hören (auditive Wahrnehmung)
•
Riechen (olfaktorische Wahrnehmung)
•
Schmecken (gustatorische Wahrnehmung)
•
Tasten (haptische Wahrnehmung)
SEMESTERARBEIT JUREK BREUNINGER
33
GRUNDLAGEN
Darüber hinaus kennt man in der modernen Physiologie:
•
Temperaturempfinden (thermische Wahrnehmung)
•
Bewegungsempfinden (kinästhetische Wahrnehmung)
•
Gleichgewichtssinn (vestibuläre Wahrnehmung)
•
Wahrnehmung der Körperhaltung (Tiefensensibilität)
Es ist offensichtlich, dass für die Informationsaufnahme vom Computer nur visuelle,
auditive und (eingeschränkt) haptische Wahrnehmung von Bedeutung sind. Auch
wenn es für Spezialanwendungen technische Realisierungen von Geruchsaktoren
gibt (Duftorgel), besteht kein allgemeiner Bedarf. Geschmacksaktoren und Temperaturaktoren haben keine Bedeutung in technischen Systemen. Eine kinästhetische
Rückmeldung findet in dem Spezialgebiet der Fahr- und Flugsimulatoren statt.
Die menschliche Wahrnehmung ist primär auf Auge und Ohr ausgelegt. Von den 8
MBit/s Sinneseindrücken, die ein Mensch verarbeiten kann, liefern etwa 80% die Augen und 15% die Ohren.
Dahm 2006, S. 41
Bubb 2006, Kap. 3.2
3.1.2 Sehen
Das Auge (Abbildung 3.1-1) ist das wichtigste Sinnesorgan des Menschen. Unser
Verhalten stützt sich vor allem auf seine Informationen. Deswegen beschäftigen wir
uns auch in der Software-Ergonomie primär mit diesem Sinneskanal und seinen Eigenschaften. Neben der reinen Aufnahme von Lichtart und -intensität ist vor allem
die Mustererkennung der tragende Prozess, der die menschliche Wahrnehmung
dominiert.
SEMESTERARBEIT JUREK BREUNINGER
34
GRUNDLAGEN
Abbildung 3.1-1: Das menschliche Auge: Einfallendes Licht wird mit Hilfe der Linse
scharf auf die Netzhaut abgebildet. Dort wandeln Rezeptoren wie Stäbchen und Zapfen das Licht in elektrische Nervenimpulse, die an den visuellen Cortex im Gehirn
geleitet werden.
3.1.2.1 Statisches Sehen
Das Auge ist ein Sensor für elektromagnetische Wellen im Bereich von etwa 400 bis
700 nm Wellenlänge. Es verfügt über zwei unterschiedliche Typen von lichtempfindlichen Rezeptoren, die auf der Netzhaut verteilt sind:
•
Die Zapfen befinden sich vor allem im Zentrum um die optische Achse. Sie
sind für das Farbigsehen verantwortlich. Es gibt jeweils Zapfen für rotes, grünes oder blaues Licht, die sich durch ihre Pigmentierung unterscheiden.
•
Die Stäbchen sind deutlich empfindlicher als die Zapfen, ermöglichen aber nur
die Unterscheidung von Helligkeitsunterschieden. Sie sind über die ganze
Netzhaut verteilt und deutlich zahlreicher als die Zapfen. 95% aller Rezeptoren sind Stäbchen.
Der Kontrastumfang, den das menschliche Auge mit den Stäbchen erfassen kann,
liegt bei 1:200 bis 1:250. Die Anzahl der unterscheidbaren Graustufen bei etwa 200
bis 250. Durch die Adaption, das Regulieren der einfallenden Lichtmenge durch die
Iris, erweitert sich der Kontrastumfang allerdings auf bis zu 1:100 000.
Die Farbinformationen, die das Auge erstellt, ergeben sich aus additiver Farbmischung. Das heißt, es werden immer die Intensitäten von drei nah beieinander liegenden Zapfen mit den Primärfarben rot, grün und blau gemeinsam ausgewertet. Mit
dieser Farbmischung lassen sich (fast) alle Farben darstellen.
SEMESTERARBEIT JUREK BREUNINGER
35
GRUNDLAGEN
Das Scharfsehen von Gegenständen in unterschiedlicher Entfernung wird durch die
Akkomodation erreicht (Abbildung 3.1-2). Dabei wird die Linse durch Muskeln gestaucht (für nahe Objekte) oder gestreckt (für ferne Objekte). Dies ändert die Brechkraft der Linse und ermöglicht eine scharfe Abbildung auf der Netzhaut. Das Stauchen erfolgt durch Muskelkontraktion und ist somit das anstrengendere Verfahren.
Deswegen ist das Fokussieren von nahen Gegenständen über längere Zeit ermüdend. Allerdings sind weit entfernte Objekte schwerer zu erkennen. Deshalb ergibt
sich ein idealer Abstand für das Erkennen von Informationen oder das Lesen von
Text von etwa 25 bis 30 Zentimeter.
Abbildung 3.1-2: Die Akkomodation ermöglicht das Fokussieren von Objekten in verschiedenen Entfernungen.
Da sich die meisten Zapfen in einem Kreis von etwa 5mm Durchmesser um die optische Sehachse befinden und die Stäbchen eine höhere Empfindlichkeit haben, können wir am Rande des Gesichtsfeldes schlechter Farben erkennen, aber besser
schwach leuchtende Objekte (z. B. Sterne am dunklen Himmel).
SEMESTERARBEIT JUREK BREUNINGER
36
GRUNDLAGEN
An einer Stelle der Netzhaut tritt das Bündel der Sehnerven aus. Dort befinden sich
keine Rezeptoren. Man spricht vom blinden Fleck, denn hier können wir nichts sehen. Der blinde Fleck befindet sich etwa 15° bis 20 ° horizontal entfernt von der optischen Achse. Theoretisch gibt es also immer einen Punkt, an dem wir nichts sehen.
Dass trotzdem nicht ständig Gegenstände in unserem Blickfeld verschwinden, liegt
daran, dass sich unsere Augen in ständiger Bewegung befinden und das Gehirn diesen nur wenige Hundertstel bestehenden Fehler ausgleicht. Hinzu kommt, dass sich
das Gesamtbild in unserem Gehirn aus den Bildern beider Augen zusammensetzt.
3.1.2.2 Dynamisches Sehen
Neben dem Erfassen ruhender Bilder, dem statischen Sehen, kann der Mensch auch
Bewegungen wahrnehmen. Dafür haben wir kein eigenes Sinnesorgan, vielmehr geschieht dies durch eine Mustererkennung, also eine im Gehirn erfolgende Analyse
der Eindrücke. Im Prinzip setzt das Gehirn eine Folge von Einzelbildern zu einer Bewegung zusammen, basierend auf Erfahrung. Ab einer gewissen Frequenz, der Verschmelzungsfrequenz, erscheint eine Folge von Einzelbildern als Bewegung. Diese
Frequenz ist von Kontrast und Helligkeit der Bilder abhängig, liegt aber bei natürlichen Bildern bei etwa 22 Bildern pro Sekunde. Bei höherem Kontrast wird eher ein
Flimmern wahrgenommen. In der Fernseh- und Kinotechnik liegt die Projektionsfrequenz bei 25 bzw. 24 Bildern pro Sekunde, sodass die gezeigten Bilderfolgen gerade
als kontinuierliche Bewegung interpretiert werden.
In der Peripherie des Gesichtsfeldes ist die Empfindlichkeit für Bewegung deutlich
höher als im Zentrum (peripheres Sehen ermöglichte unseren Vorfahren schnellere
Erfassung von Raub- oder Beutetier). Dadurch bemerkt man bei größeren Flächen
eher ein Flimmern als bei kleinen (Großflächenflimmern).
Bei Röhrenmonitoren, die kontinuierlich ihr Bild erneuern müssen, bemerken wir vor
allem beim Vorbeisehen ein Flimmern. Durch die Helligkeit des Monitors liegt hier die
Verschmelzungsfrequenz deutlich höher. Ab 85 Hz Bildwiederholfrequenz geht man
von einem flimmerfreien Bild aus.
Da eine Bewegung in der Peripherie des Gesichtfeldes für einen jagenden Urmenschen immer mögliche Gefahr oder Beute bedeutete, ziehen Bewegungen bis heute
unsere Aufmerksamkeit auf sich. Blinkende oder sich bewegende Objekte sollten
SEMESTERARBEIT JUREK BREUNINGER
37
GRUNDLAGEN
deshalb auch nur für wichtige, vor allem Gefahr ankündigende Funktionen genutzt
werden, da sie von anderen ablenken.
Dahm 2006, S. 41-47
Goldstein 2002, S. 41-51
3.1.3 Wahrnehmungsfehler
Die Zapfen und Stäbchen im Auge sind nicht einfach eine Sammlung von Sensoren,
die ungefilterte Information an das Gehirn senden. Man geht davon aus, dass bereits
im Auge eine Vorverarbeitung der Information stattfindet durch die Vernetzung der
Rezeptoren untereinander. Die Bildinformation wird bereits nach gewissen Merkmalen durchsucht (Mustererkennung) und diese zusätzlich vom visuellen System im
Gehirn ausgewertet. Dies macht Erkennungsaufgaben für das Gehirn einfacher.
Da diese Mustererkennung auf in der Natur vorkommende Situationen ausgelegt ist,
kann es vor allem bei künstlichen Bildern zu Wahrnehmungsfehlern kommen. Das
sind keine objektiven Fehler in der Informationsaufnahme, sondern subjektive Fehler
in der Interpretation der Information. Es werden Muster angewandt, die in dieser Situation nicht zutreffend sind.
Diese speziellen Eigenschaften der visuellen Wahrnehmung sollten bedacht werden,
um bei der Auslegung einer Mensch-Computer-Schnittstelle Wahrnehmungsfehler
als Fehlerquelle zu vermeiden.
3.1.3.1 Simultankontrast
Zwei Rechtecke des gleichen Grautons werden je von einem hellen beziehungsweise dunklen Hintergrund umrahmt. Das Rechteck im Dunklen scheint heller zu sein
als das Rechteck im Hellen (Abbildung 3.1-3).
Eine verbreitete wissenschaftliche Erklärung ist, dass dies durch die laterale Inhibition („seitliche Hemmung“) hervorgerufen wird. Das bedeutet, es gibt eine seitliche
Beeinflussung nebeneinander liegender Rezeptoren. Wenn einer stark angeregt
wird, hemmt dies die Reaktion der Nachbarn. Der helle Hintergrund lässt so das eine
Rechteck dunkler erscheinen als es ist (starke Hemmung); der dunkle Hintergrund
hemmt dagegen kaum.
SEMESTERARBEIT JUREK BREUNINGER
38
GRUNDLAGEN
Abbildung 3.1-3: Simultankontrast: Die laterale Inhibitation bewirkt, dass die inneren
Quadrate unterschiedlich hell erscheinen.
Weitere verblüffende optische Täuschungen durch Simultankontrast demonstrieren
das Benary-Kreuz (Abbildung 3.1-4) und die White’sche Illusion (Abbildung 3.1-5).
Für deren Erklärung sei auf Goldstein 2002, S. 75 verwiesen.
Abbildung 3.1-4: Das Benary-Kreuz: Auch wenn es anders erscheint, die beiden
Dreiecke haben den gleichen Grauton.
SEMESTERARBEIT JUREK BREUNINGER
39
GRUNDLAGEN
Abbildung 3.1-5: Die White’sche Illusion: Der rechte senkrechte Streifen erscheint
deutlich heller, obwohl die beiden Streifen den gleichen Grauton haben.
3.1.3.2 Machsche Bänder
Wenn helle und dunkle Bereiche eines Farbtons aneinander grenzen, so kann man
direkt an der Kontur im dunklen Bereich eine noch dunklere Linie und im hellen Bereich eine etwas hellere Linie ausmachen (Abbildung 3.1-6). Dies kommt ebenfalls
von der oben erwähnten lateralen Inhibition. Es gibt an der Kontur „Überschwinger“
und „Unterschwinger“ in der Wahrnehmung (Abbildung 3.1-7).
A
BC
D
Abbildung 3.1-6: Machsche Bänder: An den Übergängen zwischen den Grautönen
erscheint im Hellen ein schmaler hellerer Streifen und im Dunklen ein schmaler dunklerer Streifen.
SEMESTERARBEIT JUREK BREUNINGER
40
GRUNDLAGEN
Abbildung 3.1-7: Die Machschen Bänder lassen sich als „Überschwinger“ der Wahrnehmung darstellen.
3.1.3.3 Hermann-Gitter
Bei dieser sehr bekannten Grafik tauchen in den Zwischenräumen zwischen den
Quadraten dunkle Punkte auf, die beim Fokussieren an diese Stelle wieder verschwinden (Abbildung 3.1-8). Auch hier ist der Grund die laterale Inhibition. An den
Kreuzungen werden die Rezeptoren von vier Seiten gehemmt, was zu dunkleren Bereichen führt.
Abbildung 3.1-8: Herrmann-Gitter: An den Kreuzungspunkten erscheinen dunkle Flecken, die bei Fokussierung verschwinden.
Dahm 2006, S. 47-49
Goldstein 2002, S. 69-76
SEMESTERARBEIT JUREK BREUNINGER
41
GRUNDLAGEN
3.1.4 Farben
Normalsichtige Menschen können etwa sieben Millionen Farbtöne im direkten Vergleich unterscheiden. Ein absolutes Farbempfinden – vergleichbar mit dem absoluten
Gehör – ist ähnlich selten.
3.1.4.1 Dreifarbentheorie
Die Dreifarbentheorie (von Helmholtz, ca. 1870) beschreibt die bereits angesprochene Eigenschaft des Auges aus den Farben Rot, Gelb und Grün jede monochromatische Farbe zusammenzusetzen. Im folgenden Diagramm sind die Empfindlichkeiten
der drei Typen von Rezeptoren im menschlichen Auge dargestellt (Abbildung 3.1-9).
Abbildung 3.1-9: Die Lichtempfindlichkeit der verschiedenen Rezeptortypen im
menschlichen Auge.
Man erkennt, dass es keinen Rezeptortyp nur für rotes, gelbes oder grünes Licht
gibt. Die Typen haben nur jeweils eine maximale Empfindlichkeit für eine Farbe, aber
erfassen auch noch etwas kürzer- und längerwelliges Licht.
3.1.4.2 Gegenfarbentheorie
Die Dreifarbentheorie gilt aufgrund zahlreicher experimenteller Bestätigungen als
relativ gesichert. Aber es gibt einige Phänomene der Wahrnehmung, die sich nicht
klar mit dieser Theorie erklären lassen, z. B. Nachbilder oder Farbsimultankontrast.
Ewald Hering stellte nach Versuchen zu Nachbildern und Simultankontrast die Gegenfarbentheorie auf (1878). Sie besagt, dass es in unserer Wahrnehmung die Farben Rot und Grün sowie Blau und Gelb zu einem antagonistischen (gegensätzlichen)
SEMESTERARBEIT JUREK BREUNINGER
42
GRUNDLAGEN
Paar verbunden sind. Nach dieser Theorie gibt es in der Netzhaut folgende Sensortypen für die Farbwahrnehmung:
•
Weiß+ Schwarz-, positiv auf Helligkeit, negativ auf Dunkelheit reagierend
•
Rot+ Grün-, positiv auf Rot, negativ auf Grün reagierend
•
Blau+ Gelb-, positiv auf Blau, negativ auf Gelb reagierend
Zwar sind die chemischen Reaktionen anders, als Hering glaubte, aber spätere Forschungsarbeiten ergaben, dass die Farben in der Tat neurophysiologisch entgegengesetzte Reaktionen bewirken.
3.1.4.3 Kombination
Obwohl die beiden Theorien widersprüchlich wirken, werden sie heute beide als anwendbar anerkannt. Sie beschreiben reproduzierbar jeweils einen Bereich der Wahrnehmung. Ein Erklärungsversuch, der beide Theorien kombiniert, lautet: Die Farbe
wird zunächst durch die drei Farbrezeptortypen aufgenommen und eine „Mischung“
findet statt. Hinter die Rezeptoren sind so genannte Gegenfarbenzellen „geschaltet“
(neuronale Netze ähneln im Aufbau elektrischen Schaltplänen), die die Farbinformation weiter verarbeiten bevor sie ins Gehirn gelangt (Abbildung 3.1-10). So lassen
sich auch Effekte wie Nachbilder oder Simultankontrast erklären.
Abbildung 3.1-10: Die „Verschaltung“ von Gegenfarbenzellen nach den Rezeptoren.
3.1.4.4 Subjektives Farbempfinden
Nach der Aufnahme von Farbinformationen ins Gehirn findet dort auch eine subjektive Einordnung eines Farbtons statt. Er wird mit anderen Eindrücken assoziiert. Diese
Assoziationen sind individuell stark unterschiedlich, vor allem kulturelle Einflüsse führen zu fast gegensätzlichen Assoziationen. Deshalb sollte beim Schnittstellenentwurf
SEMESTERARBEIT JUREK BREUNINGER
43
GRUNDLAGEN
auch immer der Kulturkreis aller angestrebten Zielgruppen in Betracht gezogen werden, um ungewollte Interpretationen zu vermeiden.
3.1.4.5 Farbfehlsichtigkeit
Etwa 8% aller Männer und 0,5% aller Frauen leiden an Farbfehlsichtigkeit, das heißt,
sie können Farben nicht so gut oder so genau unterscheiden wie der Rest der Bevölkerung. Die genauen Gründe dafür sind unbekannt, es wird vermutet, dass einer oder mehrere Rezeptortypen ausfallen oder nicht ausreichend vernetzt sind.
Es gibt folgende Typen:
•
Monochromasie (nur ein oder gar kein Zapfentyp vorhanden): vollkommene
Farbenblindheit, der Mensch besitzt praktisch keine Zapfen, sondern unterscheidet nur Graustufen, sehr selten (0,001% der Bevölkerung)
•
Dichromasie (ein Sehpigment fehlt):
o Protanopie (Rotgrünblindheit 1. Form): 1% der Männer, 0,02% der
Frauen
o Deuteranopie (Rotgrünblindheit 2. Form): 1% der Männer, 0,01% der
Frauen
o Tritanopie (Blaugelbblindheit): 0,002% der Männer, 0,001% der Frauen
•
anomale Trichromasie (alle Zapfentypen vorhanden, aber falsche „Mischung“)
•
cortikale Farbenblindheit: keine Defizite in den Rezeptoren, sondern Ausfälle
von Gehirnbereichen (z. B. in Folge von Infarkten oder Unfällen)
Die sichtbare Geschlechtsgebundenheit von Farbfehlsichtigkeit (v. a. Rotgrünblindheit) liegt daran, dass sie von Genen auf dem X-Chromosom bestimmt wird. Männer
sind mit einem X-Chromosom eher gefährdet, während Frauen funktionierende Gene
auf einem ihrer beiden X-Chromosomen ausreichen.
Da Farbfehlsichtigkeit einen nennenswerten Teil der Bevölkerung betrifft, sollte beim
Schnittstellenentwurf darauf geachtet werden, dass die Farbe nie das einzige Unterscheidungsmerkmal ist. Zum Beispiel ist bei einer Verkehrsampel die Information
sowohl durch die Farbe, als auch durch die Position der aufleuchtenden Lampe kodiert; bei einer Fußgängerampel zusätzlich auch noch durch das Symbol.
SEMESTERARBEIT JUREK BREUNINGER
44
GRUNDLAGEN
Dahm 2006, S. 49-53
Goldstein 2002, S. 145-168
3.1.5 Tiefensehen
Eine der beeindruckendsten Eigenschaften des Gehirns ist die Fähigkeit, aus den
zweidimensionalen Bildern auf der Netzhaut einen dreidimensionalen Raumeindruck
zu erzeugen. Dies gibt uns die Fähigkeit Entfernungen abzuschätzen und uns frei zu
bewegen. Die sehr aufwändigen Informationsverarbeitungsprozesse, die dazu notwendig sind, laufen komplett unterbewusst und lenken so nicht von anderen Tätigkeiten ab. Neben der reinen Bildinformation wertet das Gehirn eine Reihe Kriterien aus,
um auf die Dreidimensionalität zu schließen:
3.1.5.1 Okulomotorische Kriterien
Sie ergeben sich aus der Fähigkeit, die Akkomodation und die Konvergenzstellung
der beiden Augen auszuwerten. Die Konvergenzstellung bezeichnet den Winkel zwischen den optischen Achsen. Das sind sehr einfache Mittel die Entfernung zum fokussierten Objekt abzuschätzen. Sie sind allerdings nur in einer Entfernung von ein
bis drei Metern wirksam nutzbar.
3.1.5.2 Monokulare Kriterien
Dies sind die Informationen, die sich auf einem unbewegten Bild aus der Struktur und
Anordnung der Objekte schließen lassen. Sie sind auch mit einem Auge zu erfassen.
•
Verdecken von Objekten (Abbildung 3.1-11): Verdeckte Objekte stehen hinter
den verdeckenden.
•
Relative Höhe im Gesichtsfeld: Objekte, die höher im Gesichtsfeld stehen
(näher am Horizont), werden als weiter entfernt empfunden.
•
Relative Größe im Gesichtsfeld (Abbildung 3.1-12): Gleiche Objekte, die unterschiedlich groß sind, werden in unterschiedlichen Entfernungen vermutet.
•
Atmosphärische oder Luft-Perspektive: Entfernte Objekte sind unschärfer wegen dem Staub und der Feuchtigkeit, die in der Luft liegen („Diesigkeit“).
•
Gewohnte Größe von Gegenständen: Aus der Erfahrung wird aus der Größe
auf die Entfernung geschlossen.
SEMESTERARBEIT JUREK BREUNINGER
45
GRUNDLAGEN
•
Lineare Perspektive: Die aus der Malerei bekannten Regeln der konvergierenden Linien (Fluchtpunkt, Abbildung 3.1-13) lassen eine Interpretation der
Tiefe zu.
o Texturgradient (Abbildung 3.1-13): Spezialfall der linearen Perspektive;
die Textur (Musterung) von Elementen erscheint in der Ferne immer
dichter.
o Perspektivische Verzerrung: Spezialfall der linearen Perspektive; Ein
Objekt, das ausreichend groß ist, wird mit zunehmender Entfernung
verzerrt.
•
Tiefenschärfe: Das menschliche Auge besitzt nur eine begrenzte Tiefenschärfe; Objekte in etwa gleicher Entfernung wie das fokussierte Objekt sind scharf,
nähere und entferntere sind unscharf.
•
Beleuchtung und Schattenwurf: Verschiedene Helligkeit sowie Richtung und
Länge von Schatten erzeugt Tiefeninformation.
Abbildung 3.1-11: Bei (a) steht die Vase hinter dem vorderen Glas, da sie verdeckt
wird. (b) scheint unmöglich, da das Verdecken der relativen Höhe widerspricht.
Durch den Schatten in (c) wird der Widerspruch aufgelöst.
SEMESTERARBEIT JUREK BREUNINGER
46
GRUNDLAGEN
Abbildung 3.1-12: Relative Größe: Die drei Tennisbälle werden in unterschiedlicher
Entfernung vermutet.
Abbildung 3.1-13: Ein schönes Beispiel für den Fluchtpunkt in der Malerei: Auf diesem Renaissance-Bild entsteht unter anderem durch den Texturgradient des Bodenbelags räumliche Tiefe.
3.1.5.3 Bewegungsindizierte Tiefenkriterien
•
Bewegungsparalaxe: Wenn der Betrachter in Bewegung ist, ziehen nahe Objekte in seinem Gesichtsfeld schneller vorbei als weit entfernte.
•
Fortschreitendes Zu- oder Aufdecken von Flächen: Wenn überschneidende
Flächen sich relativ zueinander bewegen (durch Bewegungsparalaxe), wird
die hintere je nach Bewegungsrichtung weiter auf- oder zugedeckt.
SEMESTERARBEIT JUREK BREUNINGER
47
GRUNDLAGEN
3.1.5.4 Querdisparation und stereoskopisches Sehen
Alle bisher genannten Kriterien (mit Ausnahme der Konvergenz) sind monokular, das
heißt mit einem Auge auswertbar. Die Querdisparation, auch binokulare Disparation,
entsteht dadurch, dass die zwei Augen leicht unterschiedliche Bildausschnitte sehen.
Wenn wir ein Objekt fokussieren, wird es in jedem Auge an einem etwas anderen Ort
der Netzhaut abgebildet. Aus dieser Abweichung kann das Gehirn dreidimensionale
Informationen über das Objekt errechnen. Bilder, die keine monokularen Kriterien
enthalten, zum Beispiel die künstlichen Stereogramme (Abbildung 3.1-14), haben
starke Tiefenwirkung. Gemalte Bilder, die die monokularen Kriterien demonstrieren,
haben zwar eine logische Tiefe, erscheinen aber trotzdem flach. Daraus folgt, dass
Querdisparation die wichtigste Informationsquelle für das Tiefensehen ist; die weiteren Kriterien haben unterstützende Wirkung.
Abbildung 3.1-14: Wenn man beim Betrachten dieses Stereogramms den Blick hinter
der Ebene des Papiers fokussiert, so kann man ein hervortretendes Herz sehen. Der
starke dreidimensionale Effekt entsteht durch die Querdisparation.
Dahm 2006, S. 54-59
Goldstein 2002, S. 225-249
SEMESTERARBEIT JUREK BREUNINGER
48
GRUNDLAGEN
3.1.6 Gestaltgesetze
Die Hauptlast der Verarbeitung von visueller Information geschieht im Gehirn. Wie
bereits erwähnt findet aber bereits vorher eine Vorverarbeitung statt, um die wesentlichen Elemente einer Szene schneller zu erfassen und das Gehirn zu entlasten.
Diese Mustererkennung bestimmt für eine Gruppe ähnlicher oder verschiedener Objekte eine Zusammengehörigkeit. Diese Zusammenfassung nennt man in der kognitiven Psychologie Gestalt. Die Art und Weise, mit der die Gruppierung erfolgt, sind
die Gestaltgesetze (Wobei es sich nicht um naturwissenschaftliche Gesetze handelt,
eher um qualitative Faustregeln der Auswertung). Sie wurden erstmals von Max
Wertheimer 1923 in „Untersuchungen zur Lehre von der Gestalt“ aufgestellt (Wertheimer 1923, S. 305ff.).
Die Gestaltgesetze sind für die Software-Ergonomie von zentraler Bedeutung. Um
eine gute Informationsstrukturierung und daraus folgend eine gezielte Informationsaufnahme zu ermöglichen, sollten sie jedem Benutzerschnittstellenentwickler bekannt sein.
3.1.6.1 Prägnanz/gute Gestalt/Einfachheit
„Jedes Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie
möglich ist.“
In komplizierten Figuren werden instinktiv einfache Formen wie Drei-, Vierecke oder
Kreise erkannt (Abbildung 3.1-15).
Abbildung 3.1-15: Die vorliegende Figur wird automatisch als eine Kombination aus
Dreieck und Rechteck interpretiert.
SEMESTERARBEIT JUREK BREUNINGER
49
GRUNDLAGEN
3.1.6.2 Ähnlichkeit
„Ähnliche
Dinge
erscheinen
zu
zusammengehörenden
Gruppen
geordnet.“
(Abbildung 3.1-16, Abbildung 3.1-17)
Abbildung 3.1-16: Die linke Figur besteht aus senkrechten Spalten oder waagrechten
Zeilen. Die rechte Figur besteht wegen der Ähnlichkeit aus senkrechten Spalten.
Abbildung 3.1-17: Gruppierung nach Ähnlichkeit der Helligkeit.
3.1.6.3 Fortsetzung und Ergänzung
„Punkte, die als gerade oder sanft geschwungene Linien gesehen werden, wenn
man sie verbindet, werden als zusammengehörig wahrgenommen. Linien werden
tendenziell so gesehen, als folgten sie dem einfachsten Weg.“ (Abbildung 3.1-18)
Abbildung 3.1-18: Objekte, die sich auf einer Linie befinden, werden gruppiert.
SEMESTERARBEIT JUREK BREUNINGER
50
GRUNDLAGEN
3.1.6.4 Nähe
„Dinge, die sich nahe beieinander befinden, erscheinen als zusammengehörig.“
(Abbildung 3.1-19)
Abbildung 3.1-19: Nähe: Beide Figuren werden als Zeilen wahrgenommen, obwohl in
der zweiten unterschiedliche Elemente vorkommen.
3.1.6.5 Gemeinsames Schicksal
„Dinge, die sich in die gleiche Richtung bewegen, erscheinen als zusammengehörig.“
3.1.6.6 Vertrautheit
„Dinge bilden mit größerer Wahrscheinlichkeit Gruppen, wenn die Gruppen vertraut
erscheinen oder etwas bedeuten.“ (Helson 1933, S. 15f.)
Bekannte Sinneseindrücke sind eine große Hilfe beim Gruppieren von neuen Mustern (Abbildung 3.1-20).
SEMESTERARBEIT JUREK BREUNINGER
51
GRUNDLAGEN
Abbildung 3.1-20: Eigentlich sind hier nur eine Menge schwarzer Flecken zu sehen.
Aber die meisten Menschen erkennen in diesem Bild einen Dalmatiner und den
Schatten eines Baumes.
Dahm 2006, S. 59-64
Goldstein 2002, S. 183-198
3.1.7 Leserichtung
Es gibt keine gesicherten wissenschaftlichen Erkenntnisse, ob der Mensch ab Geburt
bestimmte bevorzugte Richtungen in der optischen Wahrnehmung hat. Das heißt, ob
er in seinem Gesichtsfeld Dinge immer eher von links nach rechts oder von nah nach
fern untersucht. Es scheinen dort andere Effekte wie Bewegung und Mustererkennung größere Bedeutung zu haben. Aber es gibt trotzdem eine vor allem für die
Software-Ergonomie bestimmende Richtungsbevorzugung. Da der Mensch bei der
Interaktion mit Maschinen neben der bildlichen und akustischen vor allem die textliche Darstellung zur Informationsübertragung benutzt, haben sich bei Menschen, die
lesen können, gewisse Verarbeitungsprozesse, die durch die Art ihrer Schrift bestimmt werden, etabliert.
SEMESTERARBEIT JUREK BREUNINGER
52
GRUNDLAGEN
Es gibt viele unterschiedliche Arten von Schriften, aber fast alle haben gemein, dass
sie die Sprache durch eine lineare Aneinanderreihung von Glyphen (z. B. Buchstaben, Silbenzeichen, Hieroglyphen) kodieren. Dies ist die primäre Schreibrichtung.
Wenn der Platz in primärer Richtung knapp wird, behilft man sich mit einem Zeilenbeziehungsweise Spaltensprung in sekundärer Schreibrichtung.
Es gibt Schriften mit
•
primärer Schreibrichtung von links nach rechts: z. B. griechisch, lateinisch
•
primärer Schreibrichtung von rechts nach links: z. B. arabisch (Abbildung
3.1-24)
•
primärer Schreibrichtung von oben nach unten: z. B. klassisches chinesisch
(Abbildung 3.1-21), mongolisch (Abbildung 3.1-22)
•
sekundärer Schreibrichtung von oben nach unten: lateinisch, arabisch
•
sekundärer Schreibrichtung von links nach rechts: mongolisch
•
sekundärer Schreibrichtung von rechts nach links: klassisches chinesisch
•
sekundärer Schreibrichtung von unten nach oben: Hanunó’o (philippinisch)
Abbildung 3.1-21: Traditionelle chinesische Kaligraphie. Die Spalten werden zuerst
von oben nach unten und dann von rechts nach links gefüllt.
SEMESTERARBEIT JUREK BREUNINGER
53
GRUNDLAGEN
Abbildung 3.1-22: Der Stempel eines mongolischen Khans. Mongolisch hat sich aus
einer um 90° gedrehten arabischen Schrift entwickel t, wird also von oben nach unten
und links nach rechts gelesen.
Es gibt einfache Argumente, die für eine primäre Schreibrichtung von links nach
rechts und sekundäre für oben nach unten sprechen: Wenn die Schrift mit einem
Stift, Feder und Tinte oder einem Griffel in Ton geschrieben wird, ist es für die Mehrheit der Bevölkerung als Rechtshänder von Vorteil, wenn man sich mit Hand und
Arm vom Geschriebenen wegbewegt, um ein Verwischen zu vermeiden. Allerdings
muss das Auge beim Lesen daran gewöhnt sein, immer den richtigen Zeilenanfang
wieder zu finden. Deshalb war in der Antike kurzzeitig auch eine wechselseitige primäre Schreibrichtung möglich, der Bustrophedon (Abbildung 3.1-23).
Abbildung 3.1-23: In der Antike war z. B. im Griechischen kurzzeitig sogar eine
wechselseitige primäre Schreibrichtung möglich, der so genannte Bustrophedon.
Dabei springt der Leseblick am Ende jeder Zeile nicht zurück an den Anfang, sondern liest direkt darunter die nächste Zeile (in Spiegelschrift) in entgegengesetzter
Primärrichtung. Dies erspart das Wiederfinden des richtigen Zeilenanfangs.
SEMESTERARBEIT JUREK BREUNINGER
54
GRUNDLAGEN
Heute wird im Großteil der Welt von links nach rechts und von oben nach unten geschrieben. Auch in Japan, China und Korea, deren Schriften früher von oben nach
unten und rechts nach links gerichtet waren, wird heute durch die kulturellen Einflüsse von außen vorwiegend so geschrieben. Ein wichtiger Einfluss ist, dass die Computertechnologie in ihrer Anfangszeit nur auf diese Lese-/Schreibrichtungen ausgerichtet war und bis heute nur wenig Anpassung stattgefunden hat (Primärrichtung
von rechts nach links für arabische Texte ist inzwischen mit neuen Browsern und
Textverarbeitungen möglich (Abbildung 3.1-24); Programme, die senkrechtes Textlayout beherrschen, gibt es vor allem für den japanischen Markt).
Abbildung 3.1-24: Microsoft Word beherrscht die arabische Schreibrichtung von
rechts nach links.
Aus der vorherrschenden primären Leserichtung von links nach rechts und von oben
nach unten ergeben sich entsprechende Vorgaben für Software-Oberflächen. Auch
hier sollte die Struktur diese Richtungen bevorzugen. Oft wird als Faustregel eine
„Von-links-oben-nach-rechts-unten“-Struktur empfohlen.
Eine Anzahl von Icons würde man natürlich von links nach rechts anordnen und nicht
diagonal; eine eventuell sortierbare Auflistung von Wörtern von oben nach unten
SEMESTERARBEIT JUREK BREUNINGER
55
GRUNDLAGEN
(primäre Richtung für das Lesen der einzelnen Wörter, sekundäre für die Anordnung).
Wenn eine Software für einen begrenzten Markt entwickelt wird, sollten die dort gebräuchlichen Leserichtungen beim Entwurf in die Überlegungen mit einbezogen werden. Wenn eine Software für den internationalen Markt entworfen wird, sollten mögliche Einschränkungen, die durch die Leserichtungen in bestimmten Ländern entstehen, bedacht werden.
Shneiderman 2002, S. 38
Goldstein 2002, S. 346-354
Daniels 1996, S. 3-9, S. 191, S. 200-201, S. 271-272, S. 312, S. 481, S. 545-547, S. 559-560
3.1.8 Hören
Neben dem optischen Kanal ist der akustische Kanal bei der Mensch-ComputerInteraktion zur Informationsübertragung gebräuchlich, wenn auch von deutlich weniger Bedeutung. Vor allem in der PC- und Unterhaltungselektronik ist die Tonwiedergabe wichtig und gewinnt durch die fortschreitende Entwicklung multimedialer Anwendungen an Bedeutung. Deshalb beschäftigen wir uns kurz mit den Grundlagen
des Hörens.
3.1.8.1 Frequenzbereich und Lautstärke
Der Bereich der menschlichen Wahrnehmung reicht etwa von 20 Hz bis 20 kHz.
Menschliche Sprache liegt zwischen 150 Hz und 6 kHz. Bei technischen Anwendungen (z. B. Telefon) wird oft nur der Bereich zwischen 300 Hz und 3 kHz übertragen,
da er als ausreichend für gutes Verständnis gilt. Auch moderne Algorithmen zur Audiokompression (z. B. MP3) basieren auf dem eingeschränkten Frequenzbereich der
menschlichen Wahrnehmung.
Die Einheit des Schalldruckpegels ist dB (Dezibel) oder dB(A), eine logarithmische
Einheit. Der Zusatz (A) ist ein Bewertungsfilter. Das Lautstärkeempfinden des Menschen ist frequenzabhängig. Tiefe Frequenzen benötigen deutlich höhere Schallintensität, um genauso laut empfunden zu werden wie mittlere und hohe Frequenzen.
Wenn Schall in dB(A) gemessen wird, ergeben tiefe Frequenzen geringere Messwerte als gleich intensive mittlere Frequenzen. Im Bereich zwischen 1 kHz und 10 kHz
werden höhere Frequenzen durch den Bewertungsfilter stärker gewichtet (Abbildung
3.1-25). Das heißt, es werden höhere Messwerte angezeigt als bei einer unbewerteSEMESTERARBEIT JUREK BREUNINGER
56
GRUNDLAGEN
ten Messung, da das menschliche Ohr in diesem Bereich empfindlicher ist und dementsprechend eine Schädigung früher auftreten kann. Es gibt auch Bewertungsfilter
(B), (C) und (D), diese spielen aber nur in Spezialfällen eine Rolle.
Abbildung 3.1-25: Der Bewertungsfilter A: Frequenzen zwischen 1kHz und 10kHz
werden stärker gewichtet, da sie dem menschlichen Ohr früher schaden können.
Da eine logarithmische Einheit wenig intuitiv ist, wird statt des bewerteten Schalldruckpegels oft auch der Lautstärkepegel in phon oder die Lautheit in der linearen
Einheit sone gemessen. Ein Geräusch von 2 sone ist doppelt so laut wie 1 sone. Im
Gegensatz zum unbewerteten Schalldruckpegel sind dies keine physikalischen, sondern psychoakustische Größen, beschreiben also die wahrgenommene Lautstärke.
Für weitere Informationen sei auf Goldstein 2002, S. 317ff. oder die Vorlesung Produktionsergonomie und das ergonomische Praktikum verwiesen.
Die Intensität, ab der eine bestimmte Frequenz gehört werden kann, bezeichnet man
als Hörschwelle. Die Schmerzgrenze ist die Lautstärke, die als nicht mehr erträglich
empfunden wird.
Diese Schwellen ändern sich mit dem Alter und variieren auch zwischen den Menschen. Frauen hören leicht besser und verlieren im Alter das Hörvermögen weniger
stark.
3.1.8.2 Richtungshören
Dadurch, dass wir zwei Ohren haben, können wir ähnlich wie mit den Augen aus den
getrennten Schallinformationen die Richtung der Schallquelle bestimmen (binaurales
Hören). Es entsteht eine Phasenverschiebung: Wenn die Schallquelle nicht genau
SEMESTERARBEIT JUREK BREUNINGER
57
GRUNDLAGEN
zentral vor oder hinter den Ohren liegt, kommt der Schall leicht zeitlich versetzt bei
den Ohren an. Auch die unterschiedliche Lautstärke spielt eine Rolle. Da die Ohren
in einer Ebene liegen, funktioniert diese Ortung sehr gut in horizontaler Richtung. In
vertikaler Richtung ist sie sehr ungenau. Dass auch hier eine Ortung möglich ist, liegt
daran, dass die Ohrmuschel asymetrisch ist. Schall von unten wird anders gedämpft
als Schall von oben.
Um einen räumlichen Eindruck durch Klang zu erzeugen, bedarf es entweder vieler
Quellen (z. B. 5.1- oder 7.1-Lautsprechersystemen) oder ausgefeilter Algorithmen,
die aus einem psychoakustischen Modell passende Phasenverschiebungen und
Dämpfungen für zwei Quellen errechnen können (z. B. Raumsimulation bei Kopfhörern). Sehr tiefe und sehr hohe Frequenzen lassen sich allgemein schlecht orten: Bei
langen Wellenlängen (30 Hz entspricht 10m) kann das Gehirn keinen Unterschied
zwischen den etwa 20cm entfernten Ohren ausmachen. Bei sehr kurzen Wellenlängen (10kHz entspricht 3cm) wiederholt sich die Phase in den 20cm mehrfach. Umso
gleich bleibender der Ton ist, desto schwieriger ist es, die Phasenverschiebung zu
bestimmen.
Ein Extremfall sind Sinustöne: Die Phasenverschiebungen 0°, 180° und 360° sind
hier nicht zu unterscheiden. Dadurch wird die Ortung mehrdeutig.
3.1.8.3 Akustische Orientierung
Einzelne Schallquellen sind unter normalen Umständen einfach zu ordnen. Bei mehreren Schallquellen wird es allerdings immer schwieriger. Es macht außerdem einen
Unterschied, wo im Raum die Schallquellen verteilt sind.
Es erleichtert das Unterscheiden und Orten von Schallquellen, wenn sie sich in
•
Tonhöhe (3 bis 5 verschiedene können unterschieden werden)
•
Melodie (3 bis 5 verschiedene können unterschieden werden)
•
Klangfarbe (3 bis 5 verschiedene, z. B. Instrumente, können unterschieden
werden)
unterscheiden. Diese Kriterien lassen sich allerdings nicht beliebig miteinander kombinieren. Ein durchschnittlicher Mensch ohne musische Ausbildung kann insgesamt
SEMESTERARBEIT JUREK BREUNINGER
58
GRUNDLAGEN
nicht mehr als 3 bis 5 verschiedene ruhende Schallquellen unterscheiden (Abbildung
3.1-26). Bei beweglichen wird die Unterscheidung noch schwieriger.
Abbildung 3.1-26: Das Ortungsvermögen des Ohres in den drei Raumrichtungen
3.1.8.4 Störung und Lärm
Im Gegensatz zu optischen Störungen werden akustische Störungen als deutlich
schwerwiegender empfunden. Dies liegt daran, dass man die Ohren weder woanders
hin richten kann noch schließen kann. Ein Weghören ist kaum möglich. Auch haben
akustische Reize eine ähnliche Wirkung die Aufmerksamkeit auf sich zu ziehen wie
sich schnell bewegende optische Reize.
Durch Lärm kann es zu bleibenden körperlichen Schäden kommen. Dabei ist nicht
nur eine kurzzeitige Überschreitung der Schmerzgrenze gefährlich, sondern auch
eine ständige Belastung. Diese Gefahr wird vom Menschen schlecht wahrgenommen, da sich das Ohr an den Schallpegel anpasst, also an die Lautstärke gewöhnt.
Akustische Störungen beeinträchtigen massiv die Konzentration. Sie sollten deshalb
in jedem Fall vermieden werden.
Dahm 2006, S. 65-69
Goldstein 2002, S. 371-385, S. 417-427
Bubb 2006, Kap. 6
Strasser 2008, S. 2-20
3.2 Gedächtnis und Erfahrung
Nachdem wir uns mit der menschlichen Sensorik und den ersten Vorverarbeitungsprozessen beschäftigt haben, die für die Informationsaufnahme bei der Verwendung
von Computersystemen relevant sind, folgt nun, wie diese Informationen im Gehirn
weiterverarbeitet und gespeichert werden. Damit beschäftigt sich die kognitive Psychologie.
SEMESTERARBEIT JUREK BREUNINGER
59
GRUNDLAGEN
3.2.1 Sensorisches Kurzzeitgedächtnis
Alle Signale, die wir wahrnehmen, liegen eine kurze Zeit im sensorischen Kurzzeitgedächtnis. Je nach Signaltyp spricht man vom ikonischen oder echoischen Speicher
(visuell bzw. akustisch). Die Kodierung ist weitgehend ungeklärt. Der Speicher funktioniert wie ein FIFO-Speicher (first in, first out). Das heißt, die ältesten Informationen
werden kontinuierlich durch die neuesten verdrängt.
Der ikonische Speicher hat sehr schnelle Zugriffszeiten, behält Information aber nur
für eine sehr kurze Zeit (0,2-0,5 Sekunden), der echoische Speicher ist ähnlich
schnell, behält Informationen aber etwas länger (1-5 Sekunden). Dies erklärt, warum
man einen ganzen Satz, dem man nicht bewusst zugehört hat, noch versteht, wenn
die Aufmerksamkeit plötzlich geweckt wird (zum Beispiel hört man auf einer Party im
Gesprächsrauschen seinen Namen; man spricht auch vom Partyeffekt). Auch das
Wegfallen eines nicht beachteten Hintergrundgeräusches (zum Beispiel das plötzliche Ende des Kühlschrankbrummens) wird erst wahrgenommen, wenn kein Reiz
mehr vorhanden ist. Er wird also aus dem sensorischen Kurzzeitgedächtnis geholt.
Bei schnell wechselnden Reizen (z.B. Bildern) können durch Abgleichen des aktuellen Reizes mit einem gerade vergangenen Reiz aus dem sensorischen Kurzzeitgedächtnis sehr schnell und effektiv Änderungen erkannt werden. Allerdings darf zwischen den Reizen keine Störung (z. B. kurz stark andersartiges Bild) auftreten, sonst
kommt es zur so genannten Veränderungsblindheit. Man nutzt den Effekt des Abgleichens zum Beispiel beim „Blinker“ in der Astronomie zur Unterscheidung von
Kometen von Fixsternen: Bilder des Nachthimmels zu verschiedenen Zeiten werden
direkt hintereinander im Wechsel gezeigt, wodurch die ihre Position ändernden Kometen leicht erkennbar werden.
Das Fassungsvermögen des sensorischen Kurzzeitgedächtnisses ist schwer zu
bestimmen, da die Kodierung nicht klar ist und erst wenig Zusammenfassen zu logischen Blöcken (engl. chunking) stattgefunden hat. Es ist, wie Versuche zeigen, größer als das des Kurzzeitgedächtnisses, aber nur ein kleiner Teil der Informationen
wird in das Kurzzeitgedächtnis übertragen. Je nach Aufmerksamkeit werden etwa
90% verworfen (bzw. ungenutzt überschrieben).
Dahm 2006, S. 73-74
Herczeg 2005, S. 52
Anderson 2001, S. 85-89
SEMESTERARBEIT JUREK BREUNINGER
60
GRUNDLAGEN
3.2.2 Kurzzeitgedächtnis (Arbeitsgedächtnis, primäres Gedächtnis)
Das Kurzzeitgedächtnis des Menschen entspricht in etwa dem Arbeitsspeicher eines
Computers. Diese Analogie hat die kognitive Psychologie aus der Informationstechnologie übernommen. Mit der Entwicklung der ersten Computer hatte man sich bereits mit der möglichen Realisierung einer künstlichen Intelligenz beschäftigt. Da man
etwa zur selben Zeit Modelle für die Funktionsweise des menschlichen Gehirns suchte, wurden einige Modelle und Begriffe übernommen.
Auch das menschliche Kurzzeitgedächtnis hat ein begrenztes Fassungsvermögen,
aber dafür eine sehr schnelle Zugriffszeit. Miller stellte 1956 eine Kapazität des Kurzzeitgedächtnisses von 7 ± 2 psychologischen Einheiten fest (Miller 1956, S. 12-13).
Dies bedeutet, dass sich die meisten Menschen zwischen fünf und neun Bilder, Wörter, Zahlen oder ähnliches kurzfristig merken können. Es ist schwierig eine
psychologische
Einheit
allgemein
zu
definieren,
da
Menschen
Dinge
auf
unterschiedliche Weise logisch strukturieren. Man kann sich mehr Ziffern merken,
wenn man sie zu Zahlen zusammensetzt. Auch ist es möglich sich fünf kurze Sätze
zu merken, aber nie alle darin enthaltenen Buchstaben einzeln. Ähnliche
Vorgehensweisen gibt es auch für Bilder oder andere Sinneseindrücke. Je
unterschiedlicher
diese
chunks
sind,
desto
besser
funktioniert
das
Kurzzeitgedächtnis. Eine bestimmte Zahl unterschiedlicher chunks ist einfacher zu
merken als die gleiche Anzahl ähnlicher chunks. Man kann zur besseren Ausnutzung
des
Kurzzeitgedächtnisses
auch
bewusst
Information
gruppieren.
Bereits
vorhandene und gut eingeführte chunks aus der Umgangs- oder Fachsprache oder
bekannte
graphische
Darstellungen
sind
dafür
vorzuziehen.
Besonders
Gedächtniskünstler nutzen diese mnemonische Blockbildung, um trotz der
Beschränkung auf 7 ± 2 chunks große Informationsmengen im Kurzzeitgedächtnis zu
speichern.
Die Informationen im Kurzzeitgedächtnis werden meist unbewusst – mit oder ohne
Sprechmuskelbewegung – verbalisiert und als Klangbilder abgelegt. Aber auch visuelle Muster werden gespeichert. Die Lesegeschwindigkeit des Kurzzeitgedächtnisses
beträgt etwa 0,1-0,2 Sekunden/chunk, die Schreibgeschwindigkeit etwa 0,3 Sekunden/chunk.
Die Information im Kurzzeitgedächtnis bleibt etwa 5-30 Sekunden erhalten, kann aber durch erneutes Abrufen (meist Verbalisieren) theoretisch unbegrenzt aufgefrischt
SEMESTERARBEIT JUREK BREUNINGER
61
GRUNDLAGEN
werden. Allerdings ist das Kurzzeitgedächtnis ähnlich anfällig gegen Störungen wie
das sensorische Kurzzeitgedächtnis. Eine Unterbrechung der Konzentration kann es
bereits nach 0,1-0,5 Sekunden wieder löschen. Die Störungen können sowohl extern
(neue Reize) als auch intern (Konzentrationsschwäche, Abschweifen) sein.
Der Zugriff auf das Kurzzeitgedächtnis erfolgt sequentiell. So können gemerkte Inhalte am besten in der gleichen Reihenfolge wiedergegeben werden, in der sie gespeichert wurden. Bei stetigem Informationsfluss werden die ältesten Informationen überschrieben, ähnlich wie beim sensorischen Gedächtnis. Oft kommt es auch zu einer Interferenz mit neuerer ähnlicher Information: Wenn man versucht sich eine Telefonnummer zu merken und laut vor sich her spricht, dann aber durch den Zuruf einer
anderen Nummer abgelenkt wird, so wird man die Reihenfolge der Ziffern wahrscheinlich durcheinander bringen oder eine „Mischzahl“ kreieren. Ohne neue eingehende Reize und Konzentration verblassen die Informationen im Kurzzeitgedächtnis.
Das heißt, sie werden nicht überschrieben oder gelöscht, sondern der Zugriff auf sie
wird unmöglich.
Alle Elemente unserer aktuellen Wahrnehmung, also die Dinge, auf die wir uns konzentrieren, sind im Kurzzeitgedächtnis gespeichert. Der Inhalt des Kurzzeitgedächtnisses bestimmt also den Kontext, in dem sich unser Bewusstsein in jedem Augenblick befindet. Unsere Wahrnehmung wird stark von diesem Kontext beeinflusst. Alle
Reize, die wir aufnehmen werden, im gerade aktiven Kontext eingeordnet und bewertet. Eine plötzliche starke Veränderung des Kontextes wird nicht erwartet. Zum
Beispiel haben viele Wörter mehrere Bedeutungen („Teekesselchen“: z. B. Läufer,
Wurzel, Brücke), doch kann meist die richtige Bedeutung aus dem Kontext, etwa der
vorhergehenden Unterhaltung erschlossen werden.
Für die Software-Ergonomie ist die Beachtung des möglichen Kontextes des Benutzers von großer Bedeutung, da er großen Einfluss auf die Verständlichkeit von Software-Oberflächen hat. Der Benutzer erwartet passende Funktionen und Rückmeldungen für seine aktuelle Problemstellung. Die Vermeidung von Kontextwechseln
erfordert Konsistenz der Bedienung. Andererseits kann der Entwickler durch geschickte Gestaltung der Bedienoberfläche den Kontext beeinflussen und den Anwender in die gewünschte Denkrichtung leiten.
SEMESTERARBEIT JUREK BREUNINGER
62
GRUNDLAGEN
Dahm 2006, S. 74-76
Herczeg 2005, S. 52-53
Anderson 2001, S. 174-183
3.2.3 Langzeitgedächtnis (sekundäres Gedächtnis, tertiäres Gedächtnis)
Die langfristige Speicherung von allem, was wir im Laufe des Lebens gelernt haben,
findet im Langzeitgedächtnis statt. Die Kapazität des Langzeitgedächtnisses scheint
nach bisherigen Erkenntnissen praktisch unbegrenzt zu sein. Bei Problemen, sich
Neues zu merken, kommt es wahrscheinlich nicht zu Kapazitätsproblemen, sondern
es fehlen geeignete Vorgehensweisen Informationen ins Langzeitgedächtnis einzufügen. Dieser Prozess ist bekanntermaßen sehr mühsam, im günstigsten Fall
braucht das Speichern neuer Informationen etwa 8 Sekunden/chunk. Normalerweise
erfolgt aber eine Übertragung vom Kurzzeitgedächtnis ins Langzeitgedächtnis erst
nach vielfach wiederholtem Aufruf aus dem Kurzzeitgedächtnis oder einer Wiederholung des Sinneseindrucks.
Auch der spontane Lesezugriff von 2 Sekunden/chunk ist im Vergleich zum Kurzzeitgedächtnis langsam, kann aber bei ständigen Zugriffen auf bis zu 0,1-0,2 Sekunden/chunk gesteigert werden. Diese Abschätzungen sind aber nicht gut vergleichbar,
da sich Art und Komplexität der chunks im Kurzzeitgedächtnis und im Langzeitgedächtnis stark unterscheiden können. Tendenziell werden im Langzeitgedächtnis
„größere“ chunks gespeichert, die einen größeren Dekodieraufwand erfordern und
unter Umständen Details verlieren (um bei einer Computeranalogie zu bleiben: Sie
sind stärker komprimiert.). Sie gleichen diesen Nachteil aber durch ihre Vernetzung
untereinander aus, die Assoziationen.
Die Persistenz, also die Zeit, wie lange Informationen gespeichert bleiben können, ist
beim Langzeitgedächtnis theoretisch unbegrenzt. In der Realität aber können wir uns
viele Informationen für einen bestimmten Zeitraum, in dem sie für uns wichtig sind
(Minuten bis Jahre), merken. Der Abruf ist nicht immer spontan, sondern wird gedanklich hergeleitet mit Assoziationen („Eselsbrücken“). Wenn wir die Erinnerung
nicht mehr abrufen, vergessen wir sie.
SEMESTERARBEIT JUREK BREUNINGER
63
GRUNDLAGEN
Andere Informationen, wie Name, Adresse, Telefonnummer wurden und werden so
oft wiederholt, dass der Zugriff praktisch augenblicklich erfolgt und kein Vergessen
einsetzt.
Deswegen unterscheidet man beim Langzeitgedächtnis noch zwischen sekundärem
und tertiärem Gedächtnis, um die Unterscheidung der beiden genannten Fälle zu
ermöglichen. Alle Gedächtnisformen sind in Tabelle 3.2-1 aufgeführt.
Tabelle 3.2-1: Die verschiedenen Gedächtnisstufen im Vergleich
Kapazität
sensorisches
primäres
sekundäres
tertiäres
Gedächtnis
Gedächtnis
Gedächtnis
Gedächtnis
entsprechend der von
7 ± 2 psy-
unbegrenzt
unbegrenzt
unbegrenzt
den Rezeptoren übertra- chologische
Persistenz
Aufnahme
genen Information
Einheiten
< 5 Sekunden
5 bis 30 Se-
Minuten bis
kunden
Jahre
automatisch bei Wahr-
Verbalisieren Üben
nehmung
Organisation
Zugriffsge-
Sinnesreiz, FIFO
nur begrenzt durch Aus-
ges Üben
chunking,
chunking, ver-
sequenziell
netzt
sehr schnell
langsam, „Um-
sehr
wege“
schnell
alle Formen
alle For-
schwindigkeit gabegeschwindigkeit
Informations- sensorisch
hauptsäch-
art
lich verbal
Art des
Überschreiben
Vergessens
sehr häufi-
?
men
Überschrei-
hauptsächlich
ben, Interfe-
Verblassen,
renz,
Interferenz
—
Verblassen
Während beim tertiären die Information lebenslang abrufbar bleibt, kommt es beim
sekundären Gedächtnis meist zum Verblassen. Das wird dadurch erkennbar, dass
viele aktiv nicht mehr abrufbare Informationen wieder bekannt vorkommen, wenn sie
erneut durch externe Reize aufgenommen werden. In geringerem Umfang kann es
SEMESTERARBEIT JUREK BREUNINGER
64
GRUNDLAGEN
auch zu Interferenz kommen, dem Verwechseln und Vermischen von ähnlichen Informationen.
Durch die Vernetzung der Informationen im Langzeitgedächtnis ist es einfacher Erinnerungen abzurufen, wenn man einen Teil der damit verbundenen Informationen
präsentiert bekommt und sie wieder erkennt (recognition), als wenn man die Erinnerungen mit Hilfe eigener Assoziationen abzurufen versucht (recall).
Im Langzeitgedächtnis entsteht eine Unterscheidung der Inhalte nach ihrem Typ:
•
Fakten, Daten, Konzepte (explizit formuliert, Bedeutungen, Vokabeln, Regeln
(Grammatik), Gefühle, Gerüche)
•
Bilder, Vergleiche (zum Wiedererkennen von Situationen und Gegenständen)
•
Zusammenhänge, Schlussfolgerungen (wie Vergleiche, doch mit zusätzlichen
Informationen durch die Erfahrung)
•
Abläufe (ermöglicht unterbewusstes Ausführen komplexer Handlungsketten)
o kognitiv (geistige Arbeit, z. B. Kopfrechnen)
o motorisch (körperliche Arbeit, z. B. Balancieren eines Gegenstandes)
Nach dem ACT*-Modell (verbessertes Adaptive Control of Thought-Modell) von Anderson nennt man den Teil des Gedächtnisses, der Fakten und Konzepte speichert,
deklaratives Gedächtnis. Dieses Gedächtnis ermöglicht in ungeordneten Sinneseindrücken Objekte zu erkennen. Aufgrund ihrer speziellen Merkmale werden erkannten
Objekten Konzepte zugeordnet, das heißt, sie werden in bestimmte Kategorien eingeordnet. Nicht jeder Typ eines Objekts wird einzeln abgespeichert, sondern dedizierte Eigenschaften des Objekts werden extrahiert und als Merkmalsvektor abgelegt. Um ein Objekt zu erkennen, werden die abstrakten Merkmale, die ermittelt werden, mit den Merkmalsvektoren aus dem Langzeitgedächtnis abgeglichen. Ein großer Holzkasten mit weißen und schwarzen Tasten wird so immer als Klavier erkannt,
unabhängig aus welchem Holz er besteht und welche Form er genau hat.
Wahrscheinlich wird dabei zusätzlich der aktuelle Kontext in Betracht gezogen, um
eine umfassende Suche eines passenden Merkmalsvektors zu vermeiden. Ohne
diese Zusammenarbeit des Kurz- und Langzeitgedächtnisses, etwa dann, wenn ein
Objekt nicht in den aktuellen Kontext passt, dauert die Erkennung erheblich länger.
SEMESTERARBEIT JUREK BREUNINGER
65
GRUNDLAGEN
Oft ignorieren Menschen sogar Dinge, die nicht in die Situation passen, also außerhalb des aktuellen Kontextes sind. Dies trifft vor allem in Fehlerszenarios auf und
kann deshalb besonders bedeutend sein. Dieses Ausblenden von Dingen, die „nicht
sein dürfen“, nennt man kognitive Dissonanz.
Das prozedurale Gedächtnis (auch Produktionen-Gedächtnis) ist nach ACT*-Modell
der Teil des Gedächtnisses, im dem Fähigkeiten und Abläufe (Prozeduren) gespeichert werden. Diese werden durch bestimmte Auslöser abgerufen. Prozeduren werden weniger stark abstrahiert gespeichert, damit sie schnell und mit wenig Dekodierungsaufwand ablaufen können. Dazu gehören motorische Fähigkeiten wie Ski- oder
Fahrradfahren. Die Ausführung erfolgt unterbewusst, aber nicht komplett automatisiert wie bei einer Maschine, sondern mit ständiger Anpassung an die aktuelle Situation. Je geübter die Person, desto schneller und mit desto weniger Konzentrationsanstrengung kann sie die Abläufe durchführen.
Um diese effektive und wenig anstrengende Arbeitsweise des Anwenders möglichst
oft und gut auszunutzen, sollten ähnliche Folgen von Aufgaben in einer Softwareoberfläche immer auf die gleiche Art und Weise ablaufen können. Durch diese Konsistenz der Bedienung werden die Erwartungen des Benutzers erfüllt.
Die Gesamtheit aus der Summe der Daten und der Verknüpfungen zwischen den
Daten des Langzeitgedächtnisses bezeichnet man als Wissen. Um effektiv handeln
zu können, muss man dieses Wissen auch durchgängig anwenden können. Bei Bedienung von Softwareoberflächen ist sowohl das Aufgabenwissen im jeweiligen
Fachgebiet, als auch das Bedienungswissen über Aufbau und Funktionsweise der
Software von Belang. Auch hier zeigt sich wieder die Wichtigkeit der Konsistenz in
der Bedienoberfläche: Bei fehlender Konsistenz ist mehr Wissen und somit Lernaufwand notwendig.
Wie bereits bei den Farben und der Leserichtung angesprochen, haben Menschen
unterschiedliche soziale und kulturelle Hintergründe, die ihre Erfahrungen und
Denkweisen beeinflussen. Neben hartem Faktenwissen sind im Langzeitgedächtnis
auch eine Menge subjektive und emotionale Erfahrungen und Erkenntnisse gespeichert. Dadurch variiert die Wahrnehmung selbst bei Menschen mit ähnlicher Ausbildung und Vertrautheit mit Softwaresystemen teilweise sehr. Eine Anrede in Höflichkeitsform kann als passend oder unpersönlich empfunden werden, ein persönliche-
SEMESTERARBEIT JUREK BREUNINGER
66
GRUNDLAGEN
res „du“ als undistanziert oder freundschaftlich. Farben und Symbole können verschiedene Reaktionen hervorrufen. Solche Unterschiede sollten bei großen (vor allem internationalen) Zielgruppen beachtet werden.
Dahm 2006, S. 76-79
Herczeg 2005, S. 53-54
Hick 2006, S. 374-375
Anderson 2001, S. 183-192, S. 208-215, S. 237-238
3.2.4 Assoziationen und Metaphern
Wie bereits erwähnt ist neben einer lang anhaltenden Speicherung vor allem die gute
Vernetzung von Daten im Gedächtnis sehr wichtig. Sie erleichtert und beschleunigt
den Zugriff auf Informationen deutlich. Die Verbindung mit anderen bereits vorhandenen Fakten und Eigenschaften wird beim Erlernen durch die kognitiven Prozesse
geschaffen. Je besser das gelingt, desto einfacher werden neue Informationen dem
Langzeitgedächtnis auf Dauer hinzugefügt und desto besser festigt sich bereits vorhandenes Wissen.
Ein einfaches Beispiel für die hilfreiche Nutzung von Assoziationen in der SoftwareErgonomie ist Benutzung der Anfangsbuchstaben von Befehlen für Tastaturshortcuts (Steuerung-S für Speichern/save).
Eine Spezialform der Assoziation sind die Metaphern. Hier wird ein Begriff oder Objekt so stark mit einem (ähnlichen) anderen verknüpft, dass keine Assoziation gesucht werden muss, sondern die übertragene Bedeutung gleichbedeutend verstanden wird. Die generelle Verwendung von Piktogrammen (Icons) in Desktopumgebungen und Programmen nutzt diesen Effekt (Scheresymbol für „Ausschneiden“,
Papierkorbsymbol für gelöschte Elemente). Allerdings sollte man sich der Grenzen
von Metaphern bewusst sein. Nicht jede Eigenschaft eines echten Objektes lässt
sich auch im Computer nachstellen und umgekehrt.
Dahm 2006, S. 79-81
3.2.5 Mentale Modelle
Durch die Verknüpfungen, die beim Erlernen geschaffen werden, kreiert jeder
Mensch mentale Modelle des gelernten Stoffes. Diese Modelle sind Repräsentationen der realen Welt im Gehirn. Sie unterscheiden sich je nach bereits vorhandenem
Wissen, Auffassungsgabe, Interesse und Interpretation sehr stark bei verschiedenen
SEMESTERARBEIT JUREK BREUNINGER
67
GRUNDLAGEN
Personen. Mentale Modelle können sich ständig ändern und erweitern. Je besser die
mentalen Modelle eines Benutzers dem Anwendungsgebiet entsprechen, desto effizienter kann dieser seine Arbeitsaufgaben lösen. Allerdings ist nicht immer tiefes Detailwissen notwendig, um Aufgaben zu lösen. Besonders gut gestaltete Software
kann durch ihren hohen Abstraktionsgrad meist ohne Wissen über ihre interne Struktur oder die der darunter liegenden Hardware bedient werden. Die Anwender von
Software-Systemen machen sich von der Funktionsweise und Bedienung der Software ein mentales Modell.
Die Herausforderung für den Entwickler des Bedienungskonzepts liegt darin, dass für
fast alle Aufgaben, die mit Software gelöst werden, in den Köpfen der Anwender Assoziationen zu bereits erlernten Tätigkeiten und Fakten existieren. Oft sind diese
Verbindungen offensichtlich und die Anlehnung des Bedienkonzepts und die Fachsprache des bereits existierenden Anwendungsbereiches drängen sich auf. So bilden
computerbasierte Messsysteme ihre Anzeigen und selbst Bedienelemente oft ihren
Pendants in der Analogwelt nach. Programme zum Abspielen von Medien haben die
Symbolik der Kassetten- und CD-Spieler übernommen. Moderne Textverarbeitungssysteme versuchen die Grundfunktionen wie eine Texterstellung mit einer Schreibmaschine wirken zu lassen (WYSIWYG). Dies ist jedoch nur sehr eingeschränkt
möglich, da die Fähigkeiten einer Computertextverarbeitung die jeder Schreibmaschine weit überschreiten. Noch schwieriger wird es bei Programmen, deren Anwendungsbereiche erst mit den Computern entstanden sind (etwa Tabellenkalkulation,
Programmierung). Hier ist es schwer vorauszusagen, welche mentalen Modelle der
Anwender heranziehen und neu bilden wird.
Jede Software sollte wenn möglich auf bereits verbreitete mentale Modelle abgestimmt sein, da sie so schnell verstanden und mit wenig Lernaufwand bedient werden kann. Dies ist eine weitere Forderung für Konsistenz und das Einhalten etablierter Standards.
Fachleute haben ein gutes und detailliertes Modell des Anwendungsbereiches. Haben sie auch ein korrektes und mit ihrem Modell übereinstimmendes Modell vom
Softwaresystem, so erscheint es ihnen verständlich und transparent. Dies ist allerdings noch kein hinreichendes Zeichen für ein gutes System. Auch ein transparentes
System mag die Aufgaben des Benutzers nicht effektiv und effizient lösen können.
SEMESTERARBEIT JUREK BREUNINGER
68
GRUNDLAGEN
Neben den mentalen Modellen des Benutzers gibt es noch die konzeptuellen Modelle des Systementwicklers. Diese sind im Allgemeinen stärker strukturiert und sollen
der Konzeption des Systems dienen. Die systemtechnischen Modelle oder Systemmodelle stellen die technische Abbildung bzw. Implementierung des Anwendungsbereiches dar.
Wir führen die folgende Notation nach Streitz 1990, S. 240ff. ein:
S
System
B
Benutzer
D
Designer
A
Anwendungsbereich
Die Modelle 1. Ordnung sind also:
S(A) Anwendungssystem. Implementierung des Anwendungsbereiches
B(A) Modell des Benutzers vom Anwendungsbereich
D(A) Modell des Systementwicklers vom Anwendungsbereich
Die Qualität von Software, insbesondere der Bedienbarkeit, hängt davon ab, wie gut
die mentalen Modelle von Benutzer und Systementwickler sowie das Systemmodell
zusammenpassen. Leider weichen sie in der Realität immer zu einem gewissen Grad
voneinander ab. Man spricht von inkompatiblen Modellen. Abbildung 3.2-1 illustriert
diese Problematik als ein Dreieck.
SEMESTERARBEIT JUREK BREUNINGER
69
GRUNDLAGEN
Abbildung 3.2-1: Das Problemdreieck der Software-Ergonomie: Das Modell vom Anwendungsbereich des Benutzers und des Entwicklers sowie das realisierte Systemmodell sollten sich möglichst decken.
Aus dieser Darstellung lässt sich auch recht schnell erkennen, wo die größten Probleme des ergonomischen Bedienoberflächenentwurfes liegen.
•
Der Anwender hat oft ein hohes Verständnis des Anwendungsbereiches, aber
wenig Wissen über den Aufbau des technischen Systems oder das Konzept
des Entwicklers.
•
Der Entwickler ist primär auf seine konzeptionelle Vorgehensweise fixiert und
hat wenig Wissen über das Modell des Benutzers, aber viel Fachwissen über
das System („Ingenieure sind die schlechtesten Bedienoberflächendesigner.“,
Fachidiotentum).
•
Das System ist meist durch seine technischen Möglichkeiten festgelegt.
Die wichtigsten Modelle in der Software-Ergonomie sind diese Modelle 2. Ordnung:
•
B(S(A)): Modell des Benutzers vom Anwendungssystem. Der Benutzer kann
durch sein Verständnis des Systems dessen Verhalten vorhersagen und sein
eigenes Modell dementsprechend verbessern.
SEMESTERARBEIT JUREK BREUNINGER
70
GRUNDLAGEN
•
D(B(A)): Modell des Systementwicklers vom Modell des Benutzers vom Anwendungsbereich. Der Entwickler versucht durch die Augen des Benutzers zu
sehen. Nur wenn dieses Modell gut ist, kann eine gute Kompatibilität der Modelle 1. Ordnung erreicht werden.
•
S(B(A)): Modell des Systems vom Modell des Benutzers vom Anwendungsbereich. Das System „weiß“, wie gut der Benutzer den Anwendungsbereich
kennt. Dieses Modell dient hauptsächlich zur Fehlervermeidung, da es mögliches Fehlverhalten des Benutzers vorhersagen kann.
•
S(S(A)): Modell des Systems von der Implementierung des Systems. Diese
Selbstreflexion ist die Voraussetzung für adaptive Systeme, die sich an den
Benutzer anpassen.
Theoretisch lassen sich eine Menge weiterer Modelle (auch 3. Ordnung) bilden, die
sich in realen Anwendungssituationen nachweisen lassen (siehe Herczeg 2005, S.
44).
Herczeg 2005, S. 39-49
Anderson 2001, S. 330-332
3.2.6 Erfahrung
Die Erfahrung bezeichnet die Menge an Wissen, die der Anwender über einen Anwendungsbereich oder ein Softwaresystem gesammelt hat und die Qualität seiner
mentalen Modelle.
Der Anfänger folgt mangels Erfahrung, weder bezüglich Fakten noch bezüglich Fertigkeiten, expliziten Regeln. Er muss bewusst über seine Aktionen nachdenken und
braucht genauso viel Aufmerksamkeit für die Bedienung wie für den Lösungsweg.
Ein Experte verfügt über große Erfahrung bezüglich Fakten und Fertigkeiten. Vor allem kann er Aufgaben automatisiert erfüllen, da er schnell den Aufgabentyp erkennt
und seine Aktionen deshalb unterbewusst ausführen kann. Er konzentriert sich auf
seine Aufgabe, das Ziel und den Lösungsweg. Er arbeitet schneller und meist mit
weniger Fehlern als ein Anfänger.
Die unterschiedlichen Grade an Erfahrung der angestrebten Benutzergruppe müssen
beim Design des Bedienkonzepts berücksichtigt werden. Je nach Anwendungszweck
kann eine Anpassung an eine bestimmte Zielgruppe ausreichen, meist muss aber ein
SEMESTERARBEIT JUREK BREUNINGER
71
GRUNDLAGEN
breiter Bereich von Benutzerklassen mit verschiedenen Erfahrungsstufen abgedeckt
werden. Man sollte bedenken, dass sich der Erfahrungsstand der Benutzer meistens
mit der Zeit ändern wird. Durch Üben stellt sich Routine ein und die mentalen Modelle werden angepasst.
Die Entwicklung einer Bedienoberfläche für ein Betriebssystem ist ein gutes Beispiel
für eine Software, die sowohl von unerfahrenen Erstbenutzern als auch von routinierten Experten intuitiv und effizient genutzt werden können soll. Dagegen kann man
eine integrierte Programmierumgebung verstärkt auf fortgeschrittene Benutzer auslegen, da man bei Benutzern mit Programmierkenntnissen das Basiswissen der
Computerbedienung voraussetzen kann.
Oft gibt es einen Zielkonflikt zwischen der Selbsterklärungsfähigkeit für Anfänger und
dem schnellen Zugriff für Experten. Eine Möglichkeit dieses Problem anzugehen ist
es, Systemvarianten anzubieten.
Man kann Anwender noch differenzierter in bestimmte Klassen der Erfahrung einteilen.
Folgende gängige Klassifizierung teilt Anwender in vier Gruppen:
•
Unerfahrene Benutzer: Benutzer, die die Software noch nie benutzt haben
•
Gelegenheitsbenutzer: Benutzer, die die Software zu selten benutzen um
Routine zu entwickeln
•
Routinebenutzer: regelmäßige Benutzer mit hohem Anwendungs- und Bedienwissen
•
Experten: regelmäßige Benutzer, die auch tiefergehende technische Zusammenhänge kennen
Es sind noch andere Einteilungen möglich und gängig. Stärkere Differenzierung ist
aber nur in speziellen Fällen hilfreich beim Entwurf. Wichtig ist vor allem überhaupt in
Betracht zu ziehen, verschiedene Benutzergruppen zu untersuchen.
Dahm 2006, S. 81-83
Herczeg 2005, S. 67-71
SEMESTERARBEIT JUREK BREUNINGER
72
GRUNDLAGEN
3.2.7 Lernunterstützung
Wir wissen, dass eines der Ziele der Software-Ergonomie die Effizienz des Anwenders beim Erledigen seiner Aufgaben ist. Ein Experte erledigt seine Aufgaben schneller als ein Anfänger. Also sollte jede Software seine Anwender dabei unterstützen
möglichst schnell ein Experte zu werden, also die relevanten Fakten und Fertigkeiten
zu lernen.
Wie bereits besprochen werden beim Lernen neue Assoziationen gebildet. Deswegen ist es einfacher durch Anknüpfen an bereits vorhandenes Wissen zu lernen. Um
den Lernvorgang optimal zu gestalten, sollte deshalb das individuelle Vorwissen und
etablierte Vorgehensweisen der verschiedenen Benutzer(gruppen) in Betracht gezogen werden.
Allgemein sollten Inhalte aufeinander aufbauend vermittelt werden, da dadurch die
mentalen Modelle gestärkt werden und der Lerneffekt gefördert wird.
Anfänger
•
sollten ein einfaches Regelwerk präsentiert bekommen, das Schritt für Schritt
erlernt werden kann.
•
sollten die Bedeutung und Struktur des zu erlernenden Inhalts erkennen.
•
sollten den Inhalt konsistent vermittelt bekommen, damit sie ihn abstrahieren
und eigene mentale Modelle bilden können.
Experten
•
können mit Ausnahmen und Abkürzungen arbeiten, da sie die Grundstruktur
verinnerlicht haben.
•
sollte ermöglicht werden ihre Effektivität und Effizienz zu steigern.
3.2.7.1 Lerntypen
Menschen haben verschiedene bevorzugte Wege Informationen aufzunehmen. Auch
wenn wissenschaftliche Erkenntnisse über eine genaue Einteilung und die genauen
Vorgänge im Gehirn fehlen, ist es wichtig zu wissen, dass es verschiedene Lerntypen gibt, die durch die Informationsaufnahme über ihren präferierten Kanal profitieren.
SEMESTERARBEIT JUREK BREUNINGER
73
GRUNDLAGEN
•
Hören: beinhaltet den akustischen Kanal und Lesen, da beides verbalisierte
Eindrücke hinterlässt
•
Sehen: es wird bevorzugt bildliche Information gespeichert. Profitiert von Fotos und Graphiken
•
Kommunizieren: lernt am besten in Gruppen, in denen Erkenntnisse gegenseitig mitgeteilt werden. Eigenes Verbalisieren wiederholt den Inhalt und hilft
mentale Modelle zu bilden
•
Motorik: learning by doing. Profitiert von Tutorials, in denen die Arbeitsschritte
geführt selber ausgeführt werden.
Da Software nicht für eine Zielgruppe die nur einen speziellen Lerntyp umfasst entwickelt wird, sollten immer alle dieser Kanäle angesprochen werden, um das Lernen
optimal zu unterstützen. Je mehr Kanäle, desto erfolgreicher wird die Information ins
Langzeitgedächtnis aufgenommen.
Dahm 2006, S. 83-84
Anderson 2001, S. 193-196
3.3 Handlungsprozesse
Handlungsprozesse umfassen
•
die Absicht (Intention), ein Ziel zu erreichen
•
die Durchführung einer Handlung und
•
die Steuerung (Regulation) der Durchführung
Nachdem wir uns mit den Grundlagen zur Beschreibung von Handlungen, Wahrnehmung und Erfahrung, beschäftigt haben, werden wir uns nun mit der Durchführung und Regulation befassen.
3.3.1 Aufmerksamkeit
Wesentlich für den Erfolg einer Handlung ist die Aufmerksamkeit, die wir ihr widmen.
Genau wie der gefühlte Augenblick und das Bewusstsein wird die Aufmerksamkeit
durch den Inhalt des Kurzzeitgedächtnisses bestimmt.
Zwar ist ein Mensch in einem gewissen Maß fähig mehrere Aufgaben gleichzeitig zu
erledigen, allerdings ist die Aufmerksamkeit schlecht teilbar. Das heißt er kann sich
SEMESTERARBEIT JUREK BREUNINGER
74
GRUNDLAGEN
dabei nur auf eine Sache bewusst konzentrieren. Alle anderen müssen so geübt
sein, dass sie unterbewusst ablaufen.
Für eine Benutzerschnittstelle bedeutet dies, dass falls die Bedienung explizites
Nachdenken erfordert, die dafür benötigte Aufmerksamkeit dem Lösen der Aufgabe
entzogen wird. Das Erledigen der Aufgabe dauert dementsprechend länger. Außerdem kommt es im Kurzzeitgedächtnis zu Kontextwechseln zwischen Bedienung und
Aufgabe, welche zusätzlichen mentalen Aufwand bedeuten. Dieser sollte möglichst
gering gehalten werden. Das beschleunigt die Bewältigung der Aufgabe, strengt weniger an und vermeidet Fehler. Eine Bedienung, die keine dedizierte Aufmerksamkeit
benötigt, nennt man in der Psychologie nicht bewusstseinspflichtig. Zum Beispiel ist
beim Autofahren die Bedienung des Fahrzeugs nach der Lernzeit in der Fahrschule
bald nicht mehr bewusstseinspflichtig. Dies ist essentiell, da die volle Aufmerksamkeit der Verkehrsbeobachtung und der Navigation zur Verfügung stehen sollte.
Dass eine nicht bewusstseinspflichtige Bedienung auch die Produktivität steigert
zeigt zum Beispiel blindes Schreiben auf der Tastatur mit dem Zehn-Finger-System.
Andersherum kann der zusätzliche mentale Aufwand bei Leuten, die Zehn-FingerSchreiben nicht beherrschen zu schlechteren Arbeitsergebnissen führen (zum Beispiel fehlender Dokumentation bei Programmcode).
Dahm 2006, S. 88-89
Anderson 2001, S. 75-83
3.3.2 Handlungsregulation
Der Grund jeder Handlung ist ein Ziel (eine Intention), das erreicht werden soll. Je
nach Komplexität der Aufgabe werden auch mehrere Teilziele definiert.
Ziele können explizit (erreiche einen bestimmten Zustand) oder implizit (verbessere
die Bedingungen) formuliert sein.
Wenn das Ziel fest steht beginnt die Planung, wie das Ziel erreicht werden kann.
Auch diese kann explizit (einzelne Handlungsschritte) oder implizit (Verwendung von
unbewusst ablaufenden Fähigkeiten) sein.
Während der Durchführung der Handlung wird ständig überprüft, ob alles abläuft wir
geplant und bei Bedarf die Handlung entsprechend angepasst oder abgebrochen.
Durch diese Rückkopplung kann sehr flexibel auf äußere Einflüsse und Unwägbar-
SEMESTERARBEIT JUREK BREUNINGER
75
GRUNDLAGEN
keiten reagiert werden. Die Kombination aus Soll-Ist-Vergleich, Rückkopplung und
Anpassung nennt man Handlungsregulation.
Ein verbreitetes Modell zur Handlungsregulation ist das 1986 beschriebene DreiEbenen-Modell von Rasmussen (Rasmussen 1986, S. 257ff.). Es unterscheidet drei
kognitive Verhaltens- oder Fertigkeitsebenen:
•
Sensomotorische Fertigkeiten (skill-based)
•
Regelbasiertes Verhalten (rule-based)
•
Wissensbasiertes Verhalten (knowledge-based)
Es ist in Abbildung 3.3-1 dargestellt.
Ziele
Symbole
Identif ikation
Wissensbasiertes
Verhalten
Regelbasiertes
Verhalten
Sensomotorische
Fertigkeiten
Zeichen
Erkennung
Merkmalsbildung
Entscheidung,
Auf gabenwahl
Assoziation
Zustand – Auf gabe
Zeichen/Signale
Sens orische Ei ngaben
Planung
Gespeicherte Regeln f ür
Auf gabe
Automatisierte
sensomotorische
Muster
Signale Handlungen
Abbildung 3.3-1: Das Drei-Ebenen-Modell nach Rasmussen. Es beschreibt drei
Handlungsebenen.
Basierend auf dem Drei-Ebenen-Modell von Rasmussen unterscheidet Hacker in
seinem Modell je nach Art der Handlung verschiedene Regulationsebenen (Hacker
1986, S. 155-162). Sie sind in Tabelle 3.3-1 beschrieben.
SEMESTERARBEIT JUREK BREUNINGER
76
GRUNDLAGEN
Tabelle 3.3-1: Hackers Modell der Regulationsebenen
Regulationsebene
Bewusste
Routine-
vollständig
automati-
Handlungen
handlungen
sierte Handlungen
intellektuelle Regula-
Ebene der flexib- sensomotorische Re-
tionsebene
len Handlungs-
gulationsebene
muster
Entsprechung im
wissensbasiertes
regelbasiertes
auf sensomotorischen
Drei-Ebenen-
Verhalten
Verhalten
Fähigkeiten basiertes
Modell
Beschreibung
Verhalten
nutzt deklaratives
vorgegebene
Gedächtnis als Wis-
memorierte Akti- gen, die selbstständig
sensgrundlage, für
onen werden
bewusste intellektuel- nach Bedarf an-
Parallelisierung
Abhängigkeiten
le Handlungen
gepasst
keine Parallelisie-
eingeschränkt
rung, Aufmerksam-
möglich (leichte
keit ist unteilbar
Ablenkung)
unbewusste Handlun-
ablaufen, Regulation
geschieht unbemerkt
möglich
greift bei Bedarf auch greift bei Bedarf
auf Routinehandlun-
auch auf senso-
gen und sensomoto-
motorische
rische Handlungen
Handlungen zu-
zurück
rück
Dahm 2006, S. 90-92
Johannsen 1993, S. 133-138
3.3.2.1 Fehler
Menschen machen in ihren Handlungen Fehler. Ein Fehler ist ein Teil der Handlung,
der eine Abweichung vom Ziel bewirkt.
Man kann zwischen schweren Fehlern und leichten Fehlern unterscheiden: Schwere
Fehler machen es unmöglich, das Ziel zu erreichen (Beeinträchtigung der Effektivität). Leichte Fehler erschweren das Erreichen des Ziels, das heißt es ist zusätzliche
SEMESTERARBEIT JUREK BREUNINGER
77
GRUNDLAGEN
Zeit und Aufwand nötig, die Wirkungen des Fehlers rückgängig zu machen oder das
Ziel auf einem anderen Weg zu erreichen (Beeinträchtigung der Effizienz).
Alle Fehler beeinträchtigen die Zufriedenheit des Benutzers.
Fehler sind also abträglich für alle drei Hauptziele der Software-Ergonomie. Deshalb
sollten sie so gut wie möglich vermieden werden. Darüber hinaus ist es wichtig, dass
das System fehlertolerant ist, also dem Benutzer ermöglicht nach dem Auftreten von
Fehlern diese zu korrigieren und weiter zu arbeiten.
Man kann auch Fehler anhand des Drei-Ebenen-Modells einordnen:
•
Fehler auf intellektueller Ebene
•
Fehler auf der Ebene der flexiblen Handlungsmuster
•
Fehler auf der sensomotorischen Ebene
3.3.2.1.1
Fehler auf der intellektuellen Ebene
Fehler auf der intellektuellen Ebene sind zum Beispiel Denkfehler. Sie treten auf,
wenn man sich sein Ziel nicht explizit klar macht oder die Randbedingungen nicht
einbezieht. Sie sind für den Entwickler des Software-Systems nicht zu verhindern, da
sie in der Arbeitsweise des Benutzers begründet liegen.
Andere Fehler auf dieser Ebene entstehen, wenn die mentalen Modelle, die zur Anwendung kommen, fehlerhaft sind. Sie lassen sich in einem gewissen Umfang vermeiden. Der Systemdesigner hat Einfluss darauf, wie die mentalen Modelle des Benutzers entstehen. Wenn bekannte Modelle benutzt und erweitert werden und eine
gute Lernunterstützung vorhanden ist, können diese Fehler stark eingedämmt, wenn
auch nicht völlig ausgeschlossen werden.
3.3.2.1.2
Fehler auf der Ebene der flexiblen Handlungsmuster
Diese Fehler treten meist auf, wenn sich bei einer Routinenhandlung, die normalerweise mit einem gut memorierten Ablauf ausgeführt wird, die Randbedingungen
leicht ändern, der Benutzer seinen Ablauf aber nicht anpasst. Sie entstehen leider
besonders häufig dadurch, dass das System bestimmte Warnungen oder Nachrichten so oft anzeigt, dass ihre Signifikanz für den Benutzer nicht mehr erkennbar ist. In
einem Bereich, in dem sich der Benutzer gut auskennt und den er häufig benutzt,
SEMESTERARBEIT JUREK BREUNINGER
78
GRUNDLAGEN
wird er – unabhängig ob er sich der Gefahren, vor denen gewarnt wird, bewusst ist
oder nicht – Warnmeldungen und Hinweise nicht jedes Mal komplett lesen, um seine
Arbeitsgeschwindigkeit zu erhöhen.
Deshalb sollten Warn- und Hinweismeldungen, die keine unmittelbare Entscheidung
nach sich ziehen, sparsam und unauffällig benutzt werden (zum Beispiel in einem
eigenen Hinweisbereich). Wenn möglich, sollten alle Handlungen reversibel sein;
Warnmeldungen sollten so nur bei kritischen Entscheidungen (etwa drohendem Datenverlust) überhaupt nötig sein. Sobald eine Gewöhnung an Warnmeldungen stattfinden kann, steigt das Risiko von Fehlern auf dieser Ebene.
3.3.2.1.3
Fehler auf der sensomotorischen Ebene
Bei fehlender Abstimmung zwischen Sensorik und Motorik oder mangelnder Konzentration treten diese Fehler auf. Es werden etwa unabsichtlich die falschen Tasten
gedrückt, die falschen Objekte auf dem Bildschirm ausgewählt, Bedienabläufe falsch
ausgeführt oder zu früh abgebrochen. Um diese Fehler zu vermeiden sollten auf der
Softwareseite Objekte und Text groß genug gewählt werden, Regeln zu Positionierung und Abständen (siehe Fitts Gesetz) beachtet werden. Auf der Seite der Hardware sollten die Regeln der klassischen Ergonomie eingehalten werden. Tasten,
Schalter und anderen Bedienelemente sollten für alle Benutzer gut bedienbar, verständlich beschriftet und kompatibel (siehe Systemergonomie) gestaltet werden.
3.3.2.2 Überlastung
Wie wir wissen, ist die bewusste Konzentration nur auf eine Sache möglich. Eine
Aufnahme von zu vielen Informationen über zu viele Kanäle gleichzeitig kann die
menschlichen Fähigkeiten überfordern. Ein hoher psychologischer Druck (Termindruck, Erfolgsdruck, etc.) verstärkt diesen Effekt. Dies kann soweit führen, dass nicht
nur nicht genug, sondern überhaupt keine Information aufgenommen wird. Der
Mensch blockiert bis der Druck wieder erträglich ist.
Eine Benutzerschnittstelle sollte eine mentale Überbelastung des Anwenders gezielt
verhindern um Fehler zu vermeiden und die Zufriedenheit zu steigern. Primär erreicht
man dies durch Auslassung überflüssiger Information und gut strukturierte, konsistente Objektanordnung. Auch der Arbeitsprozess kann durch geschickte Gestaltung
der Oberfläche, die gewisse Schritte vorgibt beeinflusst werden. Einen Großteil dieSEMESTERARBEIT JUREK BREUNINGER
79
GRUNDLAGEN
ser Problematik liegt allerdings in der Arbeitsorganisation der Anwender, auf die der
Systementwickler keinen Einfluss hat.
Dahm 2006, S. 92-95
Shneiderman 2005, S. 76-78
3.3.3 Zeitverhalten
Aus der Art und Weise, wie Menschen handeln, ergeben sich bestimmte Vorgaben
für Maschinen, wie diese am günstigsten auf die Handlungen des Menschen angepasst werden und reagieren können. Besonders die ergonomische Gestaltung des
Zeitverhaltens von Maschinen hängt stark von der Denk- und Handlungsgeschwindigkeit der Menschen ab. Das Zeitverhalten von Mensch und Maschine beeinflussen
sich gegenseitig. Für die Zufriedenheit der Benutzer ist es sehr wichtig, wie schnell
interaktive Softwaresysteme Informationen ausgeben und auf Eingaben reagieren
können. Vor allem zu lange Antwortzeiten auf Eingaben und lange Darstellungszeiten können für Verunsicherung, Verärgerung oder Frustration sorgen. Auch führen
Verzögerungen zu erhöhten Fehlerraten, da, wenn das Verhalten der Software nicht
antizipiert werden kann, Routinemuster nicht anwendbar sind beziehungsweise falsche Routinemuster angewandt werden. Es kommt zu Fehlern auf der Ebene der
flexiblen Handlungsmuster.
Andererseits zeigen Studien, dass auch schnelle Reaktionszeiten das Verhalten der
Anwender negativ beeinflussen können, weil diese dann übereilt und hastig arbeiten.
Dabei missachten sie Systemausgaben, handeln unüberlegt und machen Eingabefehler. Da dies zu Stress und Unzufriedenheit führen kann, benötigen wir eine gute
Balance zwischen den Reaktionszeiten des Systems und des Benutzers.
3.3.3.1 Interaktionsschritte
Wir zerteilen einen Handlungsschritt in mehrere Zeitabschnitte. Die Abgrenzungen
sind nicht völlig scharf; es kann je nach Situation und Sichtweise zu Überschneidungen kommen.
•
Eingabezeit: Zeitraum zwischen dem Beginn und dem Abschluss einer
Benutzereingabe. Oft vereinfacht als Zeitpunkt statt Zeitraum angenommen.
•
Ausgabezeit: Zeitraum zwischen dem Beginn und dem Abschluss einer
Systemausgabe. Oft vereinfacht als Zeitpunkt statt Zeitraum angenommen.
SEMESTERARBEIT JUREK BREUNINGER
80
GRUNDLAGEN
•
Antwortzeit: Zeitraum zwischen der Benutzereingabe und der daraus resultierenden Systemausgabe. Da Benutzereingabe und Systemausgabe eigentlich
Zeiträume sind, ist die Antwortzeit ein nur unscharf definierter Begriff. Das
System kann mit der Verarbeitung der Benutzereingaben bereits während der
Eingabe beginnen.
•
Denkzeit: Zeitraum zwischen der Systemausgabe und der Benutzereingabe.
Ebenfalls unscharf. In diesem Zeitraum überlegt der Anwender sich den
nächsten Handlungsschritt.
•
Planungszeit: Zeitraum vom Ende der Benutzereingabe bis zur Systemausgabe. In diesem Zeitabschnitt plant der Benutzer das weitere Vorgehen in Abhängigkeit vom erwarteten Erfolg oder Nichterfolg der laufenden Aktion.
Abbildung 3.3-2: Zeitliche Phasen eines Interaktionsschrittes
Da die Zeiten wie bereits erwähnt nicht exakt abgrenzbar sind und voneinander abhängen, lassen sie sich schwer messen. Auch die technische Realisierung (Paralleli-
SEMESTERARBEIT JUREK BREUNINGER
81
GRUNDLAGEN
sierung, Netzwerk) erschwert dies. Aber es gibt statistische Messwerte dieser Zeiträume für bestimmte Anwendungssysteme und -situationen.
3.3.3.2 Kognitive Randbedingungen
Man versucht mit den Erkenntnissen der Kognitionspsychologie Richtwerte zu erstellen, die ein für die Software-Ergonomie günstiges Verhalten der Antwortzeit und
Ausgabezeit ermöglichen. Allerdings sind die bestehenden Modelle recht ungenau.
Die beste Methode, gute Erkenntnisse zu erhalten, sind Benutzerexperimente.
3.3.3.2.1
Einflüsse des Gedächtnisses:
Ein wichtiger Faktor zur Ermittlung eines günstigen Zeitverhaltens eines Softwaresystems ist das menschliche Kurzzeitgedächtnis. Denn bei zu langen Antwort- und
Ausgabezeiten vergisst der Benutzer seine ursprünglichen Intentionen ganz oder
teilweise. Die gelieferten Ergebnisse des Systems verlieren dann den Zusammenhang. Zwischen den einzelnen Schritten einer Handlung ist es immer wieder notwendig, Teilergebnisse oder Teilpläne im Kurzzeitgedächtnis zwischenzuspeichern. Bei
der Arbeit mit einem Softwaresystem muss bei jedem dieser Schritte auf die Antwort
des Systems gewartet werden. Durch Ablenkungen kann das Kurzzeitgedächtnis
schon nach 0,1 bis 0,5 Sekunden wieder geleert sein, sodass bereits solche Antwortzeiten zu lang sein können, wie Studien zeigen. Die Arbeitsgeschwindigkeit darf
aber auch nicht zu hoch sein, sodass das Kurzzeitgedächtnis mit seiner beschränkten Kapazität von sieben chunks mit Informationen überflutet wird und sie nicht
schnell genug ins Langzeitgedächtnis transferieren kann (mit etwa 8 Sek/chunk).
Sonst ist der Anwender nicht mehr in der Lage vollständig zu planen und handelt
wegen fehlender Zwischenergebnisse nur noch zufällig oder intuitiv.
3.3.3.2.2
Einflüsse des Problemlöseverhaltens:
Ein System hat einen bestimmten Takt, der von seinen Antwort- und Ausgabezeiten
bestimmt wird. Benutzer tendieren dazu sich diesem Systemtakt anzupassen. Deshalb steigern sie ihre Arbeitsgeschwindigkeit bei einem schnellen Systemtakt, was
dazu führt, dass sie nicht mehr alle Ausgaben vollständig untersuchen und verstehen, keine gründlichen Pläne machen und so mehr Fehler verursachen. Bei einem
langsamen Systemtakt steigt die Angst vor Fehlern, da eine Behebung entsprechend
länger dauert. Deshalb arbeiten Benutzer dann oft langsamer und gründlicher.
SEMESTERARBEIT JUREK BREUNINGER
82
GRUNDLAGEN
Es entsteht also ein Zielkonflikt zwischen hoher Arbeitsleistung, Zufriedenheit und
niedriger Fehlerrate. Damit hier eine gute Balance entsteht, sollte der Benutzer gute
Kenntnis des Anwendungsbereiches B(A) und ein gutes mentales Modell des Anwendungssystems B(S(A)) besitzen. Er muss seinen Fortschritt und die Zielerreichung erkennen können und Fehler sowohl vermeiden als auch nach dem Auftreten
schnell und einfach beseitigen können. Er sollte wenig Angst davor haben, Fehler zu
machen. Es darf keine Ablenkungen geben und die Problemlösung sollte ohne Verzögerungen ausführbar sein, was die Wichtigkeit des Zeitverhaltens zeigt.
Unabhängig hiervon haben die Benutzer auch verschiedene Präferenzen, was das
Zeitverhalten betrifft:
•
Unerfahrene Benutzer können mit langsameren Antwortzeiten effektiver und
fehlerfreier arbeiten.
•
Unerfahrene Benutzer bevorzugen eine langsamere Arbeitsgeschwindigkeit
als Routinebenutzer und Experten.
•
Wenn die Auswirkungen von Fehlern nicht groß sind, arbeiten Benutzer
schneller.
•
Bei simplen, intuitiv verständlichen Tätigkeiten arbeiten Benutzer schneller.
•
Wenn Benutzer Erfahrungen mit diesem speziellen System oder einem ähnlichen haben, erwarten sie das Zeitverhalten, das sie kennen.
3.3.3.3 Ausgabezeit
Die Ausgabezeit bezieht sich meist auf reinen alphanumerischen Text ohne Bilder
oder die Elemente einer graphischen Benutzeroberfläche (Fenster, Menüs). Meist
wird die Ausgaberate in cps (characters per second) herangezogen. Studien zeigen,
dass die günstigsten Ausgaberaten bei entweder 30 cps oder der unverzögerten
Ausgabe liegen (Abbildung 3.3-3). 30 cps ist etwa die Geschwindigkeit, die ein Benutzer simultan zur Ausgabe am Bildschirm ohne Anstrengung mitlesen und dabei
den Inhalt verstehen und verarbeiten kann. Langsamere Ausgaberaten können problemlos gelesen werden, führen aber oft zu Frustration, da sie als zu langsam empfunden werden. Die Denkzeit passt sich dem Systemtakt an. Benutzer erhöhen ihre
Arbeitsgeschwindigkeit bei einer Ausgaberate von 30 statt 10 cps um mehr als ein
Drittel.
SEMESTERARBEIT JUREK BREUNINGER
83
GRUNDLAGEN
Bei der unverzögerten Ausgabe untersuchen Benutzer den Text im Nachhinein mit
ihrer individuellen Lesegeschwindigkeit und blättern nach Bedarf zu den relevanten
Abschnitten, da sie keine Verzögerung fürchten müssen.
Abbildung 3.3-3: Untersuchungen zur Ausgabezeit zeigen, dass 30 cps und unverzögerte Ausgabe die beste Informationsaufnahme zur Folge haben.
Bei dazwischen liegenden Ausgaberaten neigen Anwender wieder dazu, sich dem
Takt anzupassen. Sie versuchen mit einer Geschwindigkeit mitzulesen, die zu hoch
ist, anstatt nachher zurückzublättern. Es können meist nicht alle Informationen aufgenommen werden, was zu Fehlern führt.
3.3.3.4 Antwortzeit
Für die Antwortzeit gibt es keinen absolut gültigen günstigsten Wert, sondern sie sollte je nach Situation und Anwendern ermittelt werden.
Es gibt eine Vielzahl von Einflussfaktoren:
SEMESTERARBEIT JUREK BREUNINGER
84
GRUNDLAGEN
•
Die Anwender erwarten bestimmtes Verhalten wegen früherer Erfahrung mit
demselben oder einem ähnlichen System.
•
Die Antwortzeit sollte nicht spürbar länger als gewohnt und erwartet sein, da
die Benutzer sonst ungeduldig und unzufrieden werden. Eine zu kurze Antwortzeit ruft meist Misstrauen hervor, dass der Vorgang nicht erfolgreich abgeschlossen wurde und ein Fehler aufgetreten ist. Bereits Abweichungen von
etwa 10% werden gespürt. Ab 50% wird die Abweichung als störend empfunden.
•
Individuelle Vorlieben und Auffassungsgabe setzen der Antwortzeit einen
Rahmen.
•
Anfänger tolerieren längere Antwortzeiten als Experten. Weitere Einflussfaktoren sind Alter, Gesundheitszustand, Konzentration, Belastung und Motivation.
•
Zeitkritische Anwendungen erfordern Antwortzeiten unterhalb einer bestimmten Grenze.
•
Technische Limitation ermöglicht Antwortzeiten erst ab einer bestimmten
Schwelle.
Es ist wichtig den Benutzer immer darüber zu informieren, wenn längere Antwortzeiten auftreten. Folgende Faustregeln zeigen die ungefähren Bereiche, in die Antwortzeiten eingeteilt werden können:
•
Wenn möglich sollten Antwortzeiten immer unter einer Sekunde liegen. Dann
werden sie vom Benutzer als instantan empfunden und es sind keine weiteren
Hinweise nötig. Manche Fälle, wie die Eingabe von Buchstaben in Textmasken, erfordern aber noch kürzere Reaktionen im Zehntelsekundenbereich.
•
Antwortzeiten bis etwa vier Sekunden werden als verzögert empfunden und
sollten von einem einfachen Hinweis begleitet werden, dass die Anforderung
bearbeitet wird. Auf PCs hat sich etwa die Änderung des Mauszeigers, zum
Beispiel in eine Sanduhr, bewährt.
•
Bei längeren Antwortzeiten, was als starke Verzögerung empfunden wird, sollte ein detaillierterer Hinweis erscheinen, der auf den Fortschritt der Bearbeitung schließen lässt. Fortschrittsbalken und eine Beschreibung der aktuellen
Vorgänge (z. B. in einer Textbox) sind Mittel, die sich anbieten.
SEMESTERARBEIT JUREK BREUNINGER
85
GRUNDLAGEN
•
Ab einer Antwortzeit, die länger als zehn Sekunden dauert, ohne dass Rückmeldung über den Fortschritt erfolgt, wird davon ausgegangen, dass keine
Antwort mehr zu erwarten ist. Es wird ein Fehler vermutet und meist versucht,
die Aktion neu zu initiieren oder das Softwaresystem zu beenden beziehungsweise neu zu starten.
Dahm 2006, S. 96
Shneiderman 2005, S. 454-472
Herczeg 2005, S. 104-114
3.3.4 Die sieben Handlungsschritte von Norman
Um unsere Handlungsprozesse, über die wir nun einige theoretische Dinge gelernt
haben, gut darstellen und analysieren zu können, hat Donald Norman ein informelles
Modell entwickelt, das jede Benutzung von Geräten oder Systemen in sieben Schritte
einteilt. Im Englischen heißt das Modell „The Seven Stages of Action“ (Abbildung
3.3-4), in der deutschen Übersetzung werden die Schritte Bedienhandlungen genannt.
Zu erreichendes Ziel
Formulieren einer Absicht
Planen der Aktionen
Ausführen der Aktionen
Vergleichen des Zustandes mit dem Ziel
Interpretieren des Zustandes
Wahrnehmen des neuen Zustandes
Einwirkung und Reaktion auf das Gerät oder die Software
Abbildung 3.3-4: The Seven Stages of Action nach Norman. Bei jeder Gerätebenutzung durchläuft der Anwender diese sieben Schritte.
Wenn man dieses Modell jedes Mal bei der Gestaltung eines neuen oder Analyse
eines bestehenden Bedienkonzepts durchgeht, können die Vorgänge und Zusammenhänge klarer werden und die Gebrauchstauglichkeit erhöht werden.
•
Ziel vor Augen führen:
Hier sollte man sich den Nutzen klar machen, den sich der Anwender erhofft.
Entgegen der Denkweise mancher Ingenieure ist das Ziel nie die Bedienung
des Geräts, also etwa das Aufrufen des Telefonbuchs in einem Mobiltelefon,
SEMESTERARBEIT JUREK BREUNINGER
86
GRUNDLAGEN
sondern der Nutzen, der sich daraus für den Anwender ergibt; im Beispiel das
Anrufen einer bekannten Person.
•
Formulieren einer Absicht:
Aus dem Ziel eine Absicht abzuleiten setzt meist ein gewisses Wissen über
die Zusammenhänge voraus. Der Anwender muss wissen, dass sein Telefon
eine Telefonbuchfunktion hat. Der Designer sollte sich immer fragen, ob der
Anwender solches Wissen bereits besitzt, wenn ja warum und wenn nein, wie
er es erlangen kann.
•
Planen der Aktionen:
Hier ist noch praktisches Bedienwissen notwendig. Der Anwender muss wissen, wie das Telefonbuch funktioniert. Er hat entweder Erfahrung oder hat die
Information gerade bekommen, zum Beispiel aus der Betriebsanleitung.
•
Durchführen der Aktionen:
Dies ist meist trivial, wenn durch genaue Kenntnis der Funktionalität bereits
eine detaillierte Planung stattgefunden hat. Oft werden die Aktionen aber nur
ungefähr geplant, da die einzelnen Schritte nicht bekannt sind und aus Analogien in der Erfahrung geschlossen wird. Deshalb sollte die Bedienung konsistent sein und einzelne Schritte der Bedienung sollten selbsterklärend sein.
Das heißt, die Menüstruktur im Telefonbuch ist ähnlich der übrigen, einzelne
Menüpunkte sind aussagekräftig benannt.
•
Wahrnehmen des neuen Zustands:
Der Wechsel des Zustands kann einfach erkannt werden. Beim Anwählen einer Person im Telefonbuch wird statt einer Liste nur noch deren Name angezeigt und zum Beispiel eine Animation eines abgenommenen Hörers gezeigt.
•
Interpretieren des neuen Zustands:
Die Rückmeldung sollte für den Anwender verständlich sein. Je nachdem wie
gut und deutlich die Höreranimation ist, wird sie vielleicht nicht richtig erkannt.
Es könnte auch eine (zusätzliche) Textnachricht „Wähle“ angezeigt werden.
•
Vergleichen des neuen Zustands mit dem Ziel:
SEMESTERARBEIT JUREK BREUNINGER
87
GRUNDLAGEN
Wenn die richtige Absicht formuliert und die dementsprechend passenden Aktionen fehlerfrei durchgeführt wurden, so erfüllt der neue Zustand das Ziel des
Anwenders. Der Telefonbenutzer hat den richtigen Gesprächspartner erreicht.
3.3.4.1 Der Gulf Of Execution
Bei Problemen in einem der drei ersten Schritte spricht Norman von einem Gulf Of
Execution (Abbildung 3.3-5), also einer Kluft zwischen Ziel und Umsetzung. Der Telefonbenutzer wüsste also nicht, dass es eine Telefonbuchfunktion gibt, wüsste nicht
wie er sie bedienen soll oder würde beim Versuch sie zu bedienen scheitern.
Zu erreichendes Ziel
Formulieren einer Absicht
Zu wenig Kenntnis der Konzepte
Planen der Aktionen
Zu wenig Kenntnis der Bedienung
Ausführen der Aktionen
Schlechter Zugang zu Funktionen
Einwirkung und Reaktion auf das Gerät oder die Software
Abbildung 3.3-5: Unter einem Gulf of Execution versteht Norman einen Fehler im linken Teil des Modells.
Solch ein Gulf Of Execution ist natürlich in jedem Fall zu vermeiden. Der Anwender
wäre schlimmstenfalls unfähig sein Ziel zu erreichen und das Gerät für ihn nutzlos.
3.3.4.2 Der Gulf Of Evaluation
Analog zum Gulf of Execution kann es auch bei den letzten Schritten der Handlung
zu Problemen kommen. Wenn sich zwischen Anzeige und Wahrnehmung eine Kluft
auftut, spricht Norman von einem Gulf Of Evaluation (Abbildung 3.3-6). Für das Telefon hieße das, es würde nicht angezeigt, wenn jemand angerufen wird, die Anzeige
wäre unverständlich oder es wäre (theoretisch) nicht erkennbar, dass das Ziel erreicht wurde, also der Gesprächspartner am Apparat ist.
SEMESTERARBEIT JUREK BREUNINGER
88
GRUNDLAGEN
Zu erreichendes Ziel
Formulieren einer Absicht
Planen der Aktionen
Ausf ühren der Aktionen
Vergleichen des Zustandes mit dem Ziel
Interpretieren des Zustandes
Wahrnehmen des neuen Zustandes
Keine Be ziehung
zur Absicht
Darstellung unklar
Zustand ist nicht sichtbar
Einwirkun g und Reaktion auf das Gerät oder die Software
Abbildung 3.3-6: Ein Gulf of Evaluation bezeichnet einen Fehler auf der rechten Seite
des Modells.
Es ist ebenso wichtig, dass der Anwender immer verständliche Rückmeldung über
seine Aktionen bekommt. Sonst wirkt es für ihn, als hätte er keine Bedienhandlung
durchgeführt und das Gerät hätte seinen Zweck nicht erfüllt.
Dahm 2006, S. 97-102
Shneiderman 2005, S. 87-88
3.3.5 Affordances und Mappings
Zwei weitere Kriterien für die Analyse von Bedienelementen hat Norman kreiert: Angebot und Abbildung, im englischen Original Affordance und Mapping.
3.3.5.1 Affordance
Einem gut gestalteten Interaktionselement sollte man sein Angebot (zur Benutzung)
sofort ansehen. Ein Griff, Knopf oder Henkel sollte durch seine Form und die Art und
Weise wie er angebracht ist implizit seine Funktionalität und Bedienung zeigen. Das
gleiche gilt auch für Softwareelemente wie Buttons, Links, Schieberegler etc. Wenn
ein Anwender versucht mit einem Element in einer Weise zu interagieren, für welche
es nicht vorgesehen ist, so ist das ein Zeichen für schlechtes Angebot. Wenn ein Bedienelement in einem Programm wie ein Drehknopf aussieht, der Wert aber durch
eine Auf-/Ab-Bewegung der Maus verstellt wird, so sollte das Design verbessert werden.
Auch muss vermieden werden, dass der Anwender gar nicht weiß, wie er mit dem
Element interagieren kann. Zum Beispiel sollte in einer Maske editierbarer Text immer in einer Textbox sein und sich von den reinen Beschriftungen klar unterscheiden. Andernfalls ist seine Funktionalität für den Anwender gar nicht ersichtlich.
SEMESTERARBEIT JUREK BREUNINGER
89
GRUNDLAGEN
3.3.5.2 Mapping
Unter Mapping versteht Norman die Abbildung der gesteuerten Funktion auf das dazu benutzte Bedienelement. Klassische Beispiele für passendes und unpassendes
Mapping sind das Lenkrad eines Fahrzeugs, das bei Drehung in eine Richtung in
diese Richtung lenkt und die Pinne eines Bootes, die genau entgegengesetzt funktioniert. Wir werden im Kapitel Systemergonomie im Rahmen der Kompatibilität noch
näher auf dieses Thema zu sprechen kommen.
Ein Bedienkonzept, das den genauen Aufbau der zu steuernden Geräte (reduziert)
darstellt, etwa der Leitstand in einem Kraftwerk, bezeichnet Norman als Natural
Mapping.
Dahm 2006, S. 102-103
3.3.6 Das GOMS-Modell
Ein weiteres bekanntes Modell für menschliche Handlungsprozesse ist das GOMSModell. Es wurde 1983 von Card, Moran und Newell entwickelt (Card 1983, S.
139ff.). GOMS ist eine Abkürzung für „goals, operators, methods and selection rules“. Das Modell dient ähnlich wie das Modell von Norman dazu Interaktionsprozesse
zu simulieren, um sie besser zu verstehen, mögliche Probleme zu erkennen und die
Prozesse zu verbessern.
Das GOMS-Modell postuliert, dass die Benutzer damit beginnen Ziele und Unterziele
zu formulieren (z. B. editiere Dokument, füge Wort ein). Dann denken sie in Form
von Operatoren (elementare motorische oder kognitive Aktionen) mit denen sie das
Ziel erreichen können (Hand zur Maus bewegen, sich an Dateinamen erinnern). Am
Ende erreichen die Benutzer ihre Ziele durch die Anwendung von Methoden, einer
Folge
von
Operatoren
(mit
der
Maus
Menüpunkt
anwählen,
richtige
Tastenkombinationen drücken). Die Auswahlregeln bestimmen, welche Operatoren
und Methoden zum Einsatz kommen in Abhängigkeit von den Randbedingungen
(wenn die Hand schon auf der Maus liegt, wird menügesteuert agiert; wenn die Hand
auf der Tastatur liegt, werden Shortcuts benutzt).
Mit dem GOMS-Modell lassen sich auch vage Aussagen über die Dauer gewinnen,
die eine Aktion benötigt. Mit Hilfe von statistischen Werten, die Anwender für gewisse
Operatoren wie Tastatureingabe, Mauszeigen, Wechsel zwischen Maus und Tastatur
SEMESTERARBEIT JUREK BREUNINGER
90
GRUNDLAGEN
brauchen und heuristischen Regeln, wann die Operatoren Vorbereiten und Warten
einzufügen sind, lässt sich die Ausführdauer verschiedener Handlungsprozesse ungefähr errechnen; zum Beispiel, um die Handlungsdauer zwischen Kopieren und Einfügen mit der Maus und mit der Tastatur zu vergleichen.
Aus diesen Analysen lassen sich einfache Verbesserungsmaßnahmen ablesen:
•
Häufiges Vorbereiten ist ein Zeichen für einen stockenden Ablauf, der der
Optimierung bedarf.
•
Häufige Wechsel sollten vermieden werden, da sie sehr zeitintensiv sind.
•
Sehr viel Mausbedienung kann ein Zeichen für zu viele nötige Bedienhandlungen aufgrund der graphischen Umsetzung sein. Eventuell lässt sich das
Problem mit einem auf Tastatureingabe gestützten Konzept besser bewältigen
(numerische Eingabe statt Schieberegler).
Das GOMS-Modell ist kritisiert worden, da es von einer fehlerfreien Ausführung ausgeht, wie sie bei Anfängern selten vorkommt. Andererseits ist es auch sehr schwierig, die Handlungsprozesse von Experten gut zu modellieren, da sie in hohem Maß
von ihrer Erfahrung profitieren und so Probleme haben O, M und S anzugeben.
Dahm 2006, S. 104-106
Shneiderman 2005, S. 88-91
3.3.7 Fitts Gesetz
Wie bereits beim GOMS-Modell gesehen, ist es sehr schwierig, Bedienkonzepte
quantitativ zu evaluieren. Meist kann nur eine qualitative Analyse basierend auf den
empirischen Ergebnissen von Benutzerbeobachtungen durchgeführt werden.
Für das begrenzte Konzept der Mausbedienung gibt es allerdings eine recht einfache
Formel, mit der man die Zeit, die für die Positionierung des Mauszeigers auf einer
bestimmten Fläche nötig ist, bestimmen kann. So ein prädikatives Modell ist sehr
hilfreich, um den Ort und die Größe von Buttons und anderen Elementen beim Design der Bedienoberfläche festzulegen.
Postitionierzeit [ms ] = a + b ⋅ ld (
D
D
+ 1)
S
Abstand des Mauszeigers vom Ziel
SEMESTERARBEIT JUREK BREUNINGER
91
GRUNDLAGEN
S
Größe des Ziels
a
konstante Suchzeit
b
Skalierung
a und b sind von der Gestaltung der Benutzerschnittstelle abhängig
Die Formel stammt aus Experimenten von Paul Fitt, der damit Handbewegungen
modellierte, lange bevor es interaktive Computersysteme mit Mäusen gab (1954).
Sie hat sich aber auch für Mausbewegungen als gutes Mittel zur Vorhersage der benötigten Positionierungszeit bewährt. Durch Parametrisierung ist sie an verschiedene
Geräte anpassbar. Diese Parametrisierung macht sie allerdings auch nur begrenzt
für den Einsatz in realen Anwendungen geeignet. Eigentlich müssten die Parameter
in Laborversuchen durch Messreihen genau an die Randbedingungen angepasst
werden. Aber mit den Ausgangswerten a = 50 und b = 150 lassen sich bereits erste
Aussagen über klassische Mausaufgaben treffen. Zu beachten ist, dass Fitts Gesetz
nur bei einem linearen Verhältnis zwischen Hand- und Mausbewegung Gültigkeit hat.
Eine Mausbeschleunigung, wie sie heute in den meisten Betriebssystemen voreingestellt ist, verfälscht die Ergebnisse.
Dahm 2006, S. 106-108
Shneiderman 2005, S. 367-369
3.3.8 Das Hicksche Gesetz
Bei mausgesteuerten Bedienkonzepten kommt es nicht nur zur Ansteuerung bestimmter Flächen, sondern vorher zur Evaluation, welches Ziel ausgewählt werden
soll. Hick hat hierzu eine Gesetzmäßigkeit entdeckt, die die Zeit, in der ein Ziel aus
mehreren Alternativen erkannt und ausgewählt wird, bestimmt werden kann (unabhängig vom Bedienkonzept). Es ähnelt Fitts Gesetz:
Auswahlzei t [ms] = a + b ⋅ ld(n + 1)
n
Anzahl der Alternativen
a
konstante Suchzeit
b
Skalierung
a und b sind von der Art der Aufgabe abhängig
SEMESTERARBEIT JUREK BREUNINGER
92
GRUNDLAGEN
Die Formel gilt, solange die Wahrscheinlichkeit der Wahl für alle Alternativen gleich
ist, z. B. bei einer Reihe gleicher Buttons. Andernfalls gibt es eine modifizierte Form,
in der die verschiedenen Wahrscheinlichkeiten der einzelnen Alternativen eingehen.
Da es aber sehr schwierig ist, diese zu schätzen geschweige denn genau zu
bestimmen, ist ihre Anwendbarkeit sehr gering. Es sei hier nur der Vollständigkeit
halber darauf hingewiesen. Für die Gültigkeit der Berechnung ist wichtig, dass die n
Elemente als zusammengehörige Alternativen erkannt werden. Wenn die Alternativen aus Erfahrung bekannt sind, reduzieren sich a und b.
Für das Hicksche Gesetz gelten die gleichen Einschränkungen wie für Fitts Gesetz.
Mit a = 50 und b = 150 lassen sich erste Abschätzungen machen, die Anwendbarkeit
außerhalb von Laborversuchen ist begrenzt.
Zusammenfassend lassen sich aber zwei wichtige Folgerungen für die SoftwareErgonomie ziehen:
•
Mit der Zahl der Alternativen steigt die Zeit für die Auswahl, aber nicht linear,
sondern logarithmisch. Menschen scheinen die Alternativen in Kategorien zu
teilen und schrittweise etwa die Hälfte der Alternativen zu verwerfen anstatt
jede Alternative einzeln zu bewerten, was linear mehr Zeit pro zusätzliche Alternative benötigen würde.
•
Es kann schneller sein, eine große Sammlung von Alternativen zu haben als
mehrere kleine. Dies wird gerne für Menüstrukturen postuliert, stimmt aber
nur, wenn eine Kategorisierung möglich ist (z. B. durch logische Gruppierung,
alphabetische Ordnung) und nicht, wenn eine große Anzahl unbekannter Menüpunkte erst erfasst werden muss, da dies linear mehr Zeit braucht.
Dahm 2006, S. 108-109
3.4 Kommunikation
Da wir uns mit interaktiven Software-Systemen beschäftigen, müssen wir nach den
Handlungsprozessen des einzelnen nun die Kommunikation zwischen mehreren
Partnern betrachten. Kommunikation ist der Austausch von Informationen. Die kommunizierenden Partner können mehrere Menschen sein, aber auch Mensch und
Computer. Wenn diese Kommunikation wechselseitig ist, so spricht man von einem
interaktiven System.
SEMESTERARBEIT JUREK BREUNINGER
93
GRUNDLAGEN
Es existieren mehrere Modelle für die Kommunikation zwischen Menschen aus der
Kommunikationswissenschaft. Die meisten lassen sich unter gewissen Einschränkungen auch auf die Kommunikation zwischen Mensch und Computer übertragen.
Dies ist sogar recht zielführend für eine ergonomische Bedienkonzeptentwicklung, da
Menschen unterbewusst mit Computern ähnlich wie mit Menschen kommunizieren
und entsprechende Erwartungen haben.
3.4.1 Ebenen der Kommunikation
Information kann viele Formen haben. Damit sie übertragbar wird, also ein Austausch stattfinden kann, wird sie meist in Zeichen kodiert. Das Verständnis dieser
Zeichen ist für den fehlerfreien Informationsaustausch essentiell. Die Lehre von den
Zeichen, Zeichensystemen und Zeichenprozessen ist die Semiotik.
Man teilt den Austausch von Informationen in mehrere Ebenen ein, die aufeinander
aufbauen. Diese Ebenen heißen Syntaktik, Semantik und Pragmatik.
3.4.1.1 Syntaktische Ebene
Die wichtigste Voraussetzung für den Informationsaustausch ist, dass Sender und
Empfänger eine gewisse Anzahl von Zeichen gleich verstehen. Zeichen können sein:
•
Schriftzeichen: Buchstaben, Ziffern, Sonderzeichen
•
Laute (gesprochene Zeichen)
•
Lichtsignale (Ampel, Morsen)
•
Bilder, Symbole (Verkehrsschilder, Icons)
•
Superzeichen (aus mehreren Zeichen zusammengesetzte Zeichen, Abkürzungen)
Zeichen stehen in bestimmten Zusammenhängen, die durch Regeln beschrieben
werden. Diese Regeln sind die Syntax. Anhand dieser Regeln werden Zeichen zu
Superzeichen zusammengesetzt.
Eine natürliche Sprache ist aus vielen Lauten zusammengesetzt. Sie werden anhand
des Wortschatzes zu Wörtern zusammengesetzt. Mit Hilfe der Regeln der Grammatik
werden aus den Wörtern sinnvolle Sätze gebildet. Alternativ kann man die Sprache
auch basierend auf ihrer Schrift beschreiben: Es gibt eine Sammlung von Zeichen,
SEMESTERARBEIT JUREK BREUNINGER
94
GRUNDLAGEN
das Alphabet. Die Rechtschreibung legt fest, wie diese zu Wörtern kombiniert werden können. Die Grammatik ist wieder das Regelwerk, das die Wörter zu gültigen
Sätzen zusammensetzt.
Diese Unterteilung in Zeichen und Regeln lässt sich für alle Kommunikationsformen
angeben, etwa auch für ein Netzwerkprotokoll. In der Computerwelt benutzt man
formelle Beschreibungssprachen wie die (Extended) Backus Naur Form, (E)BNF, um
die Regeln von künstlichen Sprachen wie Programmiersprachen oder Kommandosprachen zu definieren.
Probleme auf dieser Ebene der Kommunikation entstehen, wenn sich der Sender
nicht an die Syntax hält. Ein nahe liegendes Beispiel ist das nicht fehlerfreie Sprechen einer Fremdsprache. Ein viel häufigeres Problem ist jedoch die fehlende Eindeutigkeit der Syntax. Fast alle natürlichen Sprachen sind nicht eindeutig. Es gibt
zum Beispiel phonologische Doppeldeutigkeit (ist/isst), orthographische Mehrdeutigkeit (Wachstube), sowie Mehrdeutigkeit der Grammatik („Manche Tiere riechen
gut.“). Sie werden vom Empfänger anhand des Kontextes interpretiert.
Künstliche Sprachen wie Programmiersprachen müssen dagegen eindeutig sein, um
ein fehlerträchtiges Interpretieren des Parsers oder Compilers zu verhindern.
Bei der Kommunikation zwischen Mensch und Computer entsprechen Icons, Menütexte, Begriffe und Bezeichnungen von Objekten den Zeichen. Nur wenn Sender und
Empfänger den gleichen Zeichenbestand haben, funktioniert die Kommunikation reibungslos.
3.4.1.2 Semantische Ebene
Eine gültige Syntax allein ist nicht ausreichend für eine funktionierende Kommunikation. Auch ein in Rechtschreibung und Grammatik richtiger natürlichsprachlicher Satz
kann völlig sinnlos sein und so keine brauchbare Information zum Empfänger transportieren. Neben der Form ist auch der Inhalt wesentlich.
Der Inhalt, also die Bedeutung der Zeichen, werden auf der Ebene der Semantik beschrieben. Dies gilt sowohl für die einzelnen Zeichen als auch für die zusammengesetzten Superzeichen. Die Bedeutung ist eine Verknüpfung der Zeichen mit Objekten. Das können physisch vorhandene Gegenstände sein, aber auch Gedanken,
Vorstellungen oder Begriffe.
SEMESTERARBEIT JUREK BREUNINGER
95
GRUNDLAGEN
Auch hier kann es wegen Doppeldeutigkeiten zu Verständnisproblemen und somit
gestörter Kommunikation kommen. In natürlichen Sprachen gibt es viele Wörter, die
mehrere Bedeutungen haben. Ebenfalls problematisch ist es, wenn der Sender das
Wissen über Bedeutungen voraussetzt, die der Empfänger nicht hat. Bei Verwendung von Fachausdrücken kann dies vorkommen. Es ist oft ausreichend, dass nur
ein paar Zeichen einer Nachricht für den Empfänger keine Bedeutung haben und die
ganze Nachricht dadurch unverständlich wird. Dies gilt für Computer noch stärker als
für Menschen, da Menschen von Natur aus aus dem Kontext schließen, während in
Computersoftware solch eine Intelligenz explizit implementiert sein müsste.
Prinzipiell sollten Computer und Benutzer die übermittelte Information des anderen
immer verstehen können. So sollten Fehlermeldungen nicht nur für Programmierer,
sondern auch für den Benutzer aussagekräftig sein. Die Bezeichnungen müssen sich
nach dem Benutzer und seiner Arbeitsaufgabe richten. Besonders schwierig ist es
die Bedeutung von bildlichen Zeichen wie Icons oder Piktogrammen allein aus dem
Bild heraus zu verstehen (function follows form). Oft sind die Bilder zu abstrakt oder
die Bedeutung zu speziell. Je nach Häufigkeit der Nutzung, Erfahrungsstand der Anwender und Wichtigkeit der Funktion muss entschieden werden, ob zusätzliche Information in Textform von Nöten ist oder darauf vertraut werden kann, dass der Anwender die Bedeutung nach kurzer Zeit auswendig weiß.
Eine besondere Eigenschaft der menschlichen Kommunikation ist, dass sie nicht auf
ein Medium beschränkt ist. Neben Sprache werden auch Gestik und Mimik zur Informationsübertragung genutzt, dies hilft Doppeldeutigkeiten der Sprache aufzulösen. Allerdings kommen weitere Bereiche hinzu, in denen Empfänger und Sender
unterschiedliches Wissen über Zeichen und Bedeutungen haben können. Auch Gesten können unterschiedliche Bedeutungen haben.
3.4.1.3 Pragmatische Ebene
Die Pragmatik ist die Ebene des sprachlichen Handelns. Auf dieser Ebene laufen die
dynamischen Prozesse der Kommunikation ab. Sie entspricht beim Computer den
Mechanismen der Fehlertoleranz und beim Menschen dem Nachfragen, wenn er etwas nicht verstanden hat. Sie ist für eine erfolgreiche Kommunikation unerlässlich,
denn sie kann Störungen, die in der syntaktischen oder semantischen Ebene aufgetreten sind, ausgleichen. Einen unverständlichen Fachbegriff kann man sich erklären
SEMESTERARBEIT JUREK BREUNINGER
96
GRUNDLAGEN
lassen, bei Verunsicherung durch Doppeldeutigkeit oder unzureichender Information
kann Klarstellung gefordert werden.
Wie diese Konzepte auf den Schnittstellenentwurf von Mensch-Computer-Systemen
übertragen werden können, behandelt das folgende Kapitel Dialogformen.
Dahm 2006, S. 112-119
Shneiderman 2005, S. 176-178
3.4.2 Dialogformen
Es werden nun zwei Dialogformen beschrieben, die auf der pragmatischen Ebene
der Kommunikation helfen Missverständnisse zu vermeiden und auszuräumen: Diskurs und Disputatio.
3.4.2.1 Diskurs
Der Diskurs tritt auf, wenn es zu einem Missverständnis gekommen ist. Er besteht
aus Rückfragen oder Nachfragen und Wiederholen oder Paraphrasieren des Gehörten. Er dient der Lösung des Kommunikationsproblemes und unterbricht den eigentlichen Informationsaustausch. Er dauert an, bis der Empfänger ein ausreichendes
Verständnis erlangt hat, dann wird die ursprüngliche Thematik fortgesetzt.
Das Erkennen des Problems und Anwenden einer passenden Lösungsstrategie ist
anspruchsvoll, wird aber aus Erfahrung von den meisten Menschen problemlos unbewusst durchgeführt.
Es sollten bei der Entwicklung von Software ähnliche Diskursmöglichkeiten vorgesehen werden, obwohl es sehr schwierig ist alle möglichen Rückfragen und Probleme
vorauszusehen. Dies eignet sich nur für Fälle, in denen lineare Lösungswege festgelegt sind, etwa Assistenten.
3.4.2.2 Disputatio
Um das aufwändige Klären von Missverständnissen von vornherein zu vermeiden,
gibt es eine klassische Form der Diskussion, die Disputatio.
Hierbei paraphrasiert der Empfänger jede Nachricht sofort in eigenen Worten, um
den Sender darüber zu informieren, wie weit er ihm geistig folgen kann. Dieser bestätigt die Richtigkeit des Verstandenen.
SEMESTERARBEIT JUREK BREUNINGER
97
GRUNDLAGEN
Dieses Verfahren ist wenig tauglich für die alltägliche Kommunikation. Es wird aber
regelmäßig in Situationen genutzt, in denen die fehlerfreie Übertragung der Information unverzichtbar ist. Dies können etwa das Erklären von technischen Zusammenhängen (Montageanweisung, Lernen für eine Klausur), sicherheitsrelevante Nachrichten (Notruf, Umgang mit Starkstrom) oder eine andere Entscheidungen mit weitreichenden Folgen (Telefonbanking) sein.
Bei Computern sind die kritischsten Situationen meist solche, die irreversiblen Datenverlust zur Folge haben. In solchen sollte eine Rückfrage sicherstellen, dass die
Relevanz der Konsequenzen verstanden wurde. Es besteht allerdings die Gefahr,
dass bei zu häufigen Nachfragen ein Gewöhnungseffekt eintritt.
Dahm 2006, S. 119-122
3.4.3 Dialogprinzipien von Grice
Paul Grice, ein Kommunikationswissenschaftler, hat 1967 fünf Maximen aufgestellt,
die die Kooperation von Dialogpartnern fordert. Sie gelten auch für die Kommunikation zwischen Mensch und Computer und sollten von Entwicklern beachtet werden.
•
Be cooperative
Beachte und respektiere die Bedürfnisse, Anforderungen und Meinungen des
Partners.
•
Be informative (Maxime der Quantität)
Gib ihm dazu die Informationen, die er benötigt.
•
Be truthful (Maxime der Qualität)
Mache nur wahre Aussagen.
•
Be relevant (Maxime der Relation)
Gib ihm nur Informationen, die ihm helfen und ihn nicht belasten.
•
Be perspicuous (Maxime des Stils)
Gib ihm die Information auf eine Art, dass er sie versteht.
Verstöße gegen diese Regeln kategorisiert Grice so:
•
Violation: unbeabsichtigter Verstoß
SEMESTERARBEIT JUREK BREUNINGER
98
GRUNDLAGEN
•
Opting out: Verweigerung der Kommunikation
•
Clash: Widerspruch zwischen zwei Prinzipien (z. B. höflich – wahrheitsgemäß)
•
Flout: absichtlicher Verstoß
Dahm 2006, S. 122f.
3.4.4 Axiome der Kommunikation von Watzlawick
Paul Watzlawick, ebenfalls ein Kommunikationswissenschaftler, stellte 1967 die folgenden fünf „pragmatischen Axiome“ (nicht beweisbare Lehrsätze) auf. Auch sie gelten für die Mensch-Computer-Kommunikation genauso wie für die zwischenmenschliche Kommunikation.
•
Man kann nicht nicht kommunizieren.
Auch Schweigen oder keine Reaktion des Empfängers rufen beim Sender eine Interpretation und damit eine Information hervor. Auch die die Sprache ergänzenden Kommunikationskanäle wie Gestik und Mimik transportieren Informationen. Sie fehlen bei der Mensch-Computer-Kommunikation, was die
menschliche Interpretation einer ausbleibenden Reaktion oder unverständlichen Antwort erschwert. Voraussetzung für dieses Interpretieren fehlender
Rückmeldung ist, dass man den Computer für kommunikationsfähig hält.
•
Jede Kommunikation besitzt Inhalt und Beziehung.
Nicht nur der Inhalt von Nachrichten, sondern auch ihr Stil und die Art und
Weise der Übermittlung werden vom Empfänger aufgenommen. Bei der Formulierung von Texten sollte ebenso auf Höflichkeit geachtet werden wie beim
menschlichen Umgang.
•
Der Ablauf einer Kommunikation ist von Interpunktion geprägt.
Interpunktion bezeichnet die unterschiedliche Interpretation einer Kommunikation durch verschiedene Teilnehmer. Jeder Mensch hält seine subjektive
Wahrnehmung für die Wahrheit. Dies gilt auch für die Arbeit mit dem Computer. Zu Computern werden menschliche Beziehungen und Erwartungen aufgebaut und bei Nichterfüllen entstehen Enttäuschung und Unzufriedenheit.
•
Menschliche Kommunikation enthält digitale und analoge Anteile.
SEMESTERARBEIT JUREK BREUNINGER
99
GRUNDLAGEN
Der digitale Anteil entspricht dem reinen eindeutigen Inhalt aller Aussagen.
Der analoge Anteil ist das, was darüber hinausgeht und interpretiert werden
muss. Er wird meist durch Gestik, Mimik, Stimmlage ausgedrückt. In der
Mensch-Computer-Kommunikation kommen hauptsächlich digitale Anteile vor,
aber auch einige analoge (Metaphern, Bilder, Farben). Da Computer analoge
Anteile meist nicht aufnehmen und interpretieren können, sollten sie möglichst
gut mit digitalen Anteilen (Text) erklärt werden.
•
Kommunikation kann auf symmetrischen oder komplementären Beziehungen
beruhen.
Bei symmetrischer Kommunikation sind die Partner ebenbürtig, bei komplementärer ist einer überlegen. Der Computer ist dem Menschen in fast jeder
Beziehung unterlegen, dennoch ist der Mensch von seiner Funktion abhängig.
Diese Asymmetrie kann für den Anwender sehr verwirrend sein.
Dahm 2006, S. 123f.
3.5 Systemergonomie
Nachdem wir nun das wichtigste Grundlagenwissen aus Naturwissenschaft und Humanwissenschaft behandelt haben, gehen wir nun noch in einem kurzen Überblick
auf einige Modelle und Erkenntnisse der klassischen Ergonomie ein. Diese Themen
werden tiefer gehend in der Vorlesung „Produktergonomie“ behandelt, deshalb gibt
es hier nur eine Zusammenfassung, die für das Verständnis der Zusammenhänge in
dieser Vorlesung ausreichend sein sollte.
Die folgenden Punkte sind allgemeingültige Modelle und empirische Erkenntnisse,
die, obwohl sie nicht speziell Softwaresysteme betrachten, auch für die SoftwareErgonomie gültig sind.
3.5.1 Der Systemgedanke
Man nutzt auch in der Ergonomie die Erkenntnisse der Systemtheorie, um Systeme
zu analysieren und ihr Verhalten vorherzusagen. Die Systemtheorie ist ein interdisziplinäres Erkenntnismodell, in dem Systeme benutzt werden, um bestimmte komplexe
Erscheinungen und Vorgänge zu beschreiben.
SEMESTERARBEIT JUREK BREUNINGER
100
GRUNDLAGEN
Die Interaktionen zwischen Mensch und Maschine können als System modelliert
werden. Die folgende Abbildung 3.5-1 zeigt eine graphische Darstellung dieses Systems.
Umwelt
Belastung
Aufgabe
Mensch
Individuelle Eigenschaften
und Fähigkeiten
Maschine
(Computer)
Ergebnis
Beanspruchung
Rückmeldung
Abbildung 3.5-1: Das Mensch-Maschine-System. Der Mensch wirkt auf die Maschine, um seine Aufgabe zu lösen und ein Ergebnis zu erzielen. Gleichzeitig reagiert er
auf die Rückmeldung. Die Umwelt wirkt auf Mensch und Maschine.
Der Mensch erhält eine Aufgabe, die er zu lösen hat, als Eingangssignal. Er wirkt auf
die Maschine dementsprechend, sodass diese als Ausgangssignal ein Ergebnis produziert. Ähnlich wie in der Regelungstechnik bilden Mensch und Maschine einen Regelkreis, das heißt, die Rückmeldung der Maschine ist für den Menschen ein zusätzliches Eingangssignal. Er agiert und reagiert in Abhängigkeit der zurückgemeldeten
Signale.
Darüber hinaus wirken sowohl auf den Menschen als auch auf die Maschine weitere
Signale von außen aus der Umwelt. Bei der Maschine können dies zum Beispiel
Störeinflüsse sein. Der Mensch wird von vielerlei Seiten beeinflusst. In Anlehnung an
mechanische Systeme (belasteter Balken) spricht man von Belastung. Die Belastung
durch die Aufgabe ist die damit verbundene körperliche und geistige Arbeit. Die äußere Belastung sind die physischen und sozialen Einflüsse durch die Umwelt. Und
die Belastung durch die Mensch-Maschine-Schnittstelle stellen die anthropometrischen Bedingungen und die Qualität des Informationsflusses dar.
SEMESTERARBEIT JUREK BREUNINGER
101
GRUNDLAGEN
In Abhängigkeit der individuellen Eigenschaften und Fähigkeiten führt diese äußere
Belastung zu einer bestimmten Beanspruchung des Menschen, die Auswirkung auf
seine Leistungsfähigkeit hat. Diese Leistungsfähigkeit lässt sich an der
•
Arbeitsqualität (
Ergebnis
) und der
Aufgabe
•
Arbeitsleistung (
Arbeitsqua lität
)
Zeit
messen.
Bubb 2006, Kap. 2.1, 2.2, 2.3
3.5.2 Einteilung von Mensch-Maschine-Systemen anhand der Funktion
Die Systemergonomie geht davon aus, dass man alle Mensch-Maschine-Systeme
nach den Kriterien Aufgabeninhalt und Auslegung einteilen kann.
3.5.2.1 Aufgabeninhalt
Der Aufgabeninhalt wird durch folgende drei Kriterien kategorisiert:
•
Zeitliche Ordnung: Bedienung
•
Räumliche Ordnung: Dimensionalität
•
Räumliche und zeitliche Einschränkung: Führungsart
Die folgende Tabelle 3.5-1 zeigt die Kriterien zur Einteilung von Aufgaben nach Bedienung, Dimensionalität und Führungsart, sowie die Grenzen der menschlichen Fähigkeiten, die beim Entwurf bedacht werden müssen. Beispiele für Arten von Bedienung, Dimensionalität und Führungsart zeigen Abbildung 3.5-2, Abbildung 3.5-3,
Abbildung 3.5-4, Abbildung 3.5-5, Abbildung 3.5-6 und Abbildung 3.5-7.
SEMESTERARBEIT JUREK BREUNINGER
102
GRUNDLAGEN
Tabelle 3.5-1: Menschliche Grenzen und Designempfehlungen für MenschMaschine-Systeme in Abhängigkeit vom Aufgabeninhalt
Menschliche Grenzen
Bedienung
sequenziell
•
Merkfähigkeit
•
Checklisten
•
Abrufbereitschaft
•
Gliederung
des Langzeitge-
•
einfach Folge
•
Teilautomatisierung
•
Expertensysteme
•
synthetische An-
dächtnisses
simultan
Empfehlungen
•
7 ± 2 psychologische Einheiten
zeigen
•
Möglichkeit zwischen Aufgaben zu
springen
Dimensionalität 1- bis 6-
•
1- bis 3-
dimensional (3
dimensional:
transaltorische
leicht
und 3 rotatori-
•
sche)
•
•
Anzahl der Stellteile
≤ Dimensionalität
•
technische Redu-
4- bis 6-
zierung der Dimen-
dimensional:
sionalität durch
schwer
Zwangsführung
Kopplung
•
Entkopplung durch
Konstruktion oder
Regelung
Führungsart
statisch
•
Zeitbudget
•
Teilautomatisierung
•
Linearitätsgrenze
•
Kontaktanaloge
der Maschine
Anzeige der Linearitätsgrenze
dynamisch
•
obere Grenzfre-
•
Automatisierung
quenz des Men-
•
automatisches Aus-
schen
SEMESTERARBEIT JUREK BREUNINGER
103
GRUNDLAGEN
Menschliche Grenzen
•
Empfehlungen
regeln von Sollvor-
untere Grenzfre-
gaben, Voranzeige
quenz des Menschen
•
•
„schneller“ sein als
Erfüllbarkeit der
die Aufgabe ver-
Aufgabe
•
Maschine muss
langt
Dynamik der
Aufgabe
•
Reduzierung der
Steuerungsart
durch „aktives Bedienelement“
Abbildung 3.5-2: Sequentielle Bedienung: Basteln nach Anleitung
Abbildung 3.5-3: Simultane Bedienung: Das Spielen mehrer Manuale und der Pedale
gleichzeitig auf einer Orgel
SEMESTERARBEIT JUREK BREUNINGER
104
GRUNDLAGEN
Abbildung 3.5-4: Beispiel für Dimensionalität: Diese Kranführung ist zweidimensional.
Abbildung 3.5-5: Diese Spacemouse (für CAD) geht an die Grenzen der menschlichen Fähigkeiten, sie ermöglicht Steuerung in allen sechs Dimensionen.
Abbildung 3.5-6: Ein Beispiel für statische Führungsart: Beim Bildhauen ändert sich
die Vorgabe (Modell, Foto, Vorstellung des Künstlers) nicht.
SEMESTERARBEIT JUREK BREUNINGER
105
GRUNDLAGEN
Abbildung 3.5-7: Dynamische Führungsart: Beim Arcade-Automaten muss der Bediener ständig auf die Änderungen im Spiel reagieren.
3.5.2.2 Auslegung
Die Aufgabenauslegung wird durch diese beiden Kriterien kategorisiert:
•
Aufgabendarstellung: Darstellungsart
•
Art des menschlichen Eingriffs: Aufgabenart
Tabelle 3.5-2 zeigt verschiedene Darstellungs- und Aufgabenarten. Zusätzlich führt
sie menschliche Grenzen und Entwurfsempfehlungen auf. Abbildung 3.5-8,
Abbildung 3.5-9, Abbildung 3.5-10, Abbildung 3.5-11, Abbildung 3.5-12 und
Abbildung 3.5-13 zeigen Beispiele für Darstellungsarten und Aufgabenarten.
Tabelle 3.5-2: Menschliche Grenzen und Designempfehlungen für MenschMaschine-Systeme in Abhängigkeit von der Aufgabenauslegung
Menschliche Grenzen
Darstel-
Folgeauf-
lungsart
gabe
Kompensa-
•
Informationsauf-
•
Lagesteuerung
•
Geschwindigkeitssteue-
nahme
•
Kein Gefühl für
tionsaufga-
dynamisches
be
Verhalten
SEMESTERARBEIT JUREK BREUNINGER
Empfehlungen
rung bevorzugen
106
GRUNDLAGEN
Menschliche Grenzen
Aufgabenart Aktiv
monitiv
•
Schnelligkeit
•
Genauigkeit
Empfehlungen
•
Automatisierung oder
Teilautomatisierung, falls
die Führungsgröße
•
Zuverlässigkeit
•
Monotonie
•
Übungsverlust
messbar ist
•
Handbedienung, eventuell „Sicherheitskorridor“
Abbildung 3.5-8: Das Nachführen einer Kamera ist eine Folgeaufgabe. Es ist jederzeit die absolute Richtung der Kamera und des Ziels bekannt.
Abbildung 3.5-9: Das Wiegen mit einer Balkenwaage ist eine Kompensationsaufgabe. Nicht der absolute Wert wird angezeigt, sondern nur die Differenz zum Zielwert.
SEMESTERARBEIT JUREK BREUNINGER
107
GRUNDLAGEN
Folgeaufgabe (exozentris ch)
Aufgabe
An zeige
Ergebnis
Mensch
Mas chine
An zeige
Abbildung 3.5-10: Das Systemmodell einer Folgeaufgabe
Kompensationsaufgabe (egozentrisch)
Aufgabe
Ergebnis
-
An zeige
Mensch
Mas chine
Abbildung 3.5-11: Das Systemmodell einer Kompensationsaufgabe
Abbildung 3.5-12: Der Leitstand eines
Kraftwerks. Hier wird viel monitive Arbeit verrichtet, d. h. die Maschinen überwacht.
Abbildung 3.5-13: CAD-Konstrukteur
verrichtet aktive Tätigkeiten.
3.5.2.3 Probleme der Automatisierung
Als Lösung für viele menschliche Grenzen wird oft die Automatisierung vorgeschlagen. Es sollten allerdings folgende Nachteile solcher Systeme bedacht werden:
•
unvorhersehbare Situationen:
Eine Automatik kann nur auf Situationen reagieren, für die sie programmiert
wurde.
•
Übungsverlust:
SEMESTERARBEIT JUREK BREUNINGER
108
GRUNDLAGEN
Wird die Aufgabe wieder aktiv übernommen, unterliegt der Bediener einem
Übungsverlust und kann die Aufgabe nicht mehr so zuverlässig erfüllen wie
bei einer rein aktiven Aufgabe.
•
Problem der herabgesetzten Vigilanz (Wachheit):
Bei langen monitiven Tätigkeiten lässt die Daueraufmerksamkeit deutlich
nach.
Bubb 2006, Kap. 3.4, 3.5
Herczeg 2005, S. 31
Shneiderman 2005, S. 78-82
3.5.3 Rückmeldung
Die Systemergonomie fordert für alle Tätigkeiten immer eine gute Rückmeldung an
den Menschen.
Folgende Empfehlungen haben sich bewährt:
•
Die Rückmeldung sollte auf so vielen Sinneskanälen erfolgen wie möglich.
•
Die zeitliche Verzögerung der Rückmeldung sollte zwischen 100 ms und 2 s
liegen.
Bubb 2006, Kap. 3.4, 3.5
3.5.4 Kompatibilität
Unter Kompatibilität versteht man in der Systemergonomie die Übereinstimmung der
Logik und Richtung von Anzeigen, Bedienelementen, mentalen Modellen des Benutzers und den natürlichen Gegebenheiten. Es wird zwischen primärer und sekundärer
Kompatibilität unterschieden. Primäre Kompatibilität bezeichnet die Übereinstimmung
von Logik und Richtung bei Realität, Anzeige, Bedienelement und innerem Modell
des Benutzers. Sekundäre Kompatibilität bezeichnet die Widerspruchsfreiheit der
Richtungen innerhalb einer Anzeige oder eines Bedienelements.
Die primäre Kompatibilität wird in äußere und innere Kompatibilität aufgeteilt. Äußere
Kompatibilität ist gegeben, wenn die Bewegungsrichtung von Stellteilen oder Anzeigen mit der anderer Stellteile, Anzeigen und vor allem der Umwelt übereinstimmen
(Abbildung 3.5-14). Innere Kompatibilität ist die Übereinstimmung der Bewegungsrichtung von Stellteilen oder Anzeigen mit den mentalen Modellen des Benutzers.
SEMESTERARBEIT JUREK BREUNINGER
109
GRUNDLAGEN
Eine Pinne mag äußerlich inkompatibel sein (Abbildung 3.5-15), wenn sich der Nutzer über die Funktionsweise des Ruders klar ist, ist sie trotzdem innerlich kompatibel.
Abbildung 3.5-14: Äußere Kompatibilität: Die Richtung des Bedienelementes stimmt
mit der Fahrtrichtung überein: Lenkrad.
Abbildung 3.5-15: Äußere Inkompatibilität: Die Richtung des Bedienelementes ist
entgegengesetzt der Fahrtrichtung: Pinne.
SEMESTERARBEIT JUREK BREUNINGER
110
GRUNDLAGEN
Es gibt folgende Empfehlungen für die Richtungen von Stellteilen und Anzeigen:
Für
•
an
•
mehr
•
nach rechts
sollten die Richtungen
•
nach oben
•
nach vorne
•
vom Operateur weg
bevorzugt werden (Abbildung 3.5-16, analog für die Gegensätze).
Abbildung 3.5-16: Die Vorzugsrichtungen von Stellteilen für „mehr“.
Sekundäre Kompatibilität betrifft die Konsistenz von Anzeigen oder Stellteilen. Das
heißt innerhalb einer Anzeige sollen sich Bewegungsrichtungen und Logik nicht widersprechen (Abbildung 3.5-19).
Mit den oben genannten Empfehlungen schließt dies bei kreisförmigen Analoganzeigen den rechten und den unteren Sektor aus. Hier sind die Drehrichtung im Uhrzeigersinn für „mehr“ und die Abwärts- bzw. Linksbewegung der Zeigerspitze für „weniger“ sekundär inkompatibel (Abbildung 3.5-17).
SEMESTERARBEIT JUREK BREUNINGER
111
GRUNDLAGEN
Abbildung 3.5-17: In kreisförmigen Analoganzeigen sind der rechte und der untere
Sektor sekundär inkompatibel, da sich Drehrichtung („mehr“) und Ab- bzw. Linksbewegung der Zeigerspitze („weniger“) widersprechen.
Ein anderes Beispiel für sekundäre Inkompatibilität ist die Anzeigeart „Fester Zeiger
– bewegte Skala“. Damit sich die Skala für Zunahme nach rechts bewegt oder im
Uhrzeigersinn dreht, müssen die Zahlen auf ihr nach links steigend angeordnet sein.
Oder die Anordnung der Ziffern ist aufsteigend, aber die Skala dreht sich bei Zunahme nach links beziehungsweise gegen den Uhrzeigersinn (Abbildung 3.5-18). Solche
Inkompatibilitäten sollten vermieden werden.
SEMESTERARBEIT JUREK BREUNINGER
112
GRUNDLAGEN
Abbildung 3.5-18: Sekundäre Inkompatibilität: Die Skala dieser Waage dreht sich im
Gegenuhrzeigersinn bei Zunahme.
Abbildung 3.5-19: Sekundäre Inkompatibilität: Der Tachometer nimmt im Urzeigersinn zu, die Tankanzeige im selben Instrument im Gegenuhrzeigersinn.
Bubb 2006, Kap. 3.4, 3.5
SEMESTERARBEIT JUREK BREUNINGER
113
LITERATURVERZEICHNIS
4 Literaturverzeichnis
Anderson, John R.
Kognitive Psychologie, Spektrum 2001
Braess, Hans-Hermann
Vieweg-Handbuch Kraftfahrzeugtechnik, Vieweg 2007
Bubb, Heiner
Produktergonomieskript
Lehrstuhl für Ergonomie der TU München 2006,
http://www.lfe.mw.tum.de/lehre/lehrveranstaltungen/Pr
oduktergonomie/Produktergoskripten.html
Card, Stuart; Moran,
The Psychology of Human Computer Interaction,
Thomas P.; Newell, Allen
Lawrence Erlbaum Associates 1983
Dahm, Markus
Grundlagen
der
Mensch-Computer-Interaktion,
Pearson Studium 2006
Peter T. Daniels; Bright,
The World's Writing Systems, Oxford University Press
William
1996
Goldstein, E. B.
Wahrnehmungspsychologie, Spektrum 2002
Hacker, Winfried
Arbeitspsychologie, Huber Hans 1986
Helson, Harry
The Fundametal Propositions of Gestalt Psychology,
Psychological Review 40, S. 13-32, 1933
Herczeg, Michael
Software-Ergonomie,
Grundlagen
der
Mensch-
Computer-Kommunikation, Oldenbourg 2005
Hick, Christian;
Intensivkurs Physiologie, Elsevier 2006
Hartmann, Jan
Johannsen, Gunnar
Mensch-Maschine-Systeme, Springer 1993
Miller, George A.
The Magical Number Seven, Plus or Minus Two Some
Limits on Our Capacity for Processing Information,
Psychological
Review
Bd.
63/1956,
S.
81-97
http://www.psych.utoronto.ca/users/peterson/psy430s2
001/Miller%20GA%20Magical%20Seven%20Psych%2
0Review%201955.pdf
SEMESTERARBEIT JUREK BREUNINGER
114
LITERATURVERZEICHNIS
Rasmussen, Jens
Skills, Rules and Knowledge; Signals, Signs and
Symbols,
and
Other
Distinctions
in
Human
Performance Models; IEEE Trans. Systems, Man,
Cybernetics, SMC-13 (1983), S. 257-266
Shneiderman, Ben
User Interface Design, mitp 2001
Shneiderman, Ben;
Designing the User Interface, Strategies for Effective
Plaisant, Catherine
Human-Computer
Interaction,
Pearson
Addison-
Wesley 2005
Spitzer, Cary R.
Avionics: Elements, Software and Functions; CRC
Press 2006
Strasser, Benedikt; Spies, Ergonomisches Praktikum Skript: Lärm – Grundlagen,
Roland
Messung, Schutz und Audiometrie, Lehrstuhl für Ergonomie
der
TU
München
2008
http://www.ergonomie.tum.de/lehre/lehrveranstaltunge
n/ErgonomischesPraktikum/Skript_Laerm_StrasserSpi
es.pdf
Strandh, Sigvard
Die Maschine – Geschichte, Elemente, Funktion;
Weltbild 1992
Streitz, Norbert
Psychologische
Interaktion.
In
Aspekte
der
Enzyklopädie
Mensch-Computerder
Psychologie,
Ingenieurpsychologie, Göttingen, Hogrefe 1990
Sutherland, Ivan Edvard
Sketchpad: A man-machine graphical communication
system, University of Cambridge Technical Report
2003
http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR574.pdf
Wertheimer, Max
Untersuchungen von der Lehre zur Gestalt, II,
Psychologische Forschung 4, S. 305-350, Springer
1923
SEMESTERARBEIT JUREK BREUNINGER
115
ABBILDUNGSVERZEICHNIS
5 Abbildungsverzeichnis
Alle Abbildungen zuletzt heruntergeladen am 10.01.2009
Abbildung 1.1-1:
Abbildung 1.1-2:
Abbildung 2.1-1:
Abbildung 2.1-2:
Abbildung 2.1-3:
Abbildung 2.1-4:
Abbildung 2.1-5:
Abbildung 2.2-1:
Abbildung 2.2-2:
Abbildung 2.2-3:
Abbildung 2.2-4:
Abbildung 2.2-5:
Abbildung 2.2-6:
Abbildung 2.2-7:
Abbildung 2.2-8:
Abbildung 2.2-9:
Abbildung 2.2-10:
Abbildung 2.2-11:
Abbildung 2.2-12:
Abbildung 2.2-13:
Abbildung 2.2-14:
Abbildung 2.2-15:
Abbildung 2.2-16:
Abbildung 2.2-17:
Abbildung 2.2-18:
Abbildung 2.2-19:
Abbildung 2.2-20:
Abbildung 2.2-21:
selbst erstellt
selbst erstellt
http://www.fao.org/docrep/010/ah810e/AH810E50.gif
http://commons.wikimedia.org/wiki/File:Polispasto2.jpg
http://commons.wikimedia.org/wiki/
File:Design_for_a_Flying_Machine.jpg
http://de.wikipedia.org/w/index.php?title=Datei:Arts_et_Metiers_
Pascaline_dsc03869.jpg&filetimestamp=20050613182651
http://www.cleo.net.uk/followtheyarn/timeline/images/
manup_loom_tn.jpg
http://newsimg.bbc.co.uk/media/images/44233000/jpg/
_44233921_integrated_circuit_416.jpg
http://www.ubergizmo.com/photos/2008/2/intel-tukwila.jpg
http://upload.wikimedia.org/wikipedia/commons/0/05/
Transistor_Count_and_Moore%27s_Law_-_2008.png
http://commons.wikimedia.org/wiki/File:MOHAI_-_analog_
computer_02.jpg
http://de.wikipedia.org/w/index.php?title=Datei:GfhR_(14).jpg
&filetimestamp=20070121211644
http://de.wikipedia.org/w/index.php?title=Datei:BRL61-IBM_
305_RAMAC.jpeg&filetimestamp=20060904130403
http://www.actwin.com/toaph/life/computers/vt100.gif
http://en.wikipedia.org/wiki/File:Sketchpad-Apple.jpg
http://www.bootstrap.org/chronicle/press/050505/2_files/
4-NLSgui.jpg
http://sloan.stanford.edu/MouseSite/gallery/slides1/
mockup/closeup.jpg
http://www.sciencemuseum.org.uk/images/object_images/
535x535/10438156.jpg
http://www.classiccmp.org/dunfield/pet/h/p20018.jpg
http://en.wikipedia.org/wiki/File:Atari_400P8.jpg
http://cbmmuseum.kuto.de/images/home_vc20.jpg
http://mechanicsnationalbank.com/images/timeline/
History_Xerox_Alto.jpg
http://www.digibarn.com/collections/software/alto/
alto-cedar-environment.jpg
http://www.digibarn.com/collections/systems/xerox-8010/
xerox-star-8010-large.jpg
http://www.aresluna.org/attached/computerhistory/articles/
macintoshbytereview/pics/photo1
http://www.guidebookgallery.org/pics/gui/desktop/full/
macos11.png
http://senze.com/images/ibmpc.jpg
http://upload.wikimedia.org/wikipedia/de/d/da/GEM1.png
SEMESTERARBEIT JUREK BREUNINGER
116
ABBILDUNGSVERZEICHNIS
Abbildung 2.2-22: http://www.guidebookgallery.org/pics/gui/desktop/firstrun/
cde15solaris9.png
Abbildung 2.2-23: http://www.winhistory.de/more/bilder/win101write.gif
Abbildung 2.2-24: http://www.guidebookgallery.org/pics/gui/desktop/firstrun/
win31-1-1.png
Abbildung 2.2-25: http://www.guidebookgallery.org/pics/gui/desktop/full/
win95osr2.png
Abbildung 2.2-26: http://download.microsoft.com/download/d/6/3/
d6386816-25e3-430e-ad99-337f081922aa/Sidebar.jpg
Abbildung 2.2-27: http://www.guidebookgallery.org/pics/gui/desktop/full/
macosx103-1-1.png
Abbildung 2.2-28: http://kde.org/announcements/4.1/screenshots/
plasma-folderview.png
Abbildung 2.2-29: http://linuxscreenshots.org/screenshots/fedora/9/home_folder.jpg
Abbildung 2.3-1:
http://einestages.spiegel.de/hund-images/2007/10/29/10/44a12a
d0d5e08915def460fded73ea25_image_document_
large_featured_borderless.jpg
http://www.mobilmania.cz/Files/Obrazky/art15/
Siemenshistory/41.jpg
http://images.apple.com/iphone/gallery/images/
iphone_hardware4_20081217.jpg
Abbildung 2.3-2:
http://i31.photobucket.com/albums/c355/Candor7/
gripen_cockpit_001--EC_CenteredCont.jpg
Abbildung 2.3-3:
http://www.flightglobal.com/blogs/aircraft-pictures/
A350XWBlarge.jpg
Abbildung 2.3-4:
http://members.optusnet.com.au/mbenz2006/W220J-19.jpg
Abbildung 2.3-5:
http://www.bmw.de/de/de/newvehicles/3series/touring/2008/
allfacts/equipment/_shared/img/communication/
navigation_business.jpg
Abbildung 2.3-6:
http://www.bmw.de/de/de/newvehicles/3series/coupe/2006/
allfacts/_shared/img/ergonomics_idrive_1.jpg
Abbildung 2.3-7:
http://www.gorenje.com/catalogue/imagelib/appl/magnify/
appliances/objective/img_5249.jpg
Abbildung 3.1-1:
Goldstein 2002, Farbtafel 1.2
Abbildung 3.1-2:
Goldstein 2002, Abb. 2.9
Abbildung 3.1-3:
selbst erstellt
Abbildung 3.1-4:
selbst erstellt
Abbildung 3.1-5:
selbst erstellt
Abbildung 3.1-6:
selbst erstellt
Abbildung 3.1-7:
Goldstein 2002, Abb. 2.44
Abbildung 3.1-8:
selbst erstellt
Abbildung 3.1-9:
Goldstein 2002, Abb. 5.12
Abbildung 3.1-10: Goldstein 2002, Abb. 5.21
Abbildung 3.1-11: Goldstein 2002, Abb. 7.4
Abbildung 3.1-12: Goldstein 2002, Abb. 7.7
Abbildung 3.1-13: Goldstein 2002, Abb. 7.12
Abbildung 3.1-14: http://commons.wikimedia.org/wiki/File:Mh_stereogramm_sis.png
Abbildung 3.1-15: selbst erstellt
Abbildung 3.1-16: selbst erstellt
Abbildung 3.1-17: Goldstein 2002, Abb. 6.17
SEMESTERARBEIT JUREK BREUNINGER
117
ABBILDUNGSVERZEICHNIS
Abbildung 3.1-18:
Abbildung 3.1-19:
Abbildung 3.1-20:
Abbildung 3.1-21:
Abbildung 3.1-22:
Abbildung 3.1-23:
Abbildung 3.1-24:
Abbildung 3.1-25:
Abbildung 3.1-26:
Abbildung 3.2-1:
Abbildung 3.3-1:
Abbildung 3.3-2:
Abbildung 3.3-3:
Abbildung 3.3-4:
Abbildung 3.3-5:
Abbildung 3.3-6:
Abbildung 3.5-1:
Abbildung 3.5-2:
Abbildung 3.5-3:
Abbildung 3.5-4:
Abbildung 3.5-5:
Abbildung 3.5-6:
Abbildung 3.5-7:
Abbildung 3.5-8:
Abbildung 3.5-9:
Abbildung 3.5-10:
Abbildung 3.5-11:
Abbildung 3.5-12:
Abbildung 3.5-13:
Abbildung 3.5-14:
Abbildung 3.5-15:
Abbildung 3.5-16:
Abbildung 3.5-17:
Abbildung 3.5-18:
Abbildung 3.5-19:
selbst erstellt
selbst erstellt
Goldstein 2002, Abb. 6.13
http://commons.wikimedia.org/wiki/File:Mi_Fu_Shu_Su_Tie.jpg
http://en.wikipedia.org/wiki/
File:Guyuk_khan%27s_Stamp_1246.jpg
http://upload.wikimedia.org/wikipedia/commons/b/ba/
Boustrophedon_Greek.png
http://freetype.fis.uniroma2.it/opentype/sura1.png
http://www.sengpielaudio.com/Bewertungsfilter02.gif
Dahm 2006, Abb. 3.40
selbst erstellt
selbst erstellt
Herczeg 2005, S. 107, Abb. 21,
Herczeg 2005, S. 110, Abb. 22
selbst erstellt
selbst erstellt
selbst erstellt
selbst erstellt
http://www.bastelanleitung.org/images/basteln.jpg
http://homepage.ntlworld.com/valanwood/images/
Organist%20absent%20s.jpg
http://www.demagcranes.de/Produkte/Produktgruppen/Schalter_
und_Steuerungen/Funksteuerung_DRC-DC_/entry_image.jpg
http://www.vis.uni-stuttgart.de/ger/teaching/lecture/ss02/
seminar_vr/V6-spacemouse.jpg
http://www.bildhauer-raetsch.de/austellung/index03.jpg
http://upload.wikimedia.org/wikipedia/commons/8/88/
Donkey_Kong_arcade.jpg
http://www.n24.de/media/import/dpaserviceline/dpaserviceline_
20080820_15/Kameramann_
18700552originallarge-4-3-800-0-220-2486-2084.jpg
http://upload.wikimedia.org/wikipedia/commons/1/16/
Samenwaage.jpg
selbst erstellt
selbst erstellt
http://pics.computerbase.de/lexikon/118014/
500px-Leitstand_2.jpg
http://www.dot.state.mn.us/aero/aved/avcollege/images/
Gaphotogallery/aseDesign_CAD.jpg
http://www.spieltiger.de/bobbycar.jpg
http://upload.wikimedia.org/wikipedia/commons/e/e4/
PiafSchotfuehrung.JPG
selbst erstellt
selbst erstellt
http://www.amansis.de/pic/glaswaage/personenwaage.jpg
http://p3.focus.de/img/gen/k/G/HBkGYNA8_Pxgen_r_467xA.jpg
SEMESTERARBEIT JUREK BREUNINGER
118
ANHANG: LITERATUREMPFEHLUNG
Anhang: Literaturempfehlung
Markus Dahm
Grundlagen der Mensch-Computer-Interaktion
Pearson Studium, 2006
Gut strukturierter Überblick, sehr nah an dieser Vorlesung, geht nicht allzu sehr in die
Tiefe
Michael Herczeg
Software-Ergonomie
Grundlagen der Mensch-Computer-Kommunikation
Oldenbourg, 2005
Aktuelle Neuauflage des gleichnamigen Standardwerkes von 1994 (auch
lesenswert), an die technische Entwicklung angepasst, angenehm kurz, geht vor
allem auf allgemeingültige Betrachtungen ein, z. B. Modellierung
Ben Shneiderman, Catherine Plaisant
Designing the User Interface, Fourth Edition
Strategies for Effective Human-Computer Interaction
Pearson Education, 2005
Sehr guter Einstiegspunkt, wenn man sich tiefer in die Materie einarbeiten will, sehr
umfangreiche Literaturangaben, recht ausführlich geschrieben ohne stark auf die
technische Realisierung einzugehen, fokussiert den PC-Bereich, deutlich anders
strukturiert als die oben genannten
E. Bruce Goldstein
Wahrnehmungspsychologie
Spektrum Akademischer Verlag, 2002
Die „Bibel“ der Wahrnehmungspsychologie, beschäftigt sich sehr ausführlich mit
menschlichem Wahrnehmen und Denken, erste Anlaufstation für den nichttechnischen Teil der Software-Ergonomie
SEMESTERARBEIT JUREK BREUNINGER
119