Physiologische, psychologische und systemergonomische
Transcription
Physiologische, psychologische und systemergonomische
Lehrstuhl für Ergonomie Jurek Breuninger Physiologische, psychologische und systemergonomische Grundlagen der Mensch-ComputerInteraktion Physiological, Psychological and System Ergonomic Basics of Human-Computer-Interaction Lehrstuhl für Ergonomie Technische Universität München Theoretische Semesterarbeit Verfasser: Jurek Breuninger Module: Elektronik und Informatik Informationstechnik Betreuer: Prof. Dr. rer. nat. Heiner Bubb Dipl.-Ing. Martin Wohlfarter: Ausgabe am: 28.08.2008 Abgabe am: 16.01.2009 SEMESTERARBEIT JUREK BREUNINGER 2 EIDESSTATTLICHE ERKLÄRUNG Hiermit versichere ich, diese Studienarbeit ohne fremde Hilfe selbständig verfasst und nur die angegebenen Quellen und Hilfsmittel verwendet zu haben. Wörtlich oder dem Sinn nach aus anderen Werken entnommene Stellen sind unter Angabe der Quellen kenntlich gemacht. Garching, den Jurek Breuninger VEREINBARUNG ZUM URHEBERRECHT Hiermit gestatte ich dem Lehrstuhl für Ergonomie, diese Studienarbeit bzw. Teile davon nach eigenem Ermessen an Dritte weiterzugeben, zu veröffentlichen oder anderweitig zu nutzen. Mein persönliches Urheberrecht ist über diese Regelung hinaus nicht beeinträchtigt. Eventuelle Geheimhaltungsvereinbarungen über den Inhalt der Arbeit zwischen mir bzw. dem Lehrstuhl für Ergonomie und Dritten bleiben von dieser Vereinbarung unberührt. Garching, den Jurek Breuninger SEMESTERARBEIT JUREK BREUNINGER 3 EINLEITUNG 1 EINLEITUNG 6 1.1 Einordnung der Software-Ergonomie 6 1.2 Folgen schlechter Software-Ergonomie 9 1.3 Ziele der Software-Ergonomie 2 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION 10 11 2.1 Geschichte der Maschine 11 2.2 Der Computer und die Entstehung graphischer Oberflächen 14 2.3 Weitere Gebiete der Mensch-Computer-Interaktion 29 3 GRUNDLAGEN 3.1 Die menschliche Wahrnehmung 33 33 3.1.1 Sensorik 33 3.1.2 Sehen 34 3.1.3 Wahrnehmungsfehler 38 3.1.4 Farben 42 3.1.5 Tiefensehen 45 3.1.6 Gestaltgesetze 49 3.1.7 Leserichtung 52 3.1.8 Hören 56 3.2 Gedächtnis und Erfahrung 59 3.2.1 Sensorisches Kurzzeitgedächtnis 60 3.2.2 Kurzzeitgedächtnis (Arbeitsgedächtnis, primäres Gedächtnis) 61 3.2.3 Langzeitgedächtnis (sekundäres Gedächtnis, tertiäres Gedächtnis) 63 3.2.4 Assoziationen und Metaphern 67 3.2.5 Mentale Modelle 67 3.2.6 Erfahrung 71 3.2.7 Lernunterstützung 73 Handlungsprozesse 74 3.3.1 Aufmerksamkeit 74 3.3.2 Handlungsregulation 75 3.3.3 Zeitverhalten 80 3.3 SEMESTERARBEIT JUREK BREUNINGER 4 EINLEITUNG 3.3.4 Die sieben Handlungsschritte von Norman 86 3.3.5 Affordances und Mappings 89 3.3.6 Das GOMS-Modell 90 3.3.7 Fitts Gesetz 91 3.3.8 Das Hicksche Gesetz 92 3.4 Kommunikation 93 3.4.1 Ebenen der Kommunikation 94 3.4.2 Dialogformen 97 3.4.3 Dialogprinzipien von Grice 98 3.4.4 Axiome der Kommunikation von Watzlawick 99 3.5 Systemergonomie 100 3.5.1 Der Systemgedanke 100 3.5.2 Einteilung von Mensch-Maschine-Systemen anhand der Funktion 102 3.5.3 Rückmeldung 109 3.5.4 Kompatibilität 109 4 LITERATURVERZEICHNIS 114 5 ABBILDUNGSVERZEICHNIS 116 ANHANG: LITERATUREMPFEHLUNG 119 SEMESTERARBEIT JUREK BREUNINGER 5 EINLEITUNG 1 Einleitung Warum sind manche Computerprogramme, Mobiltelefone, Navigationssysteme oder andere technische Geräte sofort intuitiv bedienbar? Ohne sich mit dem Handbuch beschäftigen zu müssen erfüllen sie ihre Funktionen so, wie wir es erwarten. Aber warum gibt es auch so viele Gegenbeispiele, bei denen sich die Funktionsweise sehr schlecht erschließt? Manche technische Möglichkeiten von Geräten oder Programmen bleiben immer ungenutzt, da sie nicht verinnerlicht werden oder gar unbekannt bleiben. Ein gutes technisches Produkt braucht für den wirtschaftlichen Erfolg nicht nur eine gute Funktionalität, ein ansprechendes Design und einen attraktiven Preis. Die Akzeptanz beim Kunden folgt auch aus seinen Erfahrungen mit dem Produkt in der Praxis. Die faszinierendsten Funktionen sind nicht nützlich, wenn sie nicht gut bedienbar sind. Ein Programm, das lange Ausbildung erfordert oder komplizierte und lange Prozesse bedingt, rechnet sich für ein Unternehmen nicht. Produktivität wird durch schlechtes Design der Mensch-Maschine-Schnittstelle gebremst oder gar verhindert. Wie kann man ein einfach bedienbares Produkt entwickeln? Warum ist es so schwierig und geht so oft schief? Diese Vorlesung beschäftigt sich mit den Regeln und Möglichkeiten des Entwurfs der Mensch-Maschine-Schnittstelle von softwaregesteuerten Systemen, also allen Computern und Geräten mit eingebetteten (embedded) Computern. Da dabei viele Konzepte der klassischen Ergonomie angewandt werden, die hier nicht alle im Detail behandelt werden können, sei auch auf die Vorlesung „Produktergonomie“ hingewiesen, die einen tieferen Einblick gestattet, aber nicht Voraussetzung für das Verständnis dieser Vorlesung ist. 1.1 Einordnung der Software-Ergonomie All diese Systeme sollen uns durch ihre Funktionen helfen, eine Arbeit zu verrichten oder zu erleichtern. Dies gilt auch für die Geräte der Unterhaltungselektronik, auch wenn wir deren Funktionen nicht als „Arbeit“ empfinden. Man kann statt Arbeit allgemeiner von Aufgabe sprechen. SEMESTERARBEIT JUREK BREUNINGER 6 EINLEITUNG Die Wissenschaft, die sich mit dem Entwurf und der Integration dieser Arbeitsmittel beschäftigt ist, die Arbeitswissenschaft (engl. Ergonomics, amerik. Human Factors). Häufig spricht man auch von den Arbeitswissenschaften, da die Arbeitswissenschaft ein interdisziplinäres Gebiet ist, das sich der Erkenntnisse aus den Humanwissenschaften (z. B. Medizin, Psychologie, Soziologie, Pädagogik), den Ingenieurwissenschaften (Physik, Konstruktion, Mess- und Regelungstechnik), der Wirtschaftswissenschaft (Ökonomie) und der Sozialwissenschaft (Rechtswissenschaft) bedient. Die Arbeitswissenschaft kann man grob zweiteilen: • In den Bereich, der sich mit der Gestaltung der Arbeitsmittel beschäftigt, der Ergonomie (engl. Micro Ergonomics) und • in den Bereich, der sich mit der Gestaltung der Organisation, dem Betrieb und den Arbeitsgruppen innerhalb von Arbeitsprozessen beschäftigt, die Arbeitsorganisation (engl. Macro Ergonomics). Das Wort Ergonomie ist ein Kunstwort, zusammengesetzt aus ergon (gr. für Arbeit) und nomos (gr. für Gesetz, Gesetzmäßigkeit). In der Ergonomie beschäftigt man sich neben der aus dem Sprachgebrauch bekannten gesundheitlichen Verträglichkeit von Produkten auch mit dem Aspekt der einfachen Erfassbarkeit der Funktionen, der effizienten Ausführung, der Optimierung des Komforts und auch den Forderungen der Ästhetik. Es gibt neben Ergonomie eine Menge Begriffe für diesen Bereich, die in der Literatur teilweise unterschiedlich definiert und strukturiert werden. Die folgende Abbildung 1.1-1 zeigt einige: SEMESTERARBEIT JUREK BREUNINGER 7 EINLEITUNG (intuitiv e) Bedienbarkeit usability Dienlichkeit Benutzerf reundlichkeit Gebrauchstauglichkeit (dt. Übersetzung v on usability nach DIN 9241) Kommunikation Maschine- Mensch- Interaktion ComputerSchnittstelle Communication MachineHuman- Interaction ComputerInterf ace Abbildung 1.1-1: Eine Sammlung von Begriffen aus dem Bereich der SoftwareErgonomie. Sie werden je nach Literatur oft synonym verwendet. Die Mensch-Computer-Interaktion, mit der wir uns im Rahmen dieser Vorlesung beschäftigen, ist eine Untermenge der Mensch-Maschine-Interaktion (Abbildung 1.1-2). Hier wird die Besonderheit der Interaktion mit softwaregesteuerten Maschinen untersucht. Mensch-Maschine-Interaktion Mensch-Com puter-Interaktion HardwareErgonomie SoftwareErgonomie Abbildung 1.1-2: Die Mensch-Computer-Interaktion ist eine Untermenge der MenschMaschine-Interaktion. Auch innerhalb dieses Gebietes gibt es wieder eine Aufteilung: Hardware- und Software-Ergonomie. Trotz des Titels der Vorlesung beschäftigen wir uns hier mit beiden, da sie eng miteinander verknüpft sind. Wenn man bei einer Produktentwicklung Einfluss auf die Hardware-Ergonomie hat (z. B. bei eingebetteten Systemen), hat dies SEMESTERARBEIT JUREK BREUNINGER 8 EINLEITUNG weitreichende Folgen für Software-Ergonomie. In manchen Publikationen wird die Hardware-Ergonomie sogar als Teil der Software-Ergonomie aufgefasst. Aber es gibt Bereiche (vor allem der PC-Bereich), in denen der Entwickler wenig oder gar keinen Einfluss auf die Hardware-Ergonomie hat. 1.2 Folgen schlechter Software-Ergonomie Gute Ergonomie wird leider meist kaum wahrgenommen. Erst wenn Dinge nicht so funktionieren, wie wir es erwarten, wird die Wichtigkeit dieses Themas ersichtlich. Dabei kann eine schlechte Gestaltung der Mensch-Computer-Interaktion weitreichende Folgen haben. Die meisten sind nur sehr aufwendig (das heißt teuer) oder gar nicht zu reparieren: • Der Benutzer wird frustriert. Seine Motivation und Leistungsfähigkeit sinken (wichtig im betrieblichen Umfeld). • Arbeitszeit wird in das Erreichen einer Funktion investiert und nicht in die Funktion selbst (workarounds). Diese Zeit ist verschwendet und kostet den Arbeitgeber Geld. • Die durch die Anschaffung eines Gerätes oder einer Software erhoffte Steigerung an Produktivität wird durch schlechte Bedienbarkeit abgeschwächt oder zunichte gemacht. • Die durch die Anschaffung eines Gerätes oder einer (automatisierten) Software erhoffte Entlastung des Personals tritt nicht ein. • Der Kunde wendet sich vom Produkt ab zugunsten der Konkurrenz. Dies bedeutet einen Umsatzverlust. • Ein Kunde, der keinen Produktivitätszwang hat (z. B. Unterhaltungselektronik), gibt nach wenigen Versuchen auf. Die Folge ist Kundenunzufriedenheit. • Das Unternehmen, das mit dem Produkt assoziiert wird (meist der Hersteller, in manchen Fällen auch der Integrator), erleidet einen Imageverlust. Dieser ist langfristig meist folgenreicher als der unmittelbare Umsatzverlust. • Da gewisse Eigenschaften vom Auftraggeber einklagbar sind (siehe Kapitel Normen), kann ein Produkt, das ohne Beachtung der Bedienbarkeit entwickelt SEMESTERARBEIT JUREK BREUNINGER 9 EINLEITUNG wurde, für den Hersteller unerwartete Verluste bedeuten (meist Minderung des Kaufpreises). • Bei sicherheitskritischen Systemen kann eine schlecht gestaltete MenschComputer-Schnittstelle Gefahr für Gesundheit oder Leben der Beteiligten bedeuten. 1.3 Ziele der Software-Ergonomie Es ist natürlich im Interesse des Entwicklers, die oben genannten Folgen zu vermeiden. Er soll den Anwender bei der Erledigung seiner Aufgabe unterstützen. Dadurch ergeben sich die wichtigsten Ziele der Software-Ergonomie: • Effektivität (≙Wirkung) des Anwenders – das heißt, er kann seine Aufgabe erfüllen • Effizienz (≙Wirkung pro Aufwand) des Anwenders – das heißt, er erfüllt seine Aufgabe mit minimalem Aufwand (Zeit, Kosten, Übung) • Zufriedenheit des Anwenders – das heißt, er muss sich nicht ärgern beim Erfüllen seiner Aufgabe (besser noch es macht ihm Freude) Dies sind die von DIN ISO 9241 definierten Ziele. Zusätzlich fordert das U.S. Militär: • Zuverlässigkeit der Kombination Anwender – Software/Gerät • Förderung von Standards innerhalb von Systemen und zwischen Systemen Literatur: Dahm 2006, S. 16-26 Shneiderman 2005, S. 4-14, S. 17-24 Bubb 2006, Kap. 1 SEMESTERARBEIT JUREK BREUNINGER 10 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION 2 Kleine Geschichte der Mensch-Maschine-Interaktion Doch zuerst ein kleiner Abriss, wie sich die Arbeit der Menschen mit ihren Maschinen entwickelt hat. In der Moderne mit besonderem Fokus auf die Entwicklung der Computer und ihrer Bedienoberflächen. 2.1 Geschichte der Maschine Der Mensch benutzt seit Jahrtausenden Werkzeuge, die ihm die Arbeit, das Erfüllen seiner Aufgaben erleichtern sollen. Für viele ist das eines der wichtigsten Unterschiede des Menschen zum Tier und die Voraussetzung für die Entwicklung einer Zivilisation. Die Abgrenzung zwischen Werkzeug und Maschine (von gr. mechané: Gerüst, Vorrichtung) ist oft ein fließender Übergang. Maschinen weisen eine höhere Komplexität als Werkzeuge auf und bestehen meist aus mehreren Maschinenelementen. Aristoteles bezeichnete im vierten Jahrhundert vor Christus Hebel und Schraube als Maschinen. Das sind nach unserem heutigen Verständnis aber nur Maschinenelemente. Aber bereits bei den Schöpfwerken (Abbildung 2.1-1) zur Ackerbewässerung der Babylonier im siebten Jahrhundert vor Christus kann man nach unserem modernen Verständnis von Maschinen sprechen. Oft wird auch das Rad, aus heutiger Sicht ebenfalls ein Maschinenelement, und die ersten Karren als die erste Maschine gesehen. Das Rad entstand an wahrscheinlich mehreren Orten unabhängig voneinander etwa 4000 vor Christus. Vor allem für die Baukunst war bereits in der Frühantike der Flaschenzug (Abbildung 2.1-2) eine der wichtigsten Maschinen. Abbildung 2.1-1: Eine der ersten Maschinen, ein persisches Schöpfwerk (600 v.Chr.) SEMESTERARBEIT JUREK BREUNINGER 11 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.1-2: Bereits seit der Antike bekannt: Der Flaschenzug In der Antike und im Mittelalter waren Maschinen von eingeschränkter Komplexität. Der Bediener war meist auch der Entwickler und der Erbauer; das Funktionsprinzip einfach erfassbar. Erst in der Neuzeit nahm die Komplexität rapide zu: z. B. Entwürfe für Kriegs- und Flugmaschinen von Leonardo da Vinci im 15. Jahrhundert (Abbildung 2.1-3), Rechenmaschinen von Pascal (Abbildung 2.1-4) und Leibnitz im 17. Jahrhundert, vollmechanisierter Webstuhl von Carthwright (Abbildung 2.1-5) im 18. Jahrhundert. Abbildung 2.1-3: Entwurf einer Flugmaschine von Leonardo da Vinci (1488) SEMESTERARBEIT JUREK BREUNINGER 12 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.1-4: Eine der ersten mechanischen Rechenmaschinen: Die Pascaline (1643) Abbildung 2.1-5: Webmaschine von Cartwright (1785) Mit dem Beginn der industriellen Revolution nahmen Maschinen einen bestimmenden Platz in der Gesellschaft ein. Durch die Erfindung der Dampfmaschine konnte die Arbeitskraft statt durch Menschen oder Tiere durch die Maschine erzeugt werden. Durch diese Entwicklung der Maschine wandelte sich das Arbeitsbild des Menschen. Die Rolle des Menschen änderte sich immer mehr vom ausführenden zum kontrollierenden und überwachenden Arbeiter. Die Maschine hilft ihm, physische Arbeit zu vermeiden und bringt neue Möglichkeiten und Notwendigkeiten geistiger Arbeit mit sich. Umso komplexer die Maschinen wurden, desto unverständlicher wurden deren interne Vorgänge für die bedienenden Arbeiter (Black-Box-Prinzip). Maschinen wurden nun meist von verschiedenen Menschen entwickelt, aufgebaut und bedient. Strandh 1992, S. 26ff., S. 37f., S. 74f., S. 77ff. SEMESTERARBEIT JUREK BREUNINGER 13 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION 2.2 Der Computer und die Entstehung graphischer Oberflächen Einen weiteren Schub in Komplexität und Leistungsfähigkeit erlangte die Entwicklung der Maschinen im 20. Jahrhundert durch die Erfindung des integrierten Schaltkreises durch Kilby im Jahr 1958 (Abbildung 2.2-1). Abbildung 2.2-1: Der erste integrierte Schaltkreis von Kilby (1958) besteht aus einem Transistor und hat eine Größe von etwa 150 mm². Mit dieser Technik ist es möglich, Rechenmaschinen zu bauen, die mehrere Tausend Operationen pro Sekunde ausführen. Das Computerzeitalter hatte begonnen. Die Computertechnologie entwickelte sich schneller weiter als jede andere Technologie bis dahin. Sie folgt bis heute dem Moore’schen Gesetz (Abbildung 2.2-3), das 1965 von Intel-Chef Gordon Moore postuliert wurde. Es besagt, dass sich die Komplexität (d. h. die Anzahl der Transistoren) auf einem Computerchip alle 18 bis 24 Monate verdoppelt. Da die Leistungsfähigkeit eines Chips stark an die Anzahl der Transistoren gekoppelt ist, kann man von einer Verdopplung der Leistungsfähigkeit alle zwei Jahre sprechen (Abbildung 2.2-2). Abbildung 2.2-2: Ein Intel Itanium II Prozessor (2008) vereint 2 Milliarden Transistoren auf einer Fläche von 600 mm². SEMESTERARBEIT JUREK BREUNINGER 14 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-3: Moore’s Law: Die Anzahl der Transistoren in verschiedenen Prozessoren aufgetragen über ihr Erscheinungsdatum. Durch ihre extreme Arbeitsgeschwindigkeit und das Fehlen einer optisch erfassbaren Mechanik gilt für Computer das Black-Box-Prinzip besonders. Der Anwender kann nicht auf die Funktionsweise schließen. Hinzu kommt, dass Computer Universalmaschinen sind, die ihre Logik erst durch Programmierung erhalten. Zwei identische Computerchips können also durch unterschiedliche Programmierung völlig verschiedene Aufgaben lösen. Dies stellt besonders hohe Anforderungen an die MenschMaschine-Schnittstelle, da sie ohne dem Menschen ersichtliche physikalische Abhängigkeiten (z. B. Hebel bewegt Stellteil) auskommen muss. Außerdem kann die Bedienung einer Maschine durch die Computertechnik nun an einem anderen Ort erfolgen als die Maschine steht. Daraus folgt selbst für einfache mechanische Maschinen, dass der Arbeitsprozess für den Benutzer nicht mehr sichtbar ist. Die Bedienung von Computern änderte sich mit ihrer Zunahme an Komplexität. In der Anfangszeit war der Entwickler meist auch der Erbauer und Bediener (Programmierer). Lange Zeit war das Benutzen von Computern einer kleinen Gruppe vorbe- SEMESTERARBEIT JUREK BREUNINGER 15 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION halten, da Computer sehr groß und teuer waren und so nur von Forschungseinrichtungen, großen Firmen und dem Militär benutzt wurden. Die Anwender waren hoch spezialisiert und hatten gutes Verständnis der Funktionsweise. Die Steuerung der Computer erfolgte oft durch Eingriff in die Hardware, also das Verschalten einzelner Module je nach Anwendungszweck. Vor allem bei Analogcomputern bildeten große Steckbretter ein wichtiges Eingabeinstrument (Abbildung 2.2-4). Abbildung 2.2-4: Steckbretter, Schalter und Analoganzeigen eines Analogcomputers Die ersten programmierbaren Computer machten eine Speichermöglichkeit der Programme zur Wiederverwendung nötig. Erst benutzte man Lochkarten (Abbildung 2.2-5) und Widerstandsmatrizen, ab den 1950er Jahren auch Magnetspeicher (Bänder, später Festplatten, Abbildung 2.2-6). Abbildung 2.2-5: Die Eingabeeinheit eines IBM Lochkartenstanzers und eine Lochkarte SEMESTERARBEIT JUREK BREUNINGER 16 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-6: IBM 305 RAMAC (1956): Der erste Computer mit Festplatte (Die beiden Schränke links und in der Mitte enthalten je eine IBM 350 mit ca. 5 Megabyte Kapazität) Neben der Eingabe des Programms durch das Speichermedium waren Schalter anfangs die einzige Eingabemöglichkeit; die Ausgabe erfolgt über Analoginstrumente und Signalleuchten. Ab den 1950er Jahren wurden Fernschreiber, bald auch Bildschirme und alphanumerische Tastaturen benutzt. Mit dem Aufkommen der Großrechenanlagen in den 60ern konnten erstmals mehrere Benutzer über so genannte Terminals (eine Bildschirm-Tastatur-Einheit, Abbildung 2.2-7) einen Computer bedienen. Abbildung 2.2-7: Das bekannteste aller Terminals: Das VT100 von DEC (1979). Es enthält selber keinen vollständigen Computer, sondern ermöglicht den Zugriff auf eine entfernte Großrechenanlage SEMESTERARBEIT JUREK BREUNINGER 17 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Die Bedienung erfolgte durch Ein- und Ausgabe von Text, anfangs nur zeilenweise, später auch seitenweise. 1963 entstand mit Sketchpad (Abbildung 2.2-8), der Doktorarbeit von Ivan Sutherland am MIT (Sutherland 2003, S. 31-36), ein erster Schritt in Richtung graphische Benutzeroberfläche. Das Programm nutzte einen Lichtgriffel, mit dem auf einem Röhrenmonitor Positionen eingegeben werden konnten. Es war als rudimentäres Zeichen- und Konstruktionsprogramm ausgelegt. Es wurde später im amerikanischkanadischen computergesteuerten Luftverteidigungssystem zum Abfangen von Interkontinentalraketen als Steuerung der Radarerfassung eingesetzt. Abbildung 2.2-8: Sketchpad: Die erste GUI. Bedient wird sie mit einem Lichtgriffel. 1968 stellte Douglas Engelbart in der so genannten „Mutter aller Demos“ das NLS (oNLine System), das Ergebnis der vergangenen fünf Jahre Forschung am Stanford Research Institute, vor (Abbildung 2.2-9). Es nutzte erstmals den 1963 dafür entwickelten „X-Y-Positions-Anzeiger für ein Bildschirmsystem“, die spätere Computermaus. Neben der Maus und einer Akkordtastaur (Abbildung 2.2-10) zeigte NLS viele Fähigkeiten moderner Computer zum ersten Mal: interaktiver Text, Videokonferenz, Email und Hypertext. SEMESTERARBEIT JUREK BREUNINGER 18 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-9: Ein Screenshot des NLS bei seiner ersten Präsentation 1968. Der Mauszeiger ist ein kleiner Strich, genannt „Bug“. Graphische Strukturierung von Information ist bereits möglich. Abbildung 2.2-10: Die Eingabeinstrumente des NLS sind neben einer alphanumerischen Tastatur erstmals die Maus und eine Akkordtastatur. Aufgrund der nun möglichen billigen Massenfertigung von Mikroprozessoren, wurden Computer immer kleiner und leistungsfähiger. Es entstanden die ersten Heimcomputer, anfangs als Bausatz, später in Serienproduktion. Diese Heimcomputer, die in den 80ern den Höhepunkt ihrer Popularität erreichten, unterschieden sich durch die vielen Hersteller stark. Es gab eine Vielzahl an Betriebssystemen, die sich in ihrer Bedienung unterschieden. Auch die Tastaturen waren meist je nach Herstellern verschieden in Umfang und Anordnung ihrer Zusatztasten (Abbildung 2.2-11, Abbildung 2.2-12, Abbildung 2.2-13, Abbildung 2.2-14). SEMESTERARBEIT JUREK BREUNINGER 19 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-11: Einer der ersten populären Heimcomputer: Der Apple II (1977) Abbildung 2.2-12: Der erste Heimcomputer von Commodore: Der PET 2001 (1977). Man beachte die Tastatur in Matrixanordnung, oft „Micky-Maus-Tastatur“ genannt. Abbildung 2.2-13: Der Atari 400 (1979) mit Folientastatur SEMESTERARBEIT JUREK BREUNINGER 20 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-14: Zusammen mit seinem Nachfolger einer der bekanntesten Heimcomputer: Commodore VC-20 (1982), Vorgänger des C64 (1982), genannt ‚Brotkasten“ 1973 entwickelte Xerox am Forschungszentrum Xerox PARC den Alto (Abbildung 2.2-15). Er war der erste Computer mit einer graphischen Benutzeroberfläche (graphical user interface, GUI) mit Fenstern, Menüs, Icons und Maussteuerung. Die Bedienung des Computers wurde erstmals durch die Schreibtischmetapher (Desktop) vereinfacht (Abbildung 2.2-16). Vor allem die Textverarbeitung wird durch das WYSIWYG-Prinzip (What you see is what you get) deutlich intuitiver. Abbildung 2.2-15: Ein Meilenstein in der Geschichte der Mensch-ComputerInteraktion: Der Xerox Alto. SEMESTERARBEIT JUREK BREUNINGER 21 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-16: Die Benutzeroberfläche des Alto mit der Programmierumgebung für Smalltalk Das Forschungsprojekt wurde zum Xerox Star weiterentwickelt und kam 1981 auf den Markt, wurde aber wegen des hohen Preises ein kommerzieller Misserfolg. Mit einem sehr ähnlichen GUI-Konzept kam 1983 der Apple Lisa auf den Markt, war aber ebenfalls zu teuer. Erst der in der Hardware abgespeckte und deutlich billigere Apple Macintosh (Abbildung 2.2-18, Abbildung 2.2-19) brachte 1984 der GUI den Durchbruch. Abbildung 2.2-17: Der kommerzielle Erbe des Alto, der Xerox Star. SEMESTERARBEIT JUREK BREUNINGER 22 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-18: Der erste kommerziell erfolgreiche Computer mit graphischer Bedienoberfläche: Der Apple Macintosh. Abbildung 2.2-19: Die GUI des Macintosh. Sie weist hohe Ähnlichkeit zu der von Xerox auf. Der Anfang der 80er bereits eingeführte IBM-PC (Personal Computer, Abbildung 2.2-20, ) wurde immer populärer und brachte dem Computermarkt einige HardwareStandards, die andere Hersteller übernahmen. Bis 1990 verloren alle nicht IBMkompatiblen Computer außer denen von Apple weitgehend an Bedeutung. Auf Heimsystemen hatte sich mit Microsofts MS-DOS das Betriebssystem des IBM-PCs durchgesetzt, das weiterhin textbasiert gesteuert wurde. Zusatzprogramme, die DOS um eine graphische Oberfläche erweitern, konnten sich lange nicht durchsetzen (Abbildung 2.2-21). SEMESTERARBEIT JUREK BREUNINGER 23 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-20: Der IBM Personal Computer (1981) Abbildung 2.2-21: Die GUI GEM von Digital Research: Während sie auf dem Atari erfolgreich war, konnte sie sich auf dem PC nicht durchsetzen. Apple entwickelte das Betriebssystem des Macintosh (das seit Version 7.5 Mac OS heißt) kontinuierlich weiter. Apples Anteil am Computermarkt aber schwand, viele Entwicklungen blieben ohne Bedeutung für die breite Masse. Auf professionellen Computersystemen und an Universitäten hatten sich seit den 80er das Betriebssystem Unix und seine Derivate durchgesetzt. Dieses wurde weiterhin recht lange textgesteuert, da die Benutzer meist mit der Materie vertraute Experten oder gut geschult waren. Mit dem X-Window-System gibt es aber auch auf ihm bereits seit 1984 eine betriebssystemweite Möglichkeit der graphischen Ausga- SEMESTERARBEIT JUREK BREUNINGER 24 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION be. Basierend darauf setzte sich die Bedienoberfläche CDE (Common Desktop Environment, Abbildung 2.2-22) als Standardlösung für kommerzielle Unixsysteme durch. Abbildung 2.2-22: CDE auf dem Betriebssystem Sun Solaris. CDE war lange Zeit die Standard-GUI kommerzieller Unix-Systeme. Auch Microsoft versuchte seit 1983 mit Windows (Abbildung 2.2-23) einen graphischen Aufsatz für das populäre MS-DOS zu vermarkten. Doch erst mit Windows 3.1 (1992, Abbildung 2.2-24) gelang auch auf dem PC der Durchbruch der GUI. Windows NT 3.1 und Windows 95 waren dann die ersten rein graphischen Betriebssysteme von Microsoft, am Grundaufbau der Bedienoberfläche von Windows 95 (Abbildung 2.2-25) orientieren sich alle seine Nachfolger (Abbildung 2.2-26). Abbildung 2.2-23: Windows 1.0 (1983): Ein Vorläufer der Programmleiste (grüner Bereich), rudimentäres Multitasking, keine überlappenden Fenster SEMESTERARBEIT JUREK BREUNINGER 25 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-24: Windows 3.1 (1992): Die Programmleiste ist wieder verschwunden, dafür gibt es inzwischen überlappende Fenster. Abbildung 2.2-25: Windows 95 (1995): Startmenü, Programmleiste, Icons auf dem Desktop SEMESTERARBEIT JUREK BREUNINGER 26 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.2-26: Führt die Bedienoberflächenphilosophie von Microsoft weiter: Windows Vista (2007). Da Apple seit 1999 wieder an Marktanteilen gewinnt, hat auch sein Betriebssystem Mac OS wieder an Bedeutung gewonnen. Mit zahlreichen Neuerungen in der Oberfläche ist Mac OS X (2001, Abbildung 2.2-27) wieder ein wichtiger Vorantreiber der Entwicklung der graphischen Benutzeroberfläche. Abbildung 2.2-27: Apples Betriebssystem Mac OS X mit der Bedienoberfläche Aqua. SEMESTERARBEIT JUREK BREUNINGER 27 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Auf Unix-kompatiblen Systemen haben sich seit Ende der 90er die Open-SourceDesktopoberflächen KDE (Abbildung 2.2-28) und Gnome (Abbildung 2.2-29) durchgesetzt. Abbildung 2.2-28: Einer der beiden wichtigsten Desktopoberflächen für Unix-Derivate wie Linux: KDE Abbildung 2.2-29: Eine weitere populäre GUI für Linux: Gnome. SEMESTERARBEIT JUREK BREUNINGER 28 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Die Bedienoberflächen aller modernen Betriebssysteme beherrschen inzwischen auch durch die Grafikkarte beschleunigte Darstellung. (Mac OS seit 2001, Unix (compiz) seit 2004, Windows Vista seit 2007). Dies ermöglicht dreidimensionale und andere Effekte. http://arstechnica.com/old/content/2005/05/gui.ars http://www.computergeschichte.de/ http://www.heise.de/newsticker/Vor-40-Jahren-die-Maus-kreisste-und-gebar-eine-neue-Welt-/meldung/120106 http://sloan.stanford.edu/MouseSite/ http://www.mac-history.de/ http://winhistory.de/ 2.3 Weitere Gebiete der Mensch-Computer-Interaktion Neben den PCs nimmt auch die Entwicklung der eingebetteten Computer einen rasanten Verlauf. Durch die billige Massenherstellung kleiner Mikrochips werden immer mehr Geräte ab den 80er Jahren mit elektronischen Fähigkeiten ausgestattet. Vor allem der Siegeszug der Mobiltelefone in den 90er Jahren führt dazu, dass heute fast jeder einen eingebetteten Computer mit sich herumträgt. Die Entwicklung ihrer Bedienoberflächen vom einfachen Tastentelefon zum touchscreen-gesteuerten Smartphone (Abbildung 2.3-1) ähnelt der der Computer. Abbildung 2.3-1: 15 Jahre Mobiltelefonentwicklung: Motorola 3200 International von 1992, Siemens S10 mit Vier-Farben-Display von 1997, Apple iPhone mit Touchscreen von 2007. SEMESTERARBEIT JUREK BREUNINGER 29 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Militärflugzeuge (Abbildung 2.3-2) besitzen seit den 80ern, Zivilflugzeuge (Abbildung 2.3-3) seit den 90ern, so genannte MFDs (Multi-Function-Displays). Diese zeigen menügesteuert verschiedene Informationen an und sparen Schalter und Analoganzeigen. HUDs (Head-Up-Displays) ermöglichen optische Übermittlung von Information ohne den Blick vom Geschehen abzuwenden. Abbildung 2.3-2: Das Cockpit einer Saab Gripen mit HUD und drei MFDs. Abbildung 2.3-3: Das Cockpit des Airbus A350 mit zwei HUDs und zehn MFDs. Mit der Vorstellung des COMAND-Systems (Abbildung 2.3-4) in der Mercedes SKlasse im Jahr 1998 hält die graphische Bedienung auch in Automobilen Einzug. BMW stellte 2001 den Siebener mit iDrive (Abbildung 2.3-5) vor, dessen Bedienung auf viele Knöpfe verzichtet zugunsten einer menübasierten Steuerung mit einem einzigen Mehrwege-Schalter (Abbildung 2.3-6). Auch HUDs haben von den Flugzeugen ihren Weg in Autos gefunden. SEMESTERARBEIT JUREK BREUNINGER 30 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION Abbildung 2.3-4: Das COMAND-System in der Mercedes S-Klasse war ab 1998 das erste software-basierte Infotainmentsystem mit Farbbildschirm im Auto. Abbildung 2.3-5: BMW brachte 2001 im Siebener mit dem iDrive eine noch radikalere Lösung, bei der die Bedienung fast aller nicht sicherheitskritischen Funktionen über ein einzelnes Bedienelement erfolgt. Abbildung 2.3-6: Die überarbeitete Form des iDrive-Controllers mit Schnellwahltasten. SEMESTERARBEIT JUREK BREUNINGER 31 KLEINE GESCHICHTE DER MENSCH-MASCHINE-INTERAKTION In weiterer Zukunft wird Elektronik und damit softwarebasierte Bedienung in immer mehr Geräten zu finden sein. Die Computertechnik ist pervasiv, das heißt sie durchdringt alle Bereiche (Abbildung 2.3-7). Abbildung 2.3-7: Waschmaschine mit Touchscreen-Bedienung. Spitzer 2006, Kap. 7 Braess 2007, S. 682-690 SEMESTERARBEIT JUREK BREUNINGER 32 GRUNDLAGEN 3 Grundlagen Bevor wir uns mit Gestaltungsregeln und vorhandenen technischen Realisierungen beschäftigen können, müssen wir uns mit den psychologischen und physiologischen Grundlagen der Mensch-Maschine-Interaktion beschäftigen. Das heißt, wie interagiert ein Mensch mit einer Maschine oder speziell einem Computer und warum. Was sind die Möglichkeiten der menschlichen Informationsaufnahme und verarbeitung und wo liegen ihre Grenzen? Bei der Entwicklung einer Mensch-Maschine-Schnittstelle sollten die menschlichen Möglichkeiten ausgeschöpft werden, aber auch die Einschränkungen in Betracht gezogen werden. 3.1 Die menschliche Wahrnehmung Um ein Produkt zu entwickeln, das von den Benutzern gut bedient werden kann und ihnen so das Erledigen ihrer Arbeit effektiv, effizient und zufriedenstellend ermöglicht, muss sich der Entwickler Gedanken über den Informationsaustausch zwischen Gerät (bzw. Software) und dem bedienenden Menschen machen. Die Schnittstelle zwischen beiden sollte an die Möglichkeiten des Menschen angepasst werden, um den Informationsaustausch ohne unnötige Vorverarbeitung oder Wandlung seitens des Menschen zu gestatten. Deswegen gehört es zu den Grundlagen eines Ergonomen, die Funktionsweise der menschlichen Wahrnehmung (also Informationsaufnahme) zu verstehen. 3.1.1 Sensorik Zur Aufnahme von Informationen aus seiner Umwelt besitzt der Mensch nach klassischer Ansicht fünf Sinneskanäle: • Sehen (visuelle Wahrnehmung) • Hören (auditive Wahrnehmung) • Riechen (olfaktorische Wahrnehmung) • Schmecken (gustatorische Wahrnehmung) • Tasten (haptische Wahrnehmung) SEMESTERARBEIT JUREK BREUNINGER 33 GRUNDLAGEN Darüber hinaus kennt man in der modernen Physiologie: • Temperaturempfinden (thermische Wahrnehmung) • Bewegungsempfinden (kinästhetische Wahrnehmung) • Gleichgewichtssinn (vestibuläre Wahrnehmung) • Wahrnehmung der Körperhaltung (Tiefensensibilität) Es ist offensichtlich, dass für die Informationsaufnahme vom Computer nur visuelle, auditive und (eingeschränkt) haptische Wahrnehmung von Bedeutung sind. Auch wenn es für Spezialanwendungen technische Realisierungen von Geruchsaktoren gibt (Duftorgel), besteht kein allgemeiner Bedarf. Geschmacksaktoren und Temperaturaktoren haben keine Bedeutung in technischen Systemen. Eine kinästhetische Rückmeldung findet in dem Spezialgebiet der Fahr- und Flugsimulatoren statt. Die menschliche Wahrnehmung ist primär auf Auge und Ohr ausgelegt. Von den 8 MBit/s Sinneseindrücken, die ein Mensch verarbeiten kann, liefern etwa 80% die Augen und 15% die Ohren. Dahm 2006, S. 41 Bubb 2006, Kap. 3.2 3.1.2 Sehen Das Auge (Abbildung 3.1-1) ist das wichtigste Sinnesorgan des Menschen. Unser Verhalten stützt sich vor allem auf seine Informationen. Deswegen beschäftigen wir uns auch in der Software-Ergonomie primär mit diesem Sinneskanal und seinen Eigenschaften. Neben der reinen Aufnahme von Lichtart und -intensität ist vor allem die Mustererkennung der tragende Prozess, der die menschliche Wahrnehmung dominiert. SEMESTERARBEIT JUREK BREUNINGER 34 GRUNDLAGEN Abbildung 3.1-1: Das menschliche Auge: Einfallendes Licht wird mit Hilfe der Linse scharf auf die Netzhaut abgebildet. Dort wandeln Rezeptoren wie Stäbchen und Zapfen das Licht in elektrische Nervenimpulse, die an den visuellen Cortex im Gehirn geleitet werden. 3.1.2.1 Statisches Sehen Das Auge ist ein Sensor für elektromagnetische Wellen im Bereich von etwa 400 bis 700 nm Wellenlänge. Es verfügt über zwei unterschiedliche Typen von lichtempfindlichen Rezeptoren, die auf der Netzhaut verteilt sind: • Die Zapfen befinden sich vor allem im Zentrum um die optische Achse. Sie sind für das Farbigsehen verantwortlich. Es gibt jeweils Zapfen für rotes, grünes oder blaues Licht, die sich durch ihre Pigmentierung unterscheiden. • Die Stäbchen sind deutlich empfindlicher als die Zapfen, ermöglichen aber nur die Unterscheidung von Helligkeitsunterschieden. Sie sind über die ganze Netzhaut verteilt und deutlich zahlreicher als die Zapfen. 95% aller Rezeptoren sind Stäbchen. Der Kontrastumfang, den das menschliche Auge mit den Stäbchen erfassen kann, liegt bei 1:200 bis 1:250. Die Anzahl der unterscheidbaren Graustufen bei etwa 200 bis 250. Durch die Adaption, das Regulieren der einfallenden Lichtmenge durch die Iris, erweitert sich der Kontrastumfang allerdings auf bis zu 1:100 000. Die Farbinformationen, die das Auge erstellt, ergeben sich aus additiver Farbmischung. Das heißt, es werden immer die Intensitäten von drei nah beieinander liegenden Zapfen mit den Primärfarben rot, grün und blau gemeinsam ausgewertet. Mit dieser Farbmischung lassen sich (fast) alle Farben darstellen. SEMESTERARBEIT JUREK BREUNINGER 35 GRUNDLAGEN Das Scharfsehen von Gegenständen in unterschiedlicher Entfernung wird durch die Akkomodation erreicht (Abbildung 3.1-2). Dabei wird die Linse durch Muskeln gestaucht (für nahe Objekte) oder gestreckt (für ferne Objekte). Dies ändert die Brechkraft der Linse und ermöglicht eine scharfe Abbildung auf der Netzhaut. Das Stauchen erfolgt durch Muskelkontraktion und ist somit das anstrengendere Verfahren. Deswegen ist das Fokussieren von nahen Gegenständen über längere Zeit ermüdend. Allerdings sind weit entfernte Objekte schwerer zu erkennen. Deshalb ergibt sich ein idealer Abstand für das Erkennen von Informationen oder das Lesen von Text von etwa 25 bis 30 Zentimeter. Abbildung 3.1-2: Die Akkomodation ermöglicht das Fokussieren von Objekten in verschiedenen Entfernungen. Da sich die meisten Zapfen in einem Kreis von etwa 5mm Durchmesser um die optische Sehachse befinden und die Stäbchen eine höhere Empfindlichkeit haben, können wir am Rande des Gesichtsfeldes schlechter Farben erkennen, aber besser schwach leuchtende Objekte (z. B. Sterne am dunklen Himmel). SEMESTERARBEIT JUREK BREUNINGER 36 GRUNDLAGEN An einer Stelle der Netzhaut tritt das Bündel der Sehnerven aus. Dort befinden sich keine Rezeptoren. Man spricht vom blinden Fleck, denn hier können wir nichts sehen. Der blinde Fleck befindet sich etwa 15° bis 20 ° horizontal entfernt von der optischen Achse. Theoretisch gibt es also immer einen Punkt, an dem wir nichts sehen. Dass trotzdem nicht ständig Gegenstände in unserem Blickfeld verschwinden, liegt daran, dass sich unsere Augen in ständiger Bewegung befinden und das Gehirn diesen nur wenige Hundertstel bestehenden Fehler ausgleicht. Hinzu kommt, dass sich das Gesamtbild in unserem Gehirn aus den Bildern beider Augen zusammensetzt. 3.1.2.2 Dynamisches Sehen Neben dem Erfassen ruhender Bilder, dem statischen Sehen, kann der Mensch auch Bewegungen wahrnehmen. Dafür haben wir kein eigenes Sinnesorgan, vielmehr geschieht dies durch eine Mustererkennung, also eine im Gehirn erfolgende Analyse der Eindrücke. Im Prinzip setzt das Gehirn eine Folge von Einzelbildern zu einer Bewegung zusammen, basierend auf Erfahrung. Ab einer gewissen Frequenz, der Verschmelzungsfrequenz, erscheint eine Folge von Einzelbildern als Bewegung. Diese Frequenz ist von Kontrast und Helligkeit der Bilder abhängig, liegt aber bei natürlichen Bildern bei etwa 22 Bildern pro Sekunde. Bei höherem Kontrast wird eher ein Flimmern wahrgenommen. In der Fernseh- und Kinotechnik liegt die Projektionsfrequenz bei 25 bzw. 24 Bildern pro Sekunde, sodass die gezeigten Bilderfolgen gerade als kontinuierliche Bewegung interpretiert werden. In der Peripherie des Gesichtsfeldes ist die Empfindlichkeit für Bewegung deutlich höher als im Zentrum (peripheres Sehen ermöglichte unseren Vorfahren schnellere Erfassung von Raub- oder Beutetier). Dadurch bemerkt man bei größeren Flächen eher ein Flimmern als bei kleinen (Großflächenflimmern). Bei Röhrenmonitoren, die kontinuierlich ihr Bild erneuern müssen, bemerken wir vor allem beim Vorbeisehen ein Flimmern. Durch die Helligkeit des Monitors liegt hier die Verschmelzungsfrequenz deutlich höher. Ab 85 Hz Bildwiederholfrequenz geht man von einem flimmerfreien Bild aus. Da eine Bewegung in der Peripherie des Gesichtfeldes für einen jagenden Urmenschen immer mögliche Gefahr oder Beute bedeutete, ziehen Bewegungen bis heute unsere Aufmerksamkeit auf sich. Blinkende oder sich bewegende Objekte sollten SEMESTERARBEIT JUREK BREUNINGER 37 GRUNDLAGEN deshalb auch nur für wichtige, vor allem Gefahr ankündigende Funktionen genutzt werden, da sie von anderen ablenken. Dahm 2006, S. 41-47 Goldstein 2002, S. 41-51 3.1.3 Wahrnehmungsfehler Die Zapfen und Stäbchen im Auge sind nicht einfach eine Sammlung von Sensoren, die ungefilterte Information an das Gehirn senden. Man geht davon aus, dass bereits im Auge eine Vorverarbeitung der Information stattfindet durch die Vernetzung der Rezeptoren untereinander. Die Bildinformation wird bereits nach gewissen Merkmalen durchsucht (Mustererkennung) und diese zusätzlich vom visuellen System im Gehirn ausgewertet. Dies macht Erkennungsaufgaben für das Gehirn einfacher. Da diese Mustererkennung auf in der Natur vorkommende Situationen ausgelegt ist, kann es vor allem bei künstlichen Bildern zu Wahrnehmungsfehlern kommen. Das sind keine objektiven Fehler in der Informationsaufnahme, sondern subjektive Fehler in der Interpretation der Information. Es werden Muster angewandt, die in dieser Situation nicht zutreffend sind. Diese speziellen Eigenschaften der visuellen Wahrnehmung sollten bedacht werden, um bei der Auslegung einer Mensch-Computer-Schnittstelle Wahrnehmungsfehler als Fehlerquelle zu vermeiden. 3.1.3.1 Simultankontrast Zwei Rechtecke des gleichen Grautons werden je von einem hellen beziehungsweise dunklen Hintergrund umrahmt. Das Rechteck im Dunklen scheint heller zu sein als das Rechteck im Hellen (Abbildung 3.1-3). Eine verbreitete wissenschaftliche Erklärung ist, dass dies durch die laterale Inhibition („seitliche Hemmung“) hervorgerufen wird. Das bedeutet, es gibt eine seitliche Beeinflussung nebeneinander liegender Rezeptoren. Wenn einer stark angeregt wird, hemmt dies die Reaktion der Nachbarn. Der helle Hintergrund lässt so das eine Rechteck dunkler erscheinen als es ist (starke Hemmung); der dunkle Hintergrund hemmt dagegen kaum. SEMESTERARBEIT JUREK BREUNINGER 38 GRUNDLAGEN Abbildung 3.1-3: Simultankontrast: Die laterale Inhibitation bewirkt, dass die inneren Quadrate unterschiedlich hell erscheinen. Weitere verblüffende optische Täuschungen durch Simultankontrast demonstrieren das Benary-Kreuz (Abbildung 3.1-4) und die White’sche Illusion (Abbildung 3.1-5). Für deren Erklärung sei auf Goldstein 2002, S. 75 verwiesen. Abbildung 3.1-4: Das Benary-Kreuz: Auch wenn es anders erscheint, die beiden Dreiecke haben den gleichen Grauton. SEMESTERARBEIT JUREK BREUNINGER 39 GRUNDLAGEN Abbildung 3.1-5: Die White’sche Illusion: Der rechte senkrechte Streifen erscheint deutlich heller, obwohl die beiden Streifen den gleichen Grauton haben. 3.1.3.2 Machsche Bänder Wenn helle und dunkle Bereiche eines Farbtons aneinander grenzen, so kann man direkt an der Kontur im dunklen Bereich eine noch dunklere Linie und im hellen Bereich eine etwas hellere Linie ausmachen (Abbildung 3.1-6). Dies kommt ebenfalls von der oben erwähnten lateralen Inhibition. Es gibt an der Kontur „Überschwinger“ und „Unterschwinger“ in der Wahrnehmung (Abbildung 3.1-7). A BC D Abbildung 3.1-6: Machsche Bänder: An den Übergängen zwischen den Grautönen erscheint im Hellen ein schmaler hellerer Streifen und im Dunklen ein schmaler dunklerer Streifen. SEMESTERARBEIT JUREK BREUNINGER 40 GRUNDLAGEN Abbildung 3.1-7: Die Machschen Bänder lassen sich als „Überschwinger“ der Wahrnehmung darstellen. 3.1.3.3 Hermann-Gitter Bei dieser sehr bekannten Grafik tauchen in den Zwischenräumen zwischen den Quadraten dunkle Punkte auf, die beim Fokussieren an diese Stelle wieder verschwinden (Abbildung 3.1-8). Auch hier ist der Grund die laterale Inhibition. An den Kreuzungen werden die Rezeptoren von vier Seiten gehemmt, was zu dunkleren Bereichen führt. Abbildung 3.1-8: Herrmann-Gitter: An den Kreuzungspunkten erscheinen dunkle Flecken, die bei Fokussierung verschwinden. Dahm 2006, S. 47-49 Goldstein 2002, S. 69-76 SEMESTERARBEIT JUREK BREUNINGER 41 GRUNDLAGEN 3.1.4 Farben Normalsichtige Menschen können etwa sieben Millionen Farbtöne im direkten Vergleich unterscheiden. Ein absolutes Farbempfinden – vergleichbar mit dem absoluten Gehör – ist ähnlich selten. 3.1.4.1 Dreifarbentheorie Die Dreifarbentheorie (von Helmholtz, ca. 1870) beschreibt die bereits angesprochene Eigenschaft des Auges aus den Farben Rot, Gelb und Grün jede monochromatische Farbe zusammenzusetzen. Im folgenden Diagramm sind die Empfindlichkeiten der drei Typen von Rezeptoren im menschlichen Auge dargestellt (Abbildung 3.1-9). Abbildung 3.1-9: Die Lichtempfindlichkeit der verschiedenen Rezeptortypen im menschlichen Auge. Man erkennt, dass es keinen Rezeptortyp nur für rotes, gelbes oder grünes Licht gibt. Die Typen haben nur jeweils eine maximale Empfindlichkeit für eine Farbe, aber erfassen auch noch etwas kürzer- und längerwelliges Licht. 3.1.4.2 Gegenfarbentheorie Die Dreifarbentheorie gilt aufgrund zahlreicher experimenteller Bestätigungen als relativ gesichert. Aber es gibt einige Phänomene der Wahrnehmung, die sich nicht klar mit dieser Theorie erklären lassen, z. B. Nachbilder oder Farbsimultankontrast. Ewald Hering stellte nach Versuchen zu Nachbildern und Simultankontrast die Gegenfarbentheorie auf (1878). Sie besagt, dass es in unserer Wahrnehmung die Farben Rot und Grün sowie Blau und Gelb zu einem antagonistischen (gegensätzlichen) SEMESTERARBEIT JUREK BREUNINGER 42 GRUNDLAGEN Paar verbunden sind. Nach dieser Theorie gibt es in der Netzhaut folgende Sensortypen für die Farbwahrnehmung: • Weiß+ Schwarz-, positiv auf Helligkeit, negativ auf Dunkelheit reagierend • Rot+ Grün-, positiv auf Rot, negativ auf Grün reagierend • Blau+ Gelb-, positiv auf Blau, negativ auf Gelb reagierend Zwar sind die chemischen Reaktionen anders, als Hering glaubte, aber spätere Forschungsarbeiten ergaben, dass die Farben in der Tat neurophysiologisch entgegengesetzte Reaktionen bewirken. 3.1.4.3 Kombination Obwohl die beiden Theorien widersprüchlich wirken, werden sie heute beide als anwendbar anerkannt. Sie beschreiben reproduzierbar jeweils einen Bereich der Wahrnehmung. Ein Erklärungsversuch, der beide Theorien kombiniert, lautet: Die Farbe wird zunächst durch die drei Farbrezeptortypen aufgenommen und eine „Mischung“ findet statt. Hinter die Rezeptoren sind so genannte Gegenfarbenzellen „geschaltet“ (neuronale Netze ähneln im Aufbau elektrischen Schaltplänen), die die Farbinformation weiter verarbeiten bevor sie ins Gehirn gelangt (Abbildung 3.1-10). So lassen sich auch Effekte wie Nachbilder oder Simultankontrast erklären. Abbildung 3.1-10: Die „Verschaltung“ von Gegenfarbenzellen nach den Rezeptoren. 3.1.4.4 Subjektives Farbempfinden Nach der Aufnahme von Farbinformationen ins Gehirn findet dort auch eine subjektive Einordnung eines Farbtons statt. Er wird mit anderen Eindrücken assoziiert. Diese Assoziationen sind individuell stark unterschiedlich, vor allem kulturelle Einflüsse führen zu fast gegensätzlichen Assoziationen. Deshalb sollte beim Schnittstellenentwurf SEMESTERARBEIT JUREK BREUNINGER 43 GRUNDLAGEN auch immer der Kulturkreis aller angestrebten Zielgruppen in Betracht gezogen werden, um ungewollte Interpretationen zu vermeiden. 3.1.4.5 Farbfehlsichtigkeit Etwa 8% aller Männer und 0,5% aller Frauen leiden an Farbfehlsichtigkeit, das heißt, sie können Farben nicht so gut oder so genau unterscheiden wie der Rest der Bevölkerung. Die genauen Gründe dafür sind unbekannt, es wird vermutet, dass einer oder mehrere Rezeptortypen ausfallen oder nicht ausreichend vernetzt sind. Es gibt folgende Typen: • Monochromasie (nur ein oder gar kein Zapfentyp vorhanden): vollkommene Farbenblindheit, der Mensch besitzt praktisch keine Zapfen, sondern unterscheidet nur Graustufen, sehr selten (0,001% der Bevölkerung) • Dichromasie (ein Sehpigment fehlt): o Protanopie (Rotgrünblindheit 1. Form): 1% der Männer, 0,02% der Frauen o Deuteranopie (Rotgrünblindheit 2. Form): 1% der Männer, 0,01% der Frauen o Tritanopie (Blaugelbblindheit): 0,002% der Männer, 0,001% der Frauen • anomale Trichromasie (alle Zapfentypen vorhanden, aber falsche „Mischung“) • cortikale Farbenblindheit: keine Defizite in den Rezeptoren, sondern Ausfälle von Gehirnbereichen (z. B. in Folge von Infarkten oder Unfällen) Die sichtbare Geschlechtsgebundenheit von Farbfehlsichtigkeit (v. a. Rotgrünblindheit) liegt daran, dass sie von Genen auf dem X-Chromosom bestimmt wird. Männer sind mit einem X-Chromosom eher gefährdet, während Frauen funktionierende Gene auf einem ihrer beiden X-Chromosomen ausreichen. Da Farbfehlsichtigkeit einen nennenswerten Teil der Bevölkerung betrifft, sollte beim Schnittstellenentwurf darauf geachtet werden, dass die Farbe nie das einzige Unterscheidungsmerkmal ist. Zum Beispiel ist bei einer Verkehrsampel die Information sowohl durch die Farbe, als auch durch die Position der aufleuchtenden Lampe kodiert; bei einer Fußgängerampel zusätzlich auch noch durch das Symbol. SEMESTERARBEIT JUREK BREUNINGER 44 GRUNDLAGEN Dahm 2006, S. 49-53 Goldstein 2002, S. 145-168 3.1.5 Tiefensehen Eine der beeindruckendsten Eigenschaften des Gehirns ist die Fähigkeit, aus den zweidimensionalen Bildern auf der Netzhaut einen dreidimensionalen Raumeindruck zu erzeugen. Dies gibt uns die Fähigkeit Entfernungen abzuschätzen und uns frei zu bewegen. Die sehr aufwändigen Informationsverarbeitungsprozesse, die dazu notwendig sind, laufen komplett unterbewusst und lenken so nicht von anderen Tätigkeiten ab. Neben der reinen Bildinformation wertet das Gehirn eine Reihe Kriterien aus, um auf die Dreidimensionalität zu schließen: 3.1.5.1 Okulomotorische Kriterien Sie ergeben sich aus der Fähigkeit, die Akkomodation und die Konvergenzstellung der beiden Augen auszuwerten. Die Konvergenzstellung bezeichnet den Winkel zwischen den optischen Achsen. Das sind sehr einfache Mittel die Entfernung zum fokussierten Objekt abzuschätzen. Sie sind allerdings nur in einer Entfernung von ein bis drei Metern wirksam nutzbar. 3.1.5.2 Monokulare Kriterien Dies sind die Informationen, die sich auf einem unbewegten Bild aus der Struktur und Anordnung der Objekte schließen lassen. Sie sind auch mit einem Auge zu erfassen. • Verdecken von Objekten (Abbildung 3.1-11): Verdeckte Objekte stehen hinter den verdeckenden. • Relative Höhe im Gesichtsfeld: Objekte, die höher im Gesichtsfeld stehen (näher am Horizont), werden als weiter entfernt empfunden. • Relative Größe im Gesichtsfeld (Abbildung 3.1-12): Gleiche Objekte, die unterschiedlich groß sind, werden in unterschiedlichen Entfernungen vermutet. • Atmosphärische oder Luft-Perspektive: Entfernte Objekte sind unschärfer wegen dem Staub und der Feuchtigkeit, die in der Luft liegen („Diesigkeit“). • Gewohnte Größe von Gegenständen: Aus der Erfahrung wird aus der Größe auf die Entfernung geschlossen. SEMESTERARBEIT JUREK BREUNINGER 45 GRUNDLAGEN • Lineare Perspektive: Die aus der Malerei bekannten Regeln der konvergierenden Linien (Fluchtpunkt, Abbildung 3.1-13) lassen eine Interpretation der Tiefe zu. o Texturgradient (Abbildung 3.1-13): Spezialfall der linearen Perspektive; die Textur (Musterung) von Elementen erscheint in der Ferne immer dichter. o Perspektivische Verzerrung: Spezialfall der linearen Perspektive; Ein Objekt, das ausreichend groß ist, wird mit zunehmender Entfernung verzerrt. • Tiefenschärfe: Das menschliche Auge besitzt nur eine begrenzte Tiefenschärfe; Objekte in etwa gleicher Entfernung wie das fokussierte Objekt sind scharf, nähere und entferntere sind unscharf. • Beleuchtung und Schattenwurf: Verschiedene Helligkeit sowie Richtung und Länge von Schatten erzeugt Tiefeninformation. Abbildung 3.1-11: Bei (a) steht die Vase hinter dem vorderen Glas, da sie verdeckt wird. (b) scheint unmöglich, da das Verdecken der relativen Höhe widerspricht. Durch den Schatten in (c) wird der Widerspruch aufgelöst. SEMESTERARBEIT JUREK BREUNINGER 46 GRUNDLAGEN Abbildung 3.1-12: Relative Größe: Die drei Tennisbälle werden in unterschiedlicher Entfernung vermutet. Abbildung 3.1-13: Ein schönes Beispiel für den Fluchtpunkt in der Malerei: Auf diesem Renaissance-Bild entsteht unter anderem durch den Texturgradient des Bodenbelags räumliche Tiefe. 3.1.5.3 Bewegungsindizierte Tiefenkriterien • Bewegungsparalaxe: Wenn der Betrachter in Bewegung ist, ziehen nahe Objekte in seinem Gesichtsfeld schneller vorbei als weit entfernte. • Fortschreitendes Zu- oder Aufdecken von Flächen: Wenn überschneidende Flächen sich relativ zueinander bewegen (durch Bewegungsparalaxe), wird die hintere je nach Bewegungsrichtung weiter auf- oder zugedeckt. SEMESTERARBEIT JUREK BREUNINGER 47 GRUNDLAGEN 3.1.5.4 Querdisparation und stereoskopisches Sehen Alle bisher genannten Kriterien (mit Ausnahme der Konvergenz) sind monokular, das heißt mit einem Auge auswertbar. Die Querdisparation, auch binokulare Disparation, entsteht dadurch, dass die zwei Augen leicht unterschiedliche Bildausschnitte sehen. Wenn wir ein Objekt fokussieren, wird es in jedem Auge an einem etwas anderen Ort der Netzhaut abgebildet. Aus dieser Abweichung kann das Gehirn dreidimensionale Informationen über das Objekt errechnen. Bilder, die keine monokularen Kriterien enthalten, zum Beispiel die künstlichen Stereogramme (Abbildung 3.1-14), haben starke Tiefenwirkung. Gemalte Bilder, die die monokularen Kriterien demonstrieren, haben zwar eine logische Tiefe, erscheinen aber trotzdem flach. Daraus folgt, dass Querdisparation die wichtigste Informationsquelle für das Tiefensehen ist; die weiteren Kriterien haben unterstützende Wirkung. Abbildung 3.1-14: Wenn man beim Betrachten dieses Stereogramms den Blick hinter der Ebene des Papiers fokussiert, so kann man ein hervortretendes Herz sehen. Der starke dreidimensionale Effekt entsteht durch die Querdisparation. Dahm 2006, S. 54-59 Goldstein 2002, S. 225-249 SEMESTERARBEIT JUREK BREUNINGER 48 GRUNDLAGEN 3.1.6 Gestaltgesetze Die Hauptlast der Verarbeitung von visueller Information geschieht im Gehirn. Wie bereits erwähnt findet aber bereits vorher eine Vorverarbeitung statt, um die wesentlichen Elemente einer Szene schneller zu erfassen und das Gehirn zu entlasten. Diese Mustererkennung bestimmt für eine Gruppe ähnlicher oder verschiedener Objekte eine Zusammengehörigkeit. Diese Zusammenfassung nennt man in der kognitiven Psychologie Gestalt. Die Art und Weise, mit der die Gruppierung erfolgt, sind die Gestaltgesetze (Wobei es sich nicht um naturwissenschaftliche Gesetze handelt, eher um qualitative Faustregeln der Auswertung). Sie wurden erstmals von Max Wertheimer 1923 in „Untersuchungen zur Lehre von der Gestalt“ aufgestellt (Wertheimer 1923, S. 305ff.). Die Gestaltgesetze sind für die Software-Ergonomie von zentraler Bedeutung. Um eine gute Informationsstrukturierung und daraus folgend eine gezielte Informationsaufnahme zu ermöglichen, sollten sie jedem Benutzerschnittstellenentwickler bekannt sein. 3.1.6.1 Prägnanz/gute Gestalt/Einfachheit „Jedes Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie möglich ist.“ In komplizierten Figuren werden instinktiv einfache Formen wie Drei-, Vierecke oder Kreise erkannt (Abbildung 3.1-15). Abbildung 3.1-15: Die vorliegende Figur wird automatisch als eine Kombination aus Dreieck und Rechteck interpretiert. SEMESTERARBEIT JUREK BREUNINGER 49 GRUNDLAGEN 3.1.6.2 Ähnlichkeit „Ähnliche Dinge erscheinen zu zusammengehörenden Gruppen geordnet.“ (Abbildung 3.1-16, Abbildung 3.1-17) Abbildung 3.1-16: Die linke Figur besteht aus senkrechten Spalten oder waagrechten Zeilen. Die rechte Figur besteht wegen der Ähnlichkeit aus senkrechten Spalten. Abbildung 3.1-17: Gruppierung nach Ähnlichkeit der Helligkeit. 3.1.6.3 Fortsetzung und Ergänzung „Punkte, die als gerade oder sanft geschwungene Linien gesehen werden, wenn man sie verbindet, werden als zusammengehörig wahrgenommen. Linien werden tendenziell so gesehen, als folgten sie dem einfachsten Weg.“ (Abbildung 3.1-18) Abbildung 3.1-18: Objekte, die sich auf einer Linie befinden, werden gruppiert. SEMESTERARBEIT JUREK BREUNINGER 50 GRUNDLAGEN 3.1.6.4 Nähe „Dinge, die sich nahe beieinander befinden, erscheinen als zusammengehörig.“ (Abbildung 3.1-19) Abbildung 3.1-19: Nähe: Beide Figuren werden als Zeilen wahrgenommen, obwohl in der zweiten unterschiedliche Elemente vorkommen. 3.1.6.5 Gemeinsames Schicksal „Dinge, die sich in die gleiche Richtung bewegen, erscheinen als zusammengehörig.“ 3.1.6.6 Vertrautheit „Dinge bilden mit größerer Wahrscheinlichkeit Gruppen, wenn die Gruppen vertraut erscheinen oder etwas bedeuten.“ (Helson 1933, S. 15f.) Bekannte Sinneseindrücke sind eine große Hilfe beim Gruppieren von neuen Mustern (Abbildung 3.1-20). SEMESTERARBEIT JUREK BREUNINGER 51 GRUNDLAGEN Abbildung 3.1-20: Eigentlich sind hier nur eine Menge schwarzer Flecken zu sehen. Aber die meisten Menschen erkennen in diesem Bild einen Dalmatiner und den Schatten eines Baumes. Dahm 2006, S. 59-64 Goldstein 2002, S. 183-198 3.1.7 Leserichtung Es gibt keine gesicherten wissenschaftlichen Erkenntnisse, ob der Mensch ab Geburt bestimmte bevorzugte Richtungen in der optischen Wahrnehmung hat. Das heißt, ob er in seinem Gesichtsfeld Dinge immer eher von links nach rechts oder von nah nach fern untersucht. Es scheinen dort andere Effekte wie Bewegung und Mustererkennung größere Bedeutung zu haben. Aber es gibt trotzdem eine vor allem für die Software-Ergonomie bestimmende Richtungsbevorzugung. Da der Mensch bei der Interaktion mit Maschinen neben der bildlichen und akustischen vor allem die textliche Darstellung zur Informationsübertragung benutzt, haben sich bei Menschen, die lesen können, gewisse Verarbeitungsprozesse, die durch die Art ihrer Schrift bestimmt werden, etabliert. SEMESTERARBEIT JUREK BREUNINGER 52 GRUNDLAGEN Es gibt viele unterschiedliche Arten von Schriften, aber fast alle haben gemein, dass sie die Sprache durch eine lineare Aneinanderreihung von Glyphen (z. B. Buchstaben, Silbenzeichen, Hieroglyphen) kodieren. Dies ist die primäre Schreibrichtung. Wenn der Platz in primärer Richtung knapp wird, behilft man sich mit einem Zeilenbeziehungsweise Spaltensprung in sekundärer Schreibrichtung. Es gibt Schriften mit • primärer Schreibrichtung von links nach rechts: z. B. griechisch, lateinisch • primärer Schreibrichtung von rechts nach links: z. B. arabisch (Abbildung 3.1-24) • primärer Schreibrichtung von oben nach unten: z. B. klassisches chinesisch (Abbildung 3.1-21), mongolisch (Abbildung 3.1-22) • sekundärer Schreibrichtung von oben nach unten: lateinisch, arabisch • sekundärer Schreibrichtung von links nach rechts: mongolisch • sekundärer Schreibrichtung von rechts nach links: klassisches chinesisch • sekundärer Schreibrichtung von unten nach oben: Hanunó’o (philippinisch) Abbildung 3.1-21: Traditionelle chinesische Kaligraphie. Die Spalten werden zuerst von oben nach unten und dann von rechts nach links gefüllt. SEMESTERARBEIT JUREK BREUNINGER 53 GRUNDLAGEN Abbildung 3.1-22: Der Stempel eines mongolischen Khans. Mongolisch hat sich aus einer um 90° gedrehten arabischen Schrift entwickel t, wird also von oben nach unten und links nach rechts gelesen. Es gibt einfache Argumente, die für eine primäre Schreibrichtung von links nach rechts und sekundäre für oben nach unten sprechen: Wenn die Schrift mit einem Stift, Feder und Tinte oder einem Griffel in Ton geschrieben wird, ist es für die Mehrheit der Bevölkerung als Rechtshänder von Vorteil, wenn man sich mit Hand und Arm vom Geschriebenen wegbewegt, um ein Verwischen zu vermeiden. Allerdings muss das Auge beim Lesen daran gewöhnt sein, immer den richtigen Zeilenanfang wieder zu finden. Deshalb war in der Antike kurzzeitig auch eine wechselseitige primäre Schreibrichtung möglich, der Bustrophedon (Abbildung 3.1-23). Abbildung 3.1-23: In der Antike war z. B. im Griechischen kurzzeitig sogar eine wechselseitige primäre Schreibrichtung möglich, der so genannte Bustrophedon. Dabei springt der Leseblick am Ende jeder Zeile nicht zurück an den Anfang, sondern liest direkt darunter die nächste Zeile (in Spiegelschrift) in entgegengesetzter Primärrichtung. Dies erspart das Wiederfinden des richtigen Zeilenanfangs. SEMESTERARBEIT JUREK BREUNINGER 54 GRUNDLAGEN Heute wird im Großteil der Welt von links nach rechts und von oben nach unten geschrieben. Auch in Japan, China und Korea, deren Schriften früher von oben nach unten und rechts nach links gerichtet waren, wird heute durch die kulturellen Einflüsse von außen vorwiegend so geschrieben. Ein wichtiger Einfluss ist, dass die Computertechnologie in ihrer Anfangszeit nur auf diese Lese-/Schreibrichtungen ausgerichtet war und bis heute nur wenig Anpassung stattgefunden hat (Primärrichtung von rechts nach links für arabische Texte ist inzwischen mit neuen Browsern und Textverarbeitungen möglich (Abbildung 3.1-24); Programme, die senkrechtes Textlayout beherrschen, gibt es vor allem für den japanischen Markt). Abbildung 3.1-24: Microsoft Word beherrscht die arabische Schreibrichtung von rechts nach links. Aus der vorherrschenden primären Leserichtung von links nach rechts und von oben nach unten ergeben sich entsprechende Vorgaben für Software-Oberflächen. Auch hier sollte die Struktur diese Richtungen bevorzugen. Oft wird als Faustregel eine „Von-links-oben-nach-rechts-unten“-Struktur empfohlen. Eine Anzahl von Icons würde man natürlich von links nach rechts anordnen und nicht diagonal; eine eventuell sortierbare Auflistung von Wörtern von oben nach unten SEMESTERARBEIT JUREK BREUNINGER 55 GRUNDLAGEN (primäre Richtung für das Lesen der einzelnen Wörter, sekundäre für die Anordnung). Wenn eine Software für einen begrenzten Markt entwickelt wird, sollten die dort gebräuchlichen Leserichtungen beim Entwurf in die Überlegungen mit einbezogen werden. Wenn eine Software für den internationalen Markt entworfen wird, sollten mögliche Einschränkungen, die durch die Leserichtungen in bestimmten Ländern entstehen, bedacht werden. Shneiderman 2002, S. 38 Goldstein 2002, S. 346-354 Daniels 1996, S. 3-9, S. 191, S. 200-201, S. 271-272, S. 312, S. 481, S. 545-547, S. 559-560 3.1.8 Hören Neben dem optischen Kanal ist der akustische Kanal bei der Mensch-ComputerInteraktion zur Informationsübertragung gebräuchlich, wenn auch von deutlich weniger Bedeutung. Vor allem in der PC- und Unterhaltungselektronik ist die Tonwiedergabe wichtig und gewinnt durch die fortschreitende Entwicklung multimedialer Anwendungen an Bedeutung. Deshalb beschäftigen wir uns kurz mit den Grundlagen des Hörens. 3.1.8.1 Frequenzbereich und Lautstärke Der Bereich der menschlichen Wahrnehmung reicht etwa von 20 Hz bis 20 kHz. Menschliche Sprache liegt zwischen 150 Hz und 6 kHz. Bei technischen Anwendungen (z. B. Telefon) wird oft nur der Bereich zwischen 300 Hz und 3 kHz übertragen, da er als ausreichend für gutes Verständnis gilt. Auch moderne Algorithmen zur Audiokompression (z. B. MP3) basieren auf dem eingeschränkten Frequenzbereich der menschlichen Wahrnehmung. Die Einheit des Schalldruckpegels ist dB (Dezibel) oder dB(A), eine logarithmische Einheit. Der Zusatz (A) ist ein Bewertungsfilter. Das Lautstärkeempfinden des Menschen ist frequenzabhängig. Tiefe Frequenzen benötigen deutlich höhere Schallintensität, um genauso laut empfunden zu werden wie mittlere und hohe Frequenzen. Wenn Schall in dB(A) gemessen wird, ergeben tiefe Frequenzen geringere Messwerte als gleich intensive mittlere Frequenzen. Im Bereich zwischen 1 kHz und 10 kHz werden höhere Frequenzen durch den Bewertungsfilter stärker gewichtet (Abbildung 3.1-25). Das heißt, es werden höhere Messwerte angezeigt als bei einer unbewerteSEMESTERARBEIT JUREK BREUNINGER 56 GRUNDLAGEN ten Messung, da das menschliche Ohr in diesem Bereich empfindlicher ist und dementsprechend eine Schädigung früher auftreten kann. Es gibt auch Bewertungsfilter (B), (C) und (D), diese spielen aber nur in Spezialfällen eine Rolle. Abbildung 3.1-25: Der Bewertungsfilter A: Frequenzen zwischen 1kHz und 10kHz werden stärker gewichtet, da sie dem menschlichen Ohr früher schaden können. Da eine logarithmische Einheit wenig intuitiv ist, wird statt des bewerteten Schalldruckpegels oft auch der Lautstärkepegel in phon oder die Lautheit in der linearen Einheit sone gemessen. Ein Geräusch von 2 sone ist doppelt so laut wie 1 sone. Im Gegensatz zum unbewerteten Schalldruckpegel sind dies keine physikalischen, sondern psychoakustische Größen, beschreiben also die wahrgenommene Lautstärke. Für weitere Informationen sei auf Goldstein 2002, S. 317ff. oder die Vorlesung Produktionsergonomie und das ergonomische Praktikum verwiesen. Die Intensität, ab der eine bestimmte Frequenz gehört werden kann, bezeichnet man als Hörschwelle. Die Schmerzgrenze ist die Lautstärke, die als nicht mehr erträglich empfunden wird. Diese Schwellen ändern sich mit dem Alter und variieren auch zwischen den Menschen. Frauen hören leicht besser und verlieren im Alter das Hörvermögen weniger stark. 3.1.8.2 Richtungshören Dadurch, dass wir zwei Ohren haben, können wir ähnlich wie mit den Augen aus den getrennten Schallinformationen die Richtung der Schallquelle bestimmen (binaurales Hören). Es entsteht eine Phasenverschiebung: Wenn die Schallquelle nicht genau SEMESTERARBEIT JUREK BREUNINGER 57 GRUNDLAGEN zentral vor oder hinter den Ohren liegt, kommt der Schall leicht zeitlich versetzt bei den Ohren an. Auch die unterschiedliche Lautstärke spielt eine Rolle. Da die Ohren in einer Ebene liegen, funktioniert diese Ortung sehr gut in horizontaler Richtung. In vertikaler Richtung ist sie sehr ungenau. Dass auch hier eine Ortung möglich ist, liegt daran, dass die Ohrmuschel asymetrisch ist. Schall von unten wird anders gedämpft als Schall von oben. Um einen räumlichen Eindruck durch Klang zu erzeugen, bedarf es entweder vieler Quellen (z. B. 5.1- oder 7.1-Lautsprechersystemen) oder ausgefeilter Algorithmen, die aus einem psychoakustischen Modell passende Phasenverschiebungen und Dämpfungen für zwei Quellen errechnen können (z. B. Raumsimulation bei Kopfhörern). Sehr tiefe und sehr hohe Frequenzen lassen sich allgemein schlecht orten: Bei langen Wellenlängen (30 Hz entspricht 10m) kann das Gehirn keinen Unterschied zwischen den etwa 20cm entfernten Ohren ausmachen. Bei sehr kurzen Wellenlängen (10kHz entspricht 3cm) wiederholt sich die Phase in den 20cm mehrfach. Umso gleich bleibender der Ton ist, desto schwieriger ist es, die Phasenverschiebung zu bestimmen. Ein Extremfall sind Sinustöne: Die Phasenverschiebungen 0°, 180° und 360° sind hier nicht zu unterscheiden. Dadurch wird die Ortung mehrdeutig. 3.1.8.3 Akustische Orientierung Einzelne Schallquellen sind unter normalen Umständen einfach zu ordnen. Bei mehreren Schallquellen wird es allerdings immer schwieriger. Es macht außerdem einen Unterschied, wo im Raum die Schallquellen verteilt sind. Es erleichtert das Unterscheiden und Orten von Schallquellen, wenn sie sich in • Tonhöhe (3 bis 5 verschiedene können unterschieden werden) • Melodie (3 bis 5 verschiedene können unterschieden werden) • Klangfarbe (3 bis 5 verschiedene, z. B. Instrumente, können unterschieden werden) unterscheiden. Diese Kriterien lassen sich allerdings nicht beliebig miteinander kombinieren. Ein durchschnittlicher Mensch ohne musische Ausbildung kann insgesamt SEMESTERARBEIT JUREK BREUNINGER 58 GRUNDLAGEN nicht mehr als 3 bis 5 verschiedene ruhende Schallquellen unterscheiden (Abbildung 3.1-26). Bei beweglichen wird die Unterscheidung noch schwieriger. Abbildung 3.1-26: Das Ortungsvermögen des Ohres in den drei Raumrichtungen 3.1.8.4 Störung und Lärm Im Gegensatz zu optischen Störungen werden akustische Störungen als deutlich schwerwiegender empfunden. Dies liegt daran, dass man die Ohren weder woanders hin richten kann noch schließen kann. Ein Weghören ist kaum möglich. Auch haben akustische Reize eine ähnliche Wirkung die Aufmerksamkeit auf sich zu ziehen wie sich schnell bewegende optische Reize. Durch Lärm kann es zu bleibenden körperlichen Schäden kommen. Dabei ist nicht nur eine kurzzeitige Überschreitung der Schmerzgrenze gefährlich, sondern auch eine ständige Belastung. Diese Gefahr wird vom Menschen schlecht wahrgenommen, da sich das Ohr an den Schallpegel anpasst, also an die Lautstärke gewöhnt. Akustische Störungen beeinträchtigen massiv die Konzentration. Sie sollten deshalb in jedem Fall vermieden werden. Dahm 2006, S. 65-69 Goldstein 2002, S. 371-385, S. 417-427 Bubb 2006, Kap. 6 Strasser 2008, S. 2-20 3.2 Gedächtnis und Erfahrung Nachdem wir uns mit der menschlichen Sensorik und den ersten Vorverarbeitungsprozessen beschäftigt haben, die für die Informationsaufnahme bei der Verwendung von Computersystemen relevant sind, folgt nun, wie diese Informationen im Gehirn weiterverarbeitet und gespeichert werden. Damit beschäftigt sich die kognitive Psychologie. SEMESTERARBEIT JUREK BREUNINGER 59 GRUNDLAGEN 3.2.1 Sensorisches Kurzzeitgedächtnis Alle Signale, die wir wahrnehmen, liegen eine kurze Zeit im sensorischen Kurzzeitgedächtnis. Je nach Signaltyp spricht man vom ikonischen oder echoischen Speicher (visuell bzw. akustisch). Die Kodierung ist weitgehend ungeklärt. Der Speicher funktioniert wie ein FIFO-Speicher (first in, first out). Das heißt, die ältesten Informationen werden kontinuierlich durch die neuesten verdrängt. Der ikonische Speicher hat sehr schnelle Zugriffszeiten, behält Information aber nur für eine sehr kurze Zeit (0,2-0,5 Sekunden), der echoische Speicher ist ähnlich schnell, behält Informationen aber etwas länger (1-5 Sekunden). Dies erklärt, warum man einen ganzen Satz, dem man nicht bewusst zugehört hat, noch versteht, wenn die Aufmerksamkeit plötzlich geweckt wird (zum Beispiel hört man auf einer Party im Gesprächsrauschen seinen Namen; man spricht auch vom Partyeffekt). Auch das Wegfallen eines nicht beachteten Hintergrundgeräusches (zum Beispiel das plötzliche Ende des Kühlschrankbrummens) wird erst wahrgenommen, wenn kein Reiz mehr vorhanden ist. Er wird also aus dem sensorischen Kurzzeitgedächtnis geholt. Bei schnell wechselnden Reizen (z.B. Bildern) können durch Abgleichen des aktuellen Reizes mit einem gerade vergangenen Reiz aus dem sensorischen Kurzzeitgedächtnis sehr schnell und effektiv Änderungen erkannt werden. Allerdings darf zwischen den Reizen keine Störung (z. B. kurz stark andersartiges Bild) auftreten, sonst kommt es zur so genannten Veränderungsblindheit. Man nutzt den Effekt des Abgleichens zum Beispiel beim „Blinker“ in der Astronomie zur Unterscheidung von Kometen von Fixsternen: Bilder des Nachthimmels zu verschiedenen Zeiten werden direkt hintereinander im Wechsel gezeigt, wodurch die ihre Position ändernden Kometen leicht erkennbar werden. Das Fassungsvermögen des sensorischen Kurzzeitgedächtnisses ist schwer zu bestimmen, da die Kodierung nicht klar ist und erst wenig Zusammenfassen zu logischen Blöcken (engl. chunking) stattgefunden hat. Es ist, wie Versuche zeigen, größer als das des Kurzzeitgedächtnisses, aber nur ein kleiner Teil der Informationen wird in das Kurzzeitgedächtnis übertragen. Je nach Aufmerksamkeit werden etwa 90% verworfen (bzw. ungenutzt überschrieben). Dahm 2006, S. 73-74 Herczeg 2005, S. 52 Anderson 2001, S. 85-89 SEMESTERARBEIT JUREK BREUNINGER 60 GRUNDLAGEN 3.2.2 Kurzzeitgedächtnis (Arbeitsgedächtnis, primäres Gedächtnis) Das Kurzzeitgedächtnis des Menschen entspricht in etwa dem Arbeitsspeicher eines Computers. Diese Analogie hat die kognitive Psychologie aus der Informationstechnologie übernommen. Mit der Entwicklung der ersten Computer hatte man sich bereits mit der möglichen Realisierung einer künstlichen Intelligenz beschäftigt. Da man etwa zur selben Zeit Modelle für die Funktionsweise des menschlichen Gehirns suchte, wurden einige Modelle und Begriffe übernommen. Auch das menschliche Kurzzeitgedächtnis hat ein begrenztes Fassungsvermögen, aber dafür eine sehr schnelle Zugriffszeit. Miller stellte 1956 eine Kapazität des Kurzzeitgedächtnisses von 7 ± 2 psychologischen Einheiten fest (Miller 1956, S. 12-13). Dies bedeutet, dass sich die meisten Menschen zwischen fünf und neun Bilder, Wörter, Zahlen oder ähnliches kurzfristig merken können. Es ist schwierig eine psychologische Einheit allgemein zu definieren, da Menschen Dinge auf unterschiedliche Weise logisch strukturieren. Man kann sich mehr Ziffern merken, wenn man sie zu Zahlen zusammensetzt. Auch ist es möglich sich fünf kurze Sätze zu merken, aber nie alle darin enthaltenen Buchstaben einzeln. Ähnliche Vorgehensweisen gibt es auch für Bilder oder andere Sinneseindrücke. Je unterschiedlicher diese chunks sind, desto besser funktioniert das Kurzzeitgedächtnis. Eine bestimmte Zahl unterschiedlicher chunks ist einfacher zu merken als die gleiche Anzahl ähnlicher chunks. Man kann zur besseren Ausnutzung des Kurzzeitgedächtnisses auch bewusst Information gruppieren. Bereits vorhandene und gut eingeführte chunks aus der Umgangs- oder Fachsprache oder bekannte graphische Darstellungen sind dafür vorzuziehen. Besonders Gedächtniskünstler nutzen diese mnemonische Blockbildung, um trotz der Beschränkung auf 7 ± 2 chunks große Informationsmengen im Kurzzeitgedächtnis zu speichern. Die Informationen im Kurzzeitgedächtnis werden meist unbewusst – mit oder ohne Sprechmuskelbewegung – verbalisiert und als Klangbilder abgelegt. Aber auch visuelle Muster werden gespeichert. Die Lesegeschwindigkeit des Kurzzeitgedächtnisses beträgt etwa 0,1-0,2 Sekunden/chunk, die Schreibgeschwindigkeit etwa 0,3 Sekunden/chunk. Die Information im Kurzzeitgedächtnis bleibt etwa 5-30 Sekunden erhalten, kann aber durch erneutes Abrufen (meist Verbalisieren) theoretisch unbegrenzt aufgefrischt SEMESTERARBEIT JUREK BREUNINGER 61 GRUNDLAGEN werden. Allerdings ist das Kurzzeitgedächtnis ähnlich anfällig gegen Störungen wie das sensorische Kurzzeitgedächtnis. Eine Unterbrechung der Konzentration kann es bereits nach 0,1-0,5 Sekunden wieder löschen. Die Störungen können sowohl extern (neue Reize) als auch intern (Konzentrationsschwäche, Abschweifen) sein. Der Zugriff auf das Kurzzeitgedächtnis erfolgt sequentiell. So können gemerkte Inhalte am besten in der gleichen Reihenfolge wiedergegeben werden, in der sie gespeichert wurden. Bei stetigem Informationsfluss werden die ältesten Informationen überschrieben, ähnlich wie beim sensorischen Gedächtnis. Oft kommt es auch zu einer Interferenz mit neuerer ähnlicher Information: Wenn man versucht sich eine Telefonnummer zu merken und laut vor sich her spricht, dann aber durch den Zuruf einer anderen Nummer abgelenkt wird, so wird man die Reihenfolge der Ziffern wahrscheinlich durcheinander bringen oder eine „Mischzahl“ kreieren. Ohne neue eingehende Reize und Konzentration verblassen die Informationen im Kurzzeitgedächtnis. Das heißt, sie werden nicht überschrieben oder gelöscht, sondern der Zugriff auf sie wird unmöglich. Alle Elemente unserer aktuellen Wahrnehmung, also die Dinge, auf die wir uns konzentrieren, sind im Kurzzeitgedächtnis gespeichert. Der Inhalt des Kurzzeitgedächtnisses bestimmt also den Kontext, in dem sich unser Bewusstsein in jedem Augenblick befindet. Unsere Wahrnehmung wird stark von diesem Kontext beeinflusst. Alle Reize, die wir aufnehmen werden, im gerade aktiven Kontext eingeordnet und bewertet. Eine plötzliche starke Veränderung des Kontextes wird nicht erwartet. Zum Beispiel haben viele Wörter mehrere Bedeutungen („Teekesselchen“: z. B. Läufer, Wurzel, Brücke), doch kann meist die richtige Bedeutung aus dem Kontext, etwa der vorhergehenden Unterhaltung erschlossen werden. Für die Software-Ergonomie ist die Beachtung des möglichen Kontextes des Benutzers von großer Bedeutung, da er großen Einfluss auf die Verständlichkeit von Software-Oberflächen hat. Der Benutzer erwartet passende Funktionen und Rückmeldungen für seine aktuelle Problemstellung. Die Vermeidung von Kontextwechseln erfordert Konsistenz der Bedienung. Andererseits kann der Entwickler durch geschickte Gestaltung der Bedienoberfläche den Kontext beeinflussen und den Anwender in die gewünschte Denkrichtung leiten. SEMESTERARBEIT JUREK BREUNINGER 62 GRUNDLAGEN Dahm 2006, S. 74-76 Herczeg 2005, S. 52-53 Anderson 2001, S. 174-183 3.2.3 Langzeitgedächtnis (sekundäres Gedächtnis, tertiäres Gedächtnis) Die langfristige Speicherung von allem, was wir im Laufe des Lebens gelernt haben, findet im Langzeitgedächtnis statt. Die Kapazität des Langzeitgedächtnisses scheint nach bisherigen Erkenntnissen praktisch unbegrenzt zu sein. Bei Problemen, sich Neues zu merken, kommt es wahrscheinlich nicht zu Kapazitätsproblemen, sondern es fehlen geeignete Vorgehensweisen Informationen ins Langzeitgedächtnis einzufügen. Dieser Prozess ist bekanntermaßen sehr mühsam, im günstigsten Fall braucht das Speichern neuer Informationen etwa 8 Sekunden/chunk. Normalerweise erfolgt aber eine Übertragung vom Kurzzeitgedächtnis ins Langzeitgedächtnis erst nach vielfach wiederholtem Aufruf aus dem Kurzzeitgedächtnis oder einer Wiederholung des Sinneseindrucks. Auch der spontane Lesezugriff von 2 Sekunden/chunk ist im Vergleich zum Kurzzeitgedächtnis langsam, kann aber bei ständigen Zugriffen auf bis zu 0,1-0,2 Sekunden/chunk gesteigert werden. Diese Abschätzungen sind aber nicht gut vergleichbar, da sich Art und Komplexität der chunks im Kurzzeitgedächtnis und im Langzeitgedächtnis stark unterscheiden können. Tendenziell werden im Langzeitgedächtnis „größere“ chunks gespeichert, die einen größeren Dekodieraufwand erfordern und unter Umständen Details verlieren (um bei einer Computeranalogie zu bleiben: Sie sind stärker komprimiert.). Sie gleichen diesen Nachteil aber durch ihre Vernetzung untereinander aus, die Assoziationen. Die Persistenz, also die Zeit, wie lange Informationen gespeichert bleiben können, ist beim Langzeitgedächtnis theoretisch unbegrenzt. In der Realität aber können wir uns viele Informationen für einen bestimmten Zeitraum, in dem sie für uns wichtig sind (Minuten bis Jahre), merken. Der Abruf ist nicht immer spontan, sondern wird gedanklich hergeleitet mit Assoziationen („Eselsbrücken“). Wenn wir die Erinnerung nicht mehr abrufen, vergessen wir sie. SEMESTERARBEIT JUREK BREUNINGER 63 GRUNDLAGEN Andere Informationen, wie Name, Adresse, Telefonnummer wurden und werden so oft wiederholt, dass der Zugriff praktisch augenblicklich erfolgt und kein Vergessen einsetzt. Deswegen unterscheidet man beim Langzeitgedächtnis noch zwischen sekundärem und tertiärem Gedächtnis, um die Unterscheidung der beiden genannten Fälle zu ermöglichen. Alle Gedächtnisformen sind in Tabelle 3.2-1 aufgeführt. Tabelle 3.2-1: Die verschiedenen Gedächtnisstufen im Vergleich Kapazität sensorisches primäres sekundäres tertiäres Gedächtnis Gedächtnis Gedächtnis Gedächtnis entsprechend der von 7 ± 2 psy- unbegrenzt unbegrenzt unbegrenzt den Rezeptoren übertra- chologische Persistenz Aufnahme genen Information Einheiten < 5 Sekunden 5 bis 30 Se- Minuten bis kunden Jahre automatisch bei Wahr- Verbalisieren Üben nehmung Organisation Zugriffsge- Sinnesreiz, FIFO nur begrenzt durch Aus- ges Üben chunking, chunking, ver- sequenziell netzt sehr schnell langsam, „Um- sehr wege“ schnell alle Formen alle For- schwindigkeit gabegeschwindigkeit Informations- sensorisch hauptsäch- art lich verbal Art des Überschreiben Vergessens sehr häufi- ? men Überschrei- hauptsächlich ben, Interfe- Verblassen, renz, Interferenz — Verblassen Während beim tertiären die Information lebenslang abrufbar bleibt, kommt es beim sekundären Gedächtnis meist zum Verblassen. Das wird dadurch erkennbar, dass viele aktiv nicht mehr abrufbare Informationen wieder bekannt vorkommen, wenn sie erneut durch externe Reize aufgenommen werden. In geringerem Umfang kann es SEMESTERARBEIT JUREK BREUNINGER 64 GRUNDLAGEN auch zu Interferenz kommen, dem Verwechseln und Vermischen von ähnlichen Informationen. Durch die Vernetzung der Informationen im Langzeitgedächtnis ist es einfacher Erinnerungen abzurufen, wenn man einen Teil der damit verbundenen Informationen präsentiert bekommt und sie wieder erkennt (recognition), als wenn man die Erinnerungen mit Hilfe eigener Assoziationen abzurufen versucht (recall). Im Langzeitgedächtnis entsteht eine Unterscheidung der Inhalte nach ihrem Typ: • Fakten, Daten, Konzepte (explizit formuliert, Bedeutungen, Vokabeln, Regeln (Grammatik), Gefühle, Gerüche) • Bilder, Vergleiche (zum Wiedererkennen von Situationen und Gegenständen) • Zusammenhänge, Schlussfolgerungen (wie Vergleiche, doch mit zusätzlichen Informationen durch die Erfahrung) • Abläufe (ermöglicht unterbewusstes Ausführen komplexer Handlungsketten) o kognitiv (geistige Arbeit, z. B. Kopfrechnen) o motorisch (körperliche Arbeit, z. B. Balancieren eines Gegenstandes) Nach dem ACT*-Modell (verbessertes Adaptive Control of Thought-Modell) von Anderson nennt man den Teil des Gedächtnisses, der Fakten und Konzepte speichert, deklaratives Gedächtnis. Dieses Gedächtnis ermöglicht in ungeordneten Sinneseindrücken Objekte zu erkennen. Aufgrund ihrer speziellen Merkmale werden erkannten Objekten Konzepte zugeordnet, das heißt, sie werden in bestimmte Kategorien eingeordnet. Nicht jeder Typ eines Objekts wird einzeln abgespeichert, sondern dedizierte Eigenschaften des Objekts werden extrahiert und als Merkmalsvektor abgelegt. Um ein Objekt zu erkennen, werden die abstrakten Merkmale, die ermittelt werden, mit den Merkmalsvektoren aus dem Langzeitgedächtnis abgeglichen. Ein großer Holzkasten mit weißen und schwarzen Tasten wird so immer als Klavier erkannt, unabhängig aus welchem Holz er besteht und welche Form er genau hat. Wahrscheinlich wird dabei zusätzlich der aktuelle Kontext in Betracht gezogen, um eine umfassende Suche eines passenden Merkmalsvektors zu vermeiden. Ohne diese Zusammenarbeit des Kurz- und Langzeitgedächtnisses, etwa dann, wenn ein Objekt nicht in den aktuellen Kontext passt, dauert die Erkennung erheblich länger. SEMESTERARBEIT JUREK BREUNINGER 65 GRUNDLAGEN Oft ignorieren Menschen sogar Dinge, die nicht in die Situation passen, also außerhalb des aktuellen Kontextes sind. Dies trifft vor allem in Fehlerszenarios auf und kann deshalb besonders bedeutend sein. Dieses Ausblenden von Dingen, die „nicht sein dürfen“, nennt man kognitive Dissonanz. Das prozedurale Gedächtnis (auch Produktionen-Gedächtnis) ist nach ACT*-Modell der Teil des Gedächtnisses, im dem Fähigkeiten und Abläufe (Prozeduren) gespeichert werden. Diese werden durch bestimmte Auslöser abgerufen. Prozeduren werden weniger stark abstrahiert gespeichert, damit sie schnell und mit wenig Dekodierungsaufwand ablaufen können. Dazu gehören motorische Fähigkeiten wie Ski- oder Fahrradfahren. Die Ausführung erfolgt unterbewusst, aber nicht komplett automatisiert wie bei einer Maschine, sondern mit ständiger Anpassung an die aktuelle Situation. Je geübter die Person, desto schneller und mit desto weniger Konzentrationsanstrengung kann sie die Abläufe durchführen. Um diese effektive und wenig anstrengende Arbeitsweise des Anwenders möglichst oft und gut auszunutzen, sollten ähnliche Folgen von Aufgaben in einer Softwareoberfläche immer auf die gleiche Art und Weise ablaufen können. Durch diese Konsistenz der Bedienung werden die Erwartungen des Benutzers erfüllt. Die Gesamtheit aus der Summe der Daten und der Verknüpfungen zwischen den Daten des Langzeitgedächtnisses bezeichnet man als Wissen. Um effektiv handeln zu können, muss man dieses Wissen auch durchgängig anwenden können. Bei Bedienung von Softwareoberflächen ist sowohl das Aufgabenwissen im jeweiligen Fachgebiet, als auch das Bedienungswissen über Aufbau und Funktionsweise der Software von Belang. Auch hier zeigt sich wieder die Wichtigkeit der Konsistenz in der Bedienoberfläche: Bei fehlender Konsistenz ist mehr Wissen und somit Lernaufwand notwendig. Wie bereits bei den Farben und der Leserichtung angesprochen, haben Menschen unterschiedliche soziale und kulturelle Hintergründe, die ihre Erfahrungen und Denkweisen beeinflussen. Neben hartem Faktenwissen sind im Langzeitgedächtnis auch eine Menge subjektive und emotionale Erfahrungen und Erkenntnisse gespeichert. Dadurch variiert die Wahrnehmung selbst bei Menschen mit ähnlicher Ausbildung und Vertrautheit mit Softwaresystemen teilweise sehr. Eine Anrede in Höflichkeitsform kann als passend oder unpersönlich empfunden werden, ein persönliche- SEMESTERARBEIT JUREK BREUNINGER 66 GRUNDLAGEN res „du“ als undistanziert oder freundschaftlich. Farben und Symbole können verschiedene Reaktionen hervorrufen. Solche Unterschiede sollten bei großen (vor allem internationalen) Zielgruppen beachtet werden. Dahm 2006, S. 76-79 Herczeg 2005, S. 53-54 Hick 2006, S. 374-375 Anderson 2001, S. 183-192, S. 208-215, S. 237-238 3.2.4 Assoziationen und Metaphern Wie bereits erwähnt ist neben einer lang anhaltenden Speicherung vor allem die gute Vernetzung von Daten im Gedächtnis sehr wichtig. Sie erleichtert und beschleunigt den Zugriff auf Informationen deutlich. Die Verbindung mit anderen bereits vorhandenen Fakten und Eigenschaften wird beim Erlernen durch die kognitiven Prozesse geschaffen. Je besser das gelingt, desto einfacher werden neue Informationen dem Langzeitgedächtnis auf Dauer hinzugefügt und desto besser festigt sich bereits vorhandenes Wissen. Ein einfaches Beispiel für die hilfreiche Nutzung von Assoziationen in der SoftwareErgonomie ist Benutzung der Anfangsbuchstaben von Befehlen für Tastaturshortcuts (Steuerung-S für Speichern/save). Eine Spezialform der Assoziation sind die Metaphern. Hier wird ein Begriff oder Objekt so stark mit einem (ähnlichen) anderen verknüpft, dass keine Assoziation gesucht werden muss, sondern die übertragene Bedeutung gleichbedeutend verstanden wird. Die generelle Verwendung von Piktogrammen (Icons) in Desktopumgebungen und Programmen nutzt diesen Effekt (Scheresymbol für „Ausschneiden“, Papierkorbsymbol für gelöschte Elemente). Allerdings sollte man sich der Grenzen von Metaphern bewusst sein. Nicht jede Eigenschaft eines echten Objektes lässt sich auch im Computer nachstellen und umgekehrt. Dahm 2006, S. 79-81 3.2.5 Mentale Modelle Durch die Verknüpfungen, die beim Erlernen geschaffen werden, kreiert jeder Mensch mentale Modelle des gelernten Stoffes. Diese Modelle sind Repräsentationen der realen Welt im Gehirn. Sie unterscheiden sich je nach bereits vorhandenem Wissen, Auffassungsgabe, Interesse und Interpretation sehr stark bei verschiedenen SEMESTERARBEIT JUREK BREUNINGER 67 GRUNDLAGEN Personen. Mentale Modelle können sich ständig ändern und erweitern. Je besser die mentalen Modelle eines Benutzers dem Anwendungsgebiet entsprechen, desto effizienter kann dieser seine Arbeitsaufgaben lösen. Allerdings ist nicht immer tiefes Detailwissen notwendig, um Aufgaben zu lösen. Besonders gut gestaltete Software kann durch ihren hohen Abstraktionsgrad meist ohne Wissen über ihre interne Struktur oder die der darunter liegenden Hardware bedient werden. Die Anwender von Software-Systemen machen sich von der Funktionsweise und Bedienung der Software ein mentales Modell. Die Herausforderung für den Entwickler des Bedienungskonzepts liegt darin, dass für fast alle Aufgaben, die mit Software gelöst werden, in den Köpfen der Anwender Assoziationen zu bereits erlernten Tätigkeiten und Fakten existieren. Oft sind diese Verbindungen offensichtlich und die Anlehnung des Bedienkonzepts und die Fachsprache des bereits existierenden Anwendungsbereiches drängen sich auf. So bilden computerbasierte Messsysteme ihre Anzeigen und selbst Bedienelemente oft ihren Pendants in der Analogwelt nach. Programme zum Abspielen von Medien haben die Symbolik der Kassetten- und CD-Spieler übernommen. Moderne Textverarbeitungssysteme versuchen die Grundfunktionen wie eine Texterstellung mit einer Schreibmaschine wirken zu lassen (WYSIWYG). Dies ist jedoch nur sehr eingeschränkt möglich, da die Fähigkeiten einer Computertextverarbeitung die jeder Schreibmaschine weit überschreiten. Noch schwieriger wird es bei Programmen, deren Anwendungsbereiche erst mit den Computern entstanden sind (etwa Tabellenkalkulation, Programmierung). Hier ist es schwer vorauszusagen, welche mentalen Modelle der Anwender heranziehen und neu bilden wird. Jede Software sollte wenn möglich auf bereits verbreitete mentale Modelle abgestimmt sein, da sie so schnell verstanden und mit wenig Lernaufwand bedient werden kann. Dies ist eine weitere Forderung für Konsistenz und das Einhalten etablierter Standards. Fachleute haben ein gutes und detailliertes Modell des Anwendungsbereiches. Haben sie auch ein korrektes und mit ihrem Modell übereinstimmendes Modell vom Softwaresystem, so erscheint es ihnen verständlich und transparent. Dies ist allerdings noch kein hinreichendes Zeichen für ein gutes System. Auch ein transparentes System mag die Aufgaben des Benutzers nicht effektiv und effizient lösen können. SEMESTERARBEIT JUREK BREUNINGER 68 GRUNDLAGEN Neben den mentalen Modellen des Benutzers gibt es noch die konzeptuellen Modelle des Systementwicklers. Diese sind im Allgemeinen stärker strukturiert und sollen der Konzeption des Systems dienen. Die systemtechnischen Modelle oder Systemmodelle stellen die technische Abbildung bzw. Implementierung des Anwendungsbereiches dar. Wir führen die folgende Notation nach Streitz 1990, S. 240ff. ein: S System B Benutzer D Designer A Anwendungsbereich Die Modelle 1. Ordnung sind also: S(A) Anwendungssystem. Implementierung des Anwendungsbereiches B(A) Modell des Benutzers vom Anwendungsbereich D(A) Modell des Systementwicklers vom Anwendungsbereich Die Qualität von Software, insbesondere der Bedienbarkeit, hängt davon ab, wie gut die mentalen Modelle von Benutzer und Systementwickler sowie das Systemmodell zusammenpassen. Leider weichen sie in der Realität immer zu einem gewissen Grad voneinander ab. Man spricht von inkompatiblen Modellen. Abbildung 3.2-1 illustriert diese Problematik als ein Dreieck. SEMESTERARBEIT JUREK BREUNINGER 69 GRUNDLAGEN Abbildung 3.2-1: Das Problemdreieck der Software-Ergonomie: Das Modell vom Anwendungsbereich des Benutzers und des Entwicklers sowie das realisierte Systemmodell sollten sich möglichst decken. Aus dieser Darstellung lässt sich auch recht schnell erkennen, wo die größten Probleme des ergonomischen Bedienoberflächenentwurfes liegen. • Der Anwender hat oft ein hohes Verständnis des Anwendungsbereiches, aber wenig Wissen über den Aufbau des technischen Systems oder das Konzept des Entwicklers. • Der Entwickler ist primär auf seine konzeptionelle Vorgehensweise fixiert und hat wenig Wissen über das Modell des Benutzers, aber viel Fachwissen über das System („Ingenieure sind die schlechtesten Bedienoberflächendesigner.“, Fachidiotentum). • Das System ist meist durch seine technischen Möglichkeiten festgelegt. Die wichtigsten Modelle in der Software-Ergonomie sind diese Modelle 2. Ordnung: • B(S(A)): Modell des Benutzers vom Anwendungssystem. Der Benutzer kann durch sein Verständnis des Systems dessen Verhalten vorhersagen und sein eigenes Modell dementsprechend verbessern. SEMESTERARBEIT JUREK BREUNINGER 70 GRUNDLAGEN • D(B(A)): Modell des Systementwicklers vom Modell des Benutzers vom Anwendungsbereich. Der Entwickler versucht durch die Augen des Benutzers zu sehen. Nur wenn dieses Modell gut ist, kann eine gute Kompatibilität der Modelle 1. Ordnung erreicht werden. • S(B(A)): Modell des Systems vom Modell des Benutzers vom Anwendungsbereich. Das System „weiß“, wie gut der Benutzer den Anwendungsbereich kennt. Dieses Modell dient hauptsächlich zur Fehlervermeidung, da es mögliches Fehlverhalten des Benutzers vorhersagen kann. • S(S(A)): Modell des Systems von der Implementierung des Systems. Diese Selbstreflexion ist die Voraussetzung für adaptive Systeme, die sich an den Benutzer anpassen. Theoretisch lassen sich eine Menge weiterer Modelle (auch 3. Ordnung) bilden, die sich in realen Anwendungssituationen nachweisen lassen (siehe Herczeg 2005, S. 44). Herczeg 2005, S. 39-49 Anderson 2001, S. 330-332 3.2.6 Erfahrung Die Erfahrung bezeichnet die Menge an Wissen, die der Anwender über einen Anwendungsbereich oder ein Softwaresystem gesammelt hat und die Qualität seiner mentalen Modelle. Der Anfänger folgt mangels Erfahrung, weder bezüglich Fakten noch bezüglich Fertigkeiten, expliziten Regeln. Er muss bewusst über seine Aktionen nachdenken und braucht genauso viel Aufmerksamkeit für die Bedienung wie für den Lösungsweg. Ein Experte verfügt über große Erfahrung bezüglich Fakten und Fertigkeiten. Vor allem kann er Aufgaben automatisiert erfüllen, da er schnell den Aufgabentyp erkennt und seine Aktionen deshalb unterbewusst ausführen kann. Er konzentriert sich auf seine Aufgabe, das Ziel und den Lösungsweg. Er arbeitet schneller und meist mit weniger Fehlern als ein Anfänger. Die unterschiedlichen Grade an Erfahrung der angestrebten Benutzergruppe müssen beim Design des Bedienkonzepts berücksichtigt werden. Je nach Anwendungszweck kann eine Anpassung an eine bestimmte Zielgruppe ausreichen, meist muss aber ein SEMESTERARBEIT JUREK BREUNINGER 71 GRUNDLAGEN breiter Bereich von Benutzerklassen mit verschiedenen Erfahrungsstufen abgedeckt werden. Man sollte bedenken, dass sich der Erfahrungsstand der Benutzer meistens mit der Zeit ändern wird. Durch Üben stellt sich Routine ein und die mentalen Modelle werden angepasst. Die Entwicklung einer Bedienoberfläche für ein Betriebssystem ist ein gutes Beispiel für eine Software, die sowohl von unerfahrenen Erstbenutzern als auch von routinierten Experten intuitiv und effizient genutzt werden können soll. Dagegen kann man eine integrierte Programmierumgebung verstärkt auf fortgeschrittene Benutzer auslegen, da man bei Benutzern mit Programmierkenntnissen das Basiswissen der Computerbedienung voraussetzen kann. Oft gibt es einen Zielkonflikt zwischen der Selbsterklärungsfähigkeit für Anfänger und dem schnellen Zugriff für Experten. Eine Möglichkeit dieses Problem anzugehen ist es, Systemvarianten anzubieten. Man kann Anwender noch differenzierter in bestimmte Klassen der Erfahrung einteilen. Folgende gängige Klassifizierung teilt Anwender in vier Gruppen: • Unerfahrene Benutzer: Benutzer, die die Software noch nie benutzt haben • Gelegenheitsbenutzer: Benutzer, die die Software zu selten benutzen um Routine zu entwickeln • Routinebenutzer: regelmäßige Benutzer mit hohem Anwendungs- und Bedienwissen • Experten: regelmäßige Benutzer, die auch tiefergehende technische Zusammenhänge kennen Es sind noch andere Einteilungen möglich und gängig. Stärkere Differenzierung ist aber nur in speziellen Fällen hilfreich beim Entwurf. Wichtig ist vor allem überhaupt in Betracht zu ziehen, verschiedene Benutzergruppen zu untersuchen. Dahm 2006, S. 81-83 Herczeg 2005, S. 67-71 SEMESTERARBEIT JUREK BREUNINGER 72 GRUNDLAGEN 3.2.7 Lernunterstützung Wir wissen, dass eines der Ziele der Software-Ergonomie die Effizienz des Anwenders beim Erledigen seiner Aufgaben ist. Ein Experte erledigt seine Aufgaben schneller als ein Anfänger. Also sollte jede Software seine Anwender dabei unterstützen möglichst schnell ein Experte zu werden, also die relevanten Fakten und Fertigkeiten zu lernen. Wie bereits besprochen werden beim Lernen neue Assoziationen gebildet. Deswegen ist es einfacher durch Anknüpfen an bereits vorhandenes Wissen zu lernen. Um den Lernvorgang optimal zu gestalten, sollte deshalb das individuelle Vorwissen und etablierte Vorgehensweisen der verschiedenen Benutzer(gruppen) in Betracht gezogen werden. Allgemein sollten Inhalte aufeinander aufbauend vermittelt werden, da dadurch die mentalen Modelle gestärkt werden und der Lerneffekt gefördert wird. Anfänger • sollten ein einfaches Regelwerk präsentiert bekommen, das Schritt für Schritt erlernt werden kann. • sollten die Bedeutung und Struktur des zu erlernenden Inhalts erkennen. • sollten den Inhalt konsistent vermittelt bekommen, damit sie ihn abstrahieren und eigene mentale Modelle bilden können. Experten • können mit Ausnahmen und Abkürzungen arbeiten, da sie die Grundstruktur verinnerlicht haben. • sollte ermöglicht werden ihre Effektivität und Effizienz zu steigern. 3.2.7.1 Lerntypen Menschen haben verschiedene bevorzugte Wege Informationen aufzunehmen. Auch wenn wissenschaftliche Erkenntnisse über eine genaue Einteilung und die genauen Vorgänge im Gehirn fehlen, ist es wichtig zu wissen, dass es verschiedene Lerntypen gibt, die durch die Informationsaufnahme über ihren präferierten Kanal profitieren. SEMESTERARBEIT JUREK BREUNINGER 73 GRUNDLAGEN • Hören: beinhaltet den akustischen Kanal und Lesen, da beides verbalisierte Eindrücke hinterlässt • Sehen: es wird bevorzugt bildliche Information gespeichert. Profitiert von Fotos und Graphiken • Kommunizieren: lernt am besten in Gruppen, in denen Erkenntnisse gegenseitig mitgeteilt werden. Eigenes Verbalisieren wiederholt den Inhalt und hilft mentale Modelle zu bilden • Motorik: learning by doing. Profitiert von Tutorials, in denen die Arbeitsschritte geführt selber ausgeführt werden. Da Software nicht für eine Zielgruppe die nur einen speziellen Lerntyp umfasst entwickelt wird, sollten immer alle dieser Kanäle angesprochen werden, um das Lernen optimal zu unterstützen. Je mehr Kanäle, desto erfolgreicher wird die Information ins Langzeitgedächtnis aufgenommen. Dahm 2006, S. 83-84 Anderson 2001, S. 193-196 3.3 Handlungsprozesse Handlungsprozesse umfassen • die Absicht (Intention), ein Ziel zu erreichen • die Durchführung einer Handlung und • die Steuerung (Regulation) der Durchführung Nachdem wir uns mit den Grundlagen zur Beschreibung von Handlungen, Wahrnehmung und Erfahrung, beschäftigt haben, werden wir uns nun mit der Durchführung und Regulation befassen. 3.3.1 Aufmerksamkeit Wesentlich für den Erfolg einer Handlung ist die Aufmerksamkeit, die wir ihr widmen. Genau wie der gefühlte Augenblick und das Bewusstsein wird die Aufmerksamkeit durch den Inhalt des Kurzzeitgedächtnisses bestimmt. Zwar ist ein Mensch in einem gewissen Maß fähig mehrere Aufgaben gleichzeitig zu erledigen, allerdings ist die Aufmerksamkeit schlecht teilbar. Das heißt er kann sich SEMESTERARBEIT JUREK BREUNINGER 74 GRUNDLAGEN dabei nur auf eine Sache bewusst konzentrieren. Alle anderen müssen so geübt sein, dass sie unterbewusst ablaufen. Für eine Benutzerschnittstelle bedeutet dies, dass falls die Bedienung explizites Nachdenken erfordert, die dafür benötigte Aufmerksamkeit dem Lösen der Aufgabe entzogen wird. Das Erledigen der Aufgabe dauert dementsprechend länger. Außerdem kommt es im Kurzzeitgedächtnis zu Kontextwechseln zwischen Bedienung und Aufgabe, welche zusätzlichen mentalen Aufwand bedeuten. Dieser sollte möglichst gering gehalten werden. Das beschleunigt die Bewältigung der Aufgabe, strengt weniger an und vermeidet Fehler. Eine Bedienung, die keine dedizierte Aufmerksamkeit benötigt, nennt man in der Psychologie nicht bewusstseinspflichtig. Zum Beispiel ist beim Autofahren die Bedienung des Fahrzeugs nach der Lernzeit in der Fahrschule bald nicht mehr bewusstseinspflichtig. Dies ist essentiell, da die volle Aufmerksamkeit der Verkehrsbeobachtung und der Navigation zur Verfügung stehen sollte. Dass eine nicht bewusstseinspflichtige Bedienung auch die Produktivität steigert zeigt zum Beispiel blindes Schreiben auf der Tastatur mit dem Zehn-Finger-System. Andersherum kann der zusätzliche mentale Aufwand bei Leuten, die Zehn-FingerSchreiben nicht beherrschen zu schlechteren Arbeitsergebnissen führen (zum Beispiel fehlender Dokumentation bei Programmcode). Dahm 2006, S. 88-89 Anderson 2001, S. 75-83 3.3.2 Handlungsregulation Der Grund jeder Handlung ist ein Ziel (eine Intention), das erreicht werden soll. Je nach Komplexität der Aufgabe werden auch mehrere Teilziele definiert. Ziele können explizit (erreiche einen bestimmten Zustand) oder implizit (verbessere die Bedingungen) formuliert sein. Wenn das Ziel fest steht beginnt die Planung, wie das Ziel erreicht werden kann. Auch diese kann explizit (einzelne Handlungsschritte) oder implizit (Verwendung von unbewusst ablaufenden Fähigkeiten) sein. Während der Durchführung der Handlung wird ständig überprüft, ob alles abläuft wir geplant und bei Bedarf die Handlung entsprechend angepasst oder abgebrochen. Durch diese Rückkopplung kann sehr flexibel auf äußere Einflüsse und Unwägbar- SEMESTERARBEIT JUREK BREUNINGER 75 GRUNDLAGEN keiten reagiert werden. Die Kombination aus Soll-Ist-Vergleich, Rückkopplung und Anpassung nennt man Handlungsregulation. Ein verbreitetes Modell zur Handlungsregulation ist das 1986 beschriebene DreiEbenen-Modell von Rasmussen (Rasmussen 1986, S. 257ff.). Es unterscheidet drei kognitive Verhaltens- oder Fertigkeitsebenen: • Sensomotorische Fertigkeiten (skill-based) • Regelbasiertes Verhalten (rule-based) • Wissensbasiertes Verhalten (knowledge-based) Es ist in Abbildung 3.3-1 dargestellt. Ziele Symbole Identif ikation Wissensbasiertes Verhalten Regelbasiertes Verhalten Sensomotorische Fertigkeiten Zeichen Erkennung Merkmalsbildung Entscheidung, Auf gabenwahl Assoziation Zustand – Auf gabe Zeichen/Signale Sens orische Ei ngaben Planung Gespeicherte Regeln f ür Auf gabe Automatisierte sensomotorische Muster Signale Handlungen Abbildung 3.3-1: Das Drei-Ebenen-Modell nach Rasmussen. Es beschreibt drei Handlungsebenen. Basierend auf dem Drei-Ebenen-Modell von Rasmussen unterscheidet Hacker in seinem Modell je nach Art der Handlung verschiedene Regulationsebenen (Hacker 1986, S. 155-162). Sie sind in Tabelle 3.3-1 beschrieben. SEMESTERARBEIT JUREK BREUNINGER 76 GRUNDLAGEN Tabelle 3.3-1: Hackers Modell der Regulationsebenen Regulationsebene Bewusste Routine- vollständig automati- Handlungen handlungen sierte Handlungen intellektuelle Regula- Ebene der flexib- sensomotorische Re- tionsebene len Handlungs- gulationsebene muster Entsprechung im wissensbasiertes regelbasiertes auf sensomotorischen Drei-Ebenen- Verhalten Verhalten Fähigkeiten basiertes Modell Beschreibung Verhalten nutzt deklaratives vorgegebene Gedächtnis als Wis- memorierte Akti- gen, die selbstständig sensgrundlage, für onen werden bewusste intellektuel- nach Bedarf an- Parallelisierung Abhängigkeiten le Handlungen gepasst keine Parallelisie- eingeschränkt rung, Aufmerksam- möglich (leichte keit ist unteilbar Ablenkung) unbewusste Handlun- ablaufen, Regulation geschieht unbemerkt möglich greift bei Bedarf auch greift bei Bedarf auf Routinehandlun- auch auf senso- gen und sensomoto- motorische rische Handlungen Handlungen zu- zurück rück Dahm 2006, S. 90-92 Johannsen 1993, S. 133-138 3.3.2.1 Fehler Menschen machen in ihren Handlungen Fehler. Ein Fehler ist ein Teil der Handlung, der eine Abweichung vom Ziel bewirkt. Man kann zwischen schweren Fehlern und leichten Fehlern unterscheiden: Schwere Fehler machen es unmöglich, das Ziel zu erreichen (Beeinträchtigung der Effektivität). Leichte Fehler erschweren das Erreichen des Ziels, das heißt es ist zusätzliche SEMESTERARBEIT JUREK BREUNINGER 77 GRUNDLAGEN Zeit und Aufwand nötig, die Wirkungen des Fehlers rückgängig zu machen oder das Ziel auf einem anderen Weg zu erreichen (Beeinträchtigung der Effizienz). Alle Fehler beeinträchtigen die Zufriedenheit des Benutzers. Fehler sind also abträglich für alle drei Hauptziele der Software-Ergonomie. Deshalb sollten sie so gut wie möglich vermieden werden. Darüber hinaus ist es wichtig, dass das System fehlertolerant ist, also dem Benutzer ermöglicht nach dem Auftreten von Fehlern diese zu korrigieren und weiter zu arbeiten. Man kann auch Fehler anhand des Drei-Ebenen-Modells einordnen: • Fehler auf intellektueller Ebene • Fehler auf der Ebene der flexiblen Handlungsmuster • Fehler auf der sensomotorischen Ebene 3.3.2.1.1 Fehler auf der intellektuellen Ebene Fehler auf der intellektuellen Ebene sind zum Beispiel Denkfehler. Sie treten auf, wenn man sich sein Ziel nicht explizit klar macht oder die Randbedingungen nicht einbezieht. Sie sind für den Entwickler des Software-Systems nicht zu verhindern, da sie in der Arbeitsweise des Benutzers begründet liegen. Andere Fehler auf dieser Ebene entstehen, wenn die mentalen Modelle, die zur Anwendung kommen, fehlerhaft sind. Sie lassen sich in einem gewissen Umfang vermeiden. Der Systemdesigner hat Einfluss darauf, wie die mentalen Modelle des Benutzers entstehen. Wenn bekannte Modelle benutzt und erweitert werden und eine gute Lernunterstützung vorhanden ist, können diese Fehler stark eingedämmt, wenn auch nicht völlig ausgeschlossen werden. 3.3.2.1.2 Fehler auf der Ebene der flexiblen Handlungsmuster Diese Fehler treten meist auf, wenn sich bei einer Routinenhandlung, die normalerweise mit einem gut memorierten Ablauf ausgeführt wird, die Randbedingungen leicht ändern, der Benutzer seinen Ablauf aber nicht anpasst. Sie entstehen leider besonders häufig dadurch, dass das System bestimmte Warnungen oder Nachrichten so oft anzeigt, dass ihre Signifikanz für den Benutzer nicht mehr erkennbar ist. In einem Bereich, in dem sich der Benutzer gut auskennt und den er häufig benutzt, SEMESTERARBEIT JUREK BREUNINGER 78 GRUNDLAGEN wird er – unabhängig ob er sich der Gefahren, vor denen gewarnt wird, bewusst ist oder nicht – Warnmeldungen und Hinweise nicht jedes Mal komplett lesen, um seine Arbeitsgeschwindigkeit zu erhöhen. Deshalb sollten Warn- und Hinweismeldungen, die keine unmittelbare Entscheidung nach sich ziehen, sparsam und unauffällig benutzt werden (zum Beispiel in einem eigenen Hinweisbereich). Wenn möglich, sollten alle Handlungen reversibel sein; Warnmeldungen sollten so nur bei kritischen Entscheidungen (etwa drohendem Datenverlust) überhaupt nötig sein. Sobald eine Gewöhnung an Warnmeldungen stattfinden kann, steigt das Risiko von Fehlern auf dieser Ebene. 3.3.2.1.3 Fehler auf der sensomotorischen Ebene Bei fehlender Abstimmung zwischen Sensorik und Motorik oder mangelnder Konzentration treten diese Fehler auf. Es werden etwa unabsichtlich die falschen Tasten gedrückt, die falschen Objekte auf dem Bildschirm ausgewählt, Bedienabläufe falsch ausgeführt oder zu früh abgebrochen. Um diese Fehler zu vermeiden sollten auf der Softwareseite Objekte und Text groß genug gewählt werden, Regeln zu Positionierung und Abständen (siehe Fitts Gesetz) beachtet werden. Auf der Seite der Hardware sollten die Regeln der klassischen Ergonomie eingehalten werden. Tasten, Schalter und anderen Bedienelemente sollten für alle Benutzer gut bedienbar, verständlich beschriftet und kompatibel (siehe Systemergonomie) gestaltet werden. 3.3.2.2 Überlastung Wie wir wissen, ist die bewusste Konzentration nur auf eine Sache möglich. Eine Aufnahme von zu vielen Informationen über zu viele Kanäle gleichzeitig kann die menschlichen Fähigkeiten überfordern. Ein hoher psychologischer Druck (Termindruck, Erfolgsdruck, etc.) verstärkt diesen Effekt. Dies kann soweit führen, dass nicht nur nicht genug, sondern überhaupt keine Information aufgenommen wird. Der Mensch blockiert bis der Druck wieder erträglich ist. Eine Benutzerschnittstelle sollte eine mentale Überbelastung des Anwenders gezielt verhindern um Fehler zu vermeiden und die Zufriedenheit zu steigern. Primär erreicht man dies durch Auslassung überflüssiger Information und gut strukturierte, konsistente Objektanordnung. Auch der Arbeitsprozess kann durch geschickte Gestaltung der Oberfläche, die gewisse Schritte vorgibt beeinflusst werden. Einen Großteil dieSEMESTERARBEIT JUREK BREUNINGER 79 GRUNDLAGEN ser Problematik liegt allerdings in der Arbeitsorganisation der Anwender, auf die der Systementwickler keinen Einfluss hat. Dahm 2006, S. 92-95 Shneiderman 2005, S. 76-78 3.3.3 Zeitverhalten Aus der Art und Weise, wie Menschen handeln, ergeben sich bestimmte Vorgaben für Maschinen, wie diese am günstigsten auf die Handlungen des Menschen angepasst werden und reagieren können. Besonders die ergonomische Gestaltung des Zeitverhaltens von Maschinen hängt stark von der Denk- und Handlungsgeschwindigkeit der Menschen ab. Das Zeitverhalten von Mensch und Maschine beeinflussen sich gegenseitig. Für die Zufriedenheit der Benutzer ist es sehr wichtig, wie schnell interaktive Softwaresysteme Informationen ausgeben und auf Eingaben reagieren können. Vor allem zu lange Antwortzeiten auf Eingaben und lange Darstellungszeiten können für Verunsicherung, Verärgerung oder Frustration sorgen. Auch führen Verzögerungen zu erhöhten Fehlerraten, da, wenn das Verhalten der Software nicht antizipiert werden kann, Routinemuster nicht anwendbar sind beziehungsweise falsche Routinemuster angewandt werden. Es kommt zu Fehlern auf der Ebene der flexiblen Handlungsmuster. Andererseits zeigen Studien, dass auch schnelle Reaktionszeiten das Verhalten der Anwender negativ beeinflussen können, weil diese dann übereilt und hastig arbeiten. Dabei missachten sie Systemausgaben, handeln unüberlegt und machen Eingabefehler. Da dies zu Stress und Unzufriedenheit führen kann, benötigen wir eine gute Balance zwischen den Reaktionszeiten des Systems und des Benutzers. 3.3.3.1 Interaktionsschritte Wir zerteilen einen Handlungsschritt in mehrere Zeitabschnitte. Die Abgrenzungen sind nicht völlig scharf; es kann je nach Situation und Sichtweise zu Überschneidungen kommen. • Eingabezeit: Zeitraum zwischen dem Beginn und dem Abschluss einer Benutzereingabe. Oft vereinfacht als Zeitpunkt statt Zeitraum angenommen. • Ausgabezeit: Zeitraum zwischen dem Beginn und dem Abschluss einer Systemausgabe. Oft vereinfacht als Zeitpunkt statt Zeitraum angenommen. SEMESTERARBEIT JUREK BREUNINGER 80 GRUNDLAGEN • Antwortzeit: Zeitraum zwischen der Benutzereingabe und der daraus resultierenden Systemausgabe. Da Benutzereingabe und Systemausgabe eigentlich Zeiträume sind, ist die Antwortzeit ein nur unscharf definierter Begriff. Das System kann mit der Verarbeitung der Benutzereingaben bereits während der Eingabe beginnen. • Denkzeit: Zeitraum zwischen der Systemausgabe und der Benutzereingabe. Ebenfalls unscharf. In diesem Zeitraum überlegt der Anwender sich den nächsten Handlungsschritt. • Planungszeit: Zeitraum vom Ende der Benutzereingabe bis zur Systemausgabe. In diesem Zeitabschnitt plant der Benutzer das weitere Vorgehen in Abhängigkeit vom erwarteten Erfolg oder Nichterfolg der laufenden Aktion. Abbildung 3.3-2: Zeitliche Phasen eines Interaktionsschrittes Da die Zeiten wie bereits erwähnt nicht exakt abgrenzbar sind und voneinander abhängen, lassen sie sich schwer messen. Auch die technische Realisierung (Paralleli- SEMESTERARBEIT JUREK BREUNINGER 81 GRUNDLAGEN sierung, Netzwerk) erschwert dies. Aber es gibt statistische Messwerte dieser Zeiträume für bestimmte Anwendungssysteme und -situationen. 3.3.3.2 Kognitive Randbedingungen Man versucht mit den Erkenntnissen der Kognitionspsychologie Richtwerte zu erstellen, die ein für die Software-Ergonomie günstiges Verhalten der Antwortzeit und Ausgabezeit ermöglichen. Allerdings sind die bestehenden Modelle recht ungenau. Die beste Methode, gute Erkenntnisse zu erhalten, sind Benutzerexperimente. 3.3.3.2.1 Einflüsse des Gedächtnisses: Ein wichtiger Faktor zur Ermittlung eines günstigen Zeitverhaltens eines Softwaresystems ist das menschliche Kurzzeitgedächtnis. Denn bei zu langen Antwort- und Ausgabezeiten vergisst der Benutzer seine ursprünglichen Intentionen ganz oder teilweise. Die gelieferten Ergebnisse des Systems verlieren dann den Zusammenhang. Zwischen den einzelnen Schritten einer Handlung ist es immer wieder notwendig, Teilergebnisse oder Teilpläne im Kurzzeitgedächtnis zwischenzuspeichern. Bei der Arbeit mit einem Softwaresystem muss bei jedem dieser Schritte auf die Antwort des Systems gewartet werden. Durch Ablenkungen kann das Kurzzeitgedächtnis schon nach 0,1 bis 0,5 Sekunden wieder geleert sein, sodass bereits solche Antwortzeiten zu lang sein können, wie Studien zeigen. Die Arbeitsgeschwindigkeit darf aber auch nicht zu hoch sein, sodass das Kurzzeitgedächtnis mit seiner beschränkten Kapazität von sieben chunks mit Informationen überflutet wird und sie nicht schnell genug ins Langzeitgedächtnis transferieren kann (mit etwa 8 Sek/chunk). Sonst ist der Anwender nicht mehr in der Lage vollständig zu planen und handelt wegen fehlender Zwischenergebnisse nur noch zufällig oder intuitiv. 3.3.3.2.2 Einflüsse des Problemlöseverhaltens: Ein System hat einen bestimmten Takt, der von seinen Antwort- und Ausgabezeiten bestimmt wird. Benutzer tendieren dazu sich diesem Systemtakt anzupassen. Deshalb steigern sie ihre Arbeitsgeschwindigkeit bei einem schnellen Systemtakt, was dazu führt, dass sie nicht mehr alle Ausgaben vollständig untersuchen und verstehen, keine gründlichen Pläne machen und so mehr Fehler verursachen. Bei einem langsamen Systemtakt steigt die Angst vor Fehlern, da eine Behebung entsprechend länger dauert. Deshalb arbeiten Benutzer dann oft langsamer und gründlicher. SEMESTERARBEIT JUREK BREUNINGER 82 GRUNDLAGEN Es entsteht also ein Zielkonflikt zwischen hoher Arbeitsleistung, Zufriedenheit und niedriger Fehlerrate. Damit hier eine gute Balance entsteht, sollte der Benutzer gute Kenntnis des Anwendungsbereiches B(A) und ein gutes mentales Modell des Anwendungssystems B(S(A)) besitzen. Er muss seinen Fortschritt und die Zielerreichung erkennen können und Fehler sowohl vermeiden als auch nach dem Auftreten schnell und einfach beseitigen können. Er sollte wenig Angst davor haben, Fehler zu machen. Es darf keine Ablenkungen geben und die Problemlösung sollte ohne Verzögerungen ausführbar sein, was die Wichtigkeit des Zeitverhaltens zeigt. Unabhängig hiervon haben die Benutzer auch verschiedene Präferenzen, was das Zeitverhalten betrifft: • Unerfahrene Benutzer können mit langsameren Antwortzeiten effektiver und fehlerfreier arbeiten. • Unerfahrene Benutzer bevorzugen eine langsamere Arbeitsgeschwindigkeit als Routinebenutzer und Experten. • Wenn die Auswirkungen von Fehlern nicht groß sind, arbeiten Benutzer schneller. • Bei simplen, intuitiv verständlichen Tätigkeiten arbeiten Benutzer schneller. • Wenn Benutzer Erfahrungen mit diesem speziellen System oder einem ähnlichen haben, erwarten sie das Zeitverhalten, das sie kennen. 3.3.3.3 Ausgabezeit Die Ausgabezeit bezieht sich meist auf reinen alphanumerischen Text ohne Bilder oder die Elemente einer graphischen Benutzeroberfläche (Fenster, Menüs). Meist wird die Ausgaberate in cps (characters per second) herangezogen. Studien zeigen, dass die günstigsten Ausgaberaten bei entweder 30 cps oder der unverzögerten Ausgabe liegen (Abbildung 3.3-3). 30 cps ist etwa die Geschwindigkeit, die ein Benutzer simultan zur Ausgabe am Bildschirm ohne Anstrengung mitlesen und dabei den Inhalt verstehen und verarbeiten kann. Langsamere Ausgaberaten können problemlos gelesen werden, führen aber oft zu Frustration, da sie als zu langsam empfunden werden. Die Denkzeit passt sich dem Systemtakt an. Benutzer erhöhen ihre Arbeitsgeschwindigkeit bei einer Ausgaberate von 30 statt 10 cps um mehr als ein Drittel. SEMESTERARBEIT JUREK BREUNINGER 83 GRUNDLAGEN Bei der unverzögerten Ausgabe untersuchen Benutzer den Text im Nachhinein mit ihrer individuellen Lesegeschwindigkeit und blättern nach Bedarf zu den relevanten Abschnitten, da sie keine Verzögerung fürchten müssen. Abbildung 3.3-3: Untersuchungen zur Ausgabezeit zeigen, dass 30 cps und unverzögerte Ausgabe die beste Informationsaufnahme zur Folge haben. Bei dazwischen liegenden Ausgaberaten neigen Anwender wieder dazu, sich dem Takt anzupassen. Sie versuchen mit einer Geschwindigkeit mitzulesen, die zu hoch ist, anstatt nachher zurückzublättern. Es können meist nicht alle Informationen aufgenommen werden, was zu Fehlern führt. 3.3.3.4 Antwortzeit Für die Antwortzeit gibt es keinen absolut gültigen günstigsten Wert, sondern sie sollte je nach Situation und Anwendern ermittelt werden. Es gibt eine Vielzahl von Einflussfaktoren: SEMESTERARBEIT JUREK BREUNINGER 84 GRUNDLAGEN • Die Anwender erwarten bestimmtes Verhalten wegen früherer Erfahrung mit demselben oder einem ähnlichen System. • Die Antwortzeit sollte nicht spürbar länger als gewohnt und erwartet sein, da die Benutzer sonst ungeduldig und unzufrieden werden. Eine zu kurze Antwortzeit ruft meist Misstrauen hervor, dass der Vorgang nicht erfolgreich abgeschlossen wurde und ein Fehler aufgetreten ist. Bereits Abweichungen von etwa 10% werden gespürt. Ab 50% wird die Abweichung als störend empfunden. • Individuelle Vorlieben und Auffassungsgabe setzen der Antwortzeit einen Rahmen. • Anfänger tolerieren längere Antwortzeiten als Experten. Weitere Einflussfaktoren sind Alter, Gesundheitszustand, Konzentration, Belastung und Motivation. • Zeitkritische Anwendungen erfordern Antwortzeiten unterhalb einer bestimmten Grenze. • Technische Limitation ermöglicht Antwortzeiten erst ab einer bestimmten Schwelle. Es ist wichtig den Benutzer immer darüber zu informieren, wenn längere Antwortzeiten auftreten. Folgende Faustregeln zeigen die ungefähren Bereiche, in die Antwortzeiten eingeteilt werden können: • Wenn möglich sollten Antwortzeiten immer unter einer Sekunde liegen. Dann werden sie vom Benutzer als instantan empfunden und es sind keine weiteren Hinweise nötig. Manche Fälle, wie die Eingabe von Buchstaben in Textmasken, erfordern aber noch kürzere Reaktionen im Zehntelsekundenbereich. • Antwortzeiten bis etwa vier Sekunden werden als verzögert empfunden und sollten von einem einfachen Hinweis begleitet werden, dass die Anforderung bearbeitet wird. Auf PCs hat sich etwa die Änderung des Mauszeigers, zum Beispiel in eine Sanduhr, bewährt. • Bei längeren Antwortzeiten, was als starke Verzögerung empfunden wird, sollte ein detaillierterer Hinweis erscheinen, der auf den Fortschritt der Bearbeitung schließen lässt. Fortschrittsbalken und eine Beschreibung der aktuellen Vorgänge (z. B. in einer Textbox) sind Mittel, die sich anbieten. SEMESTERARBEIT JUREK BREUNINGER 85 GRUNDLAGEN • Ab einer Antwortzeit, die länger als zehn Sekunden dauert, ohne dass Rückmeldung über den Fortschritt erfolgt, wird davon ausgegangen, dass keine Antwort mehr zu erwarten ist. Es wird ein Fehler vermutet und meist versucht, die Aktion neu zu initiieren oder das Softwaresystem zu beenden beziehungsweise neu zu starten. Dahm 2006, S. 96 Shneiderman 2005, S. 454-472 Herczeg 2005, S. 104-114 3.3.4 Die sieben Handlungsschritte von Norman Um unsere Handlungsprozesse, über die wir nun einige theoretische Dinge gelernt haben, gut darstellen und analysieren zu können, hat Donald Norman ein informelles Modell entwickelt, das jede Benutzung von Geräten oder Systemen in sieben Schritte einteilt. Im Englischen heißt das Modell „The Seven Stages of Action“ (Abbildung 3.3-4), in der deutschen Übersetzung werden die Schritte Bedienhandlungen genannt. Zu erreichendes Ziel Formulieren einer Absicht Planen der Aktionen Ausführen der Aktionen Vergleichen des Zustandes mit dem Ziel Interpretieren des Zustandes Wahrnehmen des neuen Zustandes Einwirkung und Reaktion auf das Gerät oder die Software Abbildung 3.3-4: The Seven Stages of Action nach Norman. Bei jeder Gerätebenutzung durchläuft der Anwender diese sieben Schritte. Wenn man dieses Modell jedes Mal bei der Gestaltung eines neuen oder Analyse eines bestehenden Bedienkonzepts durchgeht, können die Vorgänge und Zusammenhänge klarer werden und die Gebrauchstauglichkeit erhöht werden. • Ziel vor Augen führen: Hier sollte man sich den Nutzen klar machen, den sich der Anwender erhofft. Entgegen der Denkweise mancher Ingenieure ist das Ziel nie die Bedienung des Geräts, also etwa das Aufrufen des Telefonbuchs in einem Mobiltelefon, SEMESTERARBEIT JUREK BREUNINGER 86 GRUNDLAGEN sondern der Nutzen, der sich daraus für den Anwender ergibt; im Beispiel das Anrufen einer bekannten Person. • Formulieren einer Absicht: Aus dem Ziel eine Absicht abzuleiten setzt meist ein gewisses Wissen über die Zusammenhänge voraus. Der Anwender muss wissen, dass sein Telefon eine Telefonbuchfunktion hat. Der Designer sollte sich immer fragen, ob der Anwender solches Wissen bereits besitzt, wenn ja warum und wenn nein, wie er es erlangen kann. • Planen der Aktionen: Hier ist noch praktisches Bedienwissen notwendig. Der Anwender muss wissen, wie das Telefonbuch funktioniert. Er hat entweder Erfahrung oder hat die Information gerade bekommen, zum Beispiel aus der Betriebsanleitung. • Durchführen der Aktionen: Dies ist meist trivial, wenn durch genaue Kenntnis der Funktionalität bereits eine detaillierte Planung stattgefunden hat. Oft werden die Aktionen aber nur ungefähr geplant, da die einzelnen Schritte nicht bekannt sind und aus Analogien in der Erfahrung geschlossen wird. Deshalb sollte die Bedienung konsistent sein und einzelne Schritte der Bedienung sollten selbsterklärend sein. Das heißt, die Menüstruktur im Telefonbuch ist ähnlich der übrigen, einzelne Menüpunkte sind aussagekräftig benannt. • Wahrnehmen des neuen Zustands: Der Wechsel des Zustands kann einfach erkannt werden. Beim Anwählen einer Person im Telefonbuch wird statt einer Liste nur noch deren Name angezeigt und zum Beispiel eine Animation eines abgenommenen Hörers gezeigt. • Interpretieren des neuen Zustands: Die Rückmeldung sollte für den Anwender verständlich sein. Je nachdem wie gut und deutlich die Höreranimation ist, wird sie vielleicht nicht richtig erkannt. Es könnte auch eine (zusätzliche) Textnachricht „Wähle“ angezeigt werden. • Vergleichen des neuen Zustands mit dem Ziel: SEMESTERARBEIT JUREK BREUNINGER 87 GRUNDLAGEN Wenn die richtige Absicht formuliert und die dementsprechend passenden Aktionen fehlerfrei durchgeführt wurden, so erfüllt der neue Zustand das Ziel des Anwenders. Der Telefonbenutzer hat den richtigen Gesprächspartner erreicht. 3.3.4.1 Der Gulf Of Execution Bei Problemen in einem der drei ersten Schritte spricht Norman von einem Gulf Of Execution (Abbildung 3.3-5), also einer Kluft zwischen Ziel und Umsetzung. Der Telefonbenutzer wüsste also nicht, dass es eine Telefonbuchfunktion gibt, wüsste nicht wie er sie bedienen soll oder würde beim Versuch sie zu bedienen scheitern. Zu erreichendes Ziel Formulieren einer Absicht Zu wenig Kenntnis der Konzepte Planen der Aktionen Zu wenig Kenntnis der Bedienung Ausführen der Aktionen Schlechter Zugang zu Funktionen Einwirkung und Reaktion auf das Gerät oder die Software Abbildung 3.3-5: Unter einem Gulf of Execution versteht Norman einen Fehler im linken Teil des Modells. Solch ein Gulf Of Execution ist natürlich in jedem Fall zu vermeiden. Der Anwender wäre schlimmstenfalls unfähig sein Ziel zu erreichen und das Gerät für ihn nutzlos. 3.3.4.2 Der Gulf Of Evaluation Analog zum Gulf of Execution kann es auch bei den letzten Schritten der Handlung zu Problemen kommen. Wenn sich zwischen Anzeige und Wahrnehmung eine Kluft auftut, spricht Norman von einem Gulf Of Evaluation (Abbildung 3.3-6). Für das Telefon hieße das, es würde nicht angezeigt, wenn jemand angerufen wird, die Anzeige wäre unverständlich oder es wäre (theoretisch) nicht erkennbar, dass das Ziel erreicht wurde, also der Gesprächspartner am Apparat ist. SEMESTERARBEIT JUREK BREUNINGER 88 GRUNDLAGEN Zu erreichendes Ziel Formulieren einer Absicht Planen der Aktionen Ausf ühren der Aktionen Vergleichen des Zustandes mit dem Ziel Interpretieren des Zustandes Wahrnehmen des neuen Zustandes Keine Be ziehung zur Absicht Darstellung unklar Zustand ist nicht sichtbar Einwirkun g und Reaktion auf das Gerät oder die Software Abbildung 3.3-6: Ein Gulf of Evaluation bezeichnet einen Fehler auf der rechten Seite des Modells. Es ist ebenso wichtig, dass der Anwender immer verständliche Rückmeldung über seine Aktionen bekommt. Sonst wirkt es für ihn, als hätte er keine Bedienhandlung durchgeführt und das Gerät hätte seinen Zweck nicht erfüllt. Dahm 2006, S. 97-102 Shneiderman 2005, S. 87-88 3.3.5 Affordances und Mappings Zwei weitere Kriterien für die Analyse von Bedienelementen hat Norman kreiert: Angebot und Abbildung, im englischen Original Affordance und Mapping. 3.3.5.1 Affordance Einem gut gestalteten Interaktionselement sollte man sein Angebot (zur Benutzung) sofort ansehen. Ein Griff, Knopf oder Henkel sollte durch seine Form und die Art und Weise wie er angebracht ist implizit seine Funktionalität und Bedienung zeigen. Das gleiche gilt auch für Softwareelemente wie Buttons, Links, Schieberegler etc. Wenn ein Anwender versucht mit einem Element in einer Weise zu interagieren, für welche es nicht vorgesehen ist, so ist das ein Zeichen für schlechtes Angebot. Wenn ein Bedienelement in einem Programm wie ein Drehknopf aussieht, der Wert aber durch eine Auf-/Ab-Bewegung der Maus verstellt wird, so sollte das Design verbessert werden. Auch muss vermieden werden, dass der Anwender gar nicht weiß, wie er mit dem Element interagieren kann. Zum Beispiel sollte in einer Maske editierbarer Text immer in einer Textbox sein und sich von den reinen Beschriftungen klar unterscheiden. Andernfalls ist seine Funktionalität für den Anwender gar nicht ersichtlich. SEMESTERARBEIT JUREK BREUNINGER 89 GRUNDLAGEN 3.3.5.2 Mapping Unter Mapping versteht Norman die Abbildung der gesteuerten Funktion auf das dazu benutzte Bedienelement. Klassische Beispiele für passendes und unpassendes Mapping sind das Lenkrad eines Fahrzeugs, das bei Drehung in eine Richtung in diese Richtung lenkt und die Pinne eines Bootes, die genau entgegengesetzt funktioniert. Wir werden im Kapitel Systemergonomie im Rahmen der Kompatibilität noch näher auf dieses Thema zu sprechen kommen. Ein Bedienkonzept, das den genauen Aufbau der zu steuernden Geräte (reduziert) darstellt, etwa der Leitstand in einem Kraftwerk, bezeichnet Norman als Natural Mapping. Dahm 2006, S. 102-103 3.3.6 Das GOMS-Modell Ein weiteres bekanntes Modell für menschliche Handlungsprozesse ist das GOMSModell. Es wurde 1983 von Card, Moran und Newell entwickelt (Card 1983, S. 139ff.). GOMS ist eine Abkürzung für „goals, operators, methods and selection rules“. Das Modell dient ähnlich wie das Modell von Norman dazu Interaktionsprozesse zu simulieren, um sie besser zu verstehen, mögliche Probleme zu erkennen und die Prozesse zu verbessern. Das GOMS-Modell postuliert, dass die Benutzer damit beginnen Ziele und Unterziele zu formulieren (z. B. editiere Dokument, füge Wort ein). Dann denken sie in Form von Operatoren (elementare motorische oder kognitive Aktionen) mit denen sie das Ziel erreichen können (Hand zur Maus bewegen, sich an Dateinamen erinnern). Am Ende erreichen die Benutzer ihre Ziele durch die Anwendung von Methoden, einer Folge von Operatoren (mit der Maus Menüpunkt anwählen, richtige Tastenkombinationen drücken). Die Auswahlregeln bestimmen, welche Operatoren und Methoden zum Einsatz kommen in Abhängigkeit von den Randbedingungen (wenn die Hand schon auf der Maus liegt, wird menügesteuert agiert; wenn die Hand auf der Tastatur liegt, werden Shortcuts benutzt). Mit dem GOMS-Modell lassen sich auch vage Aussagen über die Dauer gewinnen, die eine Aktion benötigt. Mit Hilfe von statistischen Werten, die Anwender für gewisse Operatoren wie Tastatureingabe, Mauszeigen, Wechsel zwischen Maus und Tastatur SEMESTERARBEIT JUREK BREUNINGER 90 GRUNDLAGEN brauchen und heuristischen Regeln, wann die Operatoren Vorbereiten und Warten einzufügen sind, lässt sich die Ausführdauer verschiedener Handlungsprozesse ungefähr errechnen; zum Beispiel, um die Handlungsdauer zwischen Kopieren und Einfügen mit der Maus und mit der Tastatur zu vergleichen. Aus diesen Analysen lassen sich einfache Verbesserungsmaßnahmen ablesen: • Häufiges Vorbereiten ist ein Zeichen für einen stockenden Ablauf, der der Optimierung bedarf. • Häufige Wechsel sollten vermieden werden, da sie sehr zeitintensiv sind. • Sehr viel Mausbedienung kann ein Zeichen für zu viele nötige Bedienhandlungen aufgrund der graphischen Umsetzung sein. Eventuell lässt sich das Problem mit einem auf Tastatureingabe gestützten Konzept besser bewältigen (numerische Eingabe statt Schieberegler). Das GOMS-Modell ist kritisiert worden, da es von einer fehlerfreien Ausführung ausgeht, wie sie bei Anfängern selten vorkommt. Andererseits ist es auch sehr schwierig, die Handlungsprozesse von Experten gut zu modellieren, da sie in hohem Maß von ihrer Erfahrung profitieren und so Probleme haben O, M und S anzugeben. Dahm 2006, S. 104-106 Shneiderman 2005, S. 88-91 3.3.7 Fitts Gesetz Wie bereits beim GOMS-Modell gesehen, ist es sehr schwierig, Bedienkonzepte quantitativ zu evaluieren. Meist kann nur eine qualitative Analyse basierend auf den empirischen Ergebnissen von Benutzerbeobachtungen durchgeführt werden. Für das begrenzte Konzept der Mausbedienung gibt es allerdings eine recht einfache Formel, mit der man die Zeit, die für die Positionierung des Mauszeigers auf einer bestimmten Fläche nötig ist, bestimmen kann. So ein prädikatives Modell ist sehr hilfreich, um den Ort und die Größe von Buttons und anderen Elementen beim Design der Bedienoberfläche festzulegen. Postitionierzeit [ms ] = a + b ⋅ ld ( D D + 1) S Abstand des Mauszeigers vom Ziel SEMESTERARBEIT JUREK BREUNINGER 91 GRUNDLAGEN S Größe des Ziels a konstante Suchzeit b Skalierung a und b sind von der Gestaltung der Benutzerschnittstelle abhängig Die Formel stammt aus Experimenten von Paul Fitt, der damit Handbewegungen modellierte, lange bevor es interaktive Computersysteme mit Mäusen gab (1954). Sie hat sich aber auch für Mausbewegungen als gutes Mittel zur Vorhersage der benötigten Positionierungszeit bewährt. Durch Parametrisierung ist sie an verschiedene Geräte anpassbar. Diese Parametrisierung macht sie allerdings auch nur begrenzt für den Einsatz in realen Anwendungen geeignet. Eigentlich müssten die Parameter in Laborversuchen durch Messreihen genau an die Randbedingungen angepasst werden. Aber mit den Ausgangswerten a = 50 und b = 150 lassen sich bereits erste Aussagen über klassische Mausaufgaben treffen. Zu beachten ist, dass Fitts Gesetz nur bei einem linearen Verhältnis zwischen Hand- und Mausbewegung Gültigkeit hat. Eine Mausbeschleunigung, wie sie heute in den meisten Betriebssystemen voreingestellt ist, verfälscht die Ergebnisse. Dahm 2006, S. 106-108 Shneiderman 2005, S. 367-369 3.3.8 Das Hicksche Gesetz Bei mausgesteuerten Bedienkonzepten kommt es nicht nur zur Ansteuerung bestimmter Flächen, sondern vorher zur Evaluation, welches Ziel ausgewählt werden soll. Hick hat hierzu eine Gesetzmäßigkeit entdeckt, die die Zeit, in der ein Ziel aus mehreren Alternativen erkannt und ausgewählt wird, bestimmt werden kann (unabhängig vom Bedienkonzept). Es ähnelt Fitts Gesetz: Auswahlzei t [ms] = a + b ⋅ ld(n + 1) n Anzahl der Alternativen a konstante Suchzeit b Skalierung a und b sind von der Art der Aufgabe abhängig SEMESTERARBEIT JUREK BREUNINGER 92 GRUNDLAGEN Die Formel gilt, solange die Wahrscheinlichkeit der Wahl für alle Alternativen gleich ist, z. B. bei einer Reihe gleicher Buttons. Andernfalls gibt es eine modifizierte Form, in der die verschiedenen Wahrscheinlichkeiten der einzelnen Alternativen eingehen. Da es aber sehr schwierig ist, diese zu schätzen geschweige denn genau zu bestimmen, ist ihre Anwendbarkeit sehr gering. Es sei hier nur der Vollständigkeit halber darauf hingewiesen. Für die Gültigkeit der Berechnung ist wichtig, dass die n Elemente als zusammengehörige Alternativen erkannt werden. Wenn die Alternativen aus Erfahrung bekannt sind, reduzieren sich a und b. Für das Hicksche Gesetz gelten die gleichen Einschränkungen wie für Fitts Gesetz. Mit a = 50 und b = 150 lassen sich erste Abschätzungen machen, die Anwendbarkeit außerhalb von Laborversuchen ist begrenzt. Zusammenfassend lassen sich aber zwei wichtige Folgerungen für die SoftwareErgonomie ziehen: • Mit der Zahl der Alternativen steigt die Zeit für die Auswahl, aber nicht linear, sondern logarithmisch. Menschen scheinen die Alternativen in Kategorien zu teilen und schrittweise etwa die Hälfte der Alternativen zu verwerfen anstatt jede Alternative einzeln zu bewerten, was linear mehr Zeit pro zusätzliche Alternative benötigen würde. • Es kann schneller sein, eine große Sammlung von Alternativen zu haben als mehrere kleine. Dies wird gerne für Menüstrukturen postuliert, stimmt aber nur, wenn eine Kategorisierung möglich ist (z. B. durch logische Gruppierung, alphabetische Ordnung) und nicht, wenn eine große Anzahl unbekannter Menüpunkte erst erfasst werden muss, da dies linear mehr Zeit braucht. Dahm 2006, S. 108-109 3.4 Kommunikation Da wir uns mit interaktiven Software-Systemen beschäftigen, müssen wir nach den Handlungsprozessen des einzelnen nun die Kommunikation zwischen mehreren Partnern betrachten. Kommunikation ist der Austausch von Informationen. Die kommunizierenden Partner können mehrere Menschen sein, aber auch Mensch und Computer. Wenn diese Kommunikation wechselseitig ist, so spricht man von einem interaktiven System. SEMESTERARBEIT JUREK BREUNINGER 93 GRUNDLAGEN Es existieren mehrere Modelle für die Kommunikation zwischen Menschen aus der Kommunikationswissenschaft. Die meisten lassen sich unter gewissen Einschränkungen auch auf die Kommunikation zwischen Mensch und Computer übertragen. Dies ist sogar recht zielführend für eine ergonomische Bedienkonzeptentwicklung, da Menschen unterbewusst mit Computern ähnlich wie mit Menschen kommunizieren und entsprechende Erwartungen haben. 3.4.1 Ebenen der Kommunikation Information kann viele Formen haben. Damit sie übertragbar wird, also ein Austausch stattfinden kann, wird sie meist in Zeichen kodiert. Das Verständnis dieser Zeichen ist für den fehlerfreien Informationsaustausch essentiell. Die Lehre von den Zeichen, Zeichensystemen und Zeichenprozessen ist die Semiotik. Man teilt den Austausch von Informationen in mehrere Ebenen ein, die aufeinander aufbauen. Diese Ebenen heißen Syntaktik, Semantik und Pragmatik. 3.4.1.1 Syntaktische Ebene Die wichtigste Voraussetzung für den Informationsaustausch ist, dass Sender und Empfänger eine gewisse Anzahl von Zeichen gleich verstehen. Zeichen können sein: • Schriftzeichen: Buchstaben, Ziffern, Sonderzeichen • Laute (gesprochene Zeichen) • Lichtsignale (Ampel, Morsen) • Bilder, Symbole (Verkehrsschilder, Icons) • Superzeichen (aus mehreren Zeichen zusammengesetzte Zeichen, Abkürzungen) Zeichen stehen in bestimmten Zusammenhängen, die durch Regeln beschrieben werden. Diese Regeln sind die Syntax. Anhand dieser Regeln werden Zeichen zu Superzeichen zusammengesetzt. Eine natürliche Sprache ist aus vielen Lauten zusammengesetzt. Sie werden anhand des Wortschatzes zu Wörtern zusammengesetzt. Mit Hilfe der Regeln der Grammatik werden aus den Wörtern sinnvolle Sätze gebildet. Alternativ kann man die Sprache auch basierend auf ihrer Schrift beschreiben: Es gibt eine Sammlung von Zeichen, SEMESTERARBEIT JUREK BREUNINGER 94 GRUNDLAGEN das Alphabet. Die Rechtschreibung legt fest, wie diese zu Wörtern kombiniert werden können. Die Grammatik ist wieder das Regelwerk, das die Wörter zu gültigen Sätzen zusammensetzt. Diese Unterteilung in Zeichen und Regeln lässt sich für alle Kommunikationsformen angeben, etwa auch für ein Netzwerkprotokoll. In der Computerwelt benutzt man formelle Beschreibungssprachen wie die (Extended) Backus Naur Form, (E)BNF, um die Regeln von künstlichen Sprachen wie Programmiersprachen oder Kommandosprachen zu definieren. Probleme auf dieser Ebene der Kommunikation entstehen, wenn sich der Sender nicht an die Syntax hält. Ein nahe liegendes Beispiel ist das nicht fehlerfreie Sprechen einer Fremdsprache. Ein viel häufigeres Problem ist jedoch die fehlende Eindeutigkeit der Syntax. Fast alle natürlichen Sprachen sind nicht eindeutig. Es gibt zum Beispiel phonologische Doppeldeutigkeit (ist/isst), orthographische Mehrdeutigkeit (Wachstube), sowie Mehrdeutigkeit der Grammatik („Manche Tiere riechen gut.“). Sie werden vom Empfänger anhand des Kontextes interpretiert. Künstliche Sprachen wie Programmiersprachen müssen dagegen eindeutig sein, um ein fehlerträchtiges Interpretieren des Parsers oder Compilers zu verhindern. Bei der Kommunikation zwischen Mensch und Computer entsprechen Icons, Menütexte, Begriffe und Bezeichnungen von Objekten den Zeichen. Nur wenn Sender und Empfänger den gleichen Zeichenbestand haben, funktioniert die Kommunikation reibungslos. 3.4.1.2 Semantische Ebene Eine gültige Syntax allein ist nicht ausreichend für eine funktionierende Kommunikation. Auch ein in Rechtschreibung und Grammatik richtiger natürlichsprachlicher Satz kann völlig sinnlos sein und so keine brauchbare Information zum Empfänger transportieren. Neben der Form ist auch der Inhalt wesentlich. Der Inhalt, also die Bedeutung der Zeichen, werden auf der Ebene der Semantik beschrieben. Dies gilt sowohl für die einzelnen Zeichen als auch für die zusammengesetzten Superzeichen. Die Bedeutung ist eine Verknüpfung der Zeichen mit Objekten. Das können physisch vorhandene Gegenstände sein, aber auch Gedanken, Vorstellungen oder Begriffe. SEMESTERARBEIT JUREK BREUNINGER 95 GRUNDLAGEN Auch hier kann es wegen Doppeldeutigkeiten zu Verständnisproblemen und somit gestörter Kommunikation kommen. In natürlichen Sprachen gibt es viele Wörter, die mehrere Bedeutungen haben. Ebenfalls problematisch ist es, wenn der Sender das Wissen über Bedeutungen voraussetzt, die der Empfänger nicht hat. Bei Verwendung von Fachausdrücken kann dies vorkommen. Es ist oft ausreichend, dass nur ein paar Zeichen einer Nachricht für den Empfänger keine Bedeutung haben und die ganze Nachricht dadurch unverständlich wird. Dies gilt für Computer noch stärker als für Menschen, da Menschen von Natur aus aus dem Kontext schließen, während in Computersoftware solch eine Intelligenz explizit implementiert sein müsste. Prinzipiell sollten Computer und Benutzer die übermittelte Information des anderen immer verstehen können. So sollten Fehlermeldungen nicht nur für Programmierer, sondern auch für den Benutzer aussagekräftig sein. Die Bezeichnungen müssen sich nach dem Benutzer und seiner Arbeitsaufgabe richten. Besonders schwierig ist es die Bedeutung von bildlichen Zeichen wie Icons oder Piktogrammen allein aus dem Bild heraus zu verstehen (function follows form). Oft sind die Bilder zu abstrakt oder die Bedeutung zu speziell. Je nach Häufigkeit der Nutzung, Erfahrungsstand der Anwender und Wichtigkeit der Funktion muss entschieden werden, ob zusätzliche Information in Textform von Nöten ist oder darauf vertraut werden kann, dass der Anwender die Bedeutung nach kurzer Zeit auswendig weiß. Eine besondere Eigenschaft der menschlichen Kommunikation ist, dass sie nicht auf ein Medium beschränkt ist. Neben Sprache werden auch Gestik und Mimik zur Informationsübertragung genutzt, dies hilft Doppeldeutigkeiten der Sprache aufzulösen. Allerdings kommen weitere Bereiche hinzu, in denen Empfänger und Sender unterschiedliches Wissen über Zeichen und Bedeutungen haben können. Auch Gesten können unterschiedliche Bedeutungen haben. 3.4.1.3 Pragmatische Ebene Die Pragmatik ist die Ebene des sprachlichen Handelns. Auf dieser Ebene laufen die dynamischen Prozesse der Kommunikation ab. Sie entspricht beim Computer den Mechanismen der Fehlertoleranz und beim Menschen dem Nachfragen, wenn er etwas nicht verstanden hat. Sie ist für eine erfolgreiche Kommunikation unerlässlich, denn sie kann Störungen, die in der syntaktischen oder semantischen Ebene aufgetreten sind, ausgleichen. Einen unverständlichen Fachbegriff kann man sich erklären SEMESTERARBEIT JUREK BREUNINGER 96 GRUNDLAGEN lassen, bei Verunsicherung durch Doppeldeutigkeit oder unzureichender Information kann Klarstellung gefordert werden. Wie diese Konzepte auf den Schnittstellenentwurf von Mensch-Computer-Systemen übertragen werden können, behandelt das folgende Kapitel Dialogformen. Dahm 2006, S. 112-119 Shneiderman 2005, S. 176-178 3.4.2 Dialogformen Es werden nun zwei Dialogformen beschrieben, die auf der pragmatischen Ebene der Kommunikation helfen Missverständnisse zu vermeiden und auszuräumen: Diskurs und Disputatio. 3.4.2.1 Diskurs Der Diskurs tritt auf, wenn es zu einem Missverständnis gekommen ist. Er besteht aus Rückfragen oder Nachfragen und Wiederholen oder Paraphrasieren des Gehörten. Er dient der Lösung des Kommunikationsproblemes und unterbricht den eigentlichen Informationsaustausch. Er dauert an, bis der Empfänger ein ausreichendes Verständnis erlangt hat, dann wird die ursprüngliche Thematik fortgesetzt. Das Erkennen des Problems und Anwenden einer passenden Lösungsstrategie ist anspruchsvoll, wird aber aus Erfahrung von den meisten Menschen problemlos unbewusst durchgeführt. Es sollten bei der Entwicklung von Software ähnliche Diskursmöglichkeiten vorgesehen werden, obwohl es sehr schwierig ist alle möglichen Rückfragen und Probleme vorauszusehen. Dies eignet sich nur für Fälle, in denen lineare Lösungswege festgelegt sind, etwa Assistenten. 3.4.2.2 Disputatio Um das aufwändige Klären von Missverständnissen von vornherein zu vermeiden, gibt es eine klassische Form der Diskussion, die Disputatio. Hierbei paraphrasiert der Empfänger jede Nachricht sofort in eigenen Worten, um den Sender darüber zu informieren, wie weit er ihm geistig folgen kann. Dieser bestätigt die Richtigkeit des Verstandenen. SEMESTERARBEIT JUREK BREUNINGER 97 GRUNDLAGEN Dieses Verfahren ist wenig tauglich für die alltägliche Kommunikation. Es wird aber regelmäßig in Situationen genutzt, in denen die fehlerfreie Übertragung der Information unverzichtbar ist. Dies können etwa das Erklären von technischen Zusammenhängen (Montageanweisung, Lernen für eine Klausur), sicherheitsrelevante Nachrichten (Notruf, Umgang mit Starkstrom) oder eine andere Entscheidungen mit weitreichenden Folgen (Telefonbanking) sein. Bei Computern sind die kritischsten Situationen meist solche, die irreversiblen Datenverlust zur Folge haben. In solchen sollte eine Rückfrage sicherstellen, dass die Relevanz der Konsequenzen verstanden wurde. Es besteht allerdings die Gefahr, dass bei zu häufigen Nachfragen ein Gewöhnungseffekt eintritt. Dahm 2006, S. 119-122 3.4.3 Dialogprinzipien von Grice Paul Grice, ein Kommunikationswissenschaftler, hat 1967 fünf Maximen aufgestellt, die die Kooperation von Dialogpartnern fordert. Sie gelten auch für die Kommunikation zwischen Mensch und Computer und sollten von Entwicklern beachtet werden. • Be cooperative Beachte und respektiere die Bedürfnisse, Anforderungen und Meinungen des Partners. • Be informative (Maxime der Quantität) Gib ihm dazu die Informationen, die er benötigt. • Be truthful (Maxime der Qualität) Mache nur wahre Aussagen. • Be relevant (Maxime der Relation) Gib ihm nur Informationen, die ihm helfen und ihn nicht belasten. • Be perspicuous (Maxime des Stils) Gib ihm die Information auf eine Art, dass er sie versteht. Verstöße gegen diese Regeln kategorisiert Grice so: • Violation: unbeabsichtigter Verstoß SEMESTERARBEIT JUREK BREUNINGER 98 GRUNDLAGEN • Opting out: Verweigerung der Kommunikation • Clash: Widerspruch zwischen zwei Prinzipien (z. B. höflich – wahrheitsgemäß) • Flout: absichtlicher Verstoß Dahm 2006, S. 122f. 3.4.4 Axiome der Kommunikation von Watzlawick Paul Watzlawick, ebenfalls ein Kommunikationswissenschaftler, stellte 1967 die folgenden fünf „pragmatischen Axiome“ (nicht beweisbare Lehrsätze) auf. Auch sie gelten für die Mensch-Computer-Kommunikation genauso wie für die zwischenmenschliche Kommunikation. • Man kann nicht nicht kommunizieren. Auch Schweigen oder keine Reaktion des Empfängers rufen beim Sender eine Interpretation und damit eine Information hervor. Auch die die Sprache ergänzenden Kommunikationskanäle wie Gestik und Mimik transportieren Informationen. Sie fehlen bei der Mensch-Computer-Kommunikation, was die menschliche Interpretation einer ausbleibenden Reaktion oder unverständlichen Antwort erschwert. Voraussetzung für dieses Interpretieren fehlender Rückmeldung ist, dass man den Computer für kommunikationsfähig hält. • Jede Kommunikation besitzt Inhalt und Beziehung. Nicht nur der Inhalt von Nachrichten, sondern auch ihr Stil und die Art und Weise der Übermittlung werden vom Empfänger aufgenommen. Bei der Formulierung von Texten sollte ebenso auf Höflichkeit geachtet werden wie beim menschlichen Umgang. • Der Ablauf einer Kommunikation ist von Interpunktion geprägt. Interpunktion bezeichnet die unterschiedliche Interpretation einer Kommunikation durch verschiedene Teilnehmer. Jeder Mensch hält seine subjektive Wahrnehmung für die Wahrheit. Dies gilt auch für die Arbeit mit dem Computer. Zu Computern werden menschliche Beziehungen und Erwartungen aufgebaut und bei Nichterfüllen entstehen Enttäuschung und Unzufriedenheit. • Menschliche Kommunikation enthält digitale und analoge Anteile. SEMESTERARBEIT JUREK BREUNINGER 99 GRUNDLAGEN Der digitale Anteil entspricht dem reinen eindeutigen Inhalt aller Aussagen. Der analoge Anteil ist das, was darüber hinausgeht und interpretiert werden muss. Er wird meist durch Gestik, Mimik, Stimmlage ausgedrückt. In der Mensch-Computer-Kommunikation kommen hauptsächlich digitale Anteile vor, aber auch einige analoge (Metaphern, Bilder, Farben). Da Computer analoge Anteile meist nicht aufnehmen und interpretieren können, sollten sie möglichst gut mit digitalen Anteilen (Text) erklärt werden. • Kommunikation kann auf symmetrischen oder komplementären Beziehungen beruhen. Bei symmetrischer Kommunikation sind die Partner ebenbürtig, bei komplementärer ist einer überlegen. Der Computer ist dem Menschen in fast jeder Beziehung unterlegen, dennoch ist der Mensch von seiner Funktion abhängig. Diese Asymmetrie kann für den Anwender sehr verwirrend sein. Dahm 2006, S. 123f. 3.5 Systemergonomie Nachdem wir nun das wichtigste Grundlagenwissen aus Naturwissenschaft und Humanwissenschaft behandelt haben, gehen wir nun noch in einem kurzen Überblick auf einige Modelle und Erkenntnisse der klassischen Ergonomie ein. Diese Themen werden tiefer gehend in der Vorlesung „Produktergonomie“ behandelt, deshalb gibt es hier nur eine Zusammenfassung, die für das Verständnis der Zusammenhänge in dieser Vorlesung ausreichend sein sollte. Die folgenden Punkte sind allgemeingültige Modelle und empirische Erkenntnisse, die, obwohl sie nicht speziell Softwaresysteme betrachten, auch für die SoftwareErgonomie gültig sind. 3.5.1 Der Systemgedanke Man nutzt auch in der Ergonomie die Erkenntnisse der Systemtheorie, um Systeme zu analysieren und ihr Verhalten vorherzusagen. Die Systemtheorie ist ein interdisziplinäres Erkenntnismodell, in dem Systeme benutzt werden, um bestimmte komplexe Erscheinungen und Vorgänge zu beschreiben. SEMESTERARBEIT JUREK BREUNINGER 100 GRUNDLAGEN Die Interaktionen zwischen Mensch und Maschine können als System modelliert werden. Die folgende Abbildung 3.5-1 zeigt eine graphische Darstellung dieses Systems. Umwelt Belastung Aufgabe Mensch Individuelle Eigenschaften und Fähigkeiten Maschine (Computer) Ergebnis Beanspruchung Rückmeldung Abbildung 3.5-1: Das Mensch-Maschine-System. Der Mensch wirkt auf die Maschine, um seine Aufgabe zu lösen und ein Ergebnis zu erzielen. Gleichzeitig reagiert er auf die Rückmeldung. Die Umwelt wirkt auf Mensch und Maschine. Der Mensch erhält eine Aufgabe, die er zu lösen hat, als Eingangssignal. Er wirkt auf die Maschine dementsprechend, sodass diese als Ausgangssignal ein Ergebnis produziert. Ähnlich wie in der Regelungstechnik bilden Mensch und Maschine einen Regelkreis, das heißt, die Rückmeldung der Maschine ist für den Menschen ein zusätzliches Eingangssignal. Er agiert und reagiert in Abhängigkeit der zurückgemeldeten Signale. Darüber hinaus wirken sowohl auf den Menschen als auch auf die Maschine weitere Signale von außen aus der Umwelt. Bei der Maschine können dies zum Beispiel Störeinflüsse sein. Der Mensch wird von vielerlei Seiten beeinflusst. In Anlehnung an mechanische Systeme (belasteter Balken) spricht man von Belastung. Die Belastung durch die Aufgabe ist die damit verbundene körperliche und geistige Arbeit. Die äußere Belastung sind die physischen und sozialen Einflüsse durch die Umwelt. Und die Belastung durch die Mensch-Maschine-Schnittstelle stellen die anthropometrischen Bedingungen und die Qualität des Informationsflusses dar. SEMESTERARBEIT JUREK BREUNINGER 101 GRUNDLAGEN In Abhängigkeit der individuellen Eigenschaften und Fähigkeiten führt diese äußere Belastung zu einer bestimmten Beanspruchung des Menschen, die Auswirkung auf seine Leistungsfähigkeit hat. Diese Leistungsfähigkeit lässt sich an der • Arbeitsqualität ( Ergebnis ) und der Aufgabe • Arbeitsleistung ( Arbeitsqua lität ) Zeit messen. Bubb 2006, Kap. 2.1, 2.2, 2.3 3.5.2 Einteilung von Mensch-Maschine-Systemen anhand der Funktion Die Systemergonomie geht davon aus, dass man alle Mensch-Maschine-Systeme nach den Kriterien Aufgabeninhalt und Auslegung einteilen kann. 3.5.2.1 Aufgabeninhalt Der Aufgabeninhalt wird durch folgende drei Kriterien kategorisiert: • Zeitliche Ordnung: Bedienung • Räumliche Ordnung: Dimensionalität • Räumliche und zeitliche Einschränkung: Führungsart Die folgende Tabelle 3.5-1 zeigt die Kriterien zur Einteilung von Aufgaben nach Bedienung, Dimensionalität und Führungsart, sowie die Grenzen der menschlichen Fähigkeiten, die beim Entwurf bedacht werden müssen. Beispiele für Arten von Bedienung, Dimensionalität und Führungsart zeigen Abbildung 3.5-2, Abbildung 3.5-3, Abbildung 3.5-4, Abbildung 3.5-5, Abbildung 3.5-6 und Abbildung 3.5-7. SEMESTERARBEIT JUREK BREUNINGER 102 GRUNDLAGEN Tabelle 3.5-1: Menschliche Grenzen und Designempfehlungen für MenschMaschine-Systeme in Abhängigkeit vom Aufgabeninhalt Menschliche Grenzen Bedienung sequenziell • Merkfähigkeit • Checklisten • Abrufbereitschaft • Gliederung des Langzeitge- • einfach Folge • Teilautomatisierung • Expertensysteme • synthetische An- dächtnisses simultan Empfehlungen • 7 ± 2 psychologische Einheiten zeigen • Möglichkeit zwischen Aufgaben zu springen Dimensionalität 1- bis 6- • 1- bis 3- dimensional (3 dimensional: transaltorische leicht und 3 rotatori- • sche) • • Anzahl der Stellteile ≤ Dimensionalität • technische Redu- 4- bis 6- zierung der Dimen- dimensional: sionalität durch schwer Zwangsführung Kopplung • Entkopplung durch Konstruktion oder Regelung Führungsart statisch • Zeitbudget • Teilautomatisierung • Linearitätsgrenze • Kontaktanaloge der Maschine Anzeige der Linearitätsgrenze dynamisch • obere Grenzfre- • Automatisierung quenz des Men- • automatisches Aus- schen SEMESTERARBEIT JUREK BREUNINGER 103 GRUNDLAGEN Menschliche Grenzen • Empfehlungen regeln von Sollvor- untere Grenzfre- gaben, Voranzeige quenz des Menschen • • „schneller“ sein als Erfüllbarkeit der die Aufgabe ver- Aufgabe • Maschine muss langt Dynamik der Aufgabe • Reduzierung der Steuerungsart durch „aktives Bedienelement“ Abbildung 3.5-2: Sequentielle Bedienung: Basteln nach Anleitung Abbildung 3.5-3: Simultane Bedienung: Das Spielen mehrer Manuale und der Pedale gleichzeitig auf einer Orgel SEMESTERARBEIT JUREK BREUNINGER 104 GRUNDLAGEN Abbildung 3.5-4: Beispiel für Dimensionalität: Diese Kranführung ist zweidimensional. Abbildung 3.5-5: Diese Spacemouse (für CAD) geht an die Grenzen der menschlichen Fähigkeiten, sie ermöglicht Steuerung in allen sechs Dimensionen. Abbildung 3.5-6: Ein Beispiel für statische Führungsart: Beim Bildhauen ändert sich die Vorgabe (Modell, Foto, Vorstellung des Künstlers) nicht. SEMESTERARBEIT JUREK BREUNINGER 105 GRUNDLAGEN Abbildung 3.5-7: Dynamische Führungsart: Beim Arcade-Automaten muss der Bediener ständig auf die Änderungen im Spiel reagieren. 3.5.2.2 Auslegung Die Aufgabenauslegung wird durch diese beiden Kriterien kategorisiert: • Aufgabendarstellung: Darstellungsart • Art des menschlichen Eingriffs: Aufgabenart Tabelle 3.5-2 zeigt verschiedene Darstellungs- und Aufgabenarten. Zusätzlich führt sie menschliche Grenzen und Entwurfsempfehlungen auf. Abbildung 3.5-8, Abbildung 3.5-9, Abbildung 3.5-10, Abbildung 3.5-11, Abbildung 3.5-12 und Abbildung 3.5-13 zeigen Beispiele für Darstellungsarten und Aufgabenarten. Tabelle 3.5-2: Menschliche Grenzen und Designempfehlungen für MenschMaschine-Systeme in Abhängigkeit von der Aufgabenauslegung Menschliche Grenzen Darstel- Folgeauf- lungsart gabe Kompensa- • Informationsauf- • Lagesteuerung • Geschwindigkeitssteue- nahme • Kein Gefühl für tionsaufga- dynamisches be Verhalten SEMESTERARBEIT JUREK BREUNINGER Empfehlungen rung bevorzugen 106 GRUNDLAGEN Menschliche Grenzen Aufgabenart Aktiv monitiv • Schnelligkeit • Genauigkeit Empfehlungen • Automatisierung oder Teilautomatisierung, falls die Führungsgröße • Zuverlässigkeit • Monotonie • Übungsverlust messbar ist • Handbedienung, eventuell „Sicherheitskorridor“ Abbildung 3.5-8: Das Nachführen einer Kamera ist eine Folgeaufgabe. Es ist jederzeit die absolute Richtung der Kamera und des Ziels bekannt. Abbildung 3.5-9: Das Wiegen mit einer Balkenwaage ist eine Kompensationsaufgabe. Nicht der absolute Wert wird angezeigt, sondern nur die Differenz zum Zielwert. SEMESTERARBEIT JUREK BREUNINGER 107 GRUNDLAGEN Folgeaufgabe (exozentris ch) Aufgabe An zeige Ergebnis Mensch Mas chine An zeige Abbildung 3.5-10: Das Systemmodell einer Folgeaufgabe Kompensationsaufgabe (egozentrisch) Aufgabe Ergebnis - An zeige Mensch Mas chine Abbildung 3.5-11: Das Systemmodell einer Kompensationsaufgabe Abbildung 3.5-12: Der Leitstand eines Kraftwerks. Hier wird viel monitive Arbeit verrichtet, d. h. die Maschinen überwacht. Abbildung 3.5-13: CAD-Konstrukteur verrichtet aktive Tätigkeiten. 3.5.2.3 Probleme der Automatisierung Als Lösung für viele menschliche Grenzen wird oft die Automatisierung vorgeschlagen. Es sollten allerdings folgende Nachteile solcher Systeme bedacht werden: • unvorhersehbare Situationen: Eine Automatik kann nur auf Situationen reagieren, für die sie programmiert wurde. • Übungsverlust: SEMESTERARBEIT JUREK BREUNINGER 108 GRUNDLAGEN Wird die Aufgabe wieder aktiv übernommen, unterliegt der Bediener einem Übungsverlust und kann die Aufgabe nicht mehr so zuverlässig erfüllen wie bei einer rein aktiven Aufgabe. • Problem der herabgesetzten Vigilanz (Wachheit): Bei langen monitiven Tätigkeiten lässt die Daueraufmerksamkeit deutlich nach. Bubb 2006, Kap. 3.4, 3.5 Herczeg 2005, S. 31 Shneiderman 2005, S. 78-82 3.5.3 Rückmeldung Die Systemergonomie fordert für alle Tätigkeiten immer eine gute Rückmeldung an den Menschen. Folgende Empfehlungen haben sich bewährt: • Die Rückmeldung sollte auf so vielen Sinneskanälen erfolgen wie möglich. • Die zeitliche Verzögerung der Rückmeldung sollte zwischen 100 ms und 2 s liegen. Bubb 2006, Kap. 3.4, 3.5 3.5.4 Kompatibilität Unter Kompatibilität versteht man in der Systemergonomie die Übereinstimmung der Logik und Richtung von Anzeigen, Bedienelementen, mentalen Modellen des Benutzers und den natürlichen Gegebenheiten. Es wird zwischen primärer und sekundärer Kompatibilität unterschieden. Primäre Kompatibilität bezeichnet die Übereinstimmung von Logik und Richtung bei Realität, Anzeige, Bedienelement und innerem Modell des Benutzers. Sekundäre Kompatibilität bezeichnet die Widerspruchsfreiheit der Richtungen innerhalb einer Anzeige oder eines Bedienelements. Die primäre Kompatibilität wird in äußere und innere Kompatibilität aufgeteilt. Äußere Kompatibilität ist gegeben, wenn die Bewegungsrichtung von Stellteilen oder Anzeigen mit der anderer Stellteile, Anzeigen und vor allem der Umwelt übereinstimmen (Abbildung 3.5-14). Innere Kompatibilität ist die Übereinstimmung der Bewegungsrichtung von Stellteilen oder Anzeigen mit den mentalen Modellen des Benutzers. SEMESTERARBEIT JUREK BREUNINGER 109 GRUNDLAGEN Eine Pinne mag äußerlich inkompatibel sein (Abbildung 3.5-15), wenn sich der Nutzer über die Funktionsweise des Ruders klar ist, ist sie trotzdem innerlich kompatibel. Abbildung 3.5-14: Äußere Kompatibilität: Die Richtung des Bedienelementes stimmt mit der Fahrtrichtung überein: Lenkrad. Abbildung 3.5-15: Äußere Inkompatibilität: Die Richtung des Bedienelementes ist entgegengesetzt der Fahrtrichtung: Pinne. SEMESTERARBEIT JUREK BREUNINGER 110 GRUNDLAGEN Es gibt folgende Empfehlungen für die Richtungen von Stellteilen und Anzeigen: Für • an • mehr • nach rechts sollten die Richtungen • nach oben • nach vorne • vom Operateur weg bevorzugt werden (Abbildung 3.5-16, analog für die Gegensätze). Abbildung 3.5-16: Die Vorzugsrichtungen von Stellteilen für „mehr“. Sekundäre Kompatibilität betrifft die Konsistenz von Anzeigen oder Stellteilen. Das heißt innerhalb einer Anzeige sollen sich Bewegungsrichtungen und Logik nicht widersprechen (Abbildung 3.5-19). Mit den oben genannten Empfehlungen schließt dies bei kreisförmigen Analoganzeigen den rechten und den unteren Sektor aus. Hier sind die Drehrichtung im Uhrzeigersinn für „mehr“ und die Abwärts- bzw. Linksbewegung der Zeigerspitze für „weniger“ sekundär inkompatibel (Abbildung 3.5-17). SEMESTERARBEIT JUREK BREUNINGER 111 GRUNDLAGEN Abbildung 3.5-17: In kreisförmigen Analoganzeigen sind der rechte und der untere Sektor sekundär inkompatibel, da sich Drehrichtung („mehr“) und Ab- bzw. Linksbewegung der Zeigerspitze („weniger“) widersprechen. Ein anderes Beispiel für sekundäre Inkompatibilität ist die Anzeigeart „Fester Zeiger – bewegte Skala“. Damit sich die Skala für Zunahme nach rechts bewegt oder im Uhrzeigersinn dreht, müssen die Zahlen auf ihr nach links steigend angeordnet sein. Oder die Anordnung der Ziffern ist aufsteigend, aber die Skala dreht sich bei Zunahme nach links beziehungsweise gegen den Uhrzeigersinn (Abbildung 3.5-18). Solche Inkompatibilitäten sollten vermieden werden. SEMESTERARBEIT JUREK BREUNINGER 112 GRUNDLAGEN Abbildung 3.5-18: Sekundäre Inkompatibilität: Die Skala dieser Waage dreht sich im Gegenuhrzeigersinn bei Zunahme. Abbildung 3.5-19: Sekundäre Inkompatibilität: Der Tachometer nimmt im Urzeigersinn zu, die Tankanzeige im selben Instrument im Gegenuhrzeigersinn. Bubb 2006, Kap. 3.4, 3.5 SEMESTERARBEIT JUREK BREUNINGER 113 LITERATURVERZEICHNIS 4 Literaturverzeichnis Anderson, John R. Kognitive Psychologie, Spektrum 2001 Braess, Hans-Hermann Vieweg-Handbuch Kraftfahrzeugtechnik, Vieweg 2007 Bubb, Heiner Produktergonomieskript Lehrstuhl für Ergonomie der TU München 2006, http://www.lfe.mw.tum.de/lehre/lehrveranstaltungen/Pr oduktergonomie/Produktergoskripten.html Card, Stuart; Moran, The Psychology of Human Computer Interaction, Thomas P.; Newell, Allen Lawrence Erlbaum Associates 1983 Dahm, Markus Grundlagen der Mensch-Computer-Interaktion, Pearson Studium 2006 Peter T. Daniels; Bright, The World's Writing Systems, Oxford University Press William 1996 Goldstein, E. B. Wahrnehmungspsychologie, Spektrum 2002 Hacker, Winfried Arbeitspsychologie, Huber Hans 1986 Helson, Harry The Fundametal Propositions of Gestalt Psychology, Psychological Review 40, S. 13-32, 1933 Herczeg, Michael Software-Ergonomie, Grundlagen der Mensch- Computer-Kommunikation, Oldenbourg 2005 Hick, Christian; Intensivkurs Physiologie, Elsevier 2006 Hartmann, Jan Johannsen, Gunnar Mensch-Maschine-Systeme, Springer 1993 Miller, George A. The Magical Number Seven, Plus or Minus Two Some Limits on Our Capacity for Processing Information, Psychological Review Bd. 63/1956, S. 81-97 http://www.psych.utoronto.ca/users/peterson/psy430s2 001/Miller%20GA%20Magical%20Seven%20Psych%2 0Review%201955.pdf SEMESTERARBEIT JUREK BREUNINGER 114 LITERATURVERZEICHNIS Rasmussen, Jens Skills, Rules and Knowledge; Signals, Signs and Symbols, and Other Distinctions in Human Performance Models; IEEE Trans. Systems, Man, Cybernetics, SMC-13 (1983), S. 257-266 Shneiderman, Ben User Interface Design, mitp 2001 Shneiderman, Ben; Designing the User Interface, Strategies for Effective Plaisant, Catherine Human-Computer Interaction, Pearson Addison- Wesley 2005 Spitzer, Cary R. Avionics: Elements, Software and Functions; CRC Press 2006 Strasser, Benedikt; Spies, Ergonomisches Praktikum Skript: Lärm – Grundlagen, Roland Messung, Schutz und Audiometrie, Lehrstuhl für Ergonomie der TU München 2008 http://www.ergonomie.tum.de/lehre/lehrveranstaltunge n/ErgonomischesPraktikum/Skript_Laerm_StrasserSpi es.pdf Strandh, Sigvard Die Maschine – Geschichte, Elemente, Funktion; Weltbild 1992 Streitz, Norbert Psychologische Interaktion. In Aspekte der Enzyklopädie Mensch-Computerder Psychologie, Ingenieurpsychologie, Göttingen, Hogrefe 1990 Sutherland, Ivan Edvard Sketchpad: A man-machine graphical communication system, University of Cambridge Technical Report 2003 http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR574.pdf Wertheimer, Max Untersuchungen von der Lehre zur Gestalt, II, Psychologische Forschung 4, S. 305-350, Springer 1923 SEMESTERARBEIT JUREK BREUNINGER 115 ABBILDUNGSVERZEICHNIS 5 Abbildungsverzeichnis Alle Abbildungen zuletzt heruntergeladen am 10.01.2009 Abbildung 1.1-1: Abbildung 1.1-2: Abbildung 2.1-1: Abbildung 2.1-2: Abbildung 2.1-3: Abbildung 2.1-4: Abbildung 2.1-5: Abbildung 2.2-1: Abbildung 2.2-2: Abbildung 2.2-3: Abbildung 2.2-4: Abbildung 2.2-5: Abbildung 2.2-6: Abbildung 2.2-7: Abbildung 2.2-8: Abbildung 2.2-9: Abbildung 2.2-10: Abbildung 2.2-11: Abbildung 2.2-12: Abbildung 2.2-13: Abbildung 2.2-14: Abbildung 2.2-15: Abbildung 2.2-16: Abbildung 2.2-17: Abbildung 2.2-18: Abbildung 2.2-19: Abbildung 2.2-20: Abbildung 2.2-21: selbst erstellt selbst erstellt http://www.fao.org/docrep/010/ah810e/AH810E50.gif http://commons.wikimedia.org/wiki/File:Polispasto2.jpg http://commons.wikimedia.org/wiki/ File:Design_for_a_Flying_Machine.jpg http://de.wikipedia.org/w/index.php?title=Datei:Arts_et_Metiers_ Pascaline_dsc03869.jpg&filetimestamp=20050613182651 http://www.cleo.net.uk/followtheyarn/timeline/images/ manup_loom_tn.jpg http://newsimg.bbc.co.uk/media/images/44233000/jpg/ _44233921_integrated_circuit_416.jpg http://www.ubergizmo.com/photos/2008/2/intel-tukwila.jpg http://upload.wikimedia.org/wikipedia/commons/0/05/ Transistor_Count_and_Moore%27s_Law_-_2008.png http://commons.wikimedia.org/wiki/File:MOHAI_-_analog_ computer_02.jpg http://de.wikipedia.org/w/index.php?title=Datei:GfhR_(14).jpg &filetimestamp=20070121211644 http://de.wikipedia.org/w/index.php?title=Datei:BRL61-IBM_ 305_RAMAC.jpeg&filetimestamp=20060904130403 http://www.actwin.com/toaph/life/computers/vt100.gif http://en.wikipedia.org/wiki/File:Sketchpad-Apple.jpg http://www.bootstrap.org/chronicle/press/050505/2_files/ 4-NLSgui.jpg http://sloan.stanford.edu/MouseSite/gallery/slides1/ mockup/closeup.jpg http://www.sciencemuseum.org.uk/images/object_images/ 535x535/10438156.jpg http://www.classiccmp.org/dunfield/pet/h/p20018.jpg http://en.wikipedia.org/wiki/File:Atari_400P8.jpg http://cbmmuseum.kuto.de/images/home_vc20.jpg http://mechanicsnationalbank.com/images/timeline/ History_Xerox_Alto.jpg http://www.digibarn.com/collections/software/alto/ alto-cedar-environment.jpg http://www.digibarn.com/collections/systems/xerox-8010/ xerox-star-8010-large.jpg http://www.aresluna.org/attached/computerhistory/articles/ macintoshbytereview/pics/photo1 http://www.guidebookgallery.org/pics/gui/desktop/full/ macos11.png http://senze.com/images/ibmpc.jpg http://upload.wikimedia.org/wikipedia/de/d/da/GEM1.png SEMESTERARBEIT JUREK BREUNINGER 116 ABBILDUNGSVERZEICHNIS Abbildung 2.2-22: http://www.guidebookgallery.org/pics/gui/desktop/firstrun/ cde15solaris9.png Abbildung 2.2-23: http://www.winhistory.de/more/bilder/win101write.gif Abbildung 2.2-24: http://www.guidebookgallery.org/pics/gui/desktop/firstrun/ win31-1-1.png Abbildung 2.2-25: http://www.guidebookgallery.org/pics/gui/desktop/full/ win95osr2.png Abbildung 2.2-26: http://download.microsoft.com/download/d/6/3/ d6386816-25e3-430e-ad99-337f081922aa/Sidebar.jpg Abbildung 2.2-27: http://www.guidebookgallery.org/pics/gui/desktop/full/ macosx103-1-1.png Abbildung 2.2-28: http://kde.org/announcements/4.1/screenshots/ plasma-folderview.png Abbildung 2.2-29: http://linuxscreenshots.org/screenshots/fedora/9/home_folder.jpg Abbildung 2.3-1: http://einestages.spiegel.de/hund-images/2007/10/29/10/44a12a d0d5e08915def460fded73ea25_image_document_ large_featured_borderless.jpg http://www.mobilmania.cz/Files/Obrazky/art15/ Siemenshistory/41.jpg http://images.apple.com/iphone/gallery/images/ iphone_hardware4_20081217.jpg Abbildung 2.3-2: http://i31.photobucket.com/albums/c355/Candor7/ gripen_cockpit_001--EC_CenteredCont.jpg Abbildung 2.3-3: http://www.flightglobal.com/blogs/aircraft-pictures/ A350XWBlarge.jpg Abbildung 2.3-4: http://members.optusnet.com.au/mbenz2006/W220J-19.jpg Abbildung 2.3-5: http://www.bmw.de/de/de/newvehicles/3series/touring/2008/ allfacts/equipment/_shared/img/communication/ navigation_business.jpg Abbildung 2.3-6: http://www.bmw.de/de/de/newvehicles/3series/coupe/2006/ allfacts/_shared/img/ergonomics_idrive_1.jpg Abbildung 2.3-7: http://www.gorenje.com/catalogue/imagelib/appl/magnify/ appliances/objective/img_5249.jpg Abbildung 3.1-1: Goldstein 2002, Farbtafel 1.2 Abbildung 3.1-2: Goldstein 2002, Abb. 2.9 Abbildung 3.1-3: selbst erstellt Abbildung 3.1-4: selbst erstellt Abbildung 3.1-5: selbst erstellt Abbildung 3.1-6: selbst erstellt Abbildung 3.1-7: Goldstein 2002, Abb. 2.44 Abbildung 3.1-8: selbst erstellt Abbildung 3.1-9: Goldstein 2002, Abb. 5.12 Abbildung 3.1-10: Goldstein 2002, Abb. 5.21 Abbildung 3.1-11: Goldstein 2002, Abb. 7.4 Abbildung 3.1-12: Goldstein 2002, Abb. 7.7 Abbildung 3.1-13: Goldstein 2002, Abb. 7.12 Abbildung 3.1-14: http://commons.wikimedia.org/wiki/File:Mh_stereogramm_sis.png Abbildung 3.1-15: selbst erstellt Abbildung 3.1-16: selbst erstellt Abbildung 3.1-17: Goldstein 2002, Abb. 6.17 SEMESTERARBEIT JUREK BREUNINGER 117 ABBILDUNGSVERZEICHNIS Abbildung 3.1-18: Abbildung 3.1-19: Abbildung 3.1-20: Abbildung 3.1-21: Abbildung 3.1-22: Abbildung 3.1-23: Abbildung 3.1-24: Abbildung 3.1-25: Abbildung 3.1-26: Abbildung 3.2-1: Abbildung 3.3-1: Abbildung 3.3-2: Abbildung 3.3-3: Abbildung 3.3-4: Abbildung 3.3-5: Abbildung 3.3-6: Abbildung 3.5-1: Abbildung 3.5-2: Abbildung 3.5-3: Abbildung 3.5-4: Abbildung 3.5-5: Abbildung 3.5-6: Abbildung 3.5-7: Abbildung 3.5-8: Abbildung 3.5-9: Abbildung 3.5-10: Abbildung 3.5-11: Abbildung 3.5-12: Abbildung 3.5-13: Abbildung 3.5-14: Abbildung 3.5-15: Abbildung 3.5-16: Abbildung 3.5-17: Abbildung 3.5-18: Abbildung 3.5-19: selbst erstellt selbst erstellt Goldstein 2002, Abb. 6.13 http://commons.wikimedia.org/wiki/File:Mi_Fu_Shu_Su_Tie.jpg http://en.wikipedia.org/wiki/ File:Guyuk_khan%27s_Stamp_1246.jpg http://upload.wikimedia.org/wikipedia/commons/b/ba/ Boustrophedon_Greek.png http://freetype.fis.uniroma2.it/opentype/sura1.png http://www.sengpielaudio.com/Bewertungsfilter02.gif Dahm 2006, Abb. 3.40 selbst erstellt selbst erstellt Herczeg 2005, S. 107, Abb. 21, Herczeg 2005, S. 110, Abb. 22 selbst erstellt selbst erstellt selbst erstellt selbst erstellt http://www.bastelanleitung.org/images/basteln.jpg http://homepage.ntlworld.com/valanwood/images/ Organist%20absent%20s.jpg http://www.demagcranes.de/Produkte/Produktgruppen/Schalter_ und_Steuerungen/Funksteuerung_DRC-DC_/entry_image.jpg http://www.vis.uni-stuttgart.de/ger/teaching/lecture/ss02/ seminar_vr/V6-spacemouse.jpg http://www.bildhauer-raetsch.de/austellung/index03.jpg http://upload.wikimedia.org/wikipedia/commons/8/88/ Donkey_Kong_arcade.jpg http://www.n24.de/media/import/dpaserviceline/dpaserviceline_ 20080820_15/Kameramann_ 18700552originallarge-4-3-800-0-220-2486-2084.jpg http://upload.wikimedia.org/wikipedia/commons/1/16/ Samenwaage.jpg selbst erstellt selbst erstellt http://pics.computerbase.de/lexikon/118014/ 500px-Leitstand_2.jpg http://www.dot.state.mn.us/aero/aved/avcollege/images/ Gaphotogallery/aseDesign_CAD.jpg http://www.spieltiger.de/bobbycar.jpg http://upload.wikimedia.org/wikipedia/commons/e/e4/ PiafSchotfuehrung.JPG selbst erstellt selbst erstellt http://www.amansis.de/pic/glaswaage/personenwaage.jpg http://p3.focus.de/img/gen/k/G/HBkGYNA8_Pxgen_r_467xA.jpg SEMESTERARBEIT JUREK BREUNINGER 118 ANHANG: LITERATUREMPFEHLUNG Anhang: Literaturempfehlung Markus Dahm Grundlagen der Mensch-Computer-Interaktion Pearson Studium, 2006 Gut strukturierter Überblick, sehr nah an dieser Vorlesung, geht nicht allzu sehr in die Tiefe Michael Herczeg Software-Ergonomie Grundlagen der Mensch-Computer-Kommunikation Oldenbourg, 2005 Aktuelle Neuauflage des gleichnamigen Standardwerkes von 1994 (auch lesenswert), an die technische Entwicklung angepasst, angenehm kurz, geht vor allem auf allgemeingültige Betrachtungen ein, z. B. Modellierung Ben Shneiderman, Catherine Plaisant Designing the User Interface, Fourth Edition Strategies for Effective Human-Computer Interaction Pearson Education, 2005 Sehr guter Einstiegspunkt, wenn man sich tiefer in die Materie einarbeiten will, sehr umfangreiche Literaturangaben, recht ausführlich geschrieben ohne stark auf die technische Realisierung einzugehen, fokussiert den PC-Bereich, deutlich anders strukturiert als die oben genannten E. Bruce Goldstein Wahrnehmungspsychologie Spektrum Akademischer Verlag, 2002 Die „Bibel“ der Wahrnehmungspsychologie, beschäftigt sich sehr ausführlich mit menschlichem Wahrnehmen und Denken, erste Anlaufstation für den nichttechnischen Teil der Software-Ergonomie SEMESTERARBEIT JUREK BREUNINGER 119