Master Thesis - Mittelstand Digital

Transcription

Master Thesis - Mittelstand Digital
Master Thesis
Entwicklung eines Usability-Methodenkataloges
Development of a usability methods toolbox
Daniel Steier
2015
Master Thesis
Entwicklung eines Usability-Methodenkataloges
Development of a usability methods toolbox
Daniel Steier
Tag der Abgabe:
13. Juli 2015
Betreuende Mitarbeiterin:
M.Sc. Tatiana Rößler
Erklärung zur vorliegenden Arbeit gemäß § 22/7 bzw. § 23/7 APB
Hiermit versichere ich, die vorliegende studentische Arbeit ohne Hilfe Dritter nur mit den angegebenen
Quellen und Hilfsmitteln angefertigt zu haben. Alle Stellen, die aus den Quellen entnommen wurden,
sind als solche kenntlich gemacht worden. Diese Arbeit hat in gleicher oder ähnlicher Form noch keiner Prüfungsbehörde vorgelegen.
Name:
................................................
Vorname:
................................................
Ort:
................................................
Datum:
................................................
Unterschrift:
................................................
Stand: 13.07.2015
iii
Aufgabenstellung
Stand: 13.07.2015
iv
Zusammenfassung
Das Ziel der vorliegenden Arbeit ist die Entwicklung eines gut strukturierten UsabilityMethodenkataloges, in welchem Methoden beschrieben werden, die bei der Entwicklung gebrauchstauglicher Software unterstützen. Die Informationen des Katalogs sollen unter anderem im Rahmen
des PUMa-Projekts dazu genutzt werden, online auf der PUMa-Kompetenzplattform strukturierte und
auf die Bedürfnisse der potentiellen Nutzer angepasste Methodenbeschreibungen darstellen zu können.
In einem ersten Schritt wird festgelegt, welche Informationen zur Beschreibung von UsabilityMethoden relevant sind. Hierzu wird ein Kriterienkatalog entwickelt, der alle Eigenschaften aufführt,
mittels derer die Methoden beschrieben werden. Zunächst werden bestehende Methodenbeschreibungen und Kriteriensammlungen analysiert und die verwendeten Merkmale zu einem strukturierten Kriterienkatalog zusammengefasst.
Im Rahmen einer Befragung von potentiellen Nutzern der Kompetenzplattform wird der initiale Kriterienkatalog evaluiert. Hierzu wird ein Onlinefragebogen erstellt, zu dem Softwareentwickler und
Usability-Experten eingeladen werden. Durch ihre Einbeziehung kann eine nutzerorientierte Entwicklung des Katalogs durchgeführt werden, die an den Bedürfnissen der zukünftigen Anwender ausgerichtet ist.
Die im ersten Schritt ausgewählten Kriterien werden den Teilnehmern präsentiert, und sie bewerten
für jede Eigenschaft, ob sie aus ihrer Sicht für die Beschreibung von Usability-Methoden wichtig ist.
Auf Grundlage der ausgewerteten Fragebogen-Daten wird der Kriterienkatalog optimiert und zu einer
finalen Version überführt. In dieser sind die Kriterien für den Methodenkatalog definiert sowie ihre
Strukturierung vorgegeben. Zur besseren Darstellung der Methodenbeschreibungen im Methodenkatalog, wird in einem letzten Schritt das Layout für den Katalog festgelegt.
Vor der eigentlichen Beschreibung der Methoden werden Möglichkeiten der Klassifizierung von
Usability-Methoden diskutiert, um die Methodenbeschreibungen in einer strukturierten Form im Methodenkatalog aufzuführen. Zunächst werden Usability-Methoden ausgewählt, die im Rahmen der
Arbeit beschrieben werden sollen. Es folgt eine Analyse bestehender Klassifizierungsmöglichkeiten,
gefolgt von einer Bewertung, im Zusammenhang mit der Anordnung der ausgewählten Methoden.
Darauf aufbauend wird eine Methodenklassifizierung definiert, welche die Anordnung der Methoden
innerhalb des Katalogs vorgibt.
Auf Basis des finalen Kriterienkataloges wird nun eine Recherche zur Sammlung von Methodenwissen
durchgeführt und die ausgewählten Usability-Methoden detailliert beschrieben. Hierbei wird der Detailgrad der Beschreibung so gewählt, dass auch ein Nutzer ohne Erfahrungen im Umgang mit
Usability-Methoden, den Zweck sowie die Durchführung der Methoden verstehen kann und somit in
der Lage ist, eine passende Methode im Kontext seines Projektes auszuwählen. Abhängig von den erforderlichen Kompetenzen für die Anwendung soll der Ausführende die Methode mit den im Katalog
gegebenen Informationen durchführen oder zumindest die Durchführung organisieren können.
Stand: 13.07.2015
v
Inhaltsverzeichnis
1 Einleitung ........................................................................................................................................ 1 1.1 Motivation und Zielsetzung ......................................................................................................... 1 1.2 Vorgehensweise ........................................................................................................................... 1 2 Theoretische Grundlagen ................................................................................................................ 3 2.1 PUMa-Projekt............................................................................................................................... 3 2.2 Usability ...................................................................................................................................... 3 2.3 KMU: Kleine und mittlere Unternehmen ..................................................................................... 4 2.4 Methode ...................................................................................................................................... 4 2.5 Kriterium ..................................................................................................................................... 4 2.6 Ausprägung ................................................................................................................................. 4 3 Erstellung eines Kriterienkataloges ................................................................................................. 5 3.1 Analyse und Zusammenführung bestehender Kriterienkataloge .................................................. 5 3.1.1 Analyse ..................................................................................................................................... 5 3.1.2 Zusammenführung ................................................................................................................. 14 3.2 Erstellung eines vorläufigen Kriterienkataloges ......................................................................... 17 3.2.1 Anpassungen am zusammengeführten Kriterienkatalog ......................................................... 18 3.2.2 Vorläufiger Kriterienkatalog ................................................................................................... 22 3.3 Evaluation des vorläufigen Kriterienkataloges ........................................................................... 25 3.3.1 Auswahl des Befragungsverfahrens ........................................................................................ 25 3.3.2 Erstellung eines Fragebogens ................................................................................................. 27 3.3.3 Durchführung der Befragung .................................................................................................. 32 3.3.4 Befragungsergebnisse ............................................................................................................. 33 3.3.5 Anpassung des vorläufigen Kriterienkataloges........................................................................ 38 3.4 Finaler Kriterienkatalog ............................................................................................................. 40 3.4.1 Definiton der Kriterien............................................................................................................ 40 3.4.2 Festlegen des Layouts des Methodenkatalogs ......................................................................... 48 4 Usability-Methodenkatalog............................................................................................................ 51 4.1 Klassifizierung von Usability-Methoden ..................................................................................... 51 4.1.1 Analyse und Bewertung bestehender Klassifizierungsmöglichkeiten ...................................... 51 4.1.2 Festlegen einer Klassifizierungmöglichkeit zur Verwendung im Methodenkatalog ................. 60 4.2 Anforderungsentwicklung und Strukturierung .......................................................................... 64 4.2.1 Personas ................................................................................................................................. 64 4.2.2 Szenarien................................................................................................................................ 68 4.2.3 Benchmarking ........................................................................................................................ 71 4.2.4 Aufgabenanalyse (Task Analysis) ........................................................................................... 74 4.2.5 Kontextuelles Interview (Contextual Inquiry) ......................................................................... 77 4.2.6 Card Sorting ........................................................................................................................... 82 4.2.7 Affinity-Diagramm .................................................................................................................. 86 4.3 Befragung .................................................................................................................................. 89 4.3.1 Interview ................................................................................................................................ 89 4.3.2 Fokusgruppe ........................................................................................................................... 93 4.3.3 Fragebogen ............................................................................................................................. 97 4.3.4 AttrakDiff.............................................................................................................................. 102 4.3.5 Online-Befragung ................................................................................................................. 104 4.4 Prototyping .............................................................................................................................. 108 Stand: 13.07.2015
vi
4.4.1 Prototyping ........................................................................................................................... 108 4.4.2 Storyboarding ....................................................................................................................... 113 4.4.3 Paper-Prototyping ................................................................................................................. 116 4.4.4 Wizard of Oz ........................................................................................................................ 119 4.5 Usability-Test mit Nutzern ....................................................................................................... 122 4.5.1 Usability-Test ........................................................................................................................ 122 4.5.2 Lautes Denken ...................................................................................................................... 127 4.5.3 Blickbewegungsanalyse ........................................................................................................ 130 4.5.4 Mausbewegungsmessung...................................................................................................... 134 4.5.5 A/B-Testing .......................................................................................................................... 137 4.6 Usability-Inspektion ................................................................................................................. 139 4.6.1 Heuristische Evaluation ........................................................................................................ 139 4.6.2 Cognitive Walkthrough ......................................................................................................... 142 5 Zusammenfassung und Ausblick ................................................................................................. 145 Anhang .................................................................................................................................................. vi A Anforderungsliste Befragung .......................................................................................................... vi B Fragebogen zur Evaluation des Kriterienkatalogs .......................................................................... vii C Begleitschreiben zur Einladung zur Befragung ............................................................................ xvii Abbildungsverzeichnis ......................................................................................................................... xix Tabellenverzeichnis .............................................................................................................................. xx Indexverzeichnis .................................................................................................................................. xxi Stand: 13.07.2015
vii
1 Einleitung
1.1 Motivation und Zielsetzung
Usability ist nach der DIN EN ISO 9241-11 mit Gebrauchstauglichkeit ins Deutsche übersetzt und gilt
heute als wichtiges Verkaufsargument für technische Produkte (Sarodnick & Brau, 2011).
In der heutigen Welt ist es kaum möglich, sich dem täglichen Umgang mit technischen, softwarebasierten Systemen zu entziehen. Wir alle nutzen diese interaktiven Produkte, sei es beruflich oder privat, sei
es über den PC oder das Smartphone, sei es am Fahrkartenautomat oder in modernen PKW. Diese
Entwicklung hat zur Folge, dass heute die meisten Personen, als Nutzer dieser technischen Systeme
beurteilen können, wenn ein Produkt nicht gebrauchstauglich ist und so eine gute Vorstellung davon
haben, was Usability bedeutet, auch ohne den Begriff zu kennen (Richter & Flückiger, 2010).
Aufgrund dieses gestiegenen Anspruchs der Nutzer an die Gebrauchstauglichkeit ist es für softwareentwickelnde Unternehmen unerlässlich, dieser Anforderung nachzukommen. Gerade deutsche kleine
und mittlere Unternehmen liefern leistungsfähige und funktionelle Software, es fehlt aber oftmals an
Know-how und Personal, um den Aspekt der Usability bei ihren Produkten konsequent umzusetzen
(Kauer, o. J., nach BMWi, 2014a). Aus diesem Grund unterstützt das Bundesministerium für Wirtschaft und Energie (BMWi), mit der Förderinitiative Einfach intuitiv – Usability für den Mittelstand,
deutsche Forschungsprojekte, die es zum Ziel haben, dieser Entwicklung entgegenzuwirken.
Das Institut für Arbeitswissenschaft (IAD) der Technischen Universität Darmstadt ist an dem Forschungsprojekt PUMa beteiligt, das im Rahmen der obengenannten Förderinitiative das Ziel verfolgt,
softwareentwickelnde kleine und mittlere Unternehmen (KMU) im Bereich Usability zu stärken und
damit auch deren Wettbewerbsfähigkeit zu steigern. Hierzu soll online eine Kompetenzplattform aufgebaut werden, die Methodenwissen sowie vorbildhafte Beispiele aus dem Usability-Bereich bereitstellt
und eine Vernetzung von Unternehmen, Usability-Experten und Nutzern herstellt.
Die vorliegende Master Thesis ist im Rahmen dieser Forschungstätigkeit entstanden und hat zum Ziel,
einen Katalog für Usability-Methoden zu entwickeln, der systematisiertes Methodenwissen bereitstellt.
Die gewonnenen Erkenntnisse sollen im Rahmen des PUMa-Projekts zur Erstellung der o.g. Kompetenzplattform genutzt werden. Die Informationen des entwickelten Katalogs können hier von KMU
genutzt werden und so die Entwicklung gebrauchstauglicher Software unterstützen.
1.2 Vorgehensweise
Um das Ziel der vorliegenden Arbeit zu erreichen, wird zunächst ein Kriterienkatalog entwickelt. Hier
wird festgelegt, welche Informationen zur Beschreibung von Usability-Methoden relevant sind und für
den Methodenkatalog verwendet werden. In einem ersten Schritt werden die verwendeten Kriterien
von bestehenden Methodenbeschreibungen und Kriteriensammlungen analysiert und zu einer Sammlung zusammengeführt (siehe Kapitel 3.1). Im Anschluss erfolgt die Zusammenfassung der Sammlung
zu einem strukturierten Kriterienkatalog (siehe Kapitel 3.2), bevor im nächsten Schritt eine Evaluation
des Katalogs folgt (siehe Kapitel 3.3). Hierzu wird ein Fragebogen entwickelt, mit welchem im Rahmen
einer Online-Befragung potentielle Nutzer der Kompetenzplattform, bestehend aus Softwareentwicklern und Usability-Experten, zu der Wichtigkeit der zusammengefassten Kriterien befragt werden. Auf
Grundlage der ausgewerteten Fragebogen-Daten wird der Kriterienkatalog optimiert und dann zu ei-
Einleitung
1
ner finalen Version überführt (siehe Kapitel 3.4). In diesem sind die Kriterien für den Methodenkatalog
definiert, ihre Strukturierung vorgegeben sowie das Layout für die Methodenbeschreibung festgelegt.
Vor der eigentlichen Beschreibung einer Auswahl von Usability-Methoden werden Möglichkeiten der
Strukturierung von Methoden diskutiert, um den Methodenkatalog strukturiert aufbauen zu können.
Hierzu werden bestehende Klassifizierungsmöglichkeiten analysiert und im Hinblick auf die Einordnung der gewählten Methoden, bewertet. Darauf aufbauend wird eine Methodenklassifizierung definiert, welche die Anordnung der Methoden innerhalb des Katalogs vorgibt (siehe Kapitel 4.1). Im Vorfeld der Erstellung des Methodenkatalogs wird eine Literaturrecherche durchgeführt, um das benötigte
Methodenwissen zu sammeln. Auf Basis der ermittelten Informationen werden dann die ausgewählten
Usability-Methoden detailliert, anhand des festgelegten Kriterienkatalogs beschrieben.
Einleitung
2
2 Theoretische Grundlagen
Im folgenden Kapitel wird zunächst das PUMa-Projekt vorgestellt. Der im Rahmen dieser Masterthesis
zu entwickelnde Methodenkatalog soll Informationen liefern, die auf der zukünftigen Kompetenzplattform des PUMa-Projekts verwendet werden können. Im Anschluss folgt die Darstellung einiger theoretischer Grundlagen und Begriffsdefinitionen, die für das Verständnis der vorliegenden Arbeit relevant
sind.
2.1 PUMa-Projekt
PUMa (Projekt Usability in Mittelstandsanwendungen) ist ein Forschungsprojekt, das vom Institut für
Arbeitswissenschaft der Technischen Universität Darmstadt, dem Institut für Software- und Multimediatechnik der Technischen Universität Dresden, der CAS Software AG aus Karlsruhe, der ma ma
Interactive System Design Denzinger und Karp GbR aus Frankfurt am Main sowie der Steinbeis Innovation gGmbH mit Sitz in Stuttgart durchgeführt wird. Das Projekt wird im Zeitraum vom 01.01.2014 bis
zum 30.04.2016 durchgeführt und im Rahmen der Förderinitiative „Einfach intuitiv – Usability für den
Mittelstand“ vom Bundesministerium für Wirtschaft und Energie (BMWi) unterstützt. (BMWi, 2014a)
Nutzer haben heute hohe Ansprüche an die Gebrauchstauglichkeit von IT-Produkten und ihre Erfahrung bei der Bewertung dieser Systeme steigt zunehmend (BMWi, 2014a). Aus diesem Grund ist es das
Ziel des PUMa-Projekts Unternehmen in der Entwicklung gebrauchstauglicher Software zu unterstützen. Hierzu wird online eine Kompetenzplattform aufzubauen, um eine Vernetzung von Softwareanwendern und deutschen softwareentwickelnden kleinen und mittleren Unternehmen (KMU) und
Usability-Experten herzustellen. Hierdurch soll die Zusammenarbeit und der Wissensaustausch von
Nutzern, Entwicklern und Experten gefördert werden (IAD, o. J.). Darüber hinaus sollen Methodenbeschreibungen bereitgestellt werden, die es den KMU ermöglichen, eigene kleine Usability-Probleme
selbstständig zu lösen. Bei größerem Unterstützungsbedarf kann über die Kompetenzplattform Kontakt
zu Usability- und User Experience-Experten aufgenommen werden. Zur weiteren Unterstützung der
KMU durch das PUMa-Projekt sollen Best-Practice-Beispiele bereitgestellt werden, die bewährte Lösungen aufzeigen und es den Unternehmen ermöglichen, diese an die eigenen Bedürfnisse anzupassen
und in ihren Entwicklungsprozess zu integrieren (BMWi, 2014a). Außerdem hat es das Projekt zum
Ziel, organisatorische Unterstützung bei der Durchführung von Projekten anzubieten (IAD, o. J.).
2.2 Usability
Der Begriff Usability ist in der deutschen Fassung der DIN EN ISO 9241-11 mit Gebrauchstauglichkeit
übersetzt, und wie folgt definiert: „Das Ausmaß, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und
zufriedenstellend zu erreichen“ (DIN EN ISO 9241-11, S. 4). Die Usability beinhaltet damit den Aspekt
der Benutzerfreundlichkeit, also der komfortablen Benutzbarkeit eines Produkts. Darüber hinaus besteht die Forderung nach einer geeigneten Unterstützung des Nutzers beim Erreichen seiner Ziele. Die
Usability ist damit eine Qualität eines technischen Systems, und stellt ein Ziel bei der ergonomischen
Gestaltung eines Produkts dar. (Sarodnick &Brau, 2011)
Theoretische Grundlagen
3
2.3 KMU: Kleine und mittlere Unternehmen
KMU ist die Abkürzung für kleine und mittlere Unternehmen. Die Bezeichnung fasst solche Unternehmen zusammen, die abhängig von der Beschäftigtenzahl, des Umsatzerlöses oder der Bilanzsumme
unterhalb einer Grenze angesiedelt sind. Für diese Grenzen gibt es unterschiedliche Definitionen, die
z.B. von der Europäischen Union (EU), dem Institut für Mittelstandsforschung (IfM) Bonn und dem
Deutschen Handelsgesetzbuch (HGB) vorgegeben sind (Wikipedia, 2015).
Im Rahmen dieser Arbeit wird die Definition der Kommission der Europäischen Union herangezogen,
die am 01.01.2005 in Kraft getreten ist. Nach ihr sind solche Unternehmen zur Gruppe der KMU zu
zählen, die eigenständig sind, weniger als 250 Personen beschäftigen, und die entweder einen Jahresumsatz von maximal 50 Mio. € erzielen oder deren Jahresbilanz sich auf höchstens 43 Mio. € beläuft
(Europäische Kommission, 2006, S. 5).
2.4 Methode
Lindemann (2009) definiert eine Methode als „planmäßiges, regelbasiertes Vorgehen, nach dessen
Vorgabe bestimmte Tätigkeiten auszuführen sind, um ein gewisses Ziel zu erreichen“. (S. 335)
Im Zusammenhang mit der vorliegenden Arbeit, stellt eine Methode ein Werkzeug dar, mit dessen Hilfe ein komplexer Sachverhalt Schritt für Schritt beschrieben wird. Ein Anwender kann die Beschreibung einer Methode ähnlich einer Anleitung verwenden, um die entsprechenden Tätigkeiten der Methode durchzuführen.
2.5 Kriterium
Unter einem Kriterium ist allgemein ein „unterscheidendes Merkmal als Bedingung für einen Sachverhalt, ein Urteil [oder] eine Entscheidung“ anzusehen ("Duden online," 2011).
Im Rahmen der Entwicklung des Methodenkataloges werden mit dem Begriff Kriterium Eigenschaften
und Merkmale einer Methode beschrieben. Beispiele für Kriterien können in diesem Zusammenhang
der Zweck einer Methode, die benötigte Anzahl von Personen oder der Zeitaufwand für die Anwendung
der Methode sein. Unter einem Kriterium werden demnach Informationen einer Methode zu einem
bestimmten Aspekt bereitgestellt.
2.6 Ausprägung
Der Begriff Ausprägung kann als ein „möglicher Wert eines statistischen Merkmals, das bei einem
Merkmalsträger beobachtet werden kann“ definiert werden. (Springer Gabler Verlag, o. J.)
Ausprägungen beschreiben im Rahmen dieser Arbeit die möglichen Variablen, die Informationen zu
einem Kriterium einnehmen können. Darüber hinaus kann unter dem Begriff die Darstellungsart beschrieben werden, in der Informationen bezüglich eines Kriteriums angegeben werden. Für ein Kriterium Zeitaufwand können beispielsweise die Ausprägungen gering, mittel und hoch definiert werden.
Ein Beispiel für eine Ausprägung, die die Art der Informationsdarstellung beschreibt, könnte die Vorgabe sein, den Zweck einer Methode in Form von Stichpunkten anzugeben.
Theoretische Grundlagen
4
3 Erstellung eines Kriterienkataloges
In diesem Kapitel soll ein Kriterienkatalog definiert werden, der für die weitere Beschreibung der
Usability-Methoden als Grundlage dient. Um Methoden einheitlich beschreiben zu können muss zunächst festgelegt werden, welche Informationen diese Beschreibungen enthalten sollen. Werden die
Methoden durch die reine Darstellung der Vorgehensweise ausreichend beschrieben oder sind noch
weitere Informationen, wie beispielsweise Angaben zum Schwierigkeitsgrad, dem Aufwand der Anwendung oder der Anzahl der für die Durchführung benötigten Personen, hilfreich?
All diese Fakten werden im Rahmen dieser MasterThesis als Kriterien bezeichnet. Kriterien stellen
demnach Eigenschaften dar, mittels derer die Methoden beschrieben werden. Anhand der Informationen dieser Kriterien soll z.B. ein Softwareentwickler, der keine Erfahrungen in der Anwendung von
Usability-Methoden hat, eine Methode im Kontext seines Projektes, z.B. der Entwicklung eines Website, auswählen und verstehen können. Abhängig von den erforderlichen Kompetenzen für die Anwendung soll der Ausführende - also z.B. ein Softwareentwickler - die Methode mit den Informationen der
Kriterien durchführen oder zumindest die Durchführung organisieren können.
Um eine solche Sammlung von Kriterien festzulegen, werden zunächst bestehende
Kriteriensammlungen analysiert und zusammengeführt. Auf Grundlage dieser Zusammenführung wird
ein erster Entwurf eines Kriterienkatalogs erstellt. Im Rahmen einer Befragung unter potentiellen Nutzern der zukünftigen Kompetenzplattform und Usability-Experten wird der vorläufige Katalog evaluiert. Ziel ist es die relevanten Kriterien zu ermitteln, die für die Beschreibung von Methoden notwendig
bzw. nützlich sind. Auf Grundlage der Befragungsergebnisse wird ein optimierter Kriterienkatalog erstellt, mit dessen Hilfe im weiteren Verlauf dieser Arbeit Usability-Methoden beschrieben werden.
3.1 Analyse und Zusammenführung bestehender Kriterienkataloge
In einem ersten Schritt werden bestehende Kriterienkataloge analysiert sowie weitere Kriterien aus
Methodenbeschreibungen von Usability-Methoden abgeleitet. Die analysierten Kriterien werden im
Anschluss zusammengeführt und miteinander verglichen.
3.1.1 Analyse
An der durch das Bundesministerium für Wirtschaft und Energie (BMWi) geförderten Initiative Einfach
intuitiv – Usability für den Mittelstand, in deren Rahmen die Kompetenzplattform erstellt werden soll,
sind insgesamt 14 Einzelprojekte, bestehend aus Usability-Experten und Unternehmen, beteiligt
(BMWi, 2015c). Sieben dieser Projekte haben ihre Kriteriensammlungen, die sie für die Beschreibung
von Usability-Methoden verwenden, für eine Analyse im Rahmen dieser Arbeit zur Verfügung gestellt.
Zusätzlich wurden die Methodenbeschreibungen zweier externer Forschungsprojekte untersucht und
weitere Kriterien abgeleitet.
Im Folgenden werden die beteiligen Projekte vorgestellt und die Kriterien, nach denen sie UsabilityMethoden beschreiben, analysiert.
Erstellung eines Kriterienkataloges
5
CUBES
CUBES (Community Usability betrieblicher Software von KMU) ist ein Forschungsprojekt, welches von
den Lehrstühlen Human Computer Interaction und Computerunterstütze Gruppenarbeit der Universität Siegen, der Buhl Data Services GmbH sowie der expeer GmbH durchgeführt wird. Es wird vom
BMWi gefördert. Ziel des Projektes ist es, die Usability-Kompetenz von KMU zu stärken. Hierzu wird
ein, für diesen Zweck angepasstes Vorgehensmodell entwickelt sowie internetbasierte UsabilityMethoden zusammengestellt. Darüber hinaus werden Remote Usability und User Community Methoden miteinander kombiniert und ein Unterstützungssystem umgesetzt, welches den produktzentrierten
Dialog zwischen Entwicklern und Nutzern verbessert. (BMWi, 2015a; Graeb, 2013)
Der Kriterienkatalog von CUBES umfasst zwölf Kriterien und ist in Tabellenform dargestellt. Die Kriterien sind nach Kategorien und Unterkategorien gegliedert. Folgende Kriterien werden genannt: Name,
Projektphase, Beschreibung, Geeignet für, Kosten, Nutzen, Beispiel, Teilnehmer, Vorteile, Nachteile, Ressourcen und Quellen.
Das Kriterium Name informiert über die Bezeichnung der Methode und stellt gleichzeitig eine eigene
Kategorie dar.
Unter einer zweiten Kategorie Kurzbeschreibung sind die vier Kriterien Projektphase, Beschreibung, Geeignet für und Kosten angeordnet. Der Aspekt Projektphase beschreibt den Zeitpunkt im Projekt, indem
die jeweilige Methode angewendet werden kann. Unter Beschreibung wird die Methode in wenigen
Sätzen beschrieben. Geeignet für beschreibt für welche Art von Anwendern die Methode geeignet ist,
z.B. für Einsteiger. Die Kosten für die Durchführung der Methode werden nach einer Skala von 1 bis 3
angegeben.
Das Kriterium Nutzen stellt, wie alle weiteren Kriterien auch, eine eigene Kategorie dar. Hier wird in
einem Fließtext die Methode ausführlicher beschrieben. Enthalten sind Informationen zu Zielen der
Methode und Vorteile der Anwendung.
Im nächsten Kriterium werden Beispiele aufgeführt, für welche Vorhaben die Methode angewendet
werden kann.
Die Anzahl der Teilnehmer sowie Vor- und Nachteile werden in entsprechenden Kriterien als Aufzählungen dargestellt. Ressourcen wie beispielsweise YouTube-Links werden mit Internetadresse und Quellen in Form eines Literaturverzeichnisses angegeben.
Design4Xperience
Das Projekt Design4Xperience wird von Partnern aus Stuttgart durchgeführt und ist Teil des Projektes
„Einfach intuitiv–UsabilityfürdenMittelstand“, das vom BMWi gefördert wird. Hierzu zählen unter
anderem die Stuttgarter Hochschule der Medien, das Institut für Arbeitswissenschaft und Technologiemanagement der Universität Stuttgart sowie das Fraunhofer-Institut für Arbeitswissenschaft und
Organisation, Stuttgart. Ziel des Projektes ist es passgenaue User Experience-Vorgehensweisen und
Maßnahmen zu entwickeln, die KMU dabei unterstützen, ihre Softwareprodukte attraktiver, innovativer und erfolgreicher zu gestalten. (BMWi, 2015b)
Design4Xperience beschreibt Methoden nach den neun Kriterien Name, Aufwand, Expertise, Teilnehmer,
Ziel, Durchführung, Material, Praxistest und Quelle. Die Informationen zum benötigten Aufwand, zur
erforderlichen Expertise, zum Ziel der Methode, zur Beschreibung der Durchführung sowie zum benötigten Material sind im Fließtext angegeben. Bei Teilnehmer wird die benötigte Anzahl als Zahl ange-
Erstellung eines Kriterienkataloges
6
geben die Quelle hat das Format eines Literaturverzeichnisses. Der Praxistest gibt an, wie erprobt bzw.
wissenschaftlich fundiert die Methode ist.
KompUEterchen4KMU
In das Projekt KompUEterchen4KMU (Kompetenznetzwerk Usability Engineering für mobile Unternehmenssoftware von KMU für KMU) sind unter anderem das mobilemediaand communicationlab
der FH Aachen, der Bundesverband IT-Mittelstand e.V. sowie die CAS Software AG involviert. Das Projekt ist Teil der Förderinitiative „Einfach intuitiv – Usability für den Mittelstand“, die im Rahmen des
Förderschwerpunktes Mittelstand-Digital – IKT Anwendungen in der Wirtschaft vom BMWi unterstützt
wird. Ziel ist es ein Kompetenzzentrum im Bereich Usability Engineering speziell für mobile Unternehmenssoftware aufzubauen. Methodenkompetenz soll so an kleine und mittlere Unternehmen vermittelt werden und auf diesem Weg die Vermarktung nutzerfreundlicher Produkte im Wettbewerb
stärken. ("KompUEterchen4KMU," 2015; BMWi, 2015d)
KompUEterchen4KMU verwendet sechzehn Kriterien zur Beschreibung von Methoden und unterteilt
diese in einer tabellarischen Darstellung in Kategorien und Unterkategorien.
Die erste Kategorie enthält das Kriterium Name. Es folgt die Kategorie Rahmenbedingung mit den Kriterien Aufwand (Skala von 1 bis 4), Schwierigkeit (Skala von 1 bis 4), Eignung mobil (dreistufige Skala
von positiv über neutral bis negativ), Projektphasen sowie Beteiligte Rollen. Letzteres beschreibt die
Personengruppen, die für die Durchführung der Methode benötigt werden, z. B. Entwickler, Designer,
Benutzer oder Kunde.
Die dritte Kategorie namens Zusammenfassung beinhaltet die Kriterien: Kurzbeschreibung, Abbildung,
Ziele, und Ressourcen. Der letzte Punkt beschreibt die benötigten Werkzeuge, die Anzahl und die Art
der Teilnehmer (z.B. 1 Leiter und mindestens 3 Teilnehmer) sowie die Zeit in Personentagen. Die Informationen sind in Form von Stichpunkten gegeben, das Kriterium Kurzbeschreibung beschreibt die
Methode in wenigen Sätzen.
In der vierten Kategorie wird das Vorgehen im Fließtext beschrieben.
Unter der Kategorie Unterstützung sind die Kriterien Hilfsmittel, Literaturempfehlung und Das sollten Sie
beachten enthalten.
Die letzte Kategorie beinhaltet das Kriterium Quelle.
PQ4Agile
An dem Projekt PQ4Agile (Produktqualität für Agile Softwareentwicklung) sind die Partner HK Business Solutions GmbH, CAS Software AG, Fraunhofer IESE sowie YellowMap AG beteiligt. Das Verbundvorhaben wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme
KMU-innovativ gefördert. PQ4Agile entwickelt Unterstützungen für Anwender agiler Methoden. Es
werden Beschreibungen von Softwareengineering-Methoden bereitgestellt, die einen möglichst einfachen Einsatz in agilen Projekten ermöglichen sollen. Die Hauptzielgruppe sind hierbei kleine und mittlere Unternehmen der Softwareindustrie. ("Das Verbundvorhaben PQ4Agile," 2015)
Innerhalb des Projektes PQ4Agile werden Methoden anhand von 30 Kriterien beschrieben. Diese sind
teilweise in Kategorien unterteilt; Informationen werden größtenteils in Form von Fließtext bereitgestellt.
Zunächst werden dem Anwender der Methodenbeschreibung neben der Bezeichnung der Methode Informationen zu dem Bereich zu dem die Methode zu zählen ist, z.B. Evaluation, sowie zu der Aktivität,
Erstellung eines Kriterienkataloges
7
z.B. Anforderungen erheben, gegeben. Es folgen Informationen zu Aufwand, Schwierigkeit und Agilitätsfaktor, die jeweils in einer dreistufigen Skala von hoch über mittel bis gering angegeben sind. Piktogramme verdeutlichen die Ausprägung dieser drei Kriterien.
Die Kriterien Ziele, Motivation/Problemstellung, Kurzbeschreibung, Abbildung, Input und Output leiten
die Methodenbeschreibung ein und stellen jeweils auch eine eigene Kategorie dar. Die Informationen
von Motivation/Problemstellung und Kurzbeschreibung sind als Fließtext, die übrigen in Stichpunkten
gegeben.
Nachfolgend werden die sechs Kriterien Ausführender, Vorkenntnisse/Erfahrungen, Weitere Teilnehmer,
Werkzeuge, Hilfsmittel, Ort/Umgebung sowie Voraussichtliche Dauer in der Kategorie Rahmenbedingungen zusammengefasst.
Eine Kategorie Vorgehensweise beinhaltet die drei Kriterien Vorbereitung, Durchführung und Nachbereitung/Auswertung, die die Anwendung einer Methode beschreiben. Zusätzliche Hinweise geben die Kriterien Gütekriterien/Empfehlungen sowie Risiken.
Es folgt die Kategorie Einordnung in den agilen Referenzprozess, die die drei Kriterien Mögliche Vorgänger, Mögliche Nachfolger und Mögliche Alternativen, verwandte Praktiken enthält, sowie die Kategorie bzw. das Kriterium Einordnung in das PQ4Agile-Qualitätsmodell.
Abgeschlossen wird die Methodenbeschreibung mit dem Kriterium Schlagworte sowie den Kriterien
Informationen im Internet und Literatur, die in der Kategorie Weiterführende Informationen zusammengefasst sind.
PUMa
Wie bereits in Kapitel 2.1 erwähnt, handelt es sich bei PUMa um ein Projekt an dem unter anderem
das Institut für Arbeitswissenschaft der TU Darmstadt beteiligt ist. Das Projekt verfolgt das Ziel Softwareentwickler und Softwareanwender online mit Usability-Experten zu vernetzen.
Der Kriterienkatalog des PUMa-Projektes ist mit 41 Kriterien der umfangreichste der betrachteten Kataloge. Die Kriterien sind in 12 Kategorien aufgeteilt. In Tabelle 1 sind die Kriterien am Beispiel der Methode Prototyping dargestellt.
Erstellung eines Kriterienkataloges
8
Tabelle1:KriterienkatalogdesPUMa‐Projektes(BMWi,2014b)
Nr. Kategorie
Kriterien
1
Name
Name
2
Abbildung(en)
Abbildung(en)
3
Beschreibung
Beschreibung
Ausprägungen
Synonym(e)
2 bis 4 Sätze
Ergebnisse
Vorteile
Nachteile
Praxis-Tipps
4
Hinweise zum Vorgehen
Vorbereitung
Durchführung
Auswertung
Hilfsmittel & Werkzeuge
5
6
7
Anwendungsdomäne & Projekthintergrund
Zweck
Rahmenbedingungen & Ressourcen
Mein Produkt ist…
• Software bzw. ein grafisches Interface
• ein physikalisches Produkt/ Hardware
• ein integriertes Produkt, bestehend aus Hardund Software
• eine Dienstleistung
• eine Kombination aus den vorgenannten
Es handelt sich um…
• ein Produkt, das bereits existiert (Redesign)
• ein neues Produkt, das vergleichbar bereits
existiert
• ein neues Produkt, das so noch nicht auf dem
Markt ist
Geplante Markteinführung; Das Produkt soll auf den
Markt kommen in…
• 1-3 Monaten
• 4-12 Monate
• 13-24 Monate
• > 24 Monate
Inspiration & Information
• Nutzer
• Kontexte
• Handlungen & Erfahrungen
• Strukturen & Prozesse"
Fragen & Verstehen.
• Nutzer
• Kontexte
• Handlungen & Erfahrungen
• Strukturen & Prozesse
Ausprobieren, Entwerfen & Entwickeln
• Ideen & Konzepte
• Prototypen & Demonstratoren
Bewerten, Auswerten & Validieren
• Ideen & Konzepte
• Prototypen & Demonstratoren
• Daten analysieren
Darstellen & Dokumentieren
• Ordnen & Organisieren
• Kommunizieren
• Dokumentieren
• Verbreiten
Aufwand - Nutzer
Skala: 1 bis 5
1: wenig Zeit erforderlich, um aussagekräftige
Ergebnisse zu erhalten
5: sehr zeitaufwändig, um aussagekräftige Ergebnisse zu erhalten
Maximaler Zeithorizont
• 1 Tag
• 1 Woche
• 1 Monat
• 3 Monate
• 6 Monate
• 1 Jahr oder länger
Aufwand in Personentage
• 10 oder weniger
•…
Anzahl der Teilnehmer
TBD
Erstellung eines Kriterienkataloges
9
8
9
Kategorisierung
Bezug zu Puma-Entwicklungsprozess
(Gewünschte) Teilnehmer
• Egal,
• Experten
• Endnutzer
• Firmeninterne
• Stakeholder
Besondere Teilnehmergruppen
TBD
Rolle der Teilnehmer
• Partizipatorisch/ am Entwurfsprozess beteiligt
• Diskussion
• Wird beobachtet
• Selbstbeobachtung
Ort
• Natürliche Umgebung
• Usability Labor
• Besprechungsraum
• Remote
• Schreibtisch
Schwierigkeitsgrad – Durchzuführen von…
Laie vs. Profi
Art der Teilnehmer
• Benutzerorientierte Methode
• Expertenorientierte Methode
Zeitpunkt in der Entwicklung
• Gegen Ende des Entwicklungsprozesses
• Entwicklungsbegleitend
• Nach einem Launch
Im laufenden Betrieb
• In den frühen Phasen der Entwicklung
Datentyp der Ergebnisse
Qualitativ vs. Quantitativ
1 Projektorganisation & Prozessunterstützung
2 Konzeption, Analyse, Requirements Engineering
3 Design, Prototype
4 Implementierung, Umsetzung
5 Evaluierung, QM & User Feedback
Bezug zu Prozessen/ Modellen
10 Referenzen
Literatur
Weblinks
Zu beachtende Normen und Zertifikate
Fragen & Problemstellungen
11 Verwandte und weiterführende Methoden Verwandte Methoden
Weiterführende & ergänzende Methoden
12 Anwendungsbeispiele
Beispiele/ Best Practice
Simply usable
Das Forschungsprojekt Simply usabile wird im Rahmen der Initiative „Einfach intuitiv – Usability für
den Mittelstand“ vom BMWi gefördert. Die Projektpartner sind das Fraunhofer-Institut für Angewandte
Informationstechnik FIT, die i22 Internetagentur GmbH sowie die sunzinet AG. Ziel des Projektes ist es
ein Vorgehensmodell zu entwickeln, das Usability-Maßnahmen in den Software-Entwicklungsprozess
von KMU etabliert. (BMWi, 2015e)
Im Rahmen des Usability-Vorgehensmodells von Simply usable wurde ein Baukasten entwickelt, mit
dessen Hilfe sich, abhängig vom Projekt, die passende Methode wählen lässt. Die Methoden werden
anhand von elf Kriterien beschrieben, die in fünf Kategorien unterteilt sind.
Kategorie eins beinhaltet den Namen der Methode. Die zweite Kategorie enthält das Kriterium Kurzbeschreibung, das einen kurzen Überblick über die Methode gibt. Ergänzt wird diese kurze Beschreibung
durch ein Bild bzw. ein Foto. Kategorie drei enthält das Kriterium Ergebnis, das über die Resultate der
Methode informiert.
Erstellung eines Kriterienkataloges
10
Die folgenden vier Kriterien Projektestand, Benötigte Ressourcen, Zeitaufwand und Hilfsmittel sind in der
Kategorie Voraussetzungen zusammengefasst. Das Kriterium Benötigte Ressourcen beinhaltet Informationen zu den benötigten Personen sowie ggf. das erforderliche Know-how. Der Zeitaufwand wird in
Stunden angegeben. Zu verwendende Hilfsmittel sind als Aufzählung angegeben.
Die letzte Kategorie der Methodenbeschreibung enthält die Kriterien Vorbereitung und Durchführung,
die beide als Fließtext gegeben sind, sowie die abschließenden Kriterien Rahmenbedingungen und Literaturhinweise.
UCDtoolbox
Die UCDtoolbox wurde im Rahmen eines Projektes der niederländischen Technischen Universität Delft
erstellt. Sie stellt eine Datenbank von Usabilty-Methoden dar. Mittels eines Filtersystems lassen sich zu
einem Projekt passende Methoden finden. Hierbei werden zwei unterschiedliche Arten von Kriterien
verwendet. Zum einen solche Kriterien, die zur Auswahl einer Methode von Bedeutung sind und zum
anderen Kriterien, welche die Methoden und ihre Anwendung beschreiben.
Zur Filterung, und somit zur Auswahl der Methoden, werden neun Kriterien verwendet, die in fünf
Kategorien gegliedert sind.
Unter der ersten Kategorie findet sich ein Kriterium, das die Methoden nach der Art der Produkte filtert, bei deren Erstellung sie verwendet werden können. Es ist mit Ich erstelle ein… bezeichnet und
besitzt die Ausprägungen physikalisches Produkt, displaybasierte Benutzerschnittstelle, Dienstleistung und
Umgebung/Ort.
Das Kriterium der zweiten Kategorie Mein Ziel ist… besitzt Ausprägungen, die sich wiederum in eine
weitere Ebene von Ausprägungen gliedert. Hierdurch bildet sich eine Satzstruktur aus. Die vorgesehenen Ausprägungen lauten:

Mein Ziel ist…
o mehr zu erfahren über…
 Benutzer
 Interaktionen zwischen Benutzer und Produkt
 Benutzererfahrung
 Kontext
o die Schaffung von…
 Ideen & Konzepten
 Prototypen & Modellen
o das Evaluieren von…
 Ideen & Konzepten
 Prototypen & Modellen
o die Auswertung von Daten
o die Darstellung von Ergebnissen
Es folgt die dritte Kategorie Verfügbare Ressourcen, in der drei Kriterien enthalten sind. Ziel dieser Kriterien ist es, abhängig von der zur Verfügung stehenden Anzahl von Personen sowie von der verfügbaren Zeit, passende Methoden heraus zu filtern. Die Namen der Kriterien sind hierbei aus der Sicht des
Anwenders formuliert. Sie fragen den Benutzer ab, welche Ressourcen zur Verfügung stehen, und
können so zur Filterung der Methoden-Liste verwendet werden. Das erste Kriterium maximale Team-
Erstellung eines Kriterienkataloges
11
größe besitzt die Ausprägungen 1, 2, 3, 4, 5 oder mehr und gibt damit an, wie viele Personen mindestens notwendig sind, um eine Methode zu verwenden. Für das zweite Kriterium maximale Dauer sind
die Ausprägungen 1 Tag, 1 Woche, 1 Monat, 3 Monate, 6 Monate sowie 1 Jahr oder länger vorgesehen.
Es gibt an, wie viel Zeit mindestens zur Verfügung stehen muss, um eine Methode anwenden zu können. Das letzte Kriterium dieser Gruppe betrifft ebenfalls die Ressource Zeit und gibt an, welche Methoden in Abhängigkeit der verfügbaren maximalen Personenstunden des Teams anwendbar sind. Vorgegeben sind hier die Ausprägungen 10 oder weniger, 40, 80, 120, 160 und 200 oder mehr.
Kategorie vier der Filter-Kriterien heißt Teilnehmer und enthält die beiden Kriterien Art der Einbeziehung der Nutzer und Nutzer(gruppen) die beteiligt werden sollen. Ersteres hat die vier Ausprägungen
physikalische Einbeziehung der Teilnehmer, aus der Ferne teilnehmende Personen, Experten, sowie User
representation. Die ersten beiden Ausprägungen klassifizieren dabei Methoden danach, ob ein physikalischer Kontakt mit den Teilnehmern, z.B. in einem Usability-Labor benötigt wird, ober ob Personen
aus der Ferne, z.B. per Telefon oder Internet teilnehmen können. Die Ausprägung Experten gibt an,
dass bei der Verwendung der Methode Experten befragt werden, die auf diesem Weg Erfahrungen oder
Wissen zu einem Fachgebiet einbringen. Unter User representation sind solche Methoden zu verstehen,
bei denen das Verhalten von Benutzern simuliert wird. Das zweite Kriterium Nutzer(gruppen) die beteiligt werden sollen, hat die Ausprägungen: Kinder, Ältere Personen, Personen mit körperlicher Beeinträchtigung, Personen mit kognitiver Beeinträchtigung, Sehbehinderte, Hörgeschädigte sowie Personen mit
mehreren ethnischen Hintergründen (Multiple Ethnicities).
Die fünfte und letzte Kategorie Charakteristik der Methode beinhaltet die beiden Filter-Kriterien Output
der Methode und Ort der Durchführung. Das Kriterium Output der Methode gibt den Datentyp der resultierenden Daten nach qualitativ und quantitativ an. Mit Hilfe dieses Kriteriums können Methoden danach gefiltert werden, ob sie qualitative Daten, z.B. in Form von Bildern, Texten, Audio- oder Videoaufzeichnungen erzeugen, oder numerische Daten hervorbringen, die häufig in Form von Tabellen
oder Graphiken dargestellt werden. Das Kriterium Ort der Durchführung hat die Ausprägungen natürliche Nutzerumgebung, simulierte Nutzerumgebung (zur Durchführung der Methode wird die natürliche
Umgebung, in der das Produkt genutzt wird, simuliert), Labor oder Tagungsraum und heimischer
Schreibtisch.
Zur Beschreibung von Methoden verwendet die UCDtoolbox 18 Kriterien, die in fünf Kategorien eingeteilt sind. Die ersten beiden Kriterien Name und Synonyme sind keiner übergeordneten Kategorie zugeteilt.
Die erste Kategorie Überblick enthält die fünf Kriterien Kurzbeschreibung, Abbildungen, mögliche Ergebnisse, Vorteile und Grenzen. Das Kriterium Kurzbeschreibung stellt eine kurze Übersicht über die Methode dar.
Unter der Kategorie Beschreibung sind die Kriterien Beschreibung, Diese Methode passt gut zu…, vorangegangene Aktivitäten und nachfolgende Aktivitäten aufgeführt. Das Kriterium Beschreibung stellt hier im
Gegensatz zur Kurzbeschreibung eine etwas ausführlichere Übersicht in ca. fünf Sätzen dar.
Die dritte Kategorie Optimierung enthält ausschließlich ein gleichnamiges Kriterium.
Die nachfolgende Kategorie Instruktionen enthält die drei Kriterien Vorbereitung, Durchführung und
Auswertung, welche die Anwendung der Methode beschreiben.
Abschließend enthält die Kategorie Literatur die beiden Kriterien weiterführende Literatur sowie Quellen.
Erstellung eines Kriterienkataloges
12
Usability Inside
Das Projekt Usability Inside ist Teil der Förderinitiative „Einfach intuitiv – Usability für den Mittelstand“ und wird vom BMWi gefördert. Projektpartner sind das Fraunhofer-Institut für Arbeitswissenschaft und Organisation IAO, die CAS Software AG, der Bundesverband IT-Mittelstand e.V. sowie das
Institut für Arbeitswissenschaft und Technologiemanagement IAT der Universität Stuttgart. Die Ziele
des Projektes sind die Durchführung von Veranstaltungen zur Vermittlung von Know-how aus dem
Bereich Usability, die Entwicklung und pilothafte Erprobung von Methoden sowie die Etablierung eines Online Portals zur Veröffentlichung der Ergebnisse des Projektes. (BMWi, 2014c)
Usability Inside verwendet bei der Beschreibung von Methoden eine Sammlung von acht Kriterien. Auf
das Kriterium Name folge das Kriterium Beschreibung und gibt dabei einen kurzen Überblick über die
Methode in ca. fünf Sätzen. Es folgen die Kriterien Voraussetzungen, Nutzen und Herausforderungen.
Die letzten drei Kriterien Vorbereitung, Durchführung und Auswertung sind unter der Kategorie Exemplarischer Ablauf zusammengefasst. Alle Informationen der Methodenbeschreibung sind in Fließtext
gegeben.
UseTree
UseTree ist ein Projekt, das ebenfalls im Rahmen der Förderinitiative des BMWi gefördert wird. Projektpartner sind die Technische Universität Berlin, die Universität der Künste Berlin, die bao – Büro für
Arbeits- und Organisationspsychologie GmbH und die Berlin Partner für Wirtschaft und Technologie
GmbH. Das Projekt hat das Ziel ein Kompetenzzentrum für die Usability betrieblicher Anwendungssoftware aufzubauen und zu betreiben. Der Fokus liegt hierbei auf mobilen, internetbasierten Applikationen. (BMWi, 2014d)
Der Kriterienkatalog von UseTree umfasst 19 Kriterien die teilweise in Kategorien zusammengefasst
sind. Die Methodenbeschreibungen beginnen mit den Kriterien Name, Synonym(e), Abbildung, Beschreibung (in 2 bis 3 Sätzen) und der Fragestellung, die mit dieser Methode beantwortet werden kann.
Es folgt die Kategorie Wann, die die zwei Kriterien Phase (grob) und Phase (genauer beschrieben, mit
Bezug zum Stand des Systems) enthält.
Die Kriterien Wer, Dauer und Womit, informieren über die benötigten Personen, den Zeitaufwand in
Stunden sowie nützliche bzw. erforderliche Hilfsmittel und Werkzeuge.
Die Verwendung der Methode wird in den drei Kriterien Vorbereitung, Durchführung und Auswertung
der Kategorie Vorgehen im Fließtext beschrieben.
Das Kriterium Vorteile stellt drei Vorzüge eine Methode in Stichpunkten dar, während das Kriterium
Checkliste weiteres Wissenswertes bzw. Aspekte, die zu beachten sind, in einer abhakbaren Liste darlegt.
Das Kriterium Weiterführende Infos gibt Auskunft über Literatur und Internetseiten mit zusätzlichen
Informationen zur Vertiefung.
Eine abschließende Kategorie Übungen fasst das Kriterium Vorlagen, Übungsaufgaben und
Reflektionsfragen zusammen. Die Vorlagen stellen Handouts dar, die den Ablauf der Methode als
Checkliste beschreiben und in die Ergebnisse direkt eingetragen werden können. Übungsaufgaben dienen dazu Aspekte einer Methode im Vorfeld zu trainieren, z.B. das Mitschreiben von Notizen.
Reflektionsfragen regen zum rückblickenden Überlegen über die Methode bzw. über die Übungsaufgabe
an.
Erstellung eines Kriterienkataloges
13
3.1.2 Zusammenführung
Im Folgenden werden die analysierten Kriterien miteinander verglichen und zusammengeführt. Mit
„Zusammenführung“ ist hierbei gemeint, dass alle Kriterien in eine gemeinsame Tabelle eingefügt und
nach Kategorien geordnet werden. In diesem Schritt werden nur solche Kriterien zusammengelegt und
unter einer einheitlichen Bezeichnung aufgeführt, die in den ursprünglichen Kriterienkatalogen dieselbe Art von Informationen enthielten. Auf diese Weise soll in diesem Arbeitsschritt so wenig wie möglich vereinheitlicht und zusammengefasst werden. Es geht zunächst darum eine geordnete Darstellung
aller Kriterien zu erreichen, ohne das Informationen aus den einzelnen Katalogen verloren gehen.
Bei der Zusammenführung wird der Kriterienkatalog des PUMa-Projektes als Grundlage betrachtet, da
dies der umfangreichste der analysierten Kataloge ist. Die übrigen Kriterienkataloge werden nacheinander dem zusammengeführten Katalog hinzugefügt.
Es ergibt sich eine Sammlung von 90 Kriterien, die in 17 Kategorien aufgeteilt sind. Tabelle 2 zeigt die
zusammengeführten Kriterien.
Tabelle2:ZusammenführungderanalysiertenKriterien
Nr
Kategorie
Kriterien
Form
Quelle
1
Bezeichnung
Name
PUMa, KompUEterchen4KMU, CUBES, UseTree, UCDtoolbox, Usability
Inside, Simply usable
Synonyme
PUMa, UseTree, UCDtoolbox
2
Abbildungen
Abbildungen
PUMa, KompUEterchen4KMU, UseTree, UCDtoolbox, Simply usable
3
Klassifizierung
Bereich
PQ4Agile
Aktivität
PQ4Agile
4
Beschreibung
Kurzbeschreibung
2 bis 4 Sätze
PUMa, PQ4Agile, KompUEterchen4KMU, CUBES, UseTree, Design4Xperience, UCDtoolbox, Usability Inside, Simply usable
Beschreibung
Fließtext
UCDtoolbox
Nutzen
Fließtext
CUBES, Usability Inside
Projektestand
Fließtext
Simply usable
Projektphase
Vorgabe*
KompUEterchen4KMU, CUBES
Phase (grob)
Vorgabe
UseTree
Phase (genauer beschrieben)
Vorgabe
UseTree
Ziele
Stichpunkte
PQ4Agile, KompUEterchen4KMU
Ergebnisse
Stichpunkte
PUMa, UCDtoolbox, Simply usable
Motivation/Problemstellung
2 bis 4 Sätze
PQ4Agile
Fragestellung, die mit der
Methode beantw. werden kann
UseTree
2 Fragen umgangsspr. form.
Voraussetzungen
Fließtext
Input
Stichpunkte
PQ4Agile
Output
Stichpunkte
PQ4Agile
Vorteile
Stichpunkte
PUMa, CUBES, UseTree, UCDtoolbox
Nachteile
Stichpunkte
PUMa, CUBES
Grenzen
Risiken
Usability Inside
UCDtoolbox
Fließtext
PQ4Agile
Gütekriterien/Empfehlungen
Fließtext
PQ4Agile
Praxis-Tipps
Stichpunkte*
PUMa, KompUEterchen4KMU, UseTree, UCDtoolbox, Usability Inside
Erstellung eines Kriterienkataloges
14
Nr.
Kategorie
Kriterien
5
Rahmenbedingungen &
Ressourcen
Benötigte Ressourcen
Simply usable
Rahmenbedingungen
Simply usable
(Wer?)
Form
Ausführender
PQ4Agile
Weitere Teilnehmer (neben
dem/den Ausführenden)
PQ4Agile, KompUEterchen4KMU
Teilnehmer
Vorgabe
UseTree
Anzahl der Teilnehmer
Vorgabe*
PUMa, CUBES, Design4Xperience, UCDtoolbox
(Gewünschte) Teilnehmer
Vorgabe
PUMa
Nutzer(gruppen) die beteiligt
werden sollen
Vorgabe
UCDtoolbox
Beteiligte Rollen
Vorgabe
KompUEterchen4KMU
Besondere Teilnehmergruppen
(Schwierigkeit)
(Womit?)
Rolle der Teilnehmer
Vorgabe
PUMa
Vorkenntnisse/Erfahrungen
Aufzählung
oder Fließtext
PQ4Agile, Design4Xperience
Art der Einbeziehung der
Teilnehmer (z.B. remote)
Vorgabe
UCDtoolbox
Schwierigkeitsgrad - Durchzuführen von…
Vorgabe
PUMa, CUBES
Schwierigkeit
Vorgabe/Skala
PQ4Agile, KompUEterchen4KMU
Werkzeuge, Hilfsmittel
Aufzählung
PUMa, PQ4Agile, KompUEterchen4KMU, UseTree, Design4Xperience,
Simply usable
KompUEterchen4KMU
(Wo?)
Ort/Umgebung
PQ4Agile
Ort
Vorgabe
PUMa, UCDtoolbox
(Kosten)
Kosten
Vorgabe/Skala
CUBES
Aufwand
Vorgabe/Skala* PQ4Agile, KompUEterchen4KMU, Design4Xperience
Aufwand (Zeit-) - Nutzer
Vorgabe/Skala
PUMa
Maximaler Zeithorizont
Vorgabe
PUMa, UCDtoolbox
Aufwand in Personenstunden/tage
Vorgabe/Skala* PUMa, KompUEterchen4KMU, UCDtoolbox
(Sonstiges)
7
PUMa
Literaturempfehlung
(Dauer)
6
Quelle
Vorgehensweise
Anwendungsdomäne &
Projekthintergrund
Voraussichtliche Dauer
PQ4Agile, UseTree
Zeitaufwand
Simply usable
Agilitätsfaktor
Vorgabe/Skala
PQ4Agile
Eignung mobil
Vorgabe/Skala
KompUEterchen4KMU
Vorbereitung
Fließtext
PUMa, PQ4Agile, UseTree, UCDtoolbox, Usability Inside, Simply usabile
Durchführung
Fließtext
PUMa, PQ4Agile, KompUEterchen4KMU, UseTree, Design4Xperience,
UCDtoolbox, Usability Inside, Simply usabile
Nachbereitung/Auswertung
Fließtext
PUMa, PQ4Agile, UseTree, UCDtoolbox, Usability Inside
Mein Produkt ist… (Software,
Hardware, Dienstleistung etc.) /
Methode ist anwendbar bei der
Erstellung folgender Produkte
Vorgabe
PUMa, UCDtoolbox
Es handelt sich um… (existierende oder neues Produkt)
Vorgabe
PUMa
Das Produkt soll auf den Markt
kommen in… (Geplante Markteinführung)
Vorgabe
PUMa
Erstellung eines Kriterienkataloges
15
Nr.
Kategorie
8
Zweck
(Mein Ziel ist…)
9
10
Kategorisierung
Bezug zum Entwicklungsprozess
Kriterien
Form
Quelle
Inspiration & Information
Vorgabe
PUMa
Fragen & Verstehen
Vorgabe
PUMa
Ausprobieren, Entwerfen &
Entwickeln
Vorgabe
PUMa
Bewerten, Auswerten & Validieren
Vorgabe
PUMa
Darstellen & Dokumentieren
Vorgabe
PUMa
mehr zu erfahren über…
Vorgabe
UCDtoolbox
die Schaffung von…
Vorgabe
UCDtoolbox
das Evaluieren von…
Vorgabe
UCDtoolbox
(weitere Ziele)
Vorgabe
UCDtoolbox
Art der Teilnehmer (benutzeroder expertenorientierte Methode)
Vorgabe
PUMa
Zeitpunkt in der Entwicklung
Vorgabe
PUMa
Datentyp der Ergebnisse (qualitativ, quantitativ)
Vorgabe
PUMa, UCDtoolbox
Bezug zum PUMaEntwicklungsprozess (Prozessphasen)
Vorgabe
PUMa
Bezug zu Prozessen/Modellen
PUMa
Mögliche Vorgänger
Aufzählung
PQ4Agile, KompUEterchen4KMU, UCDtoolbox
Mögliche Nachfolger
Aufzählung
PUMa, PQ4Agile, KompUEterchen4KMU, UCDtoolbox
Aufzählung
PQ4Agile
11
Einordnung in das
PQ4AgileQualitätsmodell
Beeinflusste Qualitätsmerkmale
und -teilmerkmale (Softwarequalität)
12
Praxistest
Praxistest
13
Schlagworte
Schlagworte
Aufzählung
PQ4Agile
14
Referenzen und weiterführende Informationen
Literatur / Quellen
Aufzählung
PUMa, PQ4Agile, KompUEterchen4KMU, CUBES, UseTree, Design4Xperience, UCDtoolbox, Simply usabile
Design4Xperience
weiterführende Literatur
Weblinks
UCDtoolbox
Aufzählung
YouTube Link
Zu beachtende Normen und
Zertifikate
15
Verwandte (und weiterführende) Methoden
PUMa, PQ4Agile, UseTree, Design4Xperience
CUBES, UseTree
Aufzählung
PUMa
Fragen & Problemstellungen
PUMa
Mögliche Alternativen, verwandte Praktiken
PUMa, PQ4Agile, UCDtoolbox
Diese Methode passt gut zu…
UCDtoolbox
16
Anwendungsbeispiele
Beispiele/Best Practice
PUMa, CUBES
17
Übungen
Vorlagen
UseTree
Übungsaufgaben
UseTree
Reflektionsfragen
UseTree
Im Folgenden werden die Wahl der Kategorie- und Kriterien-Bezeichnungen, die zusammengelegten
Kriterien, sowie Besonderheiten beim Format der Kriterien; die in Tabelle 2 mit einem Stern (*) markiert sind, erläutert.
Die Bezeichnungen der 1. und 3. Kategorie Bezeichnung und Klassifizierung wurden im Rahmen dieser
Arbeit gewählt. Die Namen der Kategorien 2 und 4 Abbildung und Beschreibung sind dem Kriterienkatalog von PUMa entnommen. Alternativen für die 4. Kategorie sind Kurzbeschreibung, nach CUBES
Erstellung eines Kriterienkataloges
16
sowie Zusammenfassung nach dem Katalog von KompUEterchen4KMU. Rahmenbedingung & Ressourcen, die Bezeichnung der 5. Kategorie ist ebenfalls nach PUMa benannt. Die Positionierung dieser Informationen, im Anschluss an die Kategorie Beschreibung, ist an die Kriteriensammlung von PQ4Agile
angelehnt. Kategorie 6 Vorgehensweise wurde entsprechend der Methodenbeschreibung von PQ4Agile
benannt. Die Kategorien 11, 12, 13 und 17 sind entsprechend der Projekte, denen sie entstammen benannt. Die Bezeichnung von Kategorie 14 wurde aus der Benennung Referenzen nach PUMa und der
Benennung Weiterführende Informationen nach PQ4Agile zusammengefügt zu Referenzen und weiterführende Informationen. Alle übrigen Kategoriebezeichnungen sind dem PUMa-Kriterienkatalog entnommen.
Die Kriterien Projektphase nach CUBES und KompUEterchen4KMU wurden zusammengelegt. Letzteres
Projekt gibt die Phasen Analyse, Konzeption & Entwicklung, Umsetzung und Betrieb vor, während CUBES keine Vorgaben macht.
Unter dem Kriterium Praxis-Tipps von PUMa wurden die Kriterien Das sollten Sie beachten von
KompUEterchen4KMU, Optimierung von UCDtoolbox und Herausforderung von Usability Inside zusammengefasst. Die Tipps sind allgemein in Stichpunkten angegeben, nur Usability Inside gibt die Informationen im Fließtest an.
Das Kriterium Anzahl der Teilnehmer orientiert sich mit der Benennung nach den Vorgaben des PUMaKataloges. Alternative Bezeichnungen sind Teilnehmer, nach CUBES und Design4Xperience und (verfügbare) maximale Teamgröße nach UCDtoolbox. Letztere Quelle macht als einzige der vier eine Vorgabe für dieses Kriterium (1, 2, 3, 4, 5 oder mehr).
Beim Kriterium Aufwand variieren die Vorgaben je nach Projekt. PQ4Agile verwendet eine dreistufige
Skale von hoch über mittel bis niedrig, KompUEterchen4KMU nutzt eine Skala von 1 bis 4 während
Disign4Xperience den Aufwand als Fließtext angibt.
Für Aufwand in Personenstunden/-tage sind ebenfalls unterschiedliche Vorgaben gemacht. Während
von PUMa eine Skala angedacht ist, diese aber nicht konkret vorgegeben wird, ist in der UCDtoolbox
eine Skala von 10 bis 200 Stunden angegeben. KompUEterchen4KMU macht keine Vorgabe bei diesem
Kriterium.
Die beiden Kriterien Möglicher Vorgänger und Möglicher Nachfolger wurden aus dem Kriterienkatalog
von PQ4Agile entnommen. Nach KompUEterchen4KMU sind diese Kriterien mit andere UEMethodenelemente und nach UCDtoolbox mit vorausgegangenen Aktivitäten und nachfolgenden Aktivitäten benannt. Im Katalog von PUMa ist ausschließlich letzteres Kriterium mit der Bezeichnung weiterführende & ergänzende Methoden vorhanden.
Bei der Analyse und der Zusammenführung der Kriterienkataloge hat sich gezeigt, dass sich die existierenden Sammlungen stark in ihrem Umfang unterscheiden. Während beispielsweise die Methoden im
Projekt Usability Inside nur durch acht Kriterien beschrieben werden, verwendet das PUMa-Projekt
einen Katalog aus 41 Kriterien. Es hat sich ebenfalls herausgestellt, dass viele Projekte ähnliche Kriterien verwenden. Häufig liegen die Unterschiede lediglich bei den verwendeten Bezeichnungen, den zugeordneten Kategorien, der Reihenfolge mit der die Kriterien im Katalog bzw. der Methodenbeschreibung auftauchen oder in der Form, in der die Informationen angegeben werden.
3.2 Erstellung eines vorläufigen Kriterienkataloges
Ziel dieses Unterkapitels ist es einen vorläufigen Kriterienkatalog auf Basis der zusammengeführten
Kriterien zu definieren, der im Rahmen einer Befragung evaluiert werden kann. Hierzu sind die KriteErstellung eines Kriterienkataloges
17
rien des zusammengeführten Kataloges zu vereinheitlichen und zusammenzufassen. Der Katalog wird
dadurch gekürzt, er sollte aber mindestens all jene Kriterien enthalten bleiben, die von mehr als einem
der in Kapitel 3.1.1 vorgestellten Projekte verwendet wurden. Durch die Zusammenfassung des Kataloges, soll die Anzahl der 90 Kriterien deutlich verringert werden. Die Verringerung der
Kriterienanzahl hat auch zum Ziel, die Dauer der Befragungen gering zu halten, um eine möglichst
hohe Akzeptanz bei den Teilnehmern zu erzielen. Ebenfalls werden sich das Verständnis und die Übersichtlichkeit der Kriterien durch eine Selektion verbessern. Einige wenige Kriterien mit ähnlichem Inhalt werden ohne Zusammenfassung im vorläufigen Kriterienkatalog verbleiben, um im Rahmen der
Befragung zu ermitteln, welche Form der Informationsdarstellung als besser angesehen wird.
3.2.1 Anpassungen am zusammengeführten Kriterienkatalog
Im Folgenden werden die durchgeführten Anpassungen am zusammengeführten Kriterienkatalog aus
Kapitel 3.1.2 dargestellt und diskutiert. Im Rahmen der Anpassungen wurden Kriterien in andere Kategorien verschoben, Kriterien zusammengefasst sowie ganze Kategorien und einzelne Kriterien aus
dem Katalog entfernt.
Kriterien verschieben
Folgende Kriterien werden in andere Kategorien verschoben:


Das Kriterium Abbildung wurde aus Gründen der besseren Übersichtlichkeit aus der Kategorie
Abbildung in die Kategorie Beschreibung verschoben.
Die Kriterien der Kategorie Kategorisierung von PUMa wurden auf andere Kategorien aufgeteilt.
Das Kriterium Art der Teilnehmer ist in der Kategorie Rahmenbedingungen & Ressourcen eingeordnet, der Zeitpunkt in der Entwicklung befindet sich unter der Kategorie Anwendungsdomäne
& Projekthintergrund. Die Art des Datentyps der Ergebnisse steckt implizit in Kriterien der Kategorie Zweck.
Kriterien zusammenfassen
Die folgenden Kriterien werden zu einem bestehenden oder neu definierten Kriteriums zusammengefasst:

1
Die Kriterien Projektphase von KompUEterchen4KMU und CUBES, Phasen (grob) und Phase
(genauer beschrieben, mit Bezug zum Stand des Systems) von UseTree, Projektestand von Simply
usable sowie Bezug zum Puma-Entwicklungsprozess von PUMa wurden zum Kriterium Die Methode ist anwendbar in der/den Projektphase(n) zusammengefasst1. Da sich alle Angaben der
Autoren auf die Projektphasen beziehen in denen eine Methode eingesetzt werden kann, gehen
durch diese Maßnahme keine Informationen verloren. Die Angaben der bestehenden Kriterienkataloge unterscheiden sich in den vorgegebenen Ausprägungen, sprich der Form, in der die
Im späteren Verlauf der Erstellung des Kriterienkatalogs wird das Kriterium in Projektphasen umbenannt (vgl. Kap 3.3.5).
Erstellung eines Kriterienkataloges
18






Kriterien angegeben sind. Hierbei gibt es unterschiedliche Vorgaben zum Format der Angaben.
Nach PUMa gibt es beispielsweise die Prozessphasen Projektorganisation & Prozessunterstützung, Konzeption, Analyse, Requirements Engineering, Design, Prototype, Implementierung, Umsetzung und Evaluierung, QM & User Feedback. KompUEterchen4KMU und UseTree geben hier
ihrerseits eigene abweichende Bezeichnungen für Projektphasen an. Aufgrund der nicht einheitlichen Vorgaben wird zunächst keine fest vorgegebene Kriteriumsausprägung für das Kriterium der Projektphasen festgelegt. Die Definition der Projektphasen erfolgt in Kapitel 3.4 im
Rahmen der Darstellung des finalen Kriterienkataloges. Neben der Zusammenfassung der Kriterien wird ebenfalls die Kategorie in der Projektphasen auftaucht vereinheitlicht. Während nach
KompUEterchen4KMU, CUBES und UseTree eine Einordnung des Kriteriums in der Kategorie
Beschreibung bzw. Wann vorgenommen wird, verwendet PUMa die Kategorie Bezug zum PumaEntwicklungsprozess. Das Kriterium der Projektphase wird aufgrund seiner Satz-Formulierung
zunächst der Kategorie Anwendungsdomäne & Projekthintergrund zugeordnet, da hier ebenfalls
diese Formulierungsart der Kriterien verwendet wird.
In Anlehnung an die Kategoriebezeichnung Verwandte und weiterführende Methoden nach PUMa
wird im Folgenden eben diese Bezeichnung verwendet, unter der sich die Kriterien Alternative
Methoden oder verwandte Praktiken, Möglicher Vorgänger und Möglicher Nachfolger einreihen,
hinter denen sich eine Aufzählung von Methoden verbirgt, die vor oder nach der Anwendung
der beschriebenen Methode eingesetzt werden können.
Das Kriterium Fragestellung, die mit der Methode beantwortet werden kann von UseTree wurde
in das Kriterium Ziel integriert, das von PQ4Agile sowie von KompUEterchen4KMU verwendet
wird. Die beiden Kriterien unterscheiden sich nur in der Art der Informationsdarstellung und
können daher zusammengefasst werden. Unter dem Punkt Ziel ist es so ebenfalls möglich, die
Informationen in Form von Fragen darzustellen.
Die Informationen des durch das Projekt Usability Inside eingebrachten Kriteriums Voraussetzungen werden durch das Kriterium Input sowie den Kriterien der Kategorie Rahmenbedingungen & Ressourcen abgedeckt. Das ursprüngliche Kriterium taucht damit nicht explizit im vorläufigen Kriterienkatalog auf.
Ergebnisse, das von PUMa und UCDtoolbox verwendet wird, wird mit Output von PQ4Agile zu
dem Kriterium Output/Ergebnisse zusammengelegt. Die neue Bezeichnung soll zum einen den
Bezug zum Kriterium Input von PQ4Agile herstellen und zum anderen eine gute Verständlichkeit aufweisen. Inhaltlich drücken beide Begriffe die Resultate aus, die die Anwendung einer
Methode hervorbringt.
Die Kriterien Grenzen von UCDtoolbox, im Original als Limitations bezeichnet, sowie Risiken
von PQ4Agile werden unter dem Kriterium Nachteile von CUBES und PUMa zusammengefasst
wobei die Bezeichnung Nachteile/Grenzen gewählt wird um eine höhere Verständlichkeit des
Kriteriums zu erreichen. Die drei zusammengeführten Kriterien sind sich inhaltlich sehr ähnlich
und unterscheiden sich im Wesentlichen dadurch, dass die Informationen bei Risiken in Form
von Fließtext und bei Grenzen und Nachteilen in Form von Stichpunkten gegeben sind.
In den bestehenden Kriterienkatalogen ist eine Vielzahl von Kriterien vorgesehen die Anwendungstipps beinhalten. Nach KompUEterchen4KMU ist dieses Kriterium mit Das sollten Sie beachten, nach PUMa mit Praxis-Tipps und nach UseTree mit Checkliste – Weiteres Wissenswertes/Darauf ist zu achten bezeichnet. Von UCDtoolbox werden solche Hinweise unter dem Kriterium Optimierung hinterlegt. Bei all diesen Katalogen werden die Informationen anhand von
Erstellung eines Kriterienkataloges
19







Stichpunkten aufgezeigt. PQ4Agile bezeichnen ihr Kriterium für Hinweise mit Gütekriterien/Empfehlungen und stellen die Informationen in einem Fließtext dar. Im Rahmen dieser Arbeit werden alle erwähnten Kriterien unter Anwendungs-Tipps zusammengefasst. Die Kriterien
zum Thema Anwendungs-Tipps werden von den Autoren unterschiedlichen Kategorien zugeordnet. PQ4Agile, UCDtoolbox und UseTree schaffen jeweils eine eigene Kategorie für Hinweise, die der Beschreibung der Vorgehensweise der Methoden nachgestellt ist. Nach
KompUEterchen4KMU werden Hinweise zur Anwendung zusammen mit Hilfsmitteln, Literaturempfehlungen und Quellen in einer Kategorie Unterstützung gruppiert. Der Kriterienkatalog nach
PUMa sieht eine Kategorisierung unter Beschreibung vor. In Anlehnung an PQ4Agile, UseTree
und UCDtoolbox wird im Folgenden das Kriterium Anwendungs-Tipps unter einer gleichnamigen Kategorie aufgeführt, die auf die Kategorie Vorgehensweise folgt.
Die beiden Kriterien Benötigte Ressourcen und Rahmenbedingungen nach Simply usable werden
in die Kriterien der Kategorie Rahmenbedingungen & Ressourcen integriert.
Nach den Kriterienkatalogen von CUBES, Design4Xperience, KompUEterchen4KMU, PQ4Agile,
PUMa und UCDtoolbox wird ein Kriterium angegeben, das die Anzahl der Teilnehmer angibt.
All diese Kriterien wurden im Kontext dieser Arbeit unter dem Kriterium Benötigte Teilnehmeranzahl zusammengefasst.
KompUEterchen4KMU, PUMa, und UseTree haben in ihren Kriterienkatalogen Kriterien, welche
die Art der Teilnehmer, die zur Durchführung der Methode benötigt werden bzw. erwünscht
sind, angegeben. Diese Kriterien, mit unterschiedlichen Bezeichnungen und Ausprägungen,
werden in der neu erstellten Kategorie Art der Teilnehmer zusammengefasst. Die Ausprägungen
aus den bestehenden Katalogen werden zusammengeführt, so dass die Vorgaben Firmeninterne,
Entwickler, Software Gestalter, Experten (z.B. Usability Experten), Endnutzer, Kunden,
Stakeholder und egal unterschieden werden. Die Ausprägung Testleiter wurde entfernt, da die
Informationen über die Ausführenden einer eigenen Kategorie zu entnehmen sind. Weitere
Ausprägungen können sich bei der Einordnung der Methoden in den fertigen Kriterienkatalog
ergeben.
Angaben zum Schwierigkeitsgrad werden nach CUBES, KompUEterchen4KMU, PQ4Agile und
PUMa anhand von vorgegebenen Skalen angegeben. Diese Kriterien werden unter dem Begriff
Schwierigkeitsgrad zusammengefasst. Eine Skala zur Bewertung der Schwierigkeit wird vorerst
nicht vorgegeben.
Nach PQ4Agile, PUMa und UCDtoolbox wird der Ort der Anwendung angegeben. In Anlehnung
an die Kriterienbezeichnung von PQ4Agile wird hierzu ein Kriterium namens Ort/Umgebung
gewählt. Die Vorgaben von PUMa und UCDtoolbox werden zu den Ausprägungen natürliche
Nutzungsumgebung, simulierte Nutzungsumgebung, Usability Labor, Tagungsraum und Schreibtisch zusammengefasst.
Das Kriterium Zeitaufwand von Simply usabile wird in das Kriterium Voraussichtliche Dauer von
PQ4Agile und Usetree integriert.
Die Kriterien zum Thema Zweck von PUMa und UCDtoolbox wurden unter einer gleichnamigen
Kategorie zusammengeführt. Die Kriterien dieser Kategorie wurden in Anlehnung an die Filterfunktion der UCDtoolbox in eine Satzstruktur überführt, so dass der Zweck einer Methode
leichter verständlich ist. So geht beispielsweise direkt aus der Satzstruktur der Kriterien hervor,
das eine Methode anwendbar ist, wenn es das Ziel ist, die Interaktion zwischen Benutzern und
dem Produkt zu untersuchen.
Erstellung eines Kriterienkataloges
20

Die Kriterien der Kategorie Referenzen und weiterführende Informationen wurden zusammengefasst zu den Kriterien Verweis auf weiterführende Literatur, Zu beachtende Normen und Zertifikate und Quellen. Die Kriterien Weblinks und YouTube Link gliedern sich auf die drei bestehenden
Kriterien auf.
Kategorien entfernen
Im Folgenden werden jene Kategorien aufgeführt, die aus dem Katalog entfernt werden:




Die Kategorie Klassifizierung (von PQ4Agile) mit den Kriterien Bereich und Aktivität wurde aus
dem Kriterienkatalog entfernt, da keine festen Vorgaben für die Ausprägungen dieser Kriterien
gegeben sind. Es wird sich daher vermutlich um Angaben handeln, die nur innerhalb des Projektes von PQ4Agile von Bedeutung sind. In den übrigen bestehenden Kriterienkatalogen tauchen keine ähnlichen Kriterien auf.
Eine Einordnung in das PQ4Agile-Qualitätsmodell ist im Kontext dieser Masterthesis nicht anwendbar. Entsprechend wurde das Kriterium Beeinflusste Qualitätsmerkmale und –teilmerkmale
(Softwarequalität) sowie die genannte Kategorie, die nach PQ4Agile in den zusammengeführten
Kriterienkatalog übernommen wurde, aus dem vorläufigen Kriterienkatalog entfernt.
Nach Design4Xperience sind die Kategorie und das Kriterium Praxistest im Kriterienkatalog vorhanden. Da im Rahmen dieser Arbeit Informationen zur Praxiserprobungen nicht relevant sind,
wird dieses Kriterium nicht in den vorläufigen Katalog aufgenommen. Da alle Methodenbeschreibungen literarischen Quellen entnommen werden, wird eine Praxiserprobung vorausgesetzt.
Die Kategorie Übungen von UseTree wurde nicht in den vorläufigen Kriterienkatalog übernommen, da es sich hierbei um projektinterne Kriterien handelt, die im Kontext der vorliegenden
Arbeit keine Relevanz besitzen.
Kriterien entfernen
Folgende Kriterien werden aus dem Katalog entfernt:



Das Kriterium Beschreibung wird von UCDtoolbox verwendet und stellt eine ausführliche Darstellung der Methode im Fließtext da. Unter diesem Kriterium sind zusätzliche allgemeine Informationen der Methode enthalten, die über die Informationen der Kurzbeschreibung hinausgehen. Das Kriterium wurde nicht in den Kriterienkatalog für die Befragung aufgenommen, da
die hier, im Vergleich zur Kurzbeschreibung zusätzlich enthaltenen Informationen, sich in anderen Kriterien, wie beispielsweise im Kriterium Vorteile wiederfinden.
Das Kriterium Nutzen, das von CUBES verwendet wird kombiniert die Kriterien Kurzbeschreibung, Ziele und Vorteile. Da diese Kriterien in separater Form im Kriterienkatalog bestehen bleiben, ist das Kriterium Nutzen nicht von Bedeutung.
In den Katalogen von Design4Xperience, KomUEterchen4KMU und PQ4Agile wird ein Kriterium namens Aufwand angegeben. Da es jedoch nicht eindeutig definiert ist und nur anhand von
Skalen bzw. eines Fließtextes Kosten und Zeitaufwand zusammenfasst, wurde es in den zusammengeführten Kriterienkatalog nicht aufgenommen. Stattdessen wurde eine Unterkategorie
Aufwand definiert, unter der Kriterien zu den Kosten sowie dem Zeitaufwand aufgeführt sind.
Erstellung eines Kriterienkataloges
21



Das Kriterium Aufwand - Nutzer von PUMa wird im vorläufigen Kriterienkatalog weggelassen,
da sich Methoden im Rahmen der vorliegenden Arbeit nur schwer in die vorgegebene Skala
einordnen lassen. Es wäre eine Anwendung der Methoden notwendig um den Aufwand zu ermitteln. Zum Ausgleich der gestrichenen Kriterien werden die drei Kriterien Voraussichtliche
Dauer, Maximaler Zeithorizont sowie Aufwand in Personenstunden/-tagen in den vorläufigen Katalog aufgenommen. Abhängig von den Ergebnissen der Befragung können diese drei Kriterien
zum Zeitaufwand weiter zusammengefasst werden.
Das Kriterium Agilitätsfaktor, welches im Rahmen des PQ4Agile-Projektes verwendet wird, wird
nicht in den Kriterienkatalog aufgenommen, da dieses Kriterium im Rahmen dieser Arbeit nur
schwer anwendbar und einschätzbar ist.
Das von KompUEterchen4KMU verwendete Kriterium Eignung mobil wird aus dem vorläufigen
Katalog entfernt, da diese Information bereits im Kriterium Ort/Umgebung enthalten ist.
3.2.2 Vorläufiger Kriterienkatalog
Die dargestellten und diskutierten Veränderungen der zusammengeführten Kriterien führen auf den in
Tabelle 3 dargestellten vorläufigen Kriterienkatalog. Der Katalog enthält 45 Kriterien, die in elf Kategorien aufgeteilt sind. In dieser Form wird der Kriterienkatalog im nächsten Kapitel im Rahmen einer
Befragung evaluiert. Ziel ist es, die relevanten Kriterien zu identifizieren. Der Kriterienkatalog wird im
Anschluss an die Befragung entsprechend angepasst werden.
Erstellung eines Kriterienkataloges
22
Tabelle3:VorläufigerKriterienkatalog,derimRahmenderBefragungevaluiertwird
Nr.
Kategorie
1
Bezeichnung
Unterkategorie Kriterium
-
Ausprägungen/Hinweise
Name
Synonyme
2
Beschreibung
-
Kurzbeschreibung
2 bis 4 Sätze
Abbildungen
3
Rahmenbedingungen Wer?
& Ressourcen
Ziele
Stichpunkte
Motivation/Problemstellung
2 bis 4 Sätze
Input
Stichpunkte
Output/Ergebnisse
Stichpunkte
Vorteile
Stichpunkte
Nachteile/Grenzen
Stichpunkte
Benötigte Teilnehmeranzahl









Art der Teilnehmer
Nutzergruppen,
sollen
die
beteiligt
werden 





Firmeninterne
Entwickler
Software Gestalter
Experten (z.B. Usability Experten)
Endnutzer
Kunde
Stakeholder
egal
…
Kinder
Senioren
Personen mit körperlicher Beeinträchtigung
Sehbehinderte
Hörgeschädigte
…
Rolle der Teilnehmer




partizipatorisch/ am Entwurfsprozess beteiligt
Diskussion
wird beobachtet
Selbstbeobachtung
Art der Einbeziehung der Teilnehmer

physikalische Einbeziehung der Teilnehmer (z.B. in
einem Usability Labor)
Remote (z.B. per Telefon od. Internet)

Rolle des/der Ausführenden
(z.B. Interviewer)
Nützliche oder erforderliche Vorkenntnis- Aufzählung oder Stichpunkte
se oder Erfahrungen
Schwierigkeitsgrad
Skala (z.B. Profi bis Laie oder hoch bis gering)
Womit?
Werkzeuge, Hilfsmittel
Aufzählung
Wo?
Ort/Umgebung





Aufwand
Kosten
natürliche Nutzungsumgebung
simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Voraussichtliche Dauer
(z.B. ca. 60 Minuten pro Interview, zusätzliche Zeit für
Vorbereitung und Auswertung)
Maximaler Zeithorizont






1 Tag oder kürzer
1 Woche
1 Monat
3 Monate
6 Monate
1 Jahr oder länger
Zeitaufwand in Personenstunden/-tagen
Erstellung eines Kriterienkataloges
23
Nr.
Kategorie
4
Vorgehensweise
5
Anwendungs-Tipps
6
Anwendungsdomäne
& Projekthintergrund
Unterkategorie Kriterium
-
-
Ausprägungen/Hinweise
Vorbereitung
Fließtext
Durchführung
Fließtext
Nachbereitung/Auswertung
Fließtext
Anwendungs-Tipps
Stichworte
Die Methode ist bei der Erstellung folgender Produkte
anwendbar…






Physikalisches Produkt
Software bzw. grafisches Interface
Integriertes Produkt, bestehend aus Hard- und Software
Dienstleistung
Umgebung/Ort
Kombination aus vorgenannten
wenn es sich um ein Produkt handelt, 
das…


bereits existiert (Redesign)
neu ist und vergleichbar bereits existieren
neu ist und so noch nicht auf dem Markt ist
wenn die Markteinführung des Produkts 
geplant ist in…



1-3 Monaten
4-12 Monaten
13-24 Monaten
<24 Monaten
zu folgendem Zeitpunkt in der Entwick- 
lung



in der frühen Phase
gegen Ende
entwicklungsbegleitend
nach einem Launch im laufenden Betrieb
in der/den Projektphase(n)
7
8
9
Zweck
Verwandte und
weiterführende
Methoden





Benutzer (Wer ist der Benutzer?)
Interaktion zwischen Benutzer und Produkt
Strukturen und Prozesse
Benutzererfahrung
Kontext (Zusammenhang, in dem das Produkt erstellt
wird)
folgendes zu erstellen


Ideen & Konzepte
Prototypen & Demonstratoren
folgendes zu bewerten


Ideen & Konzepte
Prototypen & Demonstratoren
Daten…




zu ordnen und zu organisieren
zu kommunizieren
zu dokumentieren
zu verbreiten
Alternative Methoden oder verwandte
Praktiken
Aufzählung
Mögliche Vorgänger
Aufzählung
Mögliche Nachfolger
Aufzählung
Die Methode ist mehr zu erfahren über…
anwendbar,
wenn es mein
Ziel ist…
-
Anwendungsbeispiele
-
Beispiele/Best Practice
10
Schlagworte
-
Schlagworte
11
Referenzen und
weiterführende
Informationen
-
Verweis auf weiterführende Literatur
Aufzählung
Zu beachtende Normen und Zertifikate
Quellen
Erstellung eines Kriterienkataloges
24
3.3 Evaluation des vorläufigen Kriterienkataloges
Um einen Usability-Methodenkatalog zu entwickeln, der den Anforderungen der Nutzer genügt, sollen
die Nutzer selbst in die Entwicklung mit einbezogen werden. Im vorliegenden Fall soll der vorläufige
Kriterienkatalog im Rahmen einer Befragung, von potentiellen Anwendern der Kompetenzplattform
evaluiert werden. Es soll ermittelt werden, welche der Kriterien sie im Kontext der Methodenbeschreibung als wichtig und welche als unwichtig ansehen. Auf Grundlage der Ergebnisse der Befragung wird
der vorläufige Kriterienkatalog angepasst und für die Beschreibung von Usability-Methoden finalisiert.
Auf diese Weise soll ein Methodenkatalog entstehen, der an die Bedürfnisse der Benutzer angepasst ist.
3.3.1 Auswahl des Befragungsverfahrens
Zunächst ist eine Auswahl des Befragungsverfahrens erforderlich. Befragungen können, abhängig von
der Form der Durchführung, als schriftliche Befragung, mündliche Befragung, Telefoninterview und als
internetgestützte Befragung ausgeführt werden. (Schnell, Hill, & Esser, 2011). Im Folgenden werden die
Befragungsarten kurz vorgestellt und miteinander verglichen. Im Anschluss werden die Anforderungen
an die, im Rahmen dieser Arbeit durchgeführten Befragung erläutert. Davon ausgehend wird ein Befragungsverfahren ausgewählt.
Mögliche Befragungsverfahren
Schriftliche Befragungen, die sowohl postalisch als auch durch anwesende Personen durchgeführt
werden können, verwenden einen standardisierten Fragebogen, der von den Befragungsteilnehmern
ausgefüllt wird (Mayer, 2012).
Eine schriftliche Befragung ist in der Regel kostengünstiger als eine mündliche Befragung, da sie meist
in kürzerer Zeit und mit weniger Personalaufwand durchgeführt werden kann. Hinzu kommt, dass
eine größere Zahl von Befragten erreicht werden kann (Atteslander, 1991). Weitere Vorteile dieser
Befragungsart im Vergleich zum Interview sind, dass Antworten ehrlicher und überlegter gegeben
werden, da kein direkter, persönlicher Kontakt zum Fragenden besteht und mehr Zeit zum Antworten
vorhanden ist (Schnell et al., 2011).
Nachteilig ist, dass die Befragungssituation nicht kontrolliert werden kann, da im Allgemeinen kein
Interviewer anwesend ist. So können Fragen unvollständig beantwortet oder übersehen werden. Eine
Beeinflussung der Zielperson oder gar ein Ausfüllen durch eine dritte Person kann nicht ausgeschlossen werden (Atteslander, 1991). Ein weiterer wesentlicher Nachteil vor allem von postalischen Befragungen ist die geringe Rücklaufquote (Mayer, 2012). Diese kann lediglich bei 15 Prozent der verendeten Fragebögen liegen (Berekoven, Eckert, & Ellenrieder, 2001).
Die mündliche Befragung zeichnet sich dadurch aus, dass ein Interviewer physisch mit dem Befragten
in Verbindung tritt und Fragen stellt. Dadurch ist er in der Lage, eine Regel- und Kontrollfunktion zu
übernehmen (Atteslander, 1991). So ist es unter anderem möglich auch schwierigere Themenstellungen in die Befragung einzubeziehen (Stiller, 2015). Nachteilig ist, dass der Interviewer direkten Einfluss auf den Gesprächsverlauf nimmt und damit einen Verzerrungsfaktor darstellt (Mayer, 2012). Um
die Verzerrungen so gering wie möglich zu halten ist es erforderlich, dass der Interviewer in jeder Phase des Gesprächs genau weiß, was er zu sagen und zu tun hat (K. Holm, 1986). Durch Schulungen der
Erstellung eines Kriterienkataloges
25
Interviewer kann diese Qualifikation erreicht werden. Weitere Nachteile einer mündlichen Befragung
sind der Zeitaufwand und die hohen Kosten (Mayer, 2012).
Ein Telefoninterview ist eine spezielle Form der mündlichen Befragung. Das Erscheinen und Auftreten
des Interviewers spielen keine Rolle (Mayer, 2012). Es ist ein geringerer Zeitaufwand als beim klassischen Interview notwendig, da kein physischer Kontakt zum Befragten bestehen muss. Der finanzielle
Aufwand wird hierdurch ebenfalls reduziert. Nachteilig ist, dass kein Demonstrationsmaterial vorgelegt
werden kann. Daher müssen umfangreiche Fragenkomplexe stärker aufgegliedert und offene Fragen
sowie Antwortmöglichkeiten reduziert werden (Berekoven et al., 2001).
Online-Befragungen sind eine internetbasierte Variante der schriftlichen Befragungsmethode. Aus dem
Browser heraus können die Befragten Online-Fragebögen ausfüllen, die auf einem Web-Server hinterlegt sind. Die Ergebnisse können vom Interviewer heruntergeladen und ausgewertet werden.
Diese Befragungsmethode stellt eine kostengünstige Möglichkeit der Befragung dar. OnlineBefragungen lassen sich wesentlich schneller realisieren als mündliche oder schriftliche Befragungen
und sind deutlich günstiger. Die Befragten können entscheiden, wann sie den Fragebogen beantworten. Die erhobenen Daten sind sofort auf dem Server verfügbar. (Mayer, 2012)
Ein Nachteil der Online-Befragung stellt die Tatsache dar, dass die Abbruchquote im Vergleich zu anderen Befragungsmethoden höher ist (Welker, 2005).
Wahl des Befragungsverfahrens
Vor der Wahl eines Befragungsverfahrens werden zunächst die Anforderungen gesammelt, die an die
Befragung bestehen. Hierzu werden sowohl der bestehende Zeitplan zur Erstellung dieser Master Thesis betrachtet, wie auch die Eigenheiten der sich ergebenden Befragungssituation. Im Rahmen dessen
wird ein Brainstorming, kombiniert mit der Erstellung einer Mindmap, durchgeführt um die Anforderungen zu sammeln und zu strukturieren. Im Anschluss an die Auflistung der Anforderungen werden
diese erläutert und im Zusammenhang mit den zur Wahl stehenden Befragungsverfahren Interview,
Telefoninterview, Fragebogen und Online-Befragung bewertet.
Die relevanten Anforderungen für die Wahl des Befragungsverfahrens sind:2





2
Die Befragung soll „aus der Ferne“ möglich sein.
Die befragten Personen sollen ausreichend Zeit haben um überlegt auf Fragen antworten zu
können.
Den befragten Personen soll ein visueller Überblick über die Kategorien, Kriterien und Ausprägungen ermöglicht werden.
Der Zeitaufwand für die gesamte Durchführung aller Befragungen soll möglichst gering sein,
maximal 60 Arbeitsstunden betragen und innerhalb eines Zeitraums von maximal 30 Tagen beendet werden können.
Die Kosten für die Durchführung der Befragung sollten möglich gering sein; Optimal wäre eine
kostenlose Durchführung
Die vollständige Anforderungsliste zur Befragung ist in Anhang A hinterlegt.
Erstellung eines Kriterienkataloges
26
Die erste Anforderung besagt, dass die Befragung ohne direkten physischen Kontakt zu den Befragten
durchführbar sein soll. Dieser Punkt ist essentiell, da sich die potentiellen Nutzer der Kompetenzplattform und damit die Teilnehmer der Befragung über ganz Deutschland verteilt befinden. Aufgrund dieser Tatsache ist das Interview als Befragungsmethode für den vorliegenden Fall ungeeignet.
Die Anforderungen zwei und drei sind notwendig, um das Verständnis des Kriterienkatalogs zu erleichtern. Um die abstrakten Fragen zu den Kriterien anschaulicher zu gestalten soll den befragten Personen neben ausreichender Zeit bei der Beantwortung der Fragen, auch der Kriterienkatalog selbst zur
Verfügung gestellt werden. Letztere Anforderung macht die Befragungsmethode des Telefoninterviews
ungeeignet, da hier nur mit Umständen das Vorlegen des Kriterienkatalogs möglich wäre z.B. durch
das vorherige Senden per E-Mail.
Die Anforderung zum Zeitaufwand ergibt sich aus der Zeitplanung, die im Rahmen der Master Thesis
durchgeführt wird. Es ist daher möglichst ein Befragungsverfahren zu wählen, dass eine Befragung der
Teilnehmer in kurzer Zeit ermöglicht. Die beiden verbleibenden Methoden Fragebogen und OnlineBefragung erfüllen beide diese Anforderungen. Sowohl die Versendung per Post als auch die Versendung per E-Mail benötigen wenig Zeit. Letztere Möglichkeit ist aufgrund der nahezu sofortigen Zustellung der Nachrichten leicht im Vorteil. Die Online-Befragung bietet ebenfalls den Vorteil, dass die Datenaufnahme und -auswertung weniger Zeit in Anspruch nimmt.
Die letzte aufgeführte Anforderung betrifft die Kosten, die eine Befragung mit sich bringt. Im Falle des
Fragebogens wären dies z.B. die Kosten für das Porto sowie für den Ausdruck der Fragebogen. Für die
Online-Befragung können Kosten durch die Nutzung einer Befragungssoftware entstehen. Im Vergleich
der beiden Kostenpunkte ist mit höheren Portokosten im Vergleich zu den Lizenzkosten für die Benutzung einer Software zu rechnen, weshalb die Online-Befragung auch in diesem Punkt der Verwendung
von Fragebogen vorzuziehen ist.
Da die Nutzung von Fragebogen im vorliegenden Fall keine relevanten Vorteile mit sich bringen würde, fällt die Entscheidung auf die Verwendung der Online-Befragung. Sie bietet den Vorteil, dass die
Befragungsteilnehmer unabhängig von ihrem Standort gut erreichbar sind, den Fragebogen zu einem
ihnen angenehmen Zeitpunkt beantworten können und keinen Zeitdruck bei der Beantwortung der
Fragen haben. Außerdem lassen sich Teile des Kriterienkatalogs den Befragten visuell vorgelegt. So
kann ein besserer Überblick über die Kriterien und Ausprägungen einer Kategorie ermöglicht werden.
Zusätzlich kann hierdurch das Verständnis der Kriterien erleichtert werden. Sowohl bei der Datenaufnahme als auch bei der Auswertung der Daten ist im Vergleich zum klassischen Fragebogen mit einer
Zeitersparnis zu rechnen. Hinzu kommt der Zeitvorteil durch das schnellere Versenden der Befragungseinladungen. Der erwartete Kostenaufwand ist bei der Verwendung einer Online-Befragung
ebenfalls gering.
3.3.2 Erstellung eines Fragebogens
In diesem Unterkapitel wird die Erstellung des Online-Fragebogens erläutert. Zunächst werden hierzu
allgemeine Grundlagen zur Fragebogenerstellung aufgeführt, die im Rahmen dieser Master Thesis relevant sind. Die Wahl der Befragungssoftware wird diskutiert, bevor im Anschluss der Entwicklungsvorgang des Evaluationsfragebogens dargestellt ist.
Erstellung eines Kriterienkataloges
27
Grundlagen zum Fragebogenaufbau
Im Folgenden werden die theoretischen Grundlagen zum Aufbau von Fragebogen dargelegt. Aufgrund
der großen Menge an verschiedenen Regeln und Richtlinien, beschränken sich die Ausführungen auf
die wichtigsten Grundlagen, die im Zusammenhang mit dem, im Rahmen dieser Arbeit erstellten Fragebogen von Bedeutung sind.
Da der Interviewer bei Online-Befragungen nicht anwesend ist, sollte ein kurzes Begleitschreiben mit
dem Zugang zur Befragung versendet werden. Hierin sollte über das allgemeine Ziel der gesamten
Untersuchung, die dahinterstehende Institution sowie die Versicherung der Wichtigkeit des Befragten
für den Erfolg der Studie informiert werden (Schnell et al., 2011). Zusätzlich sollte auf die Anonymität
und den Datenschutz hingewiesen werden. Optional kann den Befragten angeboten werden, ihnen auf
Wunsch einen Kurzbericht zuzusenden (Diekmann, 2004).
Zu Beginn eines Fragebogens steht die Instruktion. Der Teilnehmer wird hier über das Thema der Befragung informiert und zur Mitarbeit animiert. Die Instruktion schließt mit einem Verweis auf die Person oder das Institut, welches den Fragebogen zur Verfügung stellt oder organisiert ab. (Moosbrugger,
2012)
Im Zusammenhang mit dem hier zu erstellenden Fragebogen werden zwei Antwortformate für gestellte Fragen unterschieden: geschlossene und offene Fragen. Bei geschlossenen Fragen gibt es festgelegte
Antwortalternativen zwischen denen sich der Befragungsteilnehmer entscheiden muss. Bei offenen
Fragen sind keine Antworten vorgegeben. (Mayer, 2012)
Der Fragebogen sollte mit einem Dank für die Mitarbeit abgeschlossen werden (Mayer, 2012).
Wahl der Befragungssoftware
Es gibt eine Vielzahl von webbasierter Fragebogensoftware, die zur Durchführung einer Onlinebefragung verwendet werden kann. Um eine Auswahl treffen zu können, wurde zunächst eine Anforderungsliste erstellt (siehe Anhang A).
Aufgrund der Anforderung, dass die Software im Rahmen der Arbeit kostenlos verwendet werden
kann, wurden zwei Softwarelösungen näher betrachtet: QuestionPro und SoSci Survey.
QuestionPro wurde 2002 von dem US-amerikanischen Unternehmen Survey Analytics entwickelt und
im Jahre 2012 von der QuestionPro Inc übernommen ("[About QuestionPro]," 2015). QuestionPro ist in
mehreren Versionen erhältlich, die sich im Funktionsumfang und im Preis unterscheiden. Diese reichen
von der einfachen, kostenfrei Free-Version, die nur eine rudimentäre Funktionalität bietet, bis zur Corporate-Version mit vollem Funktionsumfang. Das Unternehmen gewährt Studenten im Rahmen des
„Student Research Sponsorship“ eine kostenlose Nutzungslizenz der Corporate-Version.
QuestionPro zeichnet sich durch eine selbsterklärende Bedienung und die Möglichkeit aus, Umfragen
in kurzer Zeit zu erstellen. Das Layout der Fragebogen ist ansprechend und die Auswertung der Daten
wird durch eine Echtzeitübersicht und zahlreichen Analysefunktionen unterstützt. Nachteilig ist, dass
die Teilnehmer der Befragung während der Beantwortung des Fragebogens nicht beliebig zwischen
den Fragen vor und zurücknavigiert können. Mit der Zurück-Funktion kann lediglich die vorherige
Seite erneut aufgerufen werden. Hinzu kommt die Einschränkung, dass sich keine Bilder unabhängig
von Fragen in den Fragebogen integrieren lassen.
Das Softwarepaket SoSci Survey wurde 2003 am Institut für Kommunikationswissenschaft der Uni
München entwickelt. Das Programm wird seitdem stetig weiterentwickelt. Die kommerzielle Nutzung
Erstellung eines Kriterienkataloges
28
der Software ist kostenpflichtig. Die Verwendung für Abschluss- und Doktorarbeiten ist kostenfrei.
(https://www.soscisurvey.de/)
SoSci Survey ist ein sehr umfangreiches Fragebogenprogramm. Durch die Möglichkeit der HTML und
PHP Programmierung lassen sich Fragebogen in großem Maße individualisieren. Dies hat aber zur
Konsequenz, dass das Softwarepaket weniger benutzerfreundlich ist als die Lösungen der Mitbewerber.
Es steht eine ausführliche Online-Anleitung zu Verfügung, die einen relativ schnellen Einstieg in die
Benutzung der Software ermöglicht.
Zur Erstellung der Online-Befragung wird im Rahmen dieser Arbeit auf das Softwaretool SoSci Survey
zurückgegriffen. Es setzt zwar eine längere Einarbeitungszeit voraus, hat dafür aber weniger Einschränkungen in der Funktionalität wie beispielsweise QuestionPro. Das beliebige vor- und zurückbewegen innerhalb der Fragebogen, sowie das freie Einfügen von Bild-Dateien in die Fragebogen sind
möglich.
Fragebogen für die Evaluation
Zur Entwicklung des Online-Fragebogens wurde zunächst ein erster Entwurf der Fragen und ihrer Anordnung erstellt. Hierbei wurde sich am vorläufigen Kriterienkatalog orientiert und die Wichtigkeit der
einzelnen Kriterien abgefragt. Bei der Formulierung der Fragen wurde auf eine gute Verständlichkeit
sowie auf die Eindeutigkeit der Formulierung geachtet (siehe Anforderungsliste, Anhang A). Nach der
Fertigstellung des Fragebogenentwurfs wurde ein Pretest durchgeführt. Im Rahmen von Pretests wird
die Verständlichkeit und Vollständigkeit der Fragen überprüft sowie die Eindeutigkeit und Vollständigkeit der Antwortvorgaben betrachtet (Mayer, 2012). Dieser Test wurde von zwei Mitarbeitern des Instituts für Arbeitswissenschaft der TU Darmstadt durchgeführt, die Erfahrung in der Erstellung von
Fragebogen besitzen. Auf Grundlage der Anregungen aus dem Pretest wurden die Formulierung sowie
die Reihenfolge einiger Fragen optimiert.
Im Folgenden werden Aufbau und Inhalt des fertigen Fragebogens erläutert. Der gesamte Fragebogen
ist in Anhang B zu sehen.
Die Befragung beginnt auf der Instruktionsseite des Fragebogens. Hier werden die Teilnehmer der Umfrage begrüßt und über die Hintergründe der Studie informiert. Über eine Schaltfläche Weiter gelangen
sie zur ersten Seite des Fragebogens.
Die Probanden werden hier zunächst auf die Anordnung der Fragen und den Aufbau der Seiten des
Fragebogens hingewiesen. Jede Seite des Fragebogens ist in drei Abschnitte untergliedert. Wie in Abbildung 1 zu sehen ist, zeigt der erste Abschnitt einen Ausschnitt des Kriterienkatalogs, um den Befragten einen Überblick über den Inhalt der Fragen zu geben. Im zweiten Abschnitt wird mittels einer Matrix-Frage die Wichtigkeit der Kriterien abgefragt. Hierbei wird eine Rating-Skala verwendet, die es dem
Befragten ermöglicht über eine fünfstufige verbale bipolare Skala (wichtig, eher wichtig, neutral, eher
unwichtig, unwichtig) die Kriterien zu bewerten. Zusätzlich gibt es die „Weiß-nicht“ Kategorie, die
verhindern soll, dass Teilnehmer die neutrale Mittelkategorie als Ausweichoption missbrauchen
(Moosbrugger, 2012). Der dritte Abschnitt beinhaltet zwei offene Fragen. Die erste gibt dem Befragungsteilnehmer die Möglichkeit weitere Kriterien anzugeben, die er im Zusammenhang der dargestellten Kategorien als wichtig erachtet, die aber nicht im Kriterienkatalog enthalten sind. Mittels der
zweiten offenen Frage können weitere Anmerkungen zur aktuellen Fragebogenseite gemacht werden,
z.B. wenn die Benennung der Kriterien nicht eindeutig oder missverständlich ist oder Anregungen zu
den Ausprägungen der Kriterien gegeben werden wollen. Die letzte Seite des Fragebogens zeigt dem
Erstellung eines Kriterienkataloges
29
Teilnehmer noch einmal den gesamten Kriterienkatalog und gibt noch einmal die Möglichkeit über
zwei offenen Fragen, zusätzliche Kriterien hinzuzufügen und Anmerkungen zu machen. Die Befragung
schließt mit der Danke-Seite.
Erstellung eines Kriterienkataloges
30
Abbildung1:AufbaueinerFragebogen‐Seite
Erstellung eines Kriterienkataloges
31
3.3.3 Durchführung der Befragung
Um die Wichtigkeit der Kriterien des Kataloges zu bewerten wird eine Online-Befragung unter potentiellen Nutzern der Kompetenzplattform des PUMa-Projektes durchgeführt. Da hierbei die Grundgesamtheit nicht vollständig befragt werden kann, wird eine Stichprobe durchgeführt.
Unter der Grundgesamtheit versteht man die Gesamtmenge von Individuen, auf die sich die Aussagen
der Untersuchung beziehen sollen. Im Allgemeinen sollte die Stichprobe repräsentativ sein, d.h. die
Verteilung aller interessierenden Merkmale der Stichprobe muss der Grundgesamtheit entsprechen.
Die Stichproben können hierbei entweder zufallsgesteuert oder durch eine bewusste Auswahl gebildet
werden. Ist die Repräsentativität nicht gegeben, sind keine Rückschlüsse auf die Grundgesamtheit
möglich. (Mayer, 2012)
Die Durchführung einer repräsentativen Studie würde den Umfang der vorliegenden Arbeit überschreiten. Aus diesem Grund wird eine Sonderform des nicht zufallsgesteuerten StichprobenAuswahlverfahrens verwendet, eine „Auswahl aufs Geratewohl“. Diese willkürliche Auswahl wird z.B.
gewählt, wenn im Rahmen einer Vorstudie Kategorien gesammelt werden sollen (Berekoven et al.,
2001). Bei diesem Verfahren sind keine Rückschlüsse der Stichprobe auf die Gesamtheit möglich. Im
Rahmen dieser Master Thesis ist die Aussagekraft dieser Stichproben jedoch ausreichend.
Die Zielgruppe der potentiellen Nutzer der Kompetenzplattform lässt sich in zwei Untergruppen aufteilen, die Usability-Experten und die Softwareentwickler. Aus beiden Gruppen sollen Personen zu der
Relevanz der Kriterien im Zusammenhang mit der Beschreibung von Usability-Methoden befragt werden. Insgesamt sollen laut Aufgabenstellung mindestens 12 Personen befragt werden.
Aus den Forschungsprojekten, die ihre Kriterienkataloge zur Analyse und zur Zusammenführung bereitgestellt haben (siehe Kapitel 3.1.1), konnten einige Usability-Experten als Teilnehmer der Befragung gewonnen werden. Insgesamt wurden neun Personen dieser Gruppe der „internen UsabilityExperten“ angeschrieben und zur Befragung eingeladen. Die Begleitschreiben (Einladungsemails) sind
in AnhangC angefügt.
Weitere Usability-Experten wurden über das webbasierte soziale Netzwerk XING ausfindig gemacht.
Die Kontaktdaten der Personen wurden mittels der Suchmaschine Google recherchiert. Insgesamt wurden aus diesen Quellen 15 „externe Usability-Experten“ zur Befragung eingeladen.
Aus der Gruppe der Softwareentwickler wurden sowohl deutsche, softwareentwickelnde KMU3 angeschrieben als auch Einzelpersonen.
Zunächst wurden E-Mail-Adressen von softwareentwickelnden Unternehmen mit Hilfe des Branchenverzeichnisses Gelben Seiten ermittelt. Auf diese Weise wurden 122 Einladungen versendet.
Weitere vier Einladungen wurden an einzelne Softwareentwickler verschickt, deren Adressen über
XING bzw. Google recherchiert wurden.
Insgesamt wurden 150 Personen zur Befragung eingeladen.
Die Befragung wurde am 09.03.2015 gestartet und nach einer Dauer von 25 Tagen am 02.04.2015
beendet.
3
Zur Überprüfung der Zugehörigkeit der angeschriebenen Unternehmen zu der Gruppe der KMU (vgl. Kapitel Fehler! Verweisquelle konnte
nicht gefunden werden.) konnten lediglich die Kriterien der maximalen Beschäftigtenzahl sowie der Eigenständigkeit berücksichtig
werden. Die Umsatzerlöse und Bilanzsummen konnten nicht für alle Unternehmen recherchiert werden und bleiben daher unberücksichtigt. Da es sich laut Europäische Kommission (2006), bei 99 Prozent aller deutscher Unternehmen um KMU handelt, ist der potenziell auftretende Fehler der Annahme als akzeptabel anzusehen.
Erstellung eines Kriterienkataloges
32
3.3.4 Befragungsergebnisse
Am 02. April 2015 wurde die Befragung zum geplanten Termin beendet. Insgesamt wurden 14 Fragebogen beantwortet, von denen fünf aus der Befragung von Softwareentwicklern und neun aus der Befragung von Usability-Experten generiert wurden. Somit konnte die Mindestanzahl von zwölf befragten
potentiellen Nutzer der Plattform erreicht werden. Im Folgenden werden die Ergebnisse der Umfrage
aufgeführt und diskutiert. Zunächst werden die Ergebnisse der geschlossenen Fragen dargestellt und
eine erste Selektion der Kriterien vorgenommen. Im Anschluss werden die offenen Fragen betrachtet
und Konsequenzen für den finalen Kriterienkatalog abgeleitet.
Ergebnisse der geschlossenen Fragen (Wichtigkeit der Kriterien)
Im geschlossenen Teil des Fragebogens wurden die Teilnehmer gebeten, die Wichtigkeit der einzelnen
Kriterien im Kontext der Auswahl, der Anwendung oder des Verständnisses einer Methode zu bewerten. Hierbei war eine Bewertungsskala von wichtig = 5, über eher wichtig = 4, neutral = 3 und
eher unwichtig=2 bis zu unwichtig = 1 vorgegeben. Zusätzlich stand die Option weiß nicht zur Verfügung, die innerhalb der Fragebogenauswertung mit -1 codiert wurde.
In einem ersten Schritt der Auswertung wird die Häufigkeitsverteilung betrachtet, die in Tabelle 4 dargestellt ist. Unter einer Häufigkeitsverteilung versteht man allgemein die Zuordnung von Häufigkeiten
zu den Merkmalsausprägungen (Bamberg, Baur, & Krapp, 2011). Im vorliegenden Fall sind die Merkmalsausprägungen die fünf relevanten Antwortmöglichkeiten der geschlossenen Fragen: wichtig, eher
wichtig, neutral, eher unwichtig, unwichtig. Als Häufigkeit ist die absolute Häufigkeit angegeben, welche der Anzahl der Personen entspricht, die sich für die jeweilige Antwortalternative entschieden haben.
Mit Blick auf die Häufigkeitsverteilung werden zunächst all jene Kriterien als relevant eingestuft, die
von mindestens der Hälfte der Personen als wichtig oder eher wichtig bewertet wurden4. Ist dieser Anteil kleiner als 50 Prozent, haben also weniger als die Hälfte der Personen für die Wichtigkeit eines
Kriteriums plädiert, so wird das Kriterium als nicht relevant eingestuft und aus dem Kriterienkatalog
aussortiert.
ist durch die
Statistisch lässt sich dieser Sachverhalt über den Median beschreiben. Der Median
Eigenschaft definiert, dass mindestens 50 Prozent aller Merkmalswerte kleiner oder gleich und mindestens 50 Prozent größer oder gleich
sind (Bamberg et al., 2011). Unter einem Merkmalswert, der
auch als Beobachtungswert bezeichnet wird, versteht man die Merkmalsausprägung, die bei einem
Befragten beobachtet wird. Antwortet im vorliegenden Fall der erste Befragte auf die Frage nach der
5. Sind alle MerkWichtigkeit eines Kriteriums mit wichtig, so ist der zugehörige Merkmalswert
malswerte bereits der Größe nach geordnet
⋯
, so liegt der Median „in der Mitte“
dieser Zahlen (Bamberg et al., 2011). Nach Georgii (2009) wird der Median für eine ungerade Beobachtungsanzahl mittels
4
Personen, die ein Kriterium nicht oder mit „weiß nicht“ bewertet haben, werden hier nicht berücksichtigt.
Erstellung eines Kriterienkataloges
33
errechnet. Für eine gerade Anzahl von
gilt:
1
2
.
Ist der Median im vorliegenden Fall größer als 3, entspricht also mehr als der mittleren Merkmalsausprägung neutral, so ist nach der oben definierten Eigenschaft ein Kriterium relevant. Ist der Median
3 so ist ein Kriterium nicht für die Beschreibung von Usability-Methoden relevant. Tabelle 4
zeigt die Mediane der einzelnen Kriterien und zusätzlich die Anzahl der Merkmalswerte mit einem
Wert von 4 oder 5, bezogen auf alle Merkmalswerte. Grau hinterlegt sind die Kriterien, die als nicht
relevant bewertet wurden.
Erstellung eines Kriterienkataloges
34
Tabelle4:ErgebnissederBefragungfürdiegeschlossenenFragen.
Nr.
Kategorie
Unterkategorie
Kriterium
Bewertungsergebnisse
Häufigkeitsverteilung
eher
eher
unwichtig
neutral unweiß
wichtig
wichtig
(5)
(3) wichtig
nicht
(4)
(1)
(2)
1
2
3
4
Bezeichnung
-
Name
10
3
0
0
0
1
13/13
5
Synonyme
5
3
3
2
0
1
8/13
4
Kurzbeschreibung
4
6
3
1
0
0
10/14
4
Abbildungen
4
3
5
2
0
0
7/14
3,5
Ziele
11
1
1
0
0
1
12/13
5
Motivation/Problemstellung
9
2
1
0
1
1
11/13
5
Input
7
0
2
1
0
4
7/10
5
Output/Ergebnisse
11
2
0
0
0
1
13/13
5
Vorteile
6
2
4
2
0
0
8/14
4
Nachteile/Grenzen
6
3
4
1
0
0
9/14
4
Benötigte Teilnehmeranzahl
6
4
1
1
1
0
10/13
4
Art der Teilnehmer
6
6
0
1
0
0
10/13
4
Nutzergruppen, die beteiligt
werden sollen
5
3
1
1
2
1
8/12
4
Rolle der Teilnehmer
5
6
1
0
1
0
11/13
4
Art der Einbeziehung der
Teilnehmer
5
5
2
0
1
0
10/13
4
Rolle des/der Ausführenden
4
2
3
2
1
1
6/12
3,5
Nützliche oder erforderliche
Vorkenntnisse oder Erfahrungen
6
6
0
1
0
0
12/13
4
Schwierigkeitsgrad
5
3
5
0
0
0
8/13
4
Womit?
Werkzeuge, Hilfsmittel
8
3
1
0
0
0
11/12
5
Wo?
Ort/Umgebung
4
6
2
0
0
0
10/12
4
Aufwand
Kosten
4
3
2
2
0
1
7/11
4
Voraussichtliche Dauer
4
5
2
0
0
1
9/11
4
Maximaler Zeithorizont
2
7
2
0
0
1
9/11
4
Zeitaufwand in Personenstunden/-tagen
3
5
2
0
2
0
8/12
4
Beschreibung
Rahmenbedingungen &
Ressourcen
Vorgehensweise
5
AnwendungsTipps
6
Anwendungsdomäne &
Projekthintergrund
Anzahl der
Bewertungen
mit „wichtiger“ Median
oder „eher
wichtiger“
-
Wer?
-
Die Methode ist
anwendbar…
Vorbereitung
9
3
0
0
0
0
12/12
5
Durchführung
10
2
0
0
0
0
12/12
5
Nachbereitung/Auswertung
10
2
0
0
0
0
12/12
5
Anwendungs-Tipps
6
2
3
0
0
1
8/11
5
bei der Erstellung folgender
Produkte
5
3
1
1
0
2
8/10
4,5
wenn es sich um ein Produkt
handelt, das…
2
1
3
1
3
2
3/10
3
wenn die Markteinführung
des Produkts geplant ist in…
2
2
1
2
3
2
4/10
2,5
zu folgendem Zeitpunkt in
der Entwicklung
3
4
2
0
1
1
7/10
4
in der/den Projektphase(n)
3
3
2
1
1
2
6/10
4
Erstellung eines Kriterienkataloges
35
Nr.
Kategorie
Unterkategorie
Kriterium
Bewertungsergebnisse
Häufigkeitsverteilung
eher
eher
unwichtig
neutral unweiß
wichtig
wichtig
(5)
(3) wichtig
nicht
(4)
(1)
(2)
7
8
Zweck
Verwandte und
weiterführende
Methoden
Die Methode ist
anwendbar,
wenn es mein
Ziel ist…
-
Anzahl der
Bewertungen
mit „wichtiger“ Median
oder „eher
wichtiger“
mehr zu erfahren über…
6
3
0
1
0
2
9/10
5
folgendes zu erstellen
4
3
1
1
1
2
7/10
4
folgendes zu bewerten
4
4
0
1
1
2
8/10
4
Daten…
3
3
3
0
1
2
6/10
4
Alternative Methoden oder
verwandte Praktiken
4
5
2
0
0
0
9/11
4
Mögliche Vorgänger
1
5
1
2
0
2
6/9
4
Mögliche Nachfolger
1
5
1
2
0
2
6/9
4
9
Anwendungsbeispiele
-
Beispiele
4
3
1
0
0
3
7/8
4,5
10
Schlagworte
-
Schlagworte
2
1
1
5
1
1
3/10
2
11
Referenzen
und weiterführende Informationen
-
Verweis auf weiterführende
Literatur
2
3
4
1
0
1
5/10
3,5
Zu beachtende Normen und
Zertifikate
2
8
0
0
1
0
10/11
4
Quellen
1
5
2
1
0
2
6/9
4
Es zeigt sich, dass zwei Kriterien der Kategorie Die Methode ist anwendbar… als „nicht relevant“ zu
bewerten sind. Sowohl für das Kriterium wenn es sich um ein Produkt handelt, das…, das die Existenz
des zu erstellenden Produktes beschreibt, als auch für das Kriterium wenn die Markteinführung des Produkts geplant ist in… hat sich keine ausreichende Wichtigkeit gezeigt, um das Kriterium im Kriterienkatalog aufzuführen.
Als drittes nicht relevantes Kriterium stellt sich das Kriterium Schlagworte heraus. Nur drei der zehn
befragten Personen, die eine Meinung zur Wichtigkeit dieses Kriterium geäußert haben, empfanden es
als wichtig bzw. eher wichtig. Somit wird auch dieses Kriterium als dem Katalog gestrichen.
Die verbleibenden Kriterien sind im Rahmen einer weiteren Betrachtung zusammenzufassen und ggf.
eindeutiger zu bezeichnen. Dies wird in Kapitel 3.3.5 thematisiert.
Zu erwähnen sind noch die Kriterien, die besonders häufig mit weiß nicht bewertet wurden. Zu den
auffälligen Kriterien werden solche gezählt, die von mehr als einer Person mit weiß nicht bewertet
wurden. Insgesamt betrifft dies 13 der 45 Kriterien.
Das Kriterium Input hat mit 4 Stimmen für weiß nicht die größte Ausprägung bei der Ausweichoption.
Dies könnte darauf zurückzuführen sein, dass die Bezeichnung Input nicht eindeutig ist und einige der
Befragten nicht feststellen konnten, was mit diesem Kriterium gemeint ist. Der Autor dieses Kriteriums
PQ4Agile nutzt dieses Kriterium um auszudrücken welche Informationen vor der Anwendung einer
Methode vorhanden sein müssen. Eine weitere Interpretationsmöglichkeit von Input könnte sein, alle
Ressourcen die für die Anwendung einer Methode verwendet werden unter diesem Kriterium zu verstehen. Die schlechte Verständlichkeit zeigt, dass dieses Kriterium entweder umbenannt oder mit einem anderen klarer verständlichen Kriterium zusammengelegt werden sollte. Für eine Zusammenlegung würden sich die Kriterien der Kategorie Rahmenbedingungen & Ressourcen sowie das Kriterium
Mögliche Vorgänger der Kategorie Verwandte und weiterführende Methoden anbieten. Für letztes Kriterium wäre allerdings ebenfalls ein treffenderer Titel zu wählen um eine bessere Verständlichkeit zu er-
Erstellung eines Kriterienkataloges
36
zielen. Die Optimierung des Kriteriums Input und aller weiteren Kriterien wird in Kapitel 3.3.5 diskutiert.
Die Kriterien der Kategorie 6 und 7 sind ebenfalls als auffällig anzusehen. Möglicherweise führt hier
die Formulierung in einer Satz-Struktur zu einem Missverständnis der Kriterien. Ebenfalls denkbar
wäre, dass nicht direkt ersichtlich war, dass es sich bei diesen Kriterien um Filter-Kriterien handelt, die
zur Auswahl einer geeigneten Methode verwendet werden können.
Die beiden Kriterien Möglicher Vorgänger und Möglicher Nachfolger sind ebenfalls beide mit zwei
weißnicht-Stimmen bewertet worden, was eine Ungenauigkeit der Kriterienbezeichnung nahelegt.
Gleiches gilt für das Kriterium Beispiele. Hier wurde drei Mal weiß nicht ausgewählt. Ebenso wie bei
den beiden zuvor angesprochenen Kriterien sollte hier über eine eindeutigere Bezeichnung nachgedacht werden.
Zuletzt ist noch das Kriterium Quelle als auffällig zu bezeichnen. Hier könnte das Missverständnis darin
liegen, dass Quellenangaben selbstverständlich und unerlässlich sind und es eigentlich keiner Abstimmung darüber bedarf.
Ergebnisse der offenen Fragen
Im Folgenden werden die Kriterien genannt und diskutiert, die in den offenen Fragen angegeben wurden. Die Aufführung erfolgt in alphabetischer Reihenfolge:









Art der Technologie/Schnittstelle (Bsp. VUI, GUI, Bewegungssteuerung): Diese Informationen
können über das Kriterium Die Methode ist anwendbar, wenn es mein Ziel ist folgendes zu erstellen der Kategorie Zweck abgebildet werden. Falls es die in Kapitel 4 beschriebenen Methoden
erfordern, können die angesprochenen Ausprägungen hinzugefügt werden.
Benötigte Anzahl von Ausführenden: Diese Information ist bisher nicht durch den Kriterienkatalog abgedeckt gewesen. Daher wird dem Katalog dieses Kriterium hinzugefügt.
Benötigte Expertise, Benötigte Ressourcen, Benötigter Zeitaufwand: Diese drei Aspekte sind durch
die Kriterien der Kategorie Rahmenbedingungen & Ressourcen im Kriterienkatalog vorhanden
und müssen nicht hinzugefügt werden.
Benutzer vs. Experten Methode: Durch die vorhandenen Kriterien Schwierigkeitsgrad und Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen werden die angesprochenen Informationen in ähnlicher Weise dargestellt.
Kompetenz des Durchführenden, Soft Skills: Die beiden Aspekte werden durch das Kriterium
Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen abgedeckt.
Skalierbarkeit: Dieser Gesichtspunkt ist Gegenstand von aktuellen Forschungsprojekten (Brandenburg et al., 2015). Im Rahmen dieser Arbeit kann daher keine Aussage zur Skalierbarkeit
von Methoden getroffen werden.
Software die verwendet werden kann: Durch das Kriterium Werkzeuge, Hilfsmittel werden diese
Informationen bereitgestellt.
Weiterführende Literatur oder bekannte Kursangebote: Falls sich Kursangebote zu bestimmten
Methoden finden sollten, so werden diese der Kategorie Weiterführende Literatur hinzugefügt,
ohne das die Bezeichnung der Methode verändert wird.
Zugriff auf Benutzer: Diese Information kann den Kriterien der Kategorie Rahmenbedingungen &
Ressourcen, die sich mit der Rolle und der Art der Einbeziehung der Teilnehmer befassen, entnommen werden.
Erstellung eines Kriterienkataloges
37
3.3.5 Anpassung des vorläufigen Kriterienkataloges
Auf Grundlage der durchgeführten Befragung wird der vorläufige Kriterienkatalog angepasst und optimiert. Dies führt auf einen Kriterienkatalog, der aus 35 Kriterien besteht, die in 9 Kategorien angeordnet sind. Im Folgenden werden die Anpassungen kurz erläutert und im speziellen auf die Änderungen im Vergleich zum vorläufigen Kriterienkatalog (vgl. Tabelle 3) eingegangen.
Die Finalisierung des Kataloges wurde erst in der Arbeitsphase der Methodenbeschreibung (vgl. Kapitel
4) erreicht. Erst bei der Anwendung des Kriterienkatalogs zur Beschreibung von Usability-Methoden
haben sich Feinheiten, wie z.B. die Skalen der Kriterien Kosten und Zeitaufwand, festlegen lassen. Eine
ausführliche Darstellung aller Kriterien des finalen Katalogs inkl. der enthaltenen Informationen sowie
der zugehörigen Leitfragen ist in Kapitel 3.4 gegeben.
Die im Folgenden thematisierten Änderungen des Kriterienkatalogs lassen sich anhand der Darstellung
des finalen Kriterienkataloges, die in Tabelle 5 gegeben ist, nachverfolgen:







Die ersten fünf Kriterien des Kataloges (Name, Synonyme, Kurzbeschreibung, Abbildungen, Ziele)
bleiben in der Art und Weise, wie sie im vorläufigen Kriterienkatalog vorgesehen waren erhalten.
Das Kriterium Motivation/Problemstellung ist in der endgültigen Fassung der KriterienSammlung nicht enthalten, da es sich inhaltlich mit dem Kriterium Ziele überschneidet. Unter
letzterem Kriterium werden zukünftig Informationen zu Sinn und Nutzen einer Methode hinterlegt.
Wie bereits im vorherigen Kapitel thematisiert, ist das Kriterium Input durch seine Bezeichnung
nicht eindeutig definiert. Zum einen erlaubt es die Beschreibung von Ressourcen, die für die
Anwendung der Methode benötigt werden, und zum anderen können sich Informationen, die
im Vorfeld verfügbar sein müssen hinter diesem Kriterium verbergen. Um die angesprochenen
Informationen eindeutiger zuzuordnen, werden sie den Kriterien der Kategorie Rahmenbedingungen & Ressourcen sowie dem Kriterium Mögliche Vorgänger integriert. Das Kriterium Input
taucht somit nicht mehr explizit im finalen Kriterienkatalog auf.
Das Kriterium Output/Ergebnisse wird umbenannt in Ergebnisse/Output. Ziel der Umbenennung
ist es den Fokus auf den Begriff Ergebnisse zu setzen. Da das Kriterium Input nicht mehr vorhanden ist, ist der starke Bezug zum Begriff Output nicht mehr notwendig. Da aber weiterhin
auch verdeutlicht werden soll, dass die Fragestellung „Was erhält man durch Anwendung der
Methode?“ unter dem Begriff Ergebnisse zu finden ist, wird die Bezeichnung Ergebnisse/Output gewählt.
Die Kriterien Vorteile und Nachteile/Grenzen bleiben unverändert.
Ein neues Kriterium Projektphase(n) wird der Kategorie Beschreibung hinzugeführt. Es ersetzt
die beiden Kriterien Die Methode ist anwendbar zu folgendem Zeitpunkt in der Entwicklung und
Die Methode ist anwendbar in der/den Projektphase(n), die in der Kategorie Anwendungsdomäne
& Projekthintergrund eingeordnet waren. Die konkreten Phasen, werden erst im nächsten Arbeitsschritt, der Beschreibung von Usability-Methoden festgelegt und sind in Kapitel 3.4 erläutert.
Die beiden Kriterien Benötigte Teilnehmeranzahl und Art der Teilnehmer bleiben bestehen. Letzteres wird jedoch um die Informationen des Kriteriums Nutzergruppen, die beteiligt werden sol-
Erstellung eines Kriterienkataloges
38













len ergänzt, damit dieses Kriterium wegfallen kann. Die Ausprägung des Kriteriums Art der
Teilnehmer wurde entsprechend durch Endnutzer (ggf. spezielle Nutzergruppen z.B. Kinder) ergänzt.
Die Kriterien Rolle der Teilnehmer, Art der Einbeziehung der Teilnehmer und Rolle des/der Ausführenden erfahren keine Änderung. Das Kriterium Benötigte Anzahl Ausführender wird, wie in
Kapitel 3.3.4 erläutert, hinzugefügt.
Das Kriterium Nützliche oder erforderliche Vorkenntnisse oder Erfahrungen wird umbenannt in
Erforderliche Kompetenzen.
Die Angabe des Schwierigkeitsgrades wird aus dem finalen Kriterienkatalog entfernt. Zum einen
ist eine Einteilung der Methoden in eine feste Schwierigkeits-Skala problematisch, zum anderen ist es für den Anwender der Methodenbeschreibung nur schwer möglich seinen eigenen
Kenntnisstand anhand der Skala abgebildet zu sehen und eine Methode gemäß seiner Kompetenzen auszuwählen. Das Kriterium Erforderliche Kompetenzen informiert den Anwender über
die benötigte Expertise.
Die Kriterien Werkzeuge, Hilfsmittel, Ort/Umgebung und Kosten des angepassten Kriterienkataloges entsprechen den Kriterien aus dem vorläufigen Katalog.
Die drei Kriterien Voraussichtliche Dauer, Maximaler Zeithorizont und Zeitaufwand in Personenstunden/-tagen werden unter der Bezeichnung Zeitaufwand zusammengefasst.
Die Kriterien der Kategorie Vorgehensweise (Vorbereitung, Durchführung, Nachbereitung/Auswertung) bleiben unverändert bestehen.
Das Kriterium Anwendungs-Tipps wird in Praxis-Tipps umbenannt, um einen besseren Bezug zu
den Informationen dieses Kriteriums herzustellen.
Die Kategorie Anwendungsdomäne & Projekthintergrund wird komplett aus dem Kriterienkatalog entfernt. Die Informationen der Kategorie Die Methode ist anwendbar bei der Erstellung folgender Produkte wurde in die Kriterien der Kategorie Zweck integriert. Die Kriterien mit dem
Bezug zur Projektphase wurden in dem neuen Kriterium Projektphase(n) der Kategorie Beschreibung integriert. Die beiden übrigen Kategorien wurden gemäß Kapitel 3.3.4 aus dem Katalog entfernt.
Die Kriterien der Kategorie Zweck werden um die oben genannten Informationen ergänzt und
verbleiben ansonsten unverändert im Kriterienkatalog.
Die Bezeichnung des Kriteriums Alternative Methoden oder verwandte Praktiken wird gekürzt
und heißt nun Verwandte Methoden.
Die Kriterien Möglicher Vorgänger und Möglicher Nachfolger werden umbenannt zu Mögliche vorangegangene Methode/Tätigkeit und Mögliche nachfolgende Methode/Tätigkeit, um die Verständlichkeit zu verbessern.
Das Kriterium Beispiele wird in Mögliche Anwendungsgebiete umbenannt um den Inhalt verständlicher zu gestalten.
Das Kriterium Verweis auf weiterführende Literatur wird zu Weiterführende Informationen gekürzt. Die beiden übrigen Kriterien der Kategorie Referenzen und weiterführende Informationen
erfahren keine Veränderungen.
Der Kriterienkatalog wurde nach seiner Überarbeitung noch einmal von den „internen UsabilityExperten“, die bereits in Kapitel 3.3.3 in die Befragung eingebunden wurden, überprüft. Es wurden
keine weiteren Anmerkungen oder Verbesserungsmöglichkeiten kommuniziert, weshalb die jetzigen
Erstellung eines Kriterienkataloges
39
Kriterien für die Beschreibung der Usability-Methoden in Kapitel 4 verwendet werden. Im folgenden
Unterkapitel werden abschließend alle Kriterien noch einmal detailliert beschrieben und im Anschluss
das Layout des Methodenkatalogs angepasst.
3.4 Finaler Kriterienkatalog
Nachdem im vorherigen Kapitel die Evaluation sowie die Anpassung des Kriterienkataloges diskutiert
wurden, werden im vorliegenden Kapitel alle Kriterien, die zur Beschreibung der Usability-Methoden
in Kapitel 4 verwendet werden, noch einmal im Detail beschrieben. Hierin eingeschlossen sind
Optimierungen des Kriterienkataloges, die erst während der Phase der Methodenbeschreibung festgelegt werden konnten. Im Anschluss wird der finale Kriterienkatalog entwickelt, der das Layout aufweist, das zur Beschreibung von Usability-Methoden in Kapitel 4 verwendet wird.
3.4.1 Definiton der Kriterien
Im Folgenden wird insbesondere auf die enthaltenen Informationen bzw. die möglichen Ausprägungen
der Kriterien eingegangen. Es werden außerdem Leitfragen angegeben, die durch die Informationen
der Kriterien beantwortet werden sollen. Ein Überblick über den optimierten Kriterienkatalog ist in
Tabelle 5 gegeben.
Name
Das Kriterium Name gibt eine gängige Bezeichnung für die Methode an. Das Kriterium dient zur Identifikation der Methode sowie zur Abgrenzung gegenüber anderen Methoden.
Synonyme
Das Kriterium Synonyme gibt weitere Namen an unter denen die Methode bekannt ist. Dies können
neben gänzlich anderen Bezeichnungen auch alternative Schreibweisen sowie englische bzw. internationale Bezeichnungen einer Methode sein.
Kurzbeschreibung
Dieses Kriterium stellt eine kurze Beschreibung der Methode sowie eine Zusammenfassung der wichtigsten Eigenschaften dar. Es können beispielsweise Informationen zum Nutzen der Methode, zum
Ablauf sowie zu Vorteilen gegeben sein. Ziel des Kriteriums ist es, dem Anwender des Methodenkatalogs die Methode in wenigen Sätzen nahe zu bringen, darzustellen was die Inhalte der Methode sind
und für welche Zwecke die Methode einsetzbar ist.
Abbildung
Abbildungen werden nur bei Bedarf einer Methode hinzugefügt. Sie können aus Fotos, Zeichnungen
oder Schaubildern bestehen. Wichtig ist, dass in der Abbildung zusätzliche Informationen enthalten
sind, die die Informationen der Kurzbeschreibung unterstützen oder ergänzen. Sinnvolle Abbildungen
Erstellung eines Kriterienkataloges
40
können z.B. die Ergebnisse einer Methode darstellen oder die Durchführung mit den beteiligten Personen, den nötigen Werkzeugen und Hilfsmitteln sowie der bevorzugten Umgebung.
Ziele
Das Kriterium Ziele, gibt Informationen zum Sinn, Nutzen und zur Motivation hinter einer Methode an.
Die Informationen werden in Stichpunkten oder in zusammenhängenden Sätzen angegeben.
Mögliche Leitfragen sind: Was sind Ziele der Methode? Was erreicht man durch die Anwendung? Wofür verwendet man die Methode? Weshalb macht die Anwendung Sinn?
Ergebnisse/Output
Das Kriterium Ergebnisse/Output zielt auf die Resultate ab, die durch die Anwendung einer Methode
erzielt werden. Die Ergebnisse einer Methode können z.B. gewonnene Informationen, Veränderungen
an einem Produkt oder ein neu erschaffenes Produkt sein. Es wird in Stichpunkten angegeben welche
Ergebnisse gewonnen werden und in welcher Form sie vorliegen.
Mögliche Leitfrage: Was ist das Ergebnis, das man nach der Anwendung der Methode „in den Händen
hält“?
Vorteile
Die Vorteile einer Methode werden in Stichpunkten angegeben. Mögliche Leitfragen sind: Was sind
positive Aspekte der Methode? Warum bzw. in welchen Aspekten ist die Methode besser als vergleichbare Methoden?
Nachteile/Grenzen
Die Nachteile und Grenzen einer Methode werden in Stichpunkten angegeben. Mögliche Leitfragen
sind:
Welche Aspekte der Methode sind negativ? Welche Eigenschaften einer Methode sind unerwünscht
oder können zu unerwünschten Resultaten führen? Lassen sich die negativen Aspekte ggf. durch entsprechende Maßnahmen abschwächen oder beseitigen? Was sind die Anwendungsgrenzen einer Methode? Wann ist eine Methode nicht mehr anwendbar bzw. wann ist eine Anwendung nicht mehr
sinnvoll?
Projektphase(n)
Das Kriterium Projektphase(n) beschreibt, in welchen Phasen des Projektes die Methode anwendbar ist.
Bei der Bezeichnung der einzelnen Projektphasen wurde sich an der Einteilung von Jacobsen, (2007)
orientiert und die Phasen Planung, Konzeption, Umsetzung und Betrieb festgelegt. Neben der Angabe
der konkreten Phasen können bei Bedarf weitere Informationen in Stichpunkten angegeben werden.
Mögliche Leitfrage: Wann im Projekt ist die Anwendung der Methode möglich?
Erstellung eines Kriterienkataloges
41
Abbildung2:EinteilungderProjektphasennachJacobsen,(2007)
Benötigte Teilnehmeranzahl
Das Kriterium Benötigte Teilnehmeranzahl gibt an ob bzw. wie viele Probanden neben den ausführenden Personen für die Anwendung der Methode benötigt werden. Neben der Anzahl können auch weitere Informationen angegeben sein, z.B. in welchen Anwendungsfällen wie viele Teilnehmer nötig
sind.
Art der Teilnehmer
Das Kriterium Art der Teilnehmer gibt an, welche Probanden für die Anwendung der Methode benötigt
werden. Mögliche Ausprägungen des Kriteriums könnten sein: Entwickler, Software-Gestalter, (generell) Firmeninterne, Experten (z.B. Usability Experten), Endnutzer (ggf. spezielle Nutzergruppen),
Kunden oder Steakholder. Darüber hinaus sind je nach Methode weitere Ausprägungen denkbar.
Rolle der Teilnehmer
Das Kriterium Rolle der Teilnehmer beschreibt, welche Aufgabe die Probanden bei der Durchführung
der Methode haben und wie sie in den Ablauf der Methode einbezogen werden. Die vorgesehenen
Ausprägungen sind: Partizipation, Diskussion, wird beobachtet und wird befragt.
Die Rolle der „Partizipation“ meint, dass die Teilnehmer in den Entwicklungsprozess einbezogen werden. Ein Beispiel hierfür könnte sein, wenn Usability-Experten eine Software-Anwendung auf die Gebrauchstauglichkeit untersuchen und Probleme ausfindig machen.
Die Rolle der „Diskussion“ meint, dass Teilnehmer im Rahmen einer Besprechung in den Ablauf der
Methode einbezogen werden.
Bei der Rolle „wird beobachtet“ wird der Teilnehmer z.B. bei der Durchführung von Aufgaben mit einer zu untersuchenden Software beobachtet bzw. seine Aktionen werden durch Aufnahmegeräte, wie
Videokameras oder Diktiergeräte aufgezeichnet.
Im Falle von „wird befragt“ werden Teilnehmer beispielsweise im Rahmen eines Interviews oder mittels eines Fragebogens nach ihrer Meinung gefragt.
Erstellung eines Kriterienkataloges
42
Art der Einbeziehung der Teilnehmer
Bei der Art der Einbeziehung der Teilnehmer werden zwei Fälle unterschieden: die physikalische Einbeziehung und die Remote-Einbeziehung.
Im Falle der physikalischen Einbeziehung findet ein direkter Kontakt zwischen den Ausführenden und
den Probanden statt. Das heißt, der Anwender der Methode und die Teilnehmer müssen sich für die
Durchführung am selben Ort befinden, z.B. in einem Usability-Labor.
Bei der Remote-Einbeziehung ist kein direkter Kontakt zwischen dem Anwender und dem Probanden
nötig. Probanden können z.B. telefonisch, über das Internet oder postalisch in die Durchführung der
Methode eingebunden werden. Anwender und Teilnehmer müssen sich nicht am selben Ort befinden.
Benötigte Anzahl Ausführender
Das Kriterium Benötigte Anzahl Ausführender gibt an, wie viele Anwender für die Verwendung der Methode benötigt werden. Im Rahmen dieses Kriteriums können außerdem Empfehlungen über die Anzahl der Ausführenden gegeben werden.
Rolle des/der Ausführenden
Die Angaben des Kriteriums Rolle des/der Ausführenden sind an die Aufgaben angelehnt, die von den
Anwendern durchgeführt werden müssen. Mögliche Ausprägungen könnten z.B. sein: Organisator,
Moderator, Interviewer, Beobachter, Analyst, usw. Es gibt keine fest vorgegebenen Ausprägungen und
es können auch methodenspezifische Rollen wie „Ersteller des Prototyps“ angegeben sein.
Erforderliche Kompetenzen
Dieses Kriterium gibt an, welche Kompetenzen von den Ausführenden erforderlich sind, um die Methode anzuwenden. Das Kriterium enthält Informationen zu Vorkenntnissen, Erfahrungen aber auch zu
sozialen Kompetenzen die im Kontext der Anwendung der Methode hilfreich oder notwendig sind.
Falls von den Teilnehmern besondere Kompetenzen verlangt werden, können diese ebenfalls hier aufgeführt werden.
Werkzeuge, Hilfsmittel
Dieses Kriterium gibt an, welche Werkzeuge oder Hilfsmittel für die Anwendung der Methode benötigt
oder empfohlen werden.
Ort/Umgebung
Das Kriterium Ort/Umgebung gibt an, wo die Durchführung der Methode stattfindet. Hierbei sind vier
Ausprägungen vorgegeben.
Mit „Natürlicher Nutzungsumgebung“ ist gemeint, dass die Methode an dem Ort durchgeführt wird, an
dem auch das fertige Produkt verwendet wird. Dies kann z.B. am Arbeitsplatz oder bei den Teilnehmern zu Hause sein.
Die Ausprägung „Simulierte Nutzungsumgebung“ meint, dass die Methode an einem Ort durchgeführt
wird, der der natürlichen Umgebung nachempfunden ist.
Erstellung eines Kriterienkataloges
43
Die Orte Usability-Labor und Tagungsraum sind selbsterklärend, während mit „Schreibtisch“ gemeint
ist, dass der Anwender keinen besonderen Ort für die Durchführung der Methode benötigt und diese
direkt vom Schreibtisch aus angewendet werden kann. Teilnehmer können in diesem Fall z.B. über
Internet oder Telefon einbezogen werden.
Kosten
Die Kosten für die Anwendung einer Methode werden anhand einer dreistufigen Skala von gering über
mittel bis hoch angegeben:
gering: < 10000 €
mittel: 10000 € bis 20000 €
hoch: > 20000 €.
Die Zahlenwerte sind an die Einteilung der Kosten angelehnt, die von dem Projekt CHeval der Hochschule für Technik und Wirtschaft Chur verwendet werden. (CHeval, 2013)
Zusätzlich können ergänzende oder erklärende Informationen gegeben werden.
Zeitaufwand
Das Kriterium Zeitaufwand wird anhand einer dreistufigen Skala von gering über mittel bis hoch bewertet:
gering: < 1 Woche
mittel: 1 Woche bis 1 Monat
hoch: > 1 Monat.
Die Einteilung veranschaulicht den zeitlichen Aufwand, den die Methode für den Ausführenden darstellt.
Eine Methode mit geringem Zeitaufwand lässt sich in unter einer Woche bewältigen. Hierbei wird die
effektive Arbeitszeit des Ausführenden herangezogen und berücksichtig. Der maximale Zeithorizont,
also die Gesamtdauer vom Beginn der Vorbereitungen bis zur Fertigstellung der Analyse bzw. der
Nachbereitung kann durchaus mehr als eine Woche betragen. Es kann z.B. ein Zeitraum anfallen, in
dem Probanden rekrutiert werden. Ein weiteres Beispiel für einen größeren maximalen Zeithorizont
könnte eine Online-Umfrage sein, die über mehrere Wochen hinweg von den Teilnehmern bearbeitet
werden kann. In beiden Fällen könnte trotz der längeren Zeitdauer zur kompletten Durchführung der
Methode eine Einteilung zu „geringem Zeitaufwand“ erfolgen.
Eine Methode mit mittlerem Zeitaufwand lässt sich in unter einem Monat effektiver Arbeitszeit bewältigen, alles darüber hinaus wird mit einem hohen Zeitaufwand bewertet.
Zusätzlich werden ergänzende bzw. erklärende Informationen gegeben. Diese können beispielsweise
den maximalen Zeithorizont, die erforderlichen Personenstunden oder Zeitangaben für bestimmte
Schritte der Methode sein, z.B. ca. 60 Minuten pro Interview.
Vorbereitung
Das Kriterium Vorbereitung gibt an, welche Arbeitsschritte vor der Durchführung der Methode zu erledigen sind. Die Angaben können in Form einen Fließtextes oder anhand von Stichpunkten gegeben
sein.
Erstellung eines Kriterienkataloges
44
Durchführung
Das Kriterium Durchführung gibt die Arbeitsschritte für die eigentliche Anwendung der Methode an.
Die Angaben können in Form einen Fließtextes oder anhand von Stichpunkten gegeben sein.
Nachbereitung/Auswertung
Das Kriterium Nachbereitung/Auswertung gibt an, welche Schritte nach der Durchführung der Methode
notwendig sind, um Erkenntnisse aus den gewonnenen Daten zu ziehen bzw. die Ergebnisse aufzubereiten. Die Angaben können in Form eines Fließtextes oder anhand von Stichpunkten gegeben sein.
Praxis-Tipps
Unter dem Kriterium Praxis-Tipps werden weitere Informationen und Hinweise zur Vorbereitung,
Durchführung und Nachbereitung angegeben, die sich bei der praktischen Anwendung der Methode
bewährt haben. Außerdem kann hier angegeben sein, welche Variationen der Methode möglich sind,
und wann sich diese anwenden lassen.
Mögliche Leitfragen sind: Was gibt es bei der Anwendung in der Praxis zu beachten? Welche Anregungen und Hinweise gibt es für die Anwendung? Welche Varianten der Methode sind möglich?
Auch hier können die Angaben in Form eines Fließtextes oder anhand von Stichpunkten gegeben sein.
Zweck
Das Kriterium Zweck ist zur Filterung des Methodenkataloges und damit zur Auswahl von UsabilityMethoden gedacht. Die Methoden werden je nach Zweck und Nutzen den sie verfolgen in unterschiedliche Kategorien eingeteilt. So ist je nach Anwendungsfall des jeweiligen Projekts ersichtlich, welche
Methoden anwendbar sind. Die Informationen des Kriteriums sind anhand einer Satzstruktur aufgebaut (vgl. Tabelle 5 auf Seite 46).
Mittels des Kriteriums wird berücksichtigt, ob es das Ziel einer Methode ist Informationen zu gewinnen. Ebenfalls ist die Art der zu gewinnenden Information angegeben. So sind Informationen über die
Benutzer eines Produktes, über die Interaktion zwischen Benutzer und Produkt, über Strukturen und
Prozesse, über die Benutzererfahrung sowie zum Kontext eines Produktes vorgesehen.
Außerdem werden Methoden danach kategorisiert ob sie im Kontext der Erstellung oder Bewertung
von Ideen und Produkten angewendet werden können. Die Produkte werden weiter unterteilt in physikalische Produkte, Software, integrierte Produkte die sowohl Hard- als auch Software beinhalten,
Dienstleistungen und Umgebungen bzw. Orte.
Als letzter Punkt findet eine Einteilung statt, ob Daten mit Hilfe der Methode geordnet und organisiert,
kommuniziert, dokumentiert oder verbreitet werden.
Verwandte Methoden
Das Kriterium Verwandte Methoden gibt Methoden an, die der beschriebenen ähnlich sind.
Mögliche Leitfragen sind: Welche Methoden sind der beschriebenen ähnlich? Welche Methoden weisen
Gemeinsamkeiten mit der beschriebenen auf? Welche Methoden gehören zur gleichen Kategorie bzw.
lassen sich in einer Kategorie mit der beschriebenen zusammenfassen?
Erstellung eines Kriterienkataloges
45
Mögliche vorangegangene Methoden/Tätigkeiten
Die Leitfrage dieses Kriterium ist: Gibt es Methoden oder Tätigkeiten, die vor der eigentliche Methode
durchgeführt werden können oder sollten?
Mögliche nachfolgende Methoden/Tätigkeiten
Die Leitfrage dieses Kriterium ist: Welche Methoden oder Tätigkeiten können oder sollten auf die beschriebene Methode folgen?
Mögliche Anwendungsgebiete
Das Kriterium Mögliche Anwendungsgebiete gibt anhand von Beispielen an, für welche Fälle sich der
Einsatz der beschriebenen Methode eignet.
Weiterführende Informationen
Unter diesem Kriterium werden Literaturempfehlungen zur Vertiefung des Wissens über die Methode
gegeben, auf interessante Internetressourcen wie z.B. Onlineartikel, Usability-Plattformen oder VideoTutorials verwiesen sowie weitere Informationsquellen angegeben.
Zu beachtende Normen und Zertifikate
Falls bei der Anwendung einer Methode Normen oder Zertifikate zu beachten sind, so werden diese
unter diesem Kriterium angegeben.
Quellen
Die Quellen aller Informationen, die innerhalb der Methodenbeschreibung zu finden sind, sind hier
aufgeführt. Zusätzlich sind Quellen im Literaturverzeichnis am Ende dieser Arbeit aufgeführt.
Tabelle5:ÜberarbeiteterKriterienkatalog
Nr.
Kategorie
1
Bezeichnung
Unterkategorie
-
Kriterium
Ausprägungen/Hinweise
Name
Synonyme
2
Beschreibung
-
Kurzbeschreibung
2 bis 4 Sätze
Abbildungen
Erstellung eines Kriterienkataloges
Ziele
Stichpunkte
Ergebnisse/Output
Stichpunkte
Vorteile
Stichpunkte
Nachteile/Grenzen
Stichpunkte
Projektphase(n)
Planung
Konzeption
Umsetzung
Betrieb
ggf. weitere Informationen
46
Nr.
Kategorie
Unterkategorie
Kriterium
3
Rahmenbedingungen
& Ressourcen
Wer?
Benötigte Teilnehmeranzahl
Art der Teilnehmer
Ausprägungen/Hinweise









Entwickler
Software Gestalter
Firmeninterne
Experten (z.B. Usability Experten)
Endnutzer (ggf. spezielle Nutzergruppen z.B.
Kinder)
Kunde
Stakeholder
Egal
…
Rolle der Teilnehmer




Partizipation
Diskussion
Wird beobachtet
Wird befragt
Art der Einbeziehung der
Teilnehmer


Physikalische Einbeziehung
„Remote“
Benötigte Anzahl Ausführender
4
Rolle des/der Ausführenden
Aufzählung (z.B. Moderator, Interviewer, Analyst)
Erforderliche Kompetenzen
Aufzählung/Stichpunkte
Womit?
Werkzeuge, Hilfsmittel
Aufzählung/Stichpunkte
Wo?
Ort/Umgebung





Aufwand
Kosten
Gering: < 10000 €
Mittel: 10000 bis 20000 €
Hoch: > 20000 €
Zeitaufwand
Gering: < 1 Woche
ggf. weitere InformaMittel: 1 Woche bis 1 Monat tionen
Hoch: > 1 Monat
Vorbereitung
Fließtext/Stichpunkte
Durchführung
Fließtext/Stichpunkte
Nachbereitung/Auswertung
Fließtext/Stichpunkte
Praxis-Tipps
Fließtext/Stichpunkte
mehr zu erfahren über…





Benutzer (Wer ist der Benutzer?)
Interaktion zwischen Benutzer und Produkt
Strukturen und Prozesse
Benutzererfahrung
Kontext
folgendes zu erstellen:




Ideen & Konzepte
Physikalisches Produkt
Software bzw. grafisches Interface
Integriertes Produkt, bestehend aus Hard- und
Software
Dienstleistung
Umgebung/Ort
Vorgehensweise
5
Praxis-Tipps
6
Zweck
-
Die Methode ist
anwendbar, wenn
es das Ziel ist…


folgendes zu bewerten:
Daten…
Erstellung eines Kriterienkataloges




Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
ggf. weitere Informationen


Ideen & Konzepte
Physikalisches Produkt
Software bzw. grafisches Interface
Integriertes Produkt, bestehend aus Hard- und
Software
Dienstleistung
Umgebung/Ort




zu ordnen und zu organisieren
zu kommunizieren
zu dokumentieren
zu verbreiten
47
Nr.
Kategorie
7
Verwandte und weiterführende Methoden
Unterkategorie
-
Kriterium
Ausprägungen/Hinweise
Verwandte Methoden
Aufzählung
Mögliche vorangegangene
Methoden/Tätigkeiten
Aufzählung
Mögliche nachfolgende Methoden/Tätigkeiten
Aufzählung
8
Anwendungsbeispiele
-
Mögliche Anwendungsgebiete
9
Referenzen und weiterführende Informationen
-
Weiterführende Informationen
Zu beachtende Normen und
Zertifikate
Quellen
3.4.2 Festlegen des Layouts des Methodenkatalogs
Im Folgenden wird das finale Layout des Kriterienkatalogs für die Verwendung zur Methodenbeschreibung erläutert und die Änderungen diskutiert.
Das Layout des optimierten Kriterienkatalogs (siehe Tabelle 5) hatte zum Ziel, die Kriterien und ihre
Zugehörigkeit zu Kategorien und ggf. Unterkategorien darzustellen. Diese Anordnung bot sich hauptsächlich im Zusammenhang mit dem Sammeln und Anordnen der Kriterien an und sollte damit die
Struktur innerhalb des Kriterienkatalogs verdeutlichen.
Für die Methodenbeschreibung ist die Hervorhebung der Struktur nur noch von geringer Bedeutsamkeit. Hier liegt der Fokus mehr auf der Übersichtlichkeit, gerade bei der Darstellung im DIN A4Format. Das Ziel der Veränderung des Layouts ist es, nur jene Informationen des Kriterienkatalogs darzustellen, die dem Verständnis der Methodenbeschreibungen zuträglich sind. Nichtrelevante Informationen werden entfernt, die Struktur und die generelle Übersichtlichkeit einer Tabelle sollen dabei erhalten bleiben.
Aus diesem Grund wird das Layout der Kriterien-Tabelle in der Art geändert, dass die Spalte Unterkategorie entfernt wird, da ihre Informationen für die Beschreibung der Methoden nicht von Bedeutung
sind. Hinzu kommt das Entfernen der Spalte Nr. Die wegfallenden Informationen werden direkt in die
Spalte Kategorie integriert, um die Verdeutlichung der Struktur zu erhalten. Als dritter Punkt wurden
einige Bezeichnungen der Kriterien gekürzt um eine bessere Übersichtlichkeit zu schaffen. Dies betrifft
insbesondere die Kriterien der Kategorie 3 Rahmenbedingungen & Ressourcen. Hier wurde die Gruppierung jener Kriterien, die Informationen zu den Teilnehmern sowie den Anwendern enthalten, neu
hervorgehoben und die Bezeichnung verkürzt (siehe Tabelle 6).
Mit diesen Maßnahmen wurde das Layout des Kriterienkatalogs optimiert, und Informationen, die für
die Beschreibung von Usability-Methoden nicht relevant sind, entfernt. Neben der verbesserten Übersichtlichkeit ist die Platzausnutzung deutlich besser als in der vorherigen Version. Etwa dreiviertel der
Seitenbreite können so zur Beschreibung von Methoden verwendet werden, während die restliche
Breite die Strukturierung der Kriterien einnimmt.
Erstellung eines Kriterienkataloges
48
Tabelle6:LayoutdesfinalenKriterienkatalogs,wieerinKapitel4zurBeschreibungvonUsability‐Methodeneingesetztwird
Kategorie
Kriterium
1.Bezeichnung
Name
(Name der Methode)
Synonyme
2. Beschreibung
Kurzbeschreibung 2 bis 4 Sätze
Abbildungen
Eine Abbildung sollte zusätzliche Informationen enthalten, die die Informationen der Kurzbeschreibung
unterstützen oder ergänzen
Ziele

Stichpunkte
Ergebnisse/
Output

Stichpunkte
Vorteile

Stichpunkte
Nachteile/
Grenzen

Stichpunkte
Projektphase(n)
Planung
Konzeption
Umsetzung
Betrieb
Anwender
4. Vorgehensweise
ggf. weitere Informationen (ansonsten kann diese Zelle entfernt werden)
Anzahl
Art








…
Entwickler
Software Gestalter
Firmeninterne
Experten (z.B. Usability Experten)
Endnutzer (ggf. spezielle Nutzergruppen z.B. Kinder)
Kunde
Stakeholder
Egal
Rolle




Partizipation
Diskussion
Wird beobachtet
Wird befragt
Einbeziehung


Physikalische Einbeziehung
„Remote“
Teilnehmer
3. Rahmenbedingungen & Ressourcen

Anzahl
Rolle
Aufzählung (z.B. Moderator, Interviewer, Analyst)
Erforderliche
Kompetenzen
Aufzählung/Stichpunkte
Werkzeuge,
Hilfsmittel

Aufzählung/Stichpunkte
Ort/Umgebung





Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Kosten
Gering: < 10000 € 
Mittel: 10000 bis
20000 €
Hoch: > 20000 €
ggf. weitere Informationen
Zeitaufwand
Gering: < 1 Woche 
Mittel: 1 Woche bis
1 Monat
Hoch: > 1 Monat
ggf. weitere Informationen
Vorbereitung

Fließtext/Stichpunkte
Durchführung

Fließtext/Stichpunkte
Nachbereitung/
Auswertung

Fließtext/Stichpunkte
Erstellung eines Kriterienkataloges
49
Kategorie
Kriterium
(Name der Methode)
5. Praxis-Tipps
Praxis-Tipps
Tipps:

Varianten:

6. Zweck
7. Verwandte
und weiterführende Methoden





Benutzer
Interaktion
Strukturen/Prozesse
Benutzererfahrung
Kontext
folgendes zu erstellen:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
folgendes zu bewerten:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Daten…




zu ordnen/organisieren
zu kommunizieren
zu dokumentieren
zu verbreiten
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
Verwandte Methoden
Aufzählung
Mögliche voran
gegangene Methoden/Tätigkeite
n
Stichpunkte/Aufzählung
Mögliche nachfol- 
gende Methoden/
Tätigkeiten
Stichpunkte/Aufzählung
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Zu beachtende
Normen und
Zertifikate
Quellen
Damit sind alle Kriterien des Kataloges definiert und das Layout wurde festgelegt. Der Kriterienkatalog
ist, so wie er in Tabelle 6 dargestellt ist, in der finalen Form und wird in diesem Aufbau im folgenden
Kapitel zur Beschreibung von Usability-Methoden verwendet.
Erstellung eines Kriterienkataloges
50
4 Usability-Methodenkatalog
In diesem Kapitel werden zunächst unterschiedliche Klassifizierungsmöglichkeiten für UsabilityMethoden analysiert. Ziel ist es, eine Auswahl von 23 Usability-Methoden, die im Rahmen dieser Arbeit beschrieben werden sollen, in geeignete Kategorien einzuordnen. Hierzu werden die untersuchten
Klassifizierungsmöglichkeiten, im Zusammenhang mit der Einordnung der gewählten Methoden, bewertet. Aus den ermittelten Vor- und Nachteilen wird eine geeignete Klassifizierungsmöglichkeit ausgewählt, die zur Strukturierung des Methodenkatalogs verwendet werden kann. Im Anschluss werden
die ausgewählten Usability-Methoden, nach den in Kapitel 3 definierten Kriterien, beschrieben und
nach der gewählten Kategorisierung strukturiert.
4.1 Klassifizierung von Usability-Methoden
Es gibt eine Vielzahl von Möglichkeiten Methoden zu klassifizieren, die von Buchautoren und Erstellern von Usability-Websites verwendet werden. Ziel der Klassifizierung ist die Strukturierung von Methoden, sodass solche mit gleichen Eigenschaften unter einem Oberbegriff zusammengefasst werden
können. Die Zusammenfassung ermöglicht eine übersichtlichere Darstellung und vereinfacht das Identifizieren von passenden Methoden zu einer bestehenden Projektsituation.
Im folgenden Verlauf werden zunächst bestehende Klassifizierungsmöglichkeiten analysiert und im
Zusammenhang mit den im Rahmen dieser Arbeit ausgewählten Methoden bewertet. Im Anschluss
werden geeignete Kategorien definiert, die zur Strukturierung der zu beschreibenden Methoden im
Methodenkatalog verwendet werden.
4.1.1 Analyse und Bewertung bestehender Klassifizierungsmöglichkeiten
Im Folgenden sollen zwei unterschiedliche Ansätze der Strukturierung thematisiert werden. Zunächst
wird die Einteilung von Methoden in Kategorien diskutiert, wie sie zur Strukturierung des Methodenkatalogs benötigt werden. Die Kategorien stellen festgelegte Sortierkriterien dar, nach denen die Methoden geordnet werden. Im Anschluss wird auf die Möglichkeit der Filterung eingegangen, um flexiblere Strukturen in einem webbasierten Methodenverzeichnis zu erzeugen. Hierbei lassen sich die Sortier- oder genauer die Filterkriterien frei wählen und so je nach Situation eine optimierte Strukturierung der Methoden erreichen.
Auf die Darstellung der existierenden Klassifizierungsmöglichkeiten folgt jeweils eine Bewertung im
Zusammenhang mit der Einteilung der 23 ausgewählten Usability-Methoden.
Als erstes sollen drei Möglichkeiten der Kategorisierung von Usability Methoden aufgezeigt werden die
von Sarodnick &Brau (2011) beschrieben werden.
Die erste Möglichkeit stellt eine grobe Einteilung in zwei Methoden-Gruppen, den empirischen und
den analytischen Methoden dar.
a. Bei den empirischen Methoden werden Informationen von Nutzern gewonnen. Hierbei testen
reale oder potenzielle Nutzer ein Produkt und werden dabei beobachtet oder im Anschluss an
den Test befragt. Durch die Interpretation der gewonnenen Daten werden Probleme der Gebrauchstauglichkeit aufgedeckt und Verbesserungsmöglichkeiten können abgeleitet werden
Usability-Methodenkatalog
51
b. Analytische Methoden beinhalten eine Beurteilung von Usability-Experten, die sich aufgrund
ihres Wissens und ihrer Erfahrung in die Lage von Nutzern versetzen und auf diese Weise
Usability-Probleme ausfindig machen und Lösungsvorschläge anbieten. (Sarodnick &Brau,
2011)
Tabelle 7 zeigt die Einteilung der ausgewählten Usability-Methoden in diese Kategorien.
Tabelle7:KlassifizierunginEmpirischeundAnalytischeMethoden
Empirische Methoden
A/B-Testing
AttrakDiff
Benchmarking
Blickbewegungsanalyse
Fokusgruppe
Fragebogen
Interview
Kontextuelles Interview
Lautes Denken
Mausbewegungsmessung
Online-Befragung
Paper-Prototyping
Usability-Test
Wizard of Oz
Analytische Methoden
Cognitive Walkthrough
Heuristische Evaluation
Sonstige
Affinity-Diagramm
Aufgabenanalyse
Card Sorting
Personas
Prototyping
Storyboarding
Szenarien
Wie zu sehen ist, können nicht alle Methoden eindeutig in die beiden Klassen eingeteilt werden. Die
Methoden Aufgabenanalyse und Card Sorting könnten zu den empirischen Methoden gezählt werden,
falls sie unter der Einbeziehung von Nutzern angewendet werden. Bei den Methoden AffinityDiagramm, Personas, Prototyping, Storyboarding und Szenarien besteht eine Ähnlichkeit zu analytischen Methoden, allerdings werden bei ihnen im Allgemeinen keine Usability-Experten zur Durchführung benötigt. Somit stellt diese Art zur Klassifizierung keine geeignete Variante für die Strukturierung
der gewählten Usability-Methoden dar.
Die zweite Einteilungsmöglichkeit die Sarodnick & Brau aufzeigen, ist die Unterteilung in summative
und formative Evaluations-Methoden.
a. Summative Methoden werden gegen Ende des Entwicklungsprozesses eingesetzt, um die Qualität eines Produkts zu überprüfen.
b. Formative Methoden werden hingegen entwicklungsbegleitend eingesetzt, um Verbesserungsmöglichkeiten aufzuzeigen. (Sarodnick &Brau, 2011)
Tabelle 8 teilt die 23 gewählten Methoden in dieses Schema ein.
Tabelle8:KlassifizierunginsummativeundformativeMethoden
Summative Methoden
A/B-Testing
AttrakDiff
Benchmarking
Cognitive Walkthrough
Heuristische Evaluation
Usability-Test
Usability-Methodenkatalog
Formative Methoden
Affinity-Diagramm
Aufgabenanalyse
Card Sorting
Fokusgruppe
Kontextuelles Interview
Paper-Prototyping
Personas
Prototyping
Storyboarding
Szenarien
Wizard of Oz
Sonstige
Blickbewegungsanalyse
Fragebogen
Interview
Lautes Denken
Mausbewegungsmessung
Online-Befragung
52
Auch hier zeigt sich, dass sich einige Methoden nicht in die Kategorien einfügen lassen. Blickbewegungsanalyse, Mausbewegungsmessung sowie die Befragungsmethoden Fragebogen, Interview und
Online-Befragung lassen sich nicht eindeutig zuordnen. Sie können sowohl zur Qualitätsprüfung bei
fertigen Produkten, als auch zur Optimierung von Prototypen verwendet werden. Die Methode Lautes
Denken zielt darauf ab, dass ein Proband seine Handlungen und Gedanken verbalisiert, während er
beobachtet wird. Diese Methode lässt sich nicht in das Schema von summativen und formativen Methoden einreihen. Auch mit dieser Klassifizierungsmöglichkeit lassen sich die gewählten UsabilityMethoden nicht in die vorgegebenen Klassen einfassen. Damit ist auch diese Variante für die im Rahmen dieser Arbeit gewählten Methoden ungeeignet.
In einer dritten Möglichkeit unterteilen Sarodnick &Brau Usability-Methoden anhand der fünf folgenden Kategorien: Gestaltungsrichtlinien, Formal-analytische Verfahren, Inspektionsmethoden, UsabilityTests und Fragebogen.
a. Unter Gestaltungsrichtlinien (engl. Design-Guidelines) verstehen sie Grundsätze zur nutzergerechten Gestaltung von Systemen. Hierunter fallen Regelsammlungen, sog. Guidelines, nach
denen ein Produkt überprüft und die Gebrauchstauglichkeit verbessert werden kann. Ein konkreter Vertreter dieser Kategorie ist z.B. Guidelines for Designing User Interface Software.
b. Die formal-analytischen Verfahren sind solche Methoden, bei denen Usability-Experten Benutzerschnittstellen anhand von festgelegten Formalismen analysieren und beschreiben. Sarodnick
& Brau teilen die Kategorie in zwei Untergruppen ein, die aufgabenanalytischen Verfahren und
die Expertenleitfäden. Zur ersten Gruppe zählen Methoden, welche die Gebrauchstauglichkeit
aus der Sicht der Aufgaben, die mit dem System erfüllt werden sollen, betrachten. Hierzu zählt
z.B. das GOMS-Modell, bei dem Zeiten für bestimmte physische und kognitive Prozesse vorgegeben sind, mittels derer auf die notwendige Bearbeitungszeit von Aufgaben geschlossen werden kann. Die Gruppe der Expertenleitfäden zeichnet sich dadurch aus, dass bei ihnen Experten
leitfadenorientierte Prüfverfahren durchführen, um die Gestaltung von Benutzerschnittstellen
zu optimieren. Sarodnick & Brau nennen EVADIS II als Beispiel. Mit dieser Methode werden die
Funktionalität und die ergonomische Qualität von Mensch-Computer-Schnittstellen für den Bürobereich evaluiert.
c. Bei den Inspektionsmethoden untersuchen Usability-Experten ein Produkt auf Probleme bei der
Gebrauchstauglichkeit. Beispiele für Methoden dieser Kategorie sind die Heuristische Evaluation, bei der Experten ein System aufgrund von erstellten Richtlinien und Erfahrungen auf Probleme überprüfen, und der Cognitive Walkthrough, bei dem die Erlernbarkeit eines Systems im
Vordergrund steht.
d. Die Kategorie der Usability-Tests umfasst neben der gleichnamigen Methode auch weitere Methoden, die im Zusammenhang mit Usability-Tests anwendbar sind. Bei der Methode „UsabilityTest“ verwenden Nutzer das zu testende Produkt und werden dabei von Usability-Experten beobachtet. Hierbei werden Aspekte der Bedienung aufgedeckt, die dem Nutzer Probleme bereiten. Weitere Methoden, die zu dieser Kategorie gezählt werden, sind z.B. das Laute Denken, bei
dem ein Proband seine Handlungen, Gedanken und Meinungen verbalisiert, während er ein
Produkt testet. Ein weiteres Beispiel stellt die Methode der Blickbewegungsmessung dar, bei
der aufgezeichnet wird, wohin ein Proband bei der Nutzung eines Produkts blickt.
e. Als letzte Methoden-Klasse werden die Fragebogen genannt. Hierunter fallen besondere, meist
standardisierte Fragebogen wie die Methode AttrakDiff, bei der die Qualität und Attraktivität
Usability-Methodenkatalog
53
eines Produkts mittels eines vorgegebenen Fragebogens bei Nutzern abgefragt wird. (Sarodnick
&Brau, 2011)
In Tabelle 9 sind die Methoden dieser Arbeit in diese Klassen einsortiert.
Tabelle9:KlassifizierungsmöglichkeitfürUsability‐MethodennachSarodnick&Brau(2011)
Gestaltungsrichtlinien
Formal-analytische
Verfahren
Inspektionsmethoden
Cognitive Walkthr.
Heurist. Evaluation
Usability-Tests
Fragebogen
Sonstige
A/B-Testing
Blickbewegungsanal.
Lautes Denken
Mausbewegungsm.
Usability-Test
AttrkDiff
Fragebogen
Online-Befragung
Affinity-Diagramm
Aufgabenanalyse
Benchmarking
Card Sorting
Fokusgruppe
Interview
Kontextu. Interview
Paper-Prototyping
Personas
Prototyping
Storyboarding
Szenarien
Wizard of Oz
Es zeigt sich, dass viele der hier gewählten Methoden nicht nach diesen Kategorien eingeteilt werden
können. Dies hängt damit zusammen, dass es sich bei den Methoden nicht um Usability-EvaluationMethoden handelt, für die diese Klassifizierungsmöglichkeit gedacht ist. Es ist allerdings ebenfalls erkennbar, dass sich die gewählten Methoden der Usability-Evaluation eindeutig in die Kategorien Inspektionsmethoden und Usability-Tests einfügen lassen. Demnach sind diese beiden Kategorien prinzipiell für die Einteilung der beschriebenen Methoden geeignet. Für die übrigen Methoden, welche sich
nicht einteilen lassen, müssten alternative Kategorien definiert werden, um eine Systematisierung für
alle Methoden des Katalogs zu erzielen.
Eine weitere Einteilung von Usability-Methoden wird von Bernsen & Dybkjær (2010) verwendet. Ihre
Systematisierung von Methoden ist an die jeweilige Art der Datenermittlung angelehnt. Es sind fünf
Kategorien festgelegt: Fragen/Antworten (Question-answering), Treffen mit Diskussion (Meetings with
discussion), Beobachtung (Observation), Vorstellungskraft (Imagination) und Interaktion mit dem zu
entwickelnden System (Interaction with the system under development).
a. Unter der ersten Kategorie Fragen/Antworten zählen die Autoren Methoden, bei denen eine Befragung potentieller oder tatsächlicher Nutzer, Kunden oder Experten durchgeführt wird. Entsprechende Methoden sind z.B. das Experteninterview oder der Online-Fragebogen.
b. Die Kategorie Treffen mit Diskussion beinhaltet Methoden, bei denen Gruppendiskussionen geführt werden. Ein Beispiel für eine Methode dieser Kategorie ist die Fokusgruppe. Hierbei werden potenzielle Nutzer eines Produktes eingeladen und diskutieren, geleitet durch einen Moderator, über ihre Erwartungen, Wünsche und Gefühle, die sie gegenüber dem zu entwickelnden
Produkt haben.
c. Methoden der Kategorie Beobachtung untersuchen die Handlungen von Nutzern oder den Kontext der Nutzung eines Produkts. Ein typischer Vertreter dieser Kategorie ist die Methode
Usability-Test.
d. Die Kategorie Vorstellungskraft beinhaltet Methoden, deren Ergebnisse auf der Erfahrung und
der Vorstellungskraft der durchführenden Entwickler oder Experten basieren. Für diese Methoden werden keine Nutzer benötigt und es ist auch keine Vorabversion des Produkts oder ein
Usability-Methodenkatalog
54
Prototyp notwendig. Beispiele für Methoden dieser Gruppe sind Nutzungsszenarien (vgl. Kapitel 4.2.2) und Personas (vgl. Kapitel4.2.1).
e. Die fünfte Kategorie Interaktion mit dem zu entwickelnden System enthält Methoden, bei denen
Nutzer einen Prototyp des Produkts verwenden. Methoden dieses Bereichs sind beispielsweise
Lautes Denken und Wizard of Oz. Bei letzterer Methode wird ein Prototyp eines technischen
Systems mit noch eingeschränkter Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur beobachtet die Aktionen des Anwenders und simuliert die Systemantwort für die noch nicht implementierten Funktionen in Echtzeit. Das ganze geschieht
meist, ohne dass der Anwender es während seinem Test bemerkt.
Tabelle10:KlassifizierungvonUsability‐MethodennachBernsen&Dybkjær(2010)
Fragen/Antworten
AttrakDiff
Fragebogen
Interview
Online-Befragung
Treffen mit
Diskussion
Fokusgruppe
Beobachtung
Vorstellungskraft
A/B-Testing
Aufgabenanalyse
Benchmarking
Blickbewegungsm.
Kontextue. Interview
Lautes Denken
Mausbewegungsm.
Usability-Test
Wizard of Oz
Aufgabenanalyse
Personas
Storyboarding
Szenarien
Interaktion mit d. zu
entwickelnd. System
Cognitive Walkthr.
Heurist. Evaluation.
Lautes Denken
Paper-Prototyping
Prototyping
Usability-Test
Wizard of Oz
Sonstige
Affinity-Diagramm
Card Sorting
Wie in Tabelle 10 ersichtlich, lassen sich bei dieser Einteilungsmöglichkeit nach Bernsen &Dybkjær
(2010) die zwei Methoden Affinity-Diagramm und Card Sorting nicht zuordnen. Außerdem ist bei den
Methoden Aufgabenanalyse, Usability-Test, Wizard of Oz und Lautes Denken, die in Tabelle 10 grau
hervorgehoben sind, keine eindeutige Zuordnung möglich und die Methoden tauchen in mehr als einer
Kategorie auf. Dies hängt damit zusammen, dass sich die von den Autoren gewählten Kategorien Beobachtung und Interaktion mit dem zu entwickelnden System überschneiden. Positiv ist im Zusammenhang mit der Einteilung der hier gewählten Methoden die Kategorie Fragen/Antworten zu nennen.
Diese Kategorie stellt eine Erweiterung der Kategorie Fragebogen nach Sarodnick &Brau (2011) dar,
in die auch andere Befragungsmethoden wie z.B. das Interview eingeordnet werden können. Da die
Methode Fokusgruppe die einzige der gewählten Methoden ist, die in die Kategorie Treffen mit Diskussion eingeordnet wird, würde sich eine Zusammenlegung dieser Kategorie mit der Frage/AntwortKategorie anbieten.
Weitere Klassifizierungen finden sich auf Internetplattformen zum Thema Usability-Methoden.
Die Website „Usability Body of Knowledge“ verwendet eine detaillierte Klassifizierung um Methodenbeschreibungen zu strukturieren (UXPA, 2012).
a. Die Kategorie Nutzerforschung (engl. User Research) enthält Methoden, mit denen etwas über
die Benutzer eines Produkts herausgefunden werden kann. Mit Ausnahme der Methode Fokusgruppe sind alle weiteren Methoden in Unterkategorien eingeteilt. Die Unterkategorie Nutzungskontext (Context of Use) enthält Methoden, die den Zusammenhang betrachten, in dem
ein Produkt benutzt wird. Dies können z.B. zeitliche oder räumliche Aspekte der Nutzung eines
Produkts ein. Typische Fragen sind: Wann, wo, wie und warum verwendet ein Nutzer ein Produkt. Ein Beispiel für eine Methode dieser Unterkategorie ist das Kontextuelle Interview, bei
Usability-Methodenkatalog
55
b.
c.
d.
e.
f.
dem ein Proband bei der Verwendung eines Produkts in seiner natürlichen Nutzungsumgebung
beobachtet und interviewt wird. Eine weitere Unterkategorie sind die ethnographischen Methoden (Ethnographic Methods). Bei diesen Methoden soll ein Einblick in den Alltag von Personen
und ihre kulturbedingten Wertevorstellungen erhalten werden. Ein Beispiel ist die Methode
Cultural Probe, bei der mittels Objekten wie Tagebücher, Fotos, Postkarten oder ähnliches,
Einblicke in das Leben von Probanden erhalten wird und somit Erfahrungen, Handlungen und
Emotionen von Personen erkannt und verstanden werden können. Die dritte und letzte Unterkategorie sind die Feldstudien Methoden (Field Study Methods), bei denen Nutzer bei ihrer Arbeit beobachtet werden und so Daten über sie und über ihre Bedürfnisse gesammelt werden.
Ein Beispiel für dieses Methodenfeld ist die Tagebuchstudie (Diary Study). Hierbei findet eine
Selbstbeobachtung der Teilnehmer statt, die ihre Tätigkeiten in Form eines Tagebuchs festhalten.
Die zweite Kategorie sind die Methoden der Anforderungsanalyse (Requirements Methods). Mit
diesen Methoden werden Anforderungen, die an ein Produkt bestehen ermittelt. Methoden dieser Kategorie sind z.B. Personas und Nutzungsszenarien.
Die Kategorie der kognitiven Modelle (Cognitive Models) entspricht der Klasse der aufgabenanalytischen Verfahren, die von Sarodnick & Brau verwendet wird. Ein Beispiel für eine Methode
dieser Gruppe ist demnach das GOMS-Modell.
Eine weitere Methodenklasse des Usability Body of Knowledge sind die Aufgabenanalyse und
Modellierungsmethoden (Task Analysis and Modelling Methods). Bei den Methoden dieser Kategorie geht es um die Untersuchung von Aufgaben. Die klassische Methode der Aufgabenanalyse
(Task Analysis) ist ein Vertreter dieser Klasse. Hierbei werden Arbeitsabläufe betrachtet und
untersucht. Es gibt mehrere Varianten dieser Methode - beispielswiese die Hierarchical Task
Analysis, bei der die hierarchische Struktur von Arbeitsabläufen betrachtet wird – die ebenfalls
zu dieser Methodenkategorie gezählt werden.
Die Gruppe der Entwurfsmethoden (Design Methods) umfasst Methoden, die das Entwerfen von
Produkten zum Thema haben. Beispiele hierfür sind das Card Sorting, mit dem z.B. die Sitemap
einer Internetseite entwickelt werden kann und Prototyping Methoden, die das Ziel haben Prototypen eines Produktes zu entwickeln, um sich bereits vor der Fertigstellung das Endprodukt
zu vergegenwärtigen.
Die letzte Kategorie sind die Usability Evaluations Methoden (Usability Evaluation Methods).
Die Kategorie gliedert sich in mehrere Unterkategorien. Die erste wird durch die UsabilityInspektionsmethoden gebildet, zu denen, analog zur Definition von Sarodnick &Brau (2011)
Methoden wie die Heuristische Evaluation oder der Cognitive Walkthrough zählen. Weitere Unterkategorien sind Usability-Tests mit Nutzern, zu denen Methoden wie der Usability-Test selbst
oder auch die Methode Wizard of Oz zählen, und die Unterkategorie Fragebogen und Umfragen
(Questionnaire and Survey Methods) die entsprechend der Bezeichnung Methoden wie beispielsweise AttrakDiff enthalten. (UXPA, 2012)
Tabelle 11 zeigt die gewählten Methoden, eingeordnet in die Kategorien von usabilitybok.org. Die Methode Affinity-Diagramm lässt sich in keine der vorgesehenen Kategorien einordnen. Außerdem lassen
sich die Befragungsmethoden wie z.B. Interview und Fragebogen nicht eindeutig zuordnen, da sie sowohl zur Nutzerforschung als auch als Werkzeug für die Usability-Evaluation genutzt werden können.
Die Methode Personas lässt sich ebenfalls nicht eindeutig zuordnen, da neben dem Aspekt der Nutzerforschung auch die Anforderungsanalyse im Fokus der Methode steht. Positiv ist bei dieser KlassifizieUsability-Methodenkatalog
56
rungsmethode die Kategorie Entwurfsmethoden hervorzuheben, da sich hierin alle Methoden des
Prototypings zusammenfassen lassen.
Tabelle11:KlassifizierungvonUsability‐MethodennachderStrukturierungaufwww.usabilitybok.org
Nutzerforschung
Anforderungsanalyse
Fokusgruppe
Fragebogen
Interview
Kontext. Interv.
Online-Befragung
Personas
Personas
Szenarien
Kognitive
Modelle
Aufgabenanalyse
und Modellier.
Entwurfsmethoden
Aufgabenanalyse
Card Sorting
Paper-Prototyp.
Prototyping
Storyboarding
UsabilityEvaluationsmethoden
A/B-Testing
AttrakDiff
Benchmarking
Blickbewegung.
Cognitive Walkth.
Fragebogen
Heurist. Evaluat.
Interview
Lautes Denken
Mausbewegung.
Online-Befragung
Usability-Test
Wizard of Oz
Sonstige
Affinity-Diagr.
Eine weitere Möglichkeit der Klassifizierung von Usability-Methoden wird auf der Website
„UsabilityNet“ aufgezeigt. Die Einteilung ist in Abbildung 3 dargestellt und orientiert sich an den Phasen eines Entwicklungsprojekts.
a. Die erste Kategorie Planung und Machbarkeit (Planning & Feasibility) richtet sich an die frühe
Entwicklungsphase und beinhaltet Methoden, die den Einstieg in ein Projekt unterstützen und
für den effektiven Einsatz von Usability-Maßnahmen im weiteren Projektverlauf sorgen. Ein
Vertreter dieser Methoden ist die ISO 13407, nach der ein Plan erstellt wird, in dem nutzerzentrierte Gestaltungsmaßnahmen über den gesamten Produktlebenszyklus hinweg geplant werden.
b. Die zweite Kategorie Anforderungen (Requirements) enthält Methoden die bei der Ermittlung
von Nutzer- und Usability-Anforderungen helfen. Die Methoden unterstützen das Sammeln von
Informationen. Beispiele sind Interviews, Fokusgruppen und Brainstorming, und das Strukturieren von Informationen z.B. durch die Methode des Card Sortings.
c. Die Kategorie Entwurf beinhaltet Methoden, um einen Entwurf des Produkts zu entwickeln und
zu testen. Hierzu zählen Methoden des Prototypings wie z.B. die Methode Wizard of Oz sowie
Evaluationsmethoden z.B. die Heuristische Evaluation.
d. Die beiden Methoden der Kategorie Implementierung sollen sicherstellen, dass in der Umsetzungsphase die Prinzipien der Gebrauchstauglichkeit angewendet und umgesetzt werden. Style
guides stellen beispielsweise Gestaltungsrichtlinien dar, um einen konsistenten Aufbau des
Nutzerinterfaces sicherzustellen.
e. Die Kategorie Tests & Messungen beinhaltet Evaluationsmethoden, mit denen die Erfüllung der
Anforderungen überprüft werden kann. Es besteht die Möglichkeit der nutzerbasierten Evaluation z.B. mittels Performance testing oder der expertenbasierten Evaluation beispielsweise mit
Anwendung der Heuristischen Evaluation. Mit Hilfe dieser Methoden lassen sich UsabilityProbleme aufspüren und Verbesserungen ableiten.
Usability-Methodenkatalog
57
f.
Die letzte Kategorie Post Release enthält Methoden, die nach der Veröffentlichung des Produkts
angewendet werden können. Ziel ist die Verbesserung des Produkts. Auch in dieser Phase bietet sich die Methode der Nutzerbefragung (User surveys) an. (UsabilityNet, 2006a)
Abbildung3:KategorisierungvonUsability‐MethodenanhandvonProjektphasen(UsabilityNet,2006a)
Tabelle 12 zeigt die Einordnung der gewählten Methoden nach der Strukturierung von UsabilityNet
(2006a).
Tabelle12:KlassifizierungvonUsability‐MethodennachderStrukturierungaufwww.usabilitynet.org
Planung &
Machbarkeit
Anforderungen
Entwurf
Affinity-Diagr
Aufgabenanalyse
Benchmarking
Card Sorting
Fokusgruppe
Fragebogen
Interview
Kontext. Interv.
Online-Befragung
Personas
Szenarien
Cognitive Walkth.
Heurist. Evaluat.
Papter-Prototyp.
Prototyping
Stroyboarding
Wizard of Oz
Implementierung
Tests &
Messungen
Benchmarking
Blickbewegunsa.
Cognitive Walkth.
Fragebogen
Heurist. Evaluat.
Interview
Mausbeweg.
Online-Befragung
Usability-Test
Post Release
Sonstige
A/B-Testing
AttrakDiff
Benchmarking
Fragebogen
Interview
Online-Befragung
Lautes Denken
Es ist zu sehen, dass sich viele Methoden nicht eindeutig zuordnen lassen und mehreren Kategorien
zugeteilt sind. Dies gilt insbesondere für die Befragungsmethoden wie z.B. dem Interview. Diese Methoden lassen sich sowohl in frühen Entwicklungsphasen zur Ermittlung von Anforderungen als auch
in späteren Phasen im Rahmen von Usability-Tests verwenden. Außerdem können sie nach dem ReleaUsability-Methodenkatalog
58
se eingesetzt werden um Informationen über das entwickelte Produkt einzuholen. Die Methode Lautes
Denken lässt sich nicht einordnen, da sie keiner bestimmten Projektphase zuzuordnen ist. Als positiver
Aspekt ist bei dieser Klassifizierungsmöglichkeit, im Zusammenhang mit der Einordnung der gewählten Methoden, die Kategorie Anforderungen zu nennen. Abgesehen von den Befragungsmethoden lassen sich die gewählten Methoden eindeutig in diese Kategorie einteilen.
Eine weitere Möglichkeit der Unterteilung von Methoden stellt die Filterung dar. Diese Möglichkeit
bietet sich besonders bei digitalen Verzeichnissen wie z.B. Websites an, auf denen der Nutzer die Auswahl der angezeigten Objekte bestimmen kann.
Eine umfangreiche Auswahl an Filterkriterien ist auf der Website der UCDtoolbox gegeben. Eine ausführliche Beschreibung dieser wurde bereits in Kapitel 3.1.1 auf Seite 11, im Rahmen der Analyse von
Kriterienkatalogen gegeben. Wie in Abbildung 4 zu sehen ist, ist die Website so aufgebaut, dass auf der
linken Seite die Filterkriterien gesetzt werden können. Im rechten Anzeigebereich werden die entsprechenden Methoden dargestellt.
Abbildung4:FilterungsmöglichkeitderMethodenaufderWebsitederUCDtoolbox(http://filter.ucdtoolbox.com/filter)
Auf Grundlage der Methodenbeschreibungen, die im weiteren Verlauf dieses Kapitels erstellt werden,
kann eine vergleichbare Internetplattform für deutsche Nutzer aus softwareentwickelnden KMU zusammengestellt werden. Eine ähnliche Art der Filterung kann ebenfalls umgesetzt werden. Angelehnt
an die Filterungsmöglichkeit der UCDtoolbox werden dem erstellten Methodenkatalog jene Informationen hinzugefügt, die für eine Filterung nach dem Kriterium Zweck benötigt werden. Tabelle 13 zeigt
diese Informationen zusammengefasst. Für die 23 ausgewählten Usability-Methoden, die im Rahmen
dieser Arbeit beschrieben werden sollen, ist hier der Zweck ihrer Anwendung dargestellt. Aufbauend
Usability-Methodenkatalog
59
auf den angegebenen Daten lässt sich eine Filtermöglichkeit, ähnlich jener, die bei der UCDtoolbox
verwendet wird, auf einer Internetplattform für deutsche KMU implementieren.
X
folgendes zu
bewerten:
X
X
Physikalisches Produkt
X
X
X
X
X
X
Integriertes Produkt
X
X
X
Dienstleistung
X
X
Umgebung/Ort
X
X
X
X
X
X
X
Integriertes Produkt
X
X
X
Dienstleistung
X
X
Umgebung/Ort
X
zu ordnen/organisieren
X
zu kommunizieren
X
zu dokumentieren
X
zu verbreiten
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
Szenarien
X
X
X
X
X
X
X
X
X
X
X
X
Storyboarding
Prototyping
Personas
Paper-Prototyping
Mausbewegungsmessung
Online-Befragung
Lautes Denken
Kontextuelles Interview
Interview
Heuristische Evaluation
Fragebogen
X
X
X
X
X
X
X
X
Software
Daten…
X
X
X
X
X
Ideen & Konzepte
Physikalisches Produkt
X
X
X
X
X
X
Ideen & Konzepte
Software
X
X
Kontext
folgendes zu
erstellen:
Fokusgruppe
Cognitive Walkthrough
X
Card Sorting
Blickbewegungsanalyse
X
Wizard of Oz
Benutzererfahrung
X
Usability-Test
X
Benchmarking
X
Aufgabenanalyse
AttrakDiff
Affinity-Diagram
Die Methode
ist anwendbar, wenn es
das Ziel ist…
mehr zu
Benutzer
erfahren
Interaktion
über…
Strukturen/Prozesse
A/B-Testing
Tabelle13:ZusammenfassungderInformationendesKriteriumsZweckdesMethodenkatalogs
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
Neben der Filterung nach dem Zweck lassen sich weitere Filterkriterien anhand der enthaltenen Informationen der Methodenbeschreibungen realisieren. Es ist z.B. eine Filterung nach der Projektphase
denkbar, in der die Methode angewendet werden kann. Ebenfalls lassen sich Kriterien wie die Benötigte Teilnehmeranzahl, die Art der Einbeziehung und die Rolle der Teilnehmer, die Kosten sowie der Zeitaufwand als Filterkriterien umsetzen.
4.1.2 Festlegen einer Klassifizierungmöglichkeit zur Verwendung im Methodenkatalog
Für die Klassifizierung der in dieser Arbeit zu beschreibenden Methoden soll eine möglichst eindeutige
Einteilung erfolgen. Es ist zu verhindern, dass sich einzelne Methoden nicht eingliedern lassen und
dass Methoden gleichzeitig in mehreren Kategorien eingeteilt sind.
Nach der Analyse und der Bewertung aller betrachteten Klassifizierungsmöglichkeiten lässt sich sagen,
dass keine der Varianten gänzlich für die Verwendung im Rahmen dieser Arbeit geeignet erscheint. Bei
allen Möglichkeiten würde es zu Problemen bei der Einteilung kommen und Methoden würden sich
nicht eindeutig einer Kategorie zuteilen lassen. Allerdings lassen sich, durch eine Kombination der analysierten Kategorien, alle 23 gewählten Methoden in eine strukturierte Form überführen. Durch eine
Kombination der positiven Aspekte der betrachteten Varianten und durch eine Umbenennung der Kategorien zur Konkretisierung können alle Einteilungsprobleme beseitig werden.
Usability-Methodenkatalog
60
Ausgehend von den Ergebnissen der Analyse werden fünf Kategorien definiert, deren Bezeichnungen
sich an den Zielen der beinhaltenden Methoden orientieren:





Anforderungsanalyse und Strukturierung
Befragung
Prototyping
Usability-Test mit Nutzern
Usability-Inspektion.
Im Folgen werden die einzelnen Methodenklassen beschrieben.
a. Die Kategorie Anforderungsanalyse und Strukturierung wurde nach dem Vorbild der Kategorie
Anforderungen gemäß UsabilityNet (2006a) definiert. Sie enthält Methoden deren Ziel es ist,
Anforderungen zu ermitteln und zu strukturieren, sowie Methoden bei denen die Strukturierung und Analyse von Informationen und Prozessen im Vordergrund steht. Die Benennung der
Kategorie wurde entsprechend angepasst, um die beinhaltenden Methoden konkreter zu beschreiben. Die Methoden dieser Kategorie werden meist in den frühen Phasen des Entwicklungsprozesses verwendet, um Anforderungen und Eigenschaften des zu entwickelnden Produkts festzulegen. Typische Vertreter dieser Kategorie sind die Methoden Personas, Card
Sorting und Aufgabenanalyse. Die Methoden dieser Kategorie werden in Kapitel 4.2 beschrieben. Nach den analysierten Problemen auf der Website UsabilityNet, werden Befragungsmethoden aus der Kategorie Anforderungsanalyse und Strukturierung ausgelagert und in einer gesonderten Kategorie Befragung aufgeführt.
b. Die zweite Kategorie Befragung orientiert sich an der Kategorie Fragen/Antworten nach
Bernsen &Dybkjær (2010) und zielt darauf ab, Informationen von tatsächlichen oder potentiellen Nutzern des Produkts, von Experten oder von sonstigen Personen zu erhalten. Diese Informationen können z.B. mithilfe von Interviews oder Fragebogen gewonnen werden. Der Inhalt
der gewonnenen Erkenntnisse kann vielfältig sein und z.B. Wissen über die Benutzer selbst,
den Kontext in dem ein Produkt verwendet wird oder die Meinung der Befragten zu einem
Produkt bzw. zu einem Thema beinhalten. Entsprechend ist auch kein fester Zeitpunkt zur Anwendung dieser Methoden im Entwicklungszyklus eines Produkts festgelegt. In Kapitel 4.3
werden die Methoden dieser Kategorie beschrieben.
c. Die dritte Kategorie Prototyping ist an die Kategorie Entwurfsmethoden nach UXPA (2012) angelehnt und enthält Methoden, die es zum Ziel haben eine Repräsentation des zu entwickelnden Produkts oder Teile dessen zu entwickeln.5 Die Methoden dieser Kategorie sind an keine
feste Produktphase gebunden und lassen sich je nach Detailgrad zu vielen Zeitpunkten des Produktentwicklungsprozesses anwenden. Die Bezeichnung der Methode wurde im Vergleich zur
Vorlage nach UXPA in Prototyping geändert, um besser verständlich zu machen, dass die Kategorie Prototyping-Methoden umfasst. Die Beschreibungen der Prototyping-Methoden sind in
Kapitel 4.4 gegeben.
5
Im Gegensatz zur Vorlage nach UXPA (2012) wird die Methode Card Sorting nicht in die Kategorie Prototyping aufgenommen, sondern
unter Anforderungsanalyse und Strukturierung aufgeführt, da die Strukturierung von Informationen bei der Methode im Vordergrund
steht und die Evaluation einer Sitemap als „Website-Prototyp“ nur ein spezieller Anwendungsfall der Methode ist.
Usability-Methodenkatalog
61
d. Die vierte Kategorie Usability-Test mit Nutzern ist nach der Vorlage von Sarodnick &Brau
(2011) gewählt, während sich die Bezeichnung an der Wahl von UXPA (2012) orientiert. Die
Kategorie beinhaltet Methoden, die im Kontext eines Usability-Tests angewendet werden können. Dies sind hauptsächlich Methoden, bei denen potentielle oder tatsächliche Nutzer bei der
Verwendung des Produkts beobachtet werden. Die entsprechenden Methodenbeschreibungen
sind in Kapitel 4.5 zu finden.
e. Die fünfte Kategorie Usability-Inspektion orientiert sich an der gleichnamigen Kategorie von
Sarodnick &Brau (2011) und hat zum Ziel, ein Produkt von Usability-Experten testen zu lassen. Entsprechend der Vorlage nach Sarodnick &Brau beinhaltet diese Kategorie z.B. die Methode der Heuristischen Evaluation. Die Methodenbeschreibungen sind in Kapitel 4.6 enthalten.
Die konkrete Aufteilung der gewählten Usability-Methoden auf die abgeleiteten Kategorien ist in Tabelle 14 zu sehen. Ebenfalls ist in der Tabelle festgelegt, in welcher Reihenfolge die Methoden im finalen Katalog aufgeführt werden. Hierbei wurde vom Allgemeinen zum Speziellen angeordnet. So wird
in der Kategorie Prototyping zunächst die gleichnamige Methode beschrieben, die einen Überblick über
die verschiedenen Anwendungsvarianten gibt und das grundsätzliche Vorgehen bei den Methoden
dieser Gruppe beschreibt. Das gleiche gilt für die Methoden der Kategorie Usability-Test mit Nutzern.
Hier wird zunächst die Methode Usability-Test beschrieben, bevor im Anschluss weitere Methoden,
deren Anwendung im Rahmen des Usability-Tests sinnvoll sein können, detailliert dargestellt werden.
Zusätzlich zu der Sortierung zum Speziellen, wurden verwandte bzw. ähnliche Methoden innerhalb
der Kategorien gruppiert. So folgen z.B. die Methoden Personas und Szenarien aufeinander, da sie
ähnlich in ihrer Anwendung sind und bei beiden die Vorstellungskraft der Anwender eine entscheidende Rolle spielt. Bei den Befragungsmethoden wurden Methoden zur mündlichen Befragung und solche
zur schriftlichen Befragung zusammengelegt.
Tabelle14:FinaleKlassifizierungderimRahmendieserArbeitgewähltenMethoden
Anforderungsanalyse und
Strukturierung
Persona
Szenarien
Benchmarking
Aufgabenanalyse
Kontextuelles Interview
Card Sorting
Affinity-Diagramm
Befragung
Prototyping
Usability-Test mit Nutzern
Usability-Inspektion
Interview
Fokusgruppe
Fragebogen
AttrakDiff
Online-Befragung
Prototyping
Storyboarding
Paper-Prototyping
Wizard of Oz
Usability-Test
Lautes Denken
Blickbewegungsanalyse
Mausbewegungsmessung
A/B-Testing
Cognitive Walkthrough
Heuristische Evaluation
Durch die gewählte Klassifizierungsvariante konnte eine geeignete Lösung gefunden werden, um alle
23 Methoden, die im Rahmen dieser Arbeit beschrieben werden sollen, sinnvoll zu kategorisieren. Es
konnte eine Einteilung erreicht werden, die alle Methoden strukturiert, ohne dass sich einzelne Methoden nicht zuordnen lassen würden oder Methoden in mehr als einer Kategorie aufgeführt wären.
Zusammen mit der strukturierten Anordnung des Kriterienkatalogs, der in Kapitel 3 entwickelt wurde,
sind somit die Grundvoraussetzungen geschaffen, um einen strukturierten Methodenkatalog aufzubauen, der systematisiertes Methodenwissen bereitstellen kann.
Unabhängig von der gewählten Lösung für die vorliegende Arbeit hat die Untersuchung der Klassifizierungsmöglichkeiten gezeigt, dass eine Eignung der Varianten stark vom jeweiligen Anwendungsfall
und von den betreffenden Methoden sowie deren Beschreibungen abhängig ist. Je nachdem, welche
Usability-Methodenkatalog
62
Methoden strukturiert werden sollen und welche Anforderungen an die Strukturierung bestehen, kann
jede der betrachteten Möglichkeiten in bestimmten Fällen geeignet sein. So ist beispielsweise die Einteilung nach Sarodnick &Brau (2011) gut geeignet, wenn es darum geht, Methoden der UsabilityEvaluation einzugliedern. Die Variante nach UsabilityNet (2006a), bei der Methoden nach Projektphasen gegliedert sind, kann beispielsweise sinnvoll sein, wenn das mehrfache Auftauchen einzelner Methoden in unterschiedlichen Kategorien kein Problem darstellt.
Der Aspekt des mehrfachen Vorhandenseins einer Methode in unterschiedlichen Kategorien ist eine
Problematik, die unteranderem daraus resultiert, dass Methoden nicht genormt sind, demnach je nach
Autor unterschiedlich beschrieben werden können und teilweise auch in abgewandelter Form auftreten. Dies hat zur Folge, dass ein und dieselbe Methode unterschiedliche Ziele verfolgt, zu unterschiedlichen Zeiten in der Produktentwicklung eingesetzt wird, im Ablauf variiert und auch die Art der Anwendung sich verändern kann.
Die aufgezeigten Beispiele machen deutlich, dass die Existenz einer generischen Strukturierung von
Usability-Methoden, die universell für alle existierenden Methoden eine eindeutige Klassifizierung, in
eine einzige Kategorie bietet und dabei gleichzeitig bei einer sinnvollen Anzahl an Kategorien bleibt,
äußerst fragwürdig erscheint.
Im folgenden Verlauf des Kapitels werden die gewählten Methoden des Usability-Methodenkatalogs
anhand des finalen Kriterienkatalogs beschrieben und nach der oben entwickelten Klassifizierungsmöglichkeit strukturiert.
Usability-Methodenkatalog
63
4.2 Anforderungsentwicklung und Strukturierung
4.2.1 Personas
Kategorie
1. Bezeichnung
Kriterium
Personas
Name
Personas
Synonyme
2. Beschreibung
Kurzbeschreibung Mit dieser Methode werden reale Nutzer durch fiktive Charaktere sog. Personas repräsentiert. Mithilfe einer
umfangreichen Beschreibung der Charaktere fällt es den Entwicklern leichter, sich in die Lage der Nutzer zu
versetzen und ihre Perspektive zu vertreten. Somit können Anforderungen und Eigenschaften des Produktes
definiert und auf die Bedürfnisse der Nutzer eingegangen werden. Die Nutzerdaten sind im Vorfeld z.B. mittels
Fragebogen oder Interviews zu erheben.
Abbildungen
Abbildung 5: Beispiele für die Darstellung von Personas (Schweibenz, 2007)
Ziele
Während der Produktentwicklung die Sichtweise der Personas einnehmen und so ein Produkt auf die Bedürfnisse der zukünftigen Nutzergruppen ausrichten und Anforderungen definieren.
Ergebnisse/
Output
Beschreibung menschlicher Archetypen, die eine große Gruppe von Nutzern repräsentieren (Weevers, Jacobs,
& Oestendorp, 2013)
Vorteile





Nachteile/
Grenzen


Projektphase(n)
Sie fördern das Verständnis für die spezifischen Anforderungen und Bedürfnissen der Nutzergruppen
(Usability Inside, 2015).
Das Projektteam entwickelt ein gemeinsames Verständnis für die Aufgabe und eine nutzerzentrierte Einstellung (Uselab, 2015).
Die produktbezogene Kommunikation zwischen den beteiligten Abteilungen wird unterstützt und Entscheidungen werden erleichtert (Wilson, 2010).
Eine kleine Anzahl von Personas kann die Bedürfnisse vieler Nutzer repräsentieren (Weevers et al., 2013).
Design-Anstrengungen können auf Grundlage der Personas priorisiert werden (Calabria, 2004).
Personas ersetzen keine anderen Usability-Methoden sondern stellen eine Unterstützung dar (Calabria,
2004).
Es besteht die Gefahr, dass flache, unrealistische Personen kreiert werden, die nicht nützlich sind (Wilson,
2010).
Planung,
Konzeption

3. Rahmenbedingungen & Ressourcen
Teilnehmer

Kann bereits beim Vorhandensein von Ideen angewendet werden (CHeval, 2013;
Cooper, 1999)
Am besten schon zu Beginn eines Projektes einsetzen, wenn die Anforderungen
bestimmt werden (Simply Usable)
Anzahl
0 bis unbeschränkt (KUSi, 2015; Weevers et al., 2013)
Art


Firmeninterne
Stakeholder
Rolle


Partizipation
Diskussion
Einbeziehung
Physikalische Einbeziehung
Usability-Methodenkatalog
64
Kriterium
Anwender
Kategorie
4. Vorgehensweise
Personas
Anzahl
1
Rolle
Organisator, Moderator, Analyst
Erforderliche 
Kompetenzen 
Werkzeuge,
Hilfsmittel


Ort/Umgebung
Tagungsraum
Kosten
Mittel
10000-15000 € (CHeval, 2013)
Zeitaufwand
Gering bis hoch


Vorbereitung


Durchführung





5. Praxis-Tipps
Empirische Daten der (potentiellen) Endnutzer
Schreibmaterial
Zeithorizont: je nach Projektzeitplan 1 Tag bis zu mehreren Monaten (Wilson, 2010)
Übliche Dauer 1-4 Wochen (CHeval, 2013; Wilson, 2010)
Eine fundierte Benutzerforschung wird durchgeführt. Z.B. mittels kontextuellen (vgl. Kapitel 0) oder individuellen Interviews (vgl. Kapitel 4.3.1), Fragebogen (vgl. Kapitel 4.3.3), Fokusgruppen (vgl. Kapitel 4.3.2)
oder Usability Tests (vgl. Kapitel 4.5.1) (Carey, 2011; Simply Usable).
Die gesammelten Daten über die Nutzer werden analysiert und in Gruppen mit ähnlichen Eigenschaften
eingeteilt. Sind die wichtigsten Zielgruppen identifiziert können die repräsentativen Eigenschaften dieser
Gruppen in jeweils eine Persona zusammengefasst werden (Usability Inside, 2015).
Aus den Ergebnissen der Analyse der realen Zielgruppen werden fiktive Nutzer (Personas) abgeleitet.
Basierend auf den realen Informationen werden den Personas Eigenschaften zugeordnet. Folgende Eigenschaften können definiert werden: (Simply Usable; Usability-Toolkit, o. J.)
 Vor- und Nachnamen, Bild
 Alter, Geschlecht
 Beruf, Funktion, Verantwortlichkeiten
 Tägliche Aufgaben (auch außerhalb der Applikation)
 Vorlieben, Werte, Hobbys
 Ziele, Wünsche, Erwartungen, Bedürfnisse
 Fachliche Ausbildung, Wissen, Fähigkeiten
 Relevantes Nutzungsverhalten
 Evtl. ein Zitat, das einen wichtigen Aspekt der Persona zum Ausdruck bringt (Simply Usable; UsabilityToolkit, o. J.)
Die Informationen sollten in narrativer Form in einem 1-2 seitigen Text festgehalten werden. Besonders die
erzählende Form ist wichtig, da Geschichten fesselnder und einprägsamer sind als Aufzählungen von Stichpunkten (Usability-Toolkit, o. J.).
Es sollten 3 bis 7 Personas definiert werden (Cooper, 1999).
Die erstellten Personas werden in der Gruppe diskutiert und verfeinert (CHeval, 2013).
Sie werden in primäre und sekundäre Personas aufgeteilt:
 Die primären Personas stellen die Hauptzielgruppe des Produkts dar. Für sie wird das Produkt entwickelt und optimiert.
 Die Anforderungen der sekundären Personas sind größtenteils durch die primären Personas abgedeckt. Kleine Erweiterungen sind nötig um zusätzliche Eigenschaften umzusetzen.
Nachbereitung/
Auswertung
Die Beschreibungen der Personas können nun immer dann im Projekt verwendet werden, wenn Informationen
zu den Anforderungen und Bedürfnissen der Zielgruppe notwendig sind. Z.B. können die Ergebnisse der Methode bei Meetings eingesetzt werden, um den Nutzer vor Augen zu haben und bei Entscheidungen zu berücksichtigen (Cooper, 1999; Usability Inside, 2015).
Praxis-Tipps









6. Zweck
Wissen über das Produkt und die Nutzer (UseWell, 2011)
Kreativität (UseWell, 2011)
Wenn zur Benutzerforschung Interviews verwendet werden sind ca. 10 bis 12 einstündige Interviews für
eine einfache Anwendung ausreichend, um genügend empirische Informationen zu erhalten. Bei umfangreichen Systemen sollten es jedoch mehr sein (Goodwin, 2008a).
Einer Persona einen Namen zu geben ist einer der wichtigsten Punkte bei der erfolgreichen Definition.
Durch den Namen soll ein konkretes Individuum in den Köpfen der Entwickler geschafft werden (Cooper,
1999).
Bei der Erstellung der Persona ist es wichtig einprägsame und glaubhafte Stereotype zu entwickeln, die
„political correctness“ muss nicht eingehalten werden (Cooper, 1999).
Die Zuordnung von Bildern/Fotos/Zeichnungen von Gesichtern zu den fiktiven Personen erleichtert die
Identifikation mit ihnen. Hierzu können z.B. Fotos aus Datenbanken verwendet werden (z.B.
www.fotolia.de), Zeichnungen erstellt oder Bilder aus Katalogen ausgeschnitten werden (Cooper, 1999;
Simply Usable).
Personas sollen sehr detailliert beschrieben werden, die Genauigkeit ist zweitrangig. Wenn beispielsweise
ein durchschnittlicher Nutzer 2,3 Kinder hat, sollte die fiktive Person mit 2 oder mit 3 Kindern beschrieben
werden. Die Genauigkeit ist zweitrangig (Cooper, 1999) .
Personas sollten wenige Redundanzen enthalten (CHeval, 2013)
Alle Projektbeteiligten sollten sich mit den Personas identifizieren können und mit ihnen vertraut sein. In
den Köpfen der Entwickler sollen es richtige Personen werden (CHeval, 2013; Cooper, 1999).
Es sollten nicht mehr als drei primäre Personas definiert werden (Cooper, 1999).
Zur Auswertung kann man für die Personas Facebook Profile erstellen um sie noch mehr „zum Leben zu
erwecken“ (UseWell, 2011).
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
Usability-Methodenkatalog



Benutzer
Benutzererfahrung
Kontext
65
Kategorie
Kriterium
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/
Tätigkeiten
Personas
folgendes zu erstellen:





Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Daten…


zu kommunizieren
zu dokumentieren
Szenarios (Richter & Flückiger, 2010)
Interview, Fragebogen
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Es wird eine Applikation entwickelt und man will eine detaillierte Vorstellung davon erhalten, für wen konkret
man entwickelt, um daraus Anforderungen ableiten zu können (Völkel, 2006).
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Eine ausführlichere Darstellung der Vorgehensweise bei der Erstellung von Personas ist in „Persona conception
and gestation“ von Wilson, C. gegeben. Das Dokument wird von dem Projekt Uselab der TU Berlin bereitgestellt: (englisch)
http://www.uselab.tu-berlin.de/wiki/images/f/f1/Wilson_%282010%29.pdf
Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the
Right Design
Weiterführende Informationen zur Methode können dem Artikel “An introduction to personas and how to
create them“ von Calabria, T. entnommen werden: (englisch)
http://www.steptwo.com.au/files/kmc_personas.pdf
Calabria, T. (2004). An introduction to personas and how to create them. Retrieved from
http://www.steptwo.com.au/papers/kmc_personas/
Neben weiterführenden Informationen wird von Carey, (2011) ein Fragenkatalog zur Bewertung der Qualität
der eigens erstellten Personas gegeben: (englisch)
http://www.usabilitybok.org/persona
Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona
Weitere Informationen zur Vorbereitung der Methode bietet der Artikel “Getting from research to personas:
harnessing the power of data“ von Goodwin, K.: (englisch)
http://www.cooper.com/journal/2002/11/getting_from_research_to_perso
Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Retrieved from
http://www.cooper.com/journal/2002/11/getting_from_research_to_perso
Weitere Tipps und Hinweise zur Erstellung von Personas gibt Goodwin, 2008b. in seinem Artikel „Perfecting
your personas“: (englisch)
http://www.cooper.com/journal/2001/08/perfecting_your_personas
Goodwin, K. (2008b). Perfecting your personas. Retrieved from
http://www.cooper.com/journal/2001/08/perfecting_your_personas
Ausführliche Informationen zur Erstellung, dem Aufbau, der Präsentation und der Nutzung von Personas bietet
das Buch „Communicating design“ von Brown, 2011: (englisch)
Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning
(2nd ed.). Voices that matter. Berkeley, CA: New Riders.
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
66
Kategorie
Kriterium
Personas
Quellen
Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning
(2nd ed.). Voices that matter. Berkeley, CA: New Riders.
Calabria, T. (2004). An introduction to personas and how to create them. Abgerufen von
http://www.steptwo.com.au/papers/kmc_personas/
Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Cooper, A. (1999). The Inmates are running the Asylum. Indianapolis, IN: SAMS: Macmillan Computer Publishing.
Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Abgerufen von
http://www.cooper.com/journal/2002/11/getting_from_research_to_perso
Goodwin, K. (2008b). Perfecting your personas. Abgerufen von
http://www.cooper.com/journal/2001/08/perfecting_your_personas
KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen
von http://www.usability-siegen.de/qualifizierung.html
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Schweibenz, W. (2007). Putting personas into practice. Workshop "Using the Personas Method for Applying
Marketing and User Research Data", Jan 2007(15th BOBCATSSS symposium), 29–31.
Simply Usable. Factsheet-Personas. Zugriff am 16.05.2015. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Personas-simply-usable.pdf
Usability Inside. (2015). Persona. Zugriff am 16.05.2015. Abgerufen von http://www.usabilityinside.net/wissen/massnahmen-und-methoden/methoden/persona/
Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Völkel, M. (2006). Webride-Usability: Das Personas-Modell. Abgerufen von http://www.webblog.net/comments/P212_0_1_0/
Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#
Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the
Right Design
Usability-Methodenkatalog
67
4.2.2 Szenarien
Kategorie
Kriterium
Szenarien
1. Bezeichnung
Name
Szenarien
Synonyme
Anwendungsszenarien, Nutzungsszenarien, Scenario(s), Scenario of Use, Task Scenarios
2. Beschreibung
Kurzbeschreibung Szenarien sind erdachte Anwendungsbeispiele, die in einfachen Sätzen oder Stichpunkten formuliert sind und
auf zuvor gewonnene Nutzerinformationen basieren. Sie beschreiben anhand von Geschichten die Interaktion
eines Nutzers mit dem fertigen Produkt in einem realistischen Kontext. Mit der Methode lässt sich ein Verständnis über die Nutzer, ihre Bedürfnisse und Wünsche sowie ihre alltägliche Situation in der sie das Produkt
verwenden, ausarbeiten. Die fertigen Szenarien können als Werkzeug zur Kommunikation mit dem EntwicklerTeam oder sonstigen Stakeholdern verwendet werden.
Ausgehend von den Szenarien können Anforderungen an das Produkt abgeleitet werden.
Abbildungen
Ziele



Erhebung und Validierung von Anforderungen (Richter & Flückiger, 2010)
Einnehmen der Benutzerperspektive, z.B. um aus ihr heraus zu diskutieren und zu argumentieren (Richter
& Flückiger, 2010)
Kommunikation von Design Aspekten (Bevan, Degler, & Wilson, 2011)
Ergebnisse/
Output

Beschreibung der Interaktion eines Benutzers mit dem zu entwickelnden Systems, in einem realistischen
Anwendungskontext (Quirmbach, 2013)
Vorteile

Durch die leichte Verständlichkeit können Szenarien schon früh in der Entwicklung von Auftraggebern,
Benutzern und Entwicklern überprüft, ergänzt oder korrigiert werden (Richter & Flückiger, 2010).
Die Anwendung eines geplanten Systems kann schon früh im Entwicklungsprozess relativ genau umrissen
werden, ohne dass die Details präzisiert werden müssen (Richter & Flückiger, 2010).
Sie vermitteln ein Verständnis der Abläufe und Zusammenhänge (Richter & Flückiger, 2010)
Szenarien können zeigen, in welcher Reihenfolge Nutzer Aktionen durchführen (Richter & Flückiger, 2010)
Stärken und Schwächen des eigenen Produkts im Vergleich zu Konkurrenzprodukten oder Vorgängerversionen können herausgearbeitet werden (Richter & Flückiger, 2010)
Geringer Ressourcen-Aufwand erforderlich (Bevan et al., 2011)
Szenarien sind einfach zu erstellten (Bevan et al., 2011)
Kann in allen Projektphasen eingesetzt werden (Richter & Flückiger, 2010)







Nachteile/
Grenzen

Projektphase(n)
Alle
Falls die Szenarien nicht auf realen Nutzerdaten beruhen besteht die Gefahr, dass falsche Annahmen
getroffen werden (Bevan et al., 2011)


Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer

Kann zur Erhebung und Validierung von Anforderungen in den frühen Entwicklungsphasen verwendet werden (Richter & Flückiger, 2010)
Kann zur Entwicklung von Szenarien für Usability Tests verwendet werden (Richter
& Flückiger, 2010)
Szenarien können zur Schulung von Benutzern und als Basis für die Erstellung von
Anleitungen dienen (Richter & Flückiger, 2010)
Anzahl
Beliebig
Art



Firmeninterne
Experten
Endnutzer
Rolle


Partizipation
Diskussion
Einbeziehung
Physikalische Einbeziehung
Anzahl
1
Rolle
Ersteller der Szenarien, Moderator

Szenarien können iterativ im Team entwickelt oder in Workshops zusammen mit
Nutzern ausgearbeitet werden (Richter & Flückiger, 2010).
Erforderliche Ggf. Moderationskenntnisse, falls die Szenarien im Team entwickelt werden (Bevan et al., 2011)
Kompetenzen
Werkzeuge,
Hilfsmittel


Schreibmaterial
Ggf. Haftnotizzettel
Ort/Umgebung


Tagungsraum
Schreibtisch
Kosten
Gering
Zeitaufwand
Gering bis mittel
Usability-Methodenkatalog
Erarbeiten von Szenarien: 3-10 PT; inkl. Aufwand für Auftraggeber und Beteiligte, wenn
alle notwendigen Grundlagen vorhanden sind (Richter & Flückiger, 2010)
68
Kategorie
Kriterium
Szenarien
4. Vorgehensweise
Vorbereitung







Durchführung


Nachbereitung/
Auswertung




Definition der Ziele, die mit der Erstellung von Szenarien erreicht werden soll (UseWell, 2011)
Sammeln von Erkenntnissen über die (zukünftigen) Benutzer, z.B. mittels Befragungs-Methoden (vgl.
Kapitel 4.3) oder Kontextuellen Interviews (vgl. Kapitel 0), um nicht an der Zielgruppe vorbei zu entwickeln
(Richter & Flückiger, 2010).
 Wer sind die Nutzer? (Bevan et al., 2011)
 Welche Ziele wollen sie erreichen? (Bevan et al., 2011)
 Welche Aufgaben sollen durch das Produkt, welche von den Nutzern durchgeführt werden? (Bevan et
al., 2011)
 In welchem Kontext soll das Produkt genutzt werden? (Bevan et al., 2011)
Festlegen in welcher Art die Szenarien erstellt werden sollen. Mögliche Ausprägungen sind: Videos, geschriebene Geschichten, Comics oder Bilder mit Anmerkungen. (UseWell, 2011)
Festlegen des Detailgrades der Szenarien: High-Level Szenarien (breiter Überblick über die Arbeitsabläufe
der Nutzer) oder Lower-Level Szenarien (Beschreibung eines Aspekts oder einer Aufgabe im Detail)
(UseWell, 2011)
Ggf. ermitteln von Personas (vgl. Kapitel 4.2.1) um die Hauptcharaktere zu beschreiben (UseWell, 2011)
Einladen einer Gruppe bestehend aus Mitgliedern des Entwicklungsteams, unterschiedlichen Steakholdern
oder Endnutzern, um die fertigen Szenarien zu diskutieren und zu verfeinern (UseWell, 2011).
Ggf. hinzuziehen von Personen zur eigentlichen Entwicklung der Szenarien (Entwicklung im Team)
Sammeln aller gewonnenen Nutzer- und Nutzungsinformationen, die zur Erstellung der Szenarien verwendet werden können:
 Herausarbeiten von wichtigen Zitaten und Fakten
 Es bietet sich an die Informationen auf Haftnotizzettel zu schreiben und an einer Wand das Bild des
Nutzers und sein Umfeld zu entwickeln (UseWell, 2011).
Szenarien werden entwickelt. Folgende Eigenschaften zeichnen nach Richter & Flückiger (2010) ein Szenario aus:
 Es wird für eine bestimmte Benutzergruppe entworfen, berücksichtigt ihre Eigenschaften und erfüllt
ihre Bedürfnisse.
 Es stellt einen konkreten Fall aus der Anwendung dar.
 Es zeigt, wie die Benutzer die neue Software in ihrem realen Umfeld einsetzen werden.
 Es illustriert die für die Entwicklung der neuen Lösung relevanten Aspekte.
 Es beschränkt sich nicht auf den Schönwetterfall, sondern beschreibt auch exemplarisch wichtige Ausnahme- und Fehlersituationen. (S. 32)
Verteilen der Szenarien innerhalb des Unternehmens
 Erstellen von Plakaten, die firmenintern in den Büros und/oder auf Fluren aufgehängt werden können
(UseWell, 2011)
 Erstellen einer digitalen Version, die unter den Kollegen verteilt wird (UseWell, 2011)
Diskussion mit Entwicklern, Fachleuten, Nutzern usw. zur Verfeinerung der Szenarien (Richter & Flückiger,
2010)
Ableiten von Anforderungen
5. Praxis-Tipps
Praxis-Tipps
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/
Tätigkeiten
Bei der Erstellung der Szenarien bietet es sich an zunächst einen generellen Überblick zu beschreiben und
diesen dann iterativ mit Details zu füllen (UseWell, 2011).




Benutzer
Interaktion
Strukturen/Prozesse
Kontext
folgendes zu erstellen:





Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Daten…


zu kommunizieren
zu verbreiten
Personas, Use Case


Befragungsmethoden, Kontextuelle Interviews: Sammeln von Erkenntnisse über zukünftige Nutzer (Richter
& Flückiger, 2010)
Personas, Use Case: Dienen als Grundlage für die Erstellung von Szenarien (Quirmbach, 2013).
Mögliche nachfol- Ableiten von Anforderungen (Bevan et al., 2011)
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Bei der Entwicklung einer neuen Softwareanwendung soll Informationen über die zukünftigen Nutzer, ihren
Zielen und ihrer alltäglichen Situation zusammengefasst und dem Entwickler-Team präsentiert werden.
69
Kategorie
Kriterium
Szenarien
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Weitere Informationen zur Erstellung und Anwendung von Szenarien geben Rosson & Carroll (2002) in ihrem
Buch: (englisch)
Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of human-computer
interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press.
Der Web-Artikel „Scenario of Use” von Bevan et al. (2011), fasst einige weiterführende Quellen zusammen und
stellt unter anderem eine Abgrenzung der Szenarien zur Methode Use Cases dar: (englisch)
http://usabilitybok.org/scenario-of-use
Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von http://usabilitybok.org/scenario-ofuse
Zu beachtende
Normen und
Zertifikate
Quellen
Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von http://usabilitybok.org/scenario-ofuse
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of human-computer
interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press.
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Usability-Methodenkatalog
70
4.2.3 Benchmarking
Kategorie
Kriterium
Benchmarking
1. Bezeichnung
Name
Benchmarking
Synonyme
Usability Benchmark, Benchmark-Analyse
2. Beschreibung
Kurzbeschreibung Bei einem Benchmarking wird ermittelt, wie ein Produkt im Vergleich zum Wettbewerb oder einer anderen
Produktversion abschneidet. Daraus lassen sich Inspirationen und Optimierungsmöglichkeiten ableiten. Schneidet das eigene Produkt im Vergleich zu anderen schlecht ab, so kann durch Designverbesserungen und weitere
Usability-Maßnahmen die Benutzerfreundlichkeit erhöht werden. Schneidet das eigene Produkt gut ab, können die ermittelten Daten in Marketing-Kampagnen verwendet werden. (Bevan, Wilson, & Kantner, 2009;
Usability.de, 2015)
Abbildungen
Ziele
Unterschiedliche Produkte sollen miteinander verglichen werden.
Ergebnisse/
Output
Liefert eine Bewertung eines Produkts im Vergleich zu einem anderen.
Vorteile
Ermöglicht eine Aussage darüber, wie benutzerfreundlich ein Produkt sein muss (ermöglicht es Ziele für die
Benutzerfreundlichkeit zu definieren) (Berkun, 2003)
Nachteile/
Grenzen



Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
Anzahl
Viele Sitzungen mit vielen Teilnehmern notwendig, um statistisch aussagekräftige Ergebnisse zu erhalten.
(Bevan et al., 2009)
Aufwendige Vorbereitung notwendig: Studiendesign ist zu entwickeln und zu testen (Bevan et al., 2009)
Teuer: Die gewonnenen Erkenntnisse können dennoch die Methode rentabel machen und eine Anwendung rechtfertigen. (Bevan et al., 2009)
Betrieb
Die Produkte müssen voll funktionsfähig sein
24 bis 60 oder mehr (Bevan et al., 2009)
Art
Endnutzer
Rolle
Wird beobachtet
Einbeziehung
Physikalisch Einbeziehung
Anzahl
1 oder mehr
Rolle
Organisator, Entwickler des Studiendesigns, Beobachter, Analyst
Erforderliche 
Kompetenzen



Mehrere Anwender sind von Vorteil, da die Vorbereitung sehr aufwendig ist. Ggf. ist ein
Statistiker als Ansprechpartner für die Vorbereitung und zur Auswertung der Ergebnisse
erforderlich.
Kenntnisse über die Erstellung experimenteller Untersuchungen (study design) (Berkun, 2003; Bevan et al.,
2009)
Grundkenntnisse über statistische Analyse (Bevan et al., 2009)
Der Ausführenden sollte nicht am Entwicklungsprozess beteiligt sein, um Verzerrungen der Ergebnisse zu
vermeiden (Bevan et al., 2009).
Erfahrung in der Durchführung von Usability Test helfen dabei die Gültigkeit und Zuverlässigkeit der Ergebnisse zu gewährleisten (Bevan et al., 2009).
Werkzeuge,
Hilfsmittel
Usability Labor: Computer, Audio- und Videoaufnahmegeräte, Aufnahme-Software z.B. Techsmith Morae or
Noldus Observer (Bevan et al., 2009).
Ort/Umgebung
Usability Labor
Kosten
Hoch


Zeitaufwand
Mittel bis hoch


Usability-Methodenkatalog
Aufwendiges Studiendesign ist im Vorfeld zu entwickeln und zu testen (Bevan et al.,
2009)
Bei der Durchführung als "Remote-Variante" (vgl. Praxis-Tipps) sind die Kosten gering,
ca. 5000€ (Travis, 2015)
Aufwendiges Studiendesign ist im Vorfeld zu entwickeln und zu testen (Bevan et al.,
2009)
Pro Sitzung mit einem Teilnehmer in mit einer Zeitaufwand von 2 Stunden zu rechnen
(Berkun, 2003)
71
Kategorie
Kriterium
Benchmarking
4. Vorgehensweise
Vorbereitung
















5. Praxis-Tipps
Durchführung
Die geplante Versuchsdurchführung ist mit den Teilnehmern umzusetzen
Nachbereitung/
Auswertung
Die Daten werden durch den Statistiker ausgewertet. Der Fokus sollte hierbei auf den definierten Zielen liegen
Praxis-Tipps






6. Zweck
Variablen und Hypothesen (vordefinierte Beziehungen zwischen den Variablen) sind zu definieren.
Die Messungen sind zu definieren. Was soll gemessen werden? (Erfolg/Misserfolg innerhalb eines Zeitfensters; Zeit bis zur Ausgabenerfüllung; Anzahl der Fehler bis zur Aufgabenerfüllung) (Berkun, 2003)
Das Versuchs-Design ist festzulegen. (z.B. Within-subject-Design, Between-subjects-Design, Mixed-Design)
Aufgaben, die die Teilnehmer während des Tests durchführen, sind zu definieren.
Ziele für die jeweiligen Aufgaben sind festzulegen z.B. 75% der Teilnehmer sollen die Aufgabe innerhalb
von 3 Minuten bewältigen (Berkun, 2003).
Ein globales Ziel ist zu definieren z.B. 10% besser zu sein, als das Konkurrenz-Produkt (Berkun, 2003).
Abbruchkriterien sind für jede Aufgabe festzulegen (z.B. ein Zeitlimit)
Ggf. sind Pre-Test-Fragebogen zu erstellen oder auszuwählen (z.B. zu personenbezogene Angaben und
Vorwissen)
Ggf. sind Post-Test-Fragebogen zu erstellen oder auszuwählen (z.B. zur Zufriedenheit) (Bevan et al., 2009)
Teilnehmer rekrutieren (sollen die Nutzergruppe repräsentieren) (Bevan et al., 2009)
Es ist zu entscheiden, wie viele Sitzungen pro Produktvariation benötigt werden (Bevan et al., 2009).
Fehler sind zu definieren und Fehlercodes zu entwickeln (Bevan et al., 2009).
Falls man kein Statistiker ist, sollte man einen Experten auf diesem Gebiet zu Rate ziehen um die Projektdefinition zu Überprüfen und sicherzustellen, dass die gesammelten Daten für einen Vergleich geeignet sein
werden (Bevan et al., 2009).
Es ist eine Datei für die Erfassung der Daten vorzubereiten (Tabellenkalkulation). Die Spaltenüberschriften
sind in Absprache mit dem Statistiker zu definieren, um die anschließende Analyse der Daten mit Hilfe eines Statistik-Programms zu erleichtern (Bevan et al., 2009).
Es sind mehrere Pilotversuche durchzuführen, um sicherzustellen, dass das Aufnehmen der Daten funktioniert (Bevan et al., 2009).
Es sollten alle Sitzungen vom selben Ausführenden durchgeführt werden, um die Konsistenz zu gewährleisten (Bevan et al., 2009).
Die Aufgaben der Teilnehmer können beispielsweise aus Szenarien, Use-cases, Web-Datenprotokollen,
Fokus Gruppen oder Cognitive Walkthrough abgeleitet werden. Falls möglich sollten mehrere Datenquellen herangezogen werden. (Berkun, 2003; Bevan et al., 2009)
Bei der Definition der Aufgaben der Teilnehmer ist darauf zu achten, dass die Aufgabe bei allen betrachteten Produkten erreicht werden kann (Bevan et al., 2009).
Zur Dokumentation sollte jeder Aufgabenbeschreibung mindestens ein Screenshot beigefügt werden
(Berkun, 2003).
Um Kosten zu sparen kann die Studie auch ohne Beobachtung der Teilnehmer durch einen Ausführenden
und „remote“ durchgeführt werden. Es ergeben sich niedrigere Kosten pro Teilnehmer, die Analyse des
Teilnehmerverhaltens leidet allerdings unter der Einsparung. (Bevan et al., 2009)
Der Schwerpunkt der Studie sollte eindeutig identifiziert und festgelegt werden, um den Aufwand der
Methode zu minimieren. (Nur wichtige Daten sind zu sammeln.) (Bevan et al., 2009)
Es kann hilfreich sein, ein und dieselbe Person eine Aufgabe zweimal ausführen zu lassen. So kann der
Lerneffekt zusätzlich gemessen werden (Berkun, 2003).
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu bewerten:
es das Ziel ist…
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/
Tätigkeiten

Interaktion



Physikalisches Produkt
Software
Integriertes Produkt
Summativer Usability Test
Szenarien, Use Cases
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Wenn die Benutzerfreundlichkeit eines Produkts mit einem anderen verglichen werden soll, kann die Anwendung eines Benchmarkings vorteilhaft sein. Es kann beispielsweise ermittelt, wie viel in Usability-Maßnahmen
für die neue Produktversion investiert werden sollte, um mit den Produkten der Konkurrenz mithalten zu
können. Es ist allerdings zu beachten, dass die Methode keine Antwort darauf gibt, warum ein Produkt benutzerfreundlich ist oder nicht.
72
Kategorie
Kriterium
Benchmarking
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Ausführlicher Artikel zur Methode mit vielen Praxis-Tipps von Scott Berkun: (englisch)
http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/
Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something can be
measured or judged. Retrieved from http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/
Weitere Informationen zur günstigen Remote-Variante des Benchmarkings von David Travis auf Userfocus.co.uk: (englisch)
http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html
Travis, D. (2015). Benchmark usability testing. Retrieved from
http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html
Zu beachtende
Normen und
Zertifikate
Quellen
Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something can be
measured or judged. Abgerufen von http://scottberkun.com/essays/27-the-art-of-usability-benchmarking/
Bevan, N., Wilson, C., & Kantner, L. (2009). Usability Benchmark. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/usability-benchmark
Travis, D. (2015). Benchmark usability testing. Zugriff am 12.05.2015. Abgerufen von
http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html
Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.de/leistungen/methoden.html
Usability-Methodenkatalog
73
4.2.4 Aufgabenanalyse (Task Analysis)
Kategorie
Kriterium
Aufgabenanalyse (Task Analysis)
1. Bezeichnung
Name
Aufgabenanalyse
Synonyme
Task Analysis
2. Beschreibung
Kurzbeschreibung Mit der Aufgabenanalyse werden die typischen Aufgaben und Aktionen der Nutzer, bei der Verwendung eines
Produkts untersucht.
Zum Sammeln der Daten können die Anwender bei der Verwendung des Produkts beobachtet und/oder im
Anschluss an die Nutzung interviewt werden. Bei Produkten, die sich noch in einem sehr frühen Stadium der
Entwicklung befinden, können vergleichbare Produkte zur Analyse herangezogen werden oder alternativ ein
hypothetisches Produkt betrachtet werden.
Die Ergebnisse der Methode können in Form eines hierarchischen Strukturbaums dargestellt werden
(Hierarchical Task Analysis). Durch die Analyse jedes Arbeitsschrittes können Prozesse optimiert und Probleme
beseitigt werden.
Auf Grundlage der ermittelten Daten können anschließend außerdem Modelle (z.B. in Form von Szenarien
oder Use Cases) erstellt werden.
Abbildungen
Abbildung 6: Hierarchisch strukturierte Ergebnisse einer Aufgabenanalyse (Usetree, 2014a)
Ziele



Strukturbaum, der eine Abfolge von Teilschritten enthält, die von einem Nutzer durchzuführen sind um das
übergeordnete Ziel zu erreichen.
Vorteile


Hilft bei der Vermeidung von unnötigen Funktionen (Vanatenhoven & Wilkinson, o. J.)
Durch die strukturierte Darstellung ist eine fokussierte Analyse der wesentlichen Aspekte einer Aufgabe
mögliche (besonders relevant bei der Untersuchung von Sicherheitsfragen) (Crystal & Ellington, 2004)
Nachteile/
Grenzen



Die starke Fokussierung auf Aufgaben kann zu einem Tunnelblick führen (Vanatenhoven & Wilkinson, o. J.)
Nicht aus allen Informationen lassen sich klare Forderungen ableiten (Vanatenhoven & Wilkinson, o. J.)
Kann je nach Detailgrad der Analyse sehr zeitintensiv sein
Projektphase(n)
Alle
(Hornsby, 2010;
Usetree, 2014a)
Anzahl
5 (Nielsen, 2000)
Art




Rolle
Wird beobachtet
Einbeziehung
Physikalische Einbeziehung
Anzahl
1-2 (USERfit, 1996b)
Rolle
Organisator, Beobachter, Protokollant, ggf. Interviewer
Teilnehmer
Ergebnisse/
Output
Anwender
3. Rahmenbedingungen & Ressourcen
Einen Überblick über die Teilschritte verschaffen, die ein Nutzer durchführen muss um eine typische Aufgabe zu bewältigen. Diese Information kann dabei helfen (Hackos & Redish, 1998):
 Aufgaben zu definieren, die eine Website oder eine Anwendung unterstützen soll
 den Umfang einer Anwendung zu ermitteln
 die Effizienz, Effektivität und Benutzerzufriedenheit eines Produkts zu erhöhen
Handbücher und Bedienungsanleitungen zu erstellen (USERfit, 1996b)
Kann sowohl auf existierende Produkte als auch auf solche, die sich in der Entwicklung
befinden angewendet werden
(Potentielle) Endnutzer,
Firmeninterne (USERfit, 1996b)
Software-Gestalter (USERfit, 1996b)
Domain-Experten (USERfit, 1996b)
Erforderliche Keine (USERfit, 1996b)
Kompetenzen
Werkzeuge,
Hilfsmittel
Usability-Methodenkatalog



Schreibmaterial
Haftnotizen (zur Entwicklung des Strukturbaums)
Ggf. Aufnahmegeräte (z.B. Videokamera)
74
Kategorie
4. Vorgehensweise
Kriterium
Aufgabenanalyse (Task Analysis)
Ort/Umgebung



Kosten
Gering
Zeitaufwand
Gering
Vorbereitung
Vorbereitung einer Aufgabenanalyse durch Beobachtung der Teilnehmer (Shepherd, 1985; UseWell, 2011):
 Schwerpunkt der Analyse ist festzulegen: Welche Aufgaben sollen analysiert werden? In welchem Detailgrad sollen Aufgaben analysiert werden (Stopp-Regeln)? Wofür sollen die Ergebnisse verwendet werden?
 Aufgaben-Szenarien sind zu entwickeln: Dies sind Schritt-für-Schritt Beschreibung der von den Teilnehmern
durchzuführenden Aufgaben. Sie werden während der Durchführung den Teilnehmern zur Verfügung gestellt.
 Teilnehmer für die Durchführung auswählen: Wer ist für die Durchführung geeignet? Sollen bestimmte
Nutzergruppen repräsentiert werden?
 Teilnehmer sind einzuladen
 Die Durchführung der Aufgabenanalyse ist zu planen: Wo und wann ist welcher Teilnehmer zu analysieren.
 Das Sammeln der Daten ist vorzubereiten indem ein Blatt zur schnellen Aufnahme der Daten entwickelt
wird.
 Die benötigten Werkzeuge (Schreibmaterial, Aufnahmegeräte) sind zu organisieren und ggf. zu testen.
Durchführung
Durchführung einer Aufgabenanalyse durch Beobachtung der Teilnehmer (UseWell, 2011):
 Bei einer Durchführung in der spezifischen Umgebung des Teilnehmers (z.B. zuhause/am Arbeitsplatz)
sollte sich zunächst mit der Umgebung vertraut gemacht und die Ausrüstung aufgebaut werden. Hierbei
kann der Teilnehmer kennengelernt werden um eine angenehme Test-Umgebung zu schaffen.
 Dem Teilnehmer ist die Durchführung zu erläutern: Was ist das Thema? Wie soll die Aufgabenanalyse
ablaufen? Wie sollen die Ergebnisse verwendet werden?
 Die persönlichen Daten des Teilnehmers sind aufzunehmen (Geschlecht, Alter, Bildungsstand, …)
 Die Untersuchung wird durchgeführt: Der Teilnehmer wird bei der Durchführung der Aufgabe(n) beobachtet. Die Beobachtungen werden dokumentiert. Äußere Einflussgrößen wie beispielsweise ein Telefonanruf
sind aufzunehmen.
 (Die Methode „Lautes Denken“ bietet sich an und kann vom Teilnehmer durchgeführt werden)
 Nachdem der Teilnehmer die Aufgabe(n) durchgeführt hat, bietet es sich an, die gemachten Notizen mit
ihm durchzusprechen, um ggf. Missverständnisse zu korrigieren.
Nachbereitung/
Auswertung







5. Praxis-Tipps
Praxis-Tipps




6. Zweck
Natürliche Nutzungsumgebung (UseWell, 2011)
Usability Labor
Tagungsraum


Maximaler Zeithorizont: 1 Woche (Vanatenhoven & Wilkinson, o. J.)
40 Peronenstunden (Vanatenhoven & Wilkinson, o. J.)
Es ist eine generelle Beschreibung der Durchführung anzufertigen: Wie wurde die Analyse durchgeführt?
(In welcher Arbeitsumgebung? Welche Benutzergruppe?) (UseWell, 2011)
Wichtige Erkenntnisse aus der Analyse sind zu dokumentieren (UseWell, 2011).
Ggf. sind die Aufnahmen zu transkribieren (UseWell, 2011)
Ein Bericht über die Ergebnisse ist zu schreiben (UseWell, 2011).
Die Ergebnisse sollten mit den Teilnehmern überprüft und validiert werden (UseWell, 2011)
Zum Abschluss wird ein Strukturbaum erstellt:
 Die gesamte Aufgabe wird in Einzelschritte zerlegt, die hierarchisch in einem Struktogramm angeordnet werden.
 Jeder Einzelschritt kann bis auf die Ebene der Nutzerinteraktion beschrieben werden. (Finde das Eingabefeld „Name“; Bewege den Cursor zum Eingabefeld „Name“; Tippe den Namen ein; …)
Optional kann der Beschreibung ein Screenshot hinzugefügt werden (Hornsby, 2010).
Die Arbeitsschritte, die durch den Strukturbaum visualisiert sind, lassen sich nun auf vielfältige Weise analysieren. Beispiele: „Wie unterstützt das System den Nutzer im jeweiligen Arbeitsschritt bei der Aufgabenerfüllung?“ Bei welchem Arbeitsschritt bestehen Probleme?“ (Usetree, 2014a)
Es ist vorteilhaft die Durchführung mit zwei Ausführenden vorzunehmen. So kann eine Person Fragen
stellen und mit den Teilnehmer kommunizieren, während die andere Person Protokoll führt und die Aufnahmegeräte bedient. (UseWell, 2011)
Zur Ergänzung der Daten kann nach der Beobachtung der Nutzer noch ein Interview durchgeführt werden
(UseWell, 2011).
Die Durchführung sollte nach Möglichkeit in der natürlichen Umgebung stattfinden, also je nach Anwendung z.B. bei den Teilnehmern zu Hause oder in ihrer Arbeitsumgebung (UseWell, 2011).
Zur Entwicklung des Strukturbaums aus den Ergebnissen der Untersuchungen können Haftnotizzettel
verwendet werden.
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen:
Daten…


Interaktion
Strukturen/Prozesse






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort


zu dokumentieren
zu verbreiten
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Usability-Methodenkatalog
75
Kategorie
Kriterium
Aufgabenanalyse (Task Analysis)
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfol- 
gende Methoden/ 
Tätigkeiten
Interview: um die Daten einer Beobachtung zu vervollständigen
Szenarien, Use Cases, Personas, Paper-Prototyping: zur Verwendung der gewonnenen Daten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Eine Website soll verfeinert und teilweise neu definiert werden. Um den angemessenen Umfang der Inhalte
auf der Seite zu ermitteln sind Aufgaben zu analysieren, die die Website unterstützen soll. Mögliche Leitfragen
zur Optimierung der Website: Was sind die Ziele der Benutzer? Was machen die Benutzer um ihre Ziele zu
erreichen? Wie ist ihr Workflow?
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Einen guten Überblick über die Methode bietet die Darstellung von USERfit (englisch):
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf
USERfit. (1996). Task Analysis. Zugriff am 11.05.2015. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf
Neben der hier fokussierten hierarchischen Anordnung der Ergebnisse gibt es noch eine Reihe anderer Ausprägungen der Aufgabenanalyse. Ein guter Überblick über mögliche Variationen der Methode bietet das Projekt
Uselab der TU Berlin auf ihrer Internetplattform an:
http://www.uselab.tuberlin.de/wiki/index.php/Methoden_der_Aufgabenanalyse_und_%E2%80%93darstellung:_Teil_I
Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
TaskArchitect ist ein Software-Tool, das die Durchführung einer Aufgabenanalyse und die Darstellung der
Ergebnisse unterstützt (englisch):
http://taskarchitect.com/case_studies.html
Zu beachtende
Normen/Zertif.
Quellen
Crystal, A., & Ellington, B. (2004). Task analysis and human-computer interaction: approaches, techniques, and
levels of analysis. Proceedings of the Tenth Americas Conference on Information Systems. Abgerufen von
http://www.ils.unc.edu/~acrystal/AMCIS04_crystal_ellington_final.pdf
Hackos, J. T., & Redish, J. (1998). User and task analysis for interface design. Wiley computer publishing. New
York: Wiley.
Hornsby, P. (2010). Hierarchical Task Analysis. Abgerufen von
http://www.uxmatters.com/mt/archives/2010/02/hierarchical-task-analysis.php
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Shepherd, A. (1985). Hierarchical Task Analysis and Training Decisions. Innovations in Education & Training
International, 22(2), 162–176. doi:10.1080/1355800850220209
USERfit. (1996). Task Analysis. Zugriff am 11.05.2015. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf
Usetree. (2014). Aufgabenanalyse. Zugriff am 09.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Aufgabenanalyse.pdf
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Vanatenhoven, J. V. & Wilkinson, A. W. (o. J.). Task Analysis. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-37-task-analysis
Usability-Methodenkatalog
76
4.2.5 Kontextuelles Interview (Contextual Inquiry)
Kategorie
Kriterium
Kontextuelles Interview (Contextual Inquiry)
1. Bezeichnung
Name
Kontextuelles Interview
Synonyme
Contextual Inquiry
2. Beschreibung
Kurzbeschreibung Die Methode stellt eine Kombination aus der Beobachtung und der Befragung eines Probanden dar und untersucht den Kontext der Nutzung eines Systems.
Ein potentieller Nutzer wird bei der Bewältigung von Arbeitsabläufen beobachtet und zu den Tätigkeiten
befragt. Die untersuchten Prozesse sollen zukünftig durch das zu entwickelnde Produkt (z.B: eine Software)
unterstützt werden. Die Methode wird in der natürlichen Nutzungsumgebung des zukünftigen Produkts
durchgeführt, z.B. am Arbeitsplatz des Teilnehmers.
Durch die Untersuchung werden die Bedürfnisse der Anwender ermittelt, sowie Verbesserungsmöglichkeiten,
ausgehend von der gegenwärtigen Arbeitssituation der Probanden entwickelt.
Abbildungen
Abbildung 7: Beobachtung eines Probanden durch den Methodenanwender bei der Durchführung eines Kontextuellen Interviews (Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel, 2015)
Ziele






Verstehen warum Nutzer tun was sie tun (Vanhoutte & van Vliembergen, o. J.)
Identifizieren von Produktanforderungen (Herzon, DeBoard, Wilson, & Bevan, 2010)
Verbessern von Prozessen (Herzon et al., 2010)
Bedürfnisse potenzieller Nutzer ermitteln. (Herzon et al., 2010)
Probleme von Nutzern identifizieren (Vanhoutte & van Vliembergen, o. J.)
Aufdecken von Einflüssen der Umgebung auf die Interaktion der Nutzer mit einem Produkt
Ergebnisse/
Output

Fundiertes Wissen über Benutzer im Kontext ihrer Arbeit oder ihres alltäglichen Lebens (Richter
& Flückiger, 2010)
Vorteile

Wissen, dass von Personen in bestimmten Situationen angewendet wird, kann nicht immer einfach abgerufen und verbal beschrieben werden. Durch die Beobachtung lässt sich dieses Wissen erfassen. (Richter
& Flückiger, 2010)
Die gleichzeitige Beobachtung und Befragung ermöglicht es, das Geschehen im Detail zu erfassen und die
Gründe und Zusammenhänge dahinter zu durchleuchten (Richter & Flückiger, 2010).
Da die Datenerhebung in der gewohnten Umgebung der Teilnehmer stattfindet, sind die Ergebnisse näher
an der Realität als bei Labor-Daten (Herzon et al., 2010).
Ermöglicht es einem ganzen Team sich in die Nutzer hineinzuversetzen (Vanhoutte & van Vliembergen, o.
J.)
Es lassen sich zuverlässige und detaillierte Informationen gewinnen (Vanhoutte & van Vliembergen, o. J.)
Deckt implizites Wissen und latente Bedürfnisse der Nutzer auf (Vanhoutte & van Vliembergen, o. J.)





Nachteile/
Grenzen





Projektphase(n)
Usability-Methodenkatalog
Zeitintensive Methode (Vanhoutte & van Vliembergen, o. J.)
Großer personeller Aufwand, da viele Personen in die Analyse der Daten einbezogen werden müssen.
(Vanhoutte & van Vliembergen, o. J.)
Es werden gezielte Kenntnisse benötigt (soziale Kompetenz, Einfühlungsvermögen, Sittlichkeit)
Es können sprachliche und kulturellen Barrieren entstehen (Vanhoutte & van Vliembergen, o. J.)
Die Beobachtungen und Erkenntnisse sind nur Momentaufnahmen, die es nicht ermöglichen die Ergebnisse
zu quantifizieren (Vanhoutte & van Vliembergen, o. J.).
Planung
Anwendung bei Projektinitialisierung (Richter & Flückiger, 2010)
77
Kategorie
Kriterium
Anwender
Teilnehmer
3. Rahmenbedingungen & Ressourcen
Kontextuelles Interview (Contextual Inquiry)
Anzahl
3-60 (Richter & Flückiger, 2010)
Art
Endnutzer


Müssen nicht repräsentativ sein, sollten aber ein breites Spektrum an Meinungen und
Bedürfnissen abdecken (Richter & Flückiger, 2010)
Auf eine Streuung, bezüglich Alter, Geschlecht, Position, Arbeitsort, Erfahrung, Fachwissen, kultureller Hintergrund, usw. sollte geachtet werden (Richter & Flückiger,
2010)
Rolle



Einbeziehung
Physikalische Einbeziehung
Anzahl
2, besser mehr
(Holtzblatt, Wendell, & Wood,
2005)
Rolle
Organisator, Interviewer, Beobachter, Analyst, ggf. Moderator
Diskussion
Wird beobachtet
Wird befragt


1-5 Interviewer/Beobachter (Richter & Flückiger, 2010)
Zur Analyse der Daten bietet sich ein Team (ca. 5 Personen (Vanhoutte & van
Vliembergen, o. J.)) an, in dem zusätzlich Entwickler und Produktmanager einbezogen werden (Richter & Flückiger, 2010)
Erforderliche Empathie, soziale Kompetenz, Sittlichkeit (Holtzblatt et al., 2005)
Kompetenzen
Werkzeuge,
Hilfsmittel



Ggf. erste Entwürfe oder Prototypen
Videokamera oder Diktiergerät zum Aufzeichnen des Interviews
Ggf. Haftnotizzettel und Schreibmaterial für die Analyse der Daten
Ort/Umgebung

Natürliche Nutzungsumgebung
Kosten
Gering bis hoch


Je nach Umfang der Durchführung
Bis zu 25000 € (CHeval, 2013)
Zeitaufwand
Gering bis hoch

Der Zeitaufwand ist abhängig von der Komplexität des Projekts und der Menge an
Interviews die durchgeführt werden: (Richter & Flückiger, 2010)
 Klein: 1 Durchgang, 1-2 Interviewer, 3-6 Teilnehmer: 3-12 Personentage
 Mittel: 2 Durchgänge, 2 Interviewer, 6-12 Teilnehmer: 12-30 Personentage
 Groß: mehrere Durchgänge, 3-5 Interviewer, mit je 6-12 Teilnehmern: 30 Personentage und mehr
Ca. 2 Stunden pro Interview (Holtzblatt et al., 2005)

4. Vorgehensweise
Vorbereitung



Usability-Methodenkatalog
Festlegen, was in Bezug auf das neue Produkt wichtig zu wissen ist und mit der Methode herausgefunden
werden soll (Richter & Flückiger, 2010).
Auswähler aus welchen Aufgabenbereichen Personen interviewt werden sollen. Hierbei kann sich an unten
stehenden Fragen orientiert werden, um zu erfahren, welches Wissen über die potenziellen Nutzer vorhanden ist. Davon ausgehend können Aufgabenbereiche definiert werden, aus denen Personen in die Untersuchung einbezogen werden sollen (Holtzblatt et al., 2005):
 Welche Arbeit oder Aktivität soll durch das zu entwickelnde Produkt unterstützt werden?
 Wie sind diese Prozesse in das Arbeitsleben der potenziellen Nutzer integriert?
 Mit welchen anderen Prozessen sind die Aktivitäten verknüpft?
 Welche weiteren Personen sind in die Prozesse involviert?
 Mit wem arbeiten die Nutzer zusammen?
 Wer stellt die Informationen für die Tätigkeit bereit?
 Wer nutzt die Ergebnisse?
 Was sind die Hauptarbeitsschritte, die durch das Produkt unterstützt werden sollen?
Interview-Stil festlegen (Holtzblatt et al., 2005):
 Wechselnd: Biete sich bei Arbeiten an, die nicht kontinuierlich sind oder unterbrochen werden können.
 Unterbrechungsfrei: Bei Arbeiten, die nicht unterbrochen werden können sollte ein Interview vor und
eines nach dem Durchführen der Arbeitstätigkeit geführt werden. Alternativ ist es möglich die Interviews mit einem Informanten zu führen, der die Arbeitsabläufe der Person die beobachtet wird kennt.
 Umgebungszentriert: Wenn die Aktivitäten die beobachtet werden auf den physikalischen Kontext, also den Ort an dem sie stattfinden, fixiert sind, z.B. ein interaktives Exponat, das in einem Museum ausgestellt wird, so kann es sinnvoll sein, beliebe Personen zu interviewen, die dieses System bedienen
und daran/damit arbeiten.
78
Kategorie
Kriterium
Kontextuelles Interview (Contextual Inquiry)






Durchführung




Nachbereitung/
Auswertung



Usability-Methodenkatalog
Teilnehmer aus den festgelegten Aufgabenbereichen rekrutieren (Holtzblatt et al., 2005)
 Dabei ist darauf zu achten, dass die Probanden die Untersuchung auch wirklich unterstützen wollen
und bereit sind, ca. 2 Stunden an der Durchführung teilzunehmen. Anders kann es sein, dass Teilnehmer versuchen die Befragungs- und Beobachtungssituation möglichst schnell „hinter sich zu bringen“.
 Es sollten mehr Interviews eingeplant werden, als für die Analyse gebraucht werden, da es immer sein
kann, dass Termin abgesagt werden.
Interviews zeitlich und örtlich planen (Holtzblatt et al., 2005).
 Die Wege zwischen den Interviews sollten klein gehalten werden. Nach Möglichkeit sollten zwei bis
drei Probanden in näherer Umgebung (z.B. an einem Unternehmensstandort) hintereinander interviewt werden.
 Es sollte ein bisschen mehr Zeit, als die angesetzte Dauer für ein Interview eingeplant werden (z.B. 2,5
Stunden). Die Zeit um zum nächsten Probanden zu gelangen sollte ebenfalls eingeplant werden.
Analyse der Ergebnisse planen (Holtzblatt et al., 2005):
 Zeitliche Planung: Die Zusammenfassung und Interpretation der Daten sollte innerhalb von 48 Stunden
nach den Interviews eingeplant und im Team durchgeführt werden.
 Räumliche Planung: Tagungsraum reservieren und die benötigten Werkzeuge und Hilfsmittel für die
Analyse organisieren (bei Verwendung der Methode Affinity-Diagramm z.B. Haftnotizzettel, Schreibmaterial sowie ein Ort zum Anbringen der Notizen (vgl. Kapitel 4.2.7)
 Personelle Planung: Das Team für die Analyse sollte aus unterschiedlichen Aufgabenbereichen kommen um ein breites Blickfeld auf die Ergebnisse zu ermöglichen.
Erstellen eines Leitfadens mit Fragen, die gestellt werden sollen. Aspekte festlegen, die erfasst und dokumentiert werden sollen. Mögliche Bereiche die untersucht werden können, sind in den Praxis-Tipps aufgeführt. (Richter & Flückiger, 2010)
Erstellen eines Formulars um Notizen zu einem Interview zusammenzufassen (Holtzblatt et al., 2005).
Die Probanden einen Tag vor dem Interview telefonisch an den Termin erinnern.
Die Methode wird bei dem Teilnehmer vor Ort in der natürlichen Nutzungsumgebung durchgeführt (z.B.
am Arbeitsplatz und während der Arbeit) (Richter & Flückiger, 2010).
Einstieg mit einem klassischen Interview:
 Der Interviewer stellt sich vor und erläutert die Ziele des Projekts und den Hintergrund der Durchführung (Holtzblatt et al., 2005).
 Erste Informationen über den Probanden und seine Arbeit erfahren und Vertrauen zu ihm aufbauen
(Herzon et al., 2010)
 Der Probanden wird gefragt, ob mit der Aufzeichnung des Interviews (z.B. per Videokmera) einverstanden ist (Einverständniserklärung). Dann werden die Geräte einrichten und einschalten. (Herzon et
al., 2010)
Zum „beobachtenden Interview“ wechseln:
 Der Ausführende beobachtete den Probanden bei dem Durchlaufen des Arbeitsprozesses und stellt
gezielt Fragen über das Beobachtete und anhand des erstellten Leitfadens. Der Proband sollte in seiner Arbeitsweise möglichst wenig beeinflusst werden, d.h. er soll nicht unterbrochen und nicht verbessert werden. (Herzon et al., 2010; Rammelt & Otto, o. J.; Richter & Flückiger, 2010)
 Bei der Durchführung sollte der Interviewer den Proband als Experten anzusehen und sich selbst in die
Rolle eines Auszubildenden versetzen (Holtzblatt et al., 2005).
 Es wird, ausgehend von der gerade durchgeführten Arbeitstätigkeit, über Probleme, fachliche Zusammenhänge und Verbesserungsmöglichkeiten diskutiert (Richter & Flückiger, 2010).
 Zum Ende des Interviews fasst der Ausführende das erfahrene zusammen (Holtzblatt et al., 2005).
 Gegen Ende können Fragen gestellt werden, die sich während der Tätigkeit nicht ergeben haben
(Holtzblatt et al., 2005).
 Falls der Proband noch Fragen an den Interviewer hat, kann er diese stellen (Holtzblatt et al., 2005).
 Der Ausführende sammelt alles, was im Interview diskutiert wird: ausgefüllte Formulare, Screenshots,
Skizzen über interessante fachliche Zusammenhänge, Audio- und Videoaufnahmen von Gesprächen
usw. (Herzon et al., 2010; Richter & Flückiger, 2010).
Dem Probanden danken, die Aufwandsentschädigung überreichen und sich verabschieden (Holtzblatt et
al., 2005)
Zusammenfassen aller Informationen die während des Interviews gesammelt wurden; ggf. Transkription
der Aufzeichnungen. Hierfür biete sich z.B. die Methode Affinity-Diagramm an (Holtzblatt et al., 2005).
Analyse der Daten und extrahieren folgender Informationen (Richter & Flückiger, 2010):
 Ziele und Bedürfnisse der befragten Personen sowie deren Probleme, Werte und Eigenheiten
 Aufgaben, Abläufe und Tätigkeiten, um zukünftige Abläufe im neuen System zu gestalten
 Schwierigkeiten und erprobte Lösungsansätze der Benutzer mit heutigen Werkzeugen, um Informationen über die Bedürfnisse der Benutzer und die dazu passenden Funktionen zu erarbeiten
Begriffe und Informationen zum Domänenmodell
79
Kategorie
Kriterium
Kontextuelles Interview (Contextual Inquiry)
5. Praxis-Tipps
Praxis-Tipps








6. Zweck
Es bietet sich an die Methode in mehreren Interviewrunden über den Verlauf des Projektes hinweg anzuwenden. Nicht alle Informationen des Nutzerkontextes lassen sich mit einer Anwendung erfassen. Zu Beginn des Projekts sind die Fragen noch breit und unscharf formuliert, während im Verlauf der Kontext des
Produkts immer besser erkannt wird und die Fragen enger und konkreter gestellt werden können. (Richter
& Flückiger, 2010)
Falls der Einsatz einer Videokamera zur Aufzeichnung der Interviews nicht möglich sein sollte, wird empfohlen einen zweiten Ausführenden einzusetzen, der die Durchführung protokolliert (Herzon et al., 2010).
Kulturelle Aspekte sind bei den Treffen zu beachten, besonders wenn Probanden zuhause besucht werden
(Holtzblatt et al., 2005).
Die Kleidung des Interviewers für die Durchführung sollte an der des Probanden angepasst und auf einem
Level in Bezug auf die Formalität sein. Wenn ein Teilnehmer z.B. zuhause besucht wird, ist ein Anzug unangebracht. Besser ist es ein legereres Business-Outfit zu wählen. (Holtzblatt et al., 2005)
Lohnenswerte Fragen zielen auf den Einsatz und das Umfeld von heute benutzten Produkten ab (Richter
& Flückiger, 2010).
Aspekte, die mit der Methode erfasst und dokumentiert werden können sind nach Richter & Flückiger
(2010):
 Rollenverteilung und Kommunikation: Wie ist die typische Rollenverteilung? Was sind Vorteile und
Probleme? Was ist das Kommunikationsmittel? Was sind Zweck und Inhalt der Kommunikation?
 Handlungsstrategien und Vorgehen: Wie werden Tätigkeiten ausgeführt? Welche unterschiedlichen
Vorgehensweisen gibt es? Was sind Stärken und Schwächen? Wie sind Häufigkeit, Frequenz, Intensität
und Dauer der Durchführung?
 Artefakte: Welche Artefakte z.B: Dokumente, Formulare, Werkzeuge usw. werden bei der Arbeit benutzt? Wie sind die Artefakte aufgebaut, welche Informationen enthalten sie und wann werden sie
verwendet? Sind die Artefakte an die individuellen Bedürfnisse Angepasst? Werden sie zweckentfremdet? Welche Vorteile und Probleme ergeben sich?
 Kulturelle und soziale Einflüsse: Welche Personen nehmen Einfluss? Wie ist die Wirkung von sozialem
Druck und Machtausübung? Welche Verhaltensregeln gibt es? Was sind Ziele, Werte und Vorlieben?
Gibt es widersprüchliche Einflüsse? Was sind Probleme und Chancen auf kultureller Ebene?
 Physisches Umfeld: Wie ist die Raumaufteilung und das Platzangebot? Welche Hilfsmittel sind Verfügbar? Welche Wege und Distanzen sind vorhanden und müssen überwunden werden? Welchen Einfluss
hat dies auf die Kommunikation? Welches Verbesserungspotential gibt es?
Erste Entwürfe oder Prototypen können in die Interviews einbezogen werden (Richter & Flückiger, 2010).
Zur Analyse der Daten bietet sich ein Team aus Analysten und Entwicklern an (Richter & Flückiger, 2010).
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen:
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/
Tätigkeiten
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Benutzer
Interaktion
Strukturen/Prozesse
Benutzererfahrung
Kontext






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Interview, Beobachtung, Contextmapping, Aufgabenanalyse, ethnografische Beobachtung
Erstellen von Nutzerprofilen
Mögliche nachfol- 
gende Methoden/ 
Tätigkeiten


8. Anwendungsbeispiele





Affinity-Diagramm: Zur Analyse der gewonnenen Daten (Herzon et al., 2010)
Aufgabenanalyse: Zur Verifizierung der Arbeitsabläufe (Herzon et al., 2010)
Contextual Design (Herzon et al., 2010)
Personas (Vanhoutte & van Vliembergen, o. J.)
Eine neue Software soll entwickelt werden, die den Nutzer bei der Bewältigung seiner Arbeit unterstützt.
Hierzu soll die Arbeitsweise der Nutzer verstanden werden, um die passende Software zu erarbeiten. Potentielle Nutzer werden hierzu bei ihrer Arbeit beobachtet und zu den Abläufen befragt.
80
Kategorie
Kriterium
Kontextuelles Interview (Contextual Inquiry)
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Das Buch „Rapid Contextual Design“ von Holtzblatt et al., (2005) bietet eine sehr ausführliche Darstellung des
gesamten Prozesses zur Anwendung der Methode. Angefangen bei den Vorbereitungen und der Auswahl und
Rekrutierung der Teilnehmer über die Durchführung des Interviews und den zu beachtenden Punkten bis hin
zur Auswertung der erhobenen Daten werden alle wichtigen Aspekte der Methode im Detail behandelt:
(englisch)
Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques
for User-centered Design: Elsevier/Morgan Kaufmann.
Lesenswerte Internetartikel von Gaffney (2004) der viele Fakten zusammenfasst:
http://www.sitepoint.com/contextual-enquiry-primer/
Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von http://www.sitepoint.com/contextualenquiry-primer/
Ross, (2012) geht in seinem Artikel „Why are Contextual Inquiries So Difficult?“ auf die Probleme und Schwierigkeiten der Methode ein und zeigt Möglichkeiten auf, diesen entgegen zu wirken:
http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php
Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von
http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php
Zu beachtende
Normen und
Zertifikate
Quellen
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von http://www.sitepoint.com/contextualenquiry-primer/
Herzon, C., DeBoard, D., Wilson, C., & Bevan, N. (2010). Contextual Inquiry. Zugriff am 05.06.2015. Abgerufen
von http://usabilitybok.org/contextual-inquiry
Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques
for User-centered Design: Elsevier/Morgan Kaufmann.
Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.berlinusability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von
http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php
Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel. (2015). Kontextuelles Benutzerinterview durchführen.
Abgerufen von http://www.pq4agile.de/PQ4WP/wp-content/uploads/2015/02/PQ4Agile-AP-2.2Kontextuelles-Benutzerinterview-durchf%C3%BChren-V.1.pdf
Vanhoutte, A. S. J. & van Vliembergen, E. J. W. (o. J.). Contextual Inquiry. Zugriff am 04.06.2015. Abgerufen
von http://filter.ucdtoolbox.com/filter
Usability-Methodenkatalog
81
4.2.6 Card Sorting
Kategorie
Kriterium
Card Sorting
1. Bezeichnung
Name
Card Sorting
Synonyme
Card Sort
2. Beschreibung
Kurzbeschreibung Mit dem Card Sorting wird die geplante Struktur eines Systems, z.B. einer Website (Sitemap) getestet oder es
wird ermittelt, welche Struktur für die Website sinnvoll wäre.
Die Informationen, z.B. Inhalte einer Website, werden hierbei durch den Ausführenden jeweils auf eine Karteikarte geschrieben. Die Teilnehmer sortieren die Karten nach Kategorien die entweder fest vorgegeben (geschlossenes Card Sorting) oder von ihnen selbst gewählt werden (offenes Card Sorting). Im Anschluss bringen
sie die Karten in eine hierarchische Struktur.
Abbildungen
Abbildung 8: Beispiel für die Anwendung des Card Sorting (Nielsen, 1994c)
Ziele



Ergebnisse/
Output

Informationen in kategorisierter und hierarchisch strukturierter Form z.B. Sitemap
Vorteile

Schnell (besonders unter Verwendung von Software-Tools, vgl. Werkzeuge, Hilfsmittel) und kostengünstig
durchführbar (Killam, Preston, McHarg, & Wilson, 2009)
Keine besonderen Kenntnisse vom Ausführenden erforderlich (Killam et al., 2009)
Stellt eine gute Grundlage für die Struktur einer Website oder eines Produkts dar (Killam et al., 2009)


Nachteile/
Grenzen


Anwender
Teilnehmer
Projektphase(n)
3. Rahmenbedingungen & Ressourcen
Überprüfen, ob eine vorgesehene Struktur einer Anwendung der Einteilung der Zielgruppe entspricht
(Usability.de, 2015).
Informationen benennen und (aus der Sicht der Nutzer) ordnen, kategorisieren und strukturieren (Nielsen,
2004; Redondo, Bravo, & Ortega, 2009)
Wording-Probleme lösen (Bsp.: Sind Menü-Benennungen verständlich für die Zielgruppe?) (Usability.de,
2015)
Bei vielen Probanden und ohne Software Unterstützung ist die Auswertung der Daten aufwendig (Killam
et al., 2009)
Die Meinungen der Experten über die benötigte Anzahl von Teilnehmern gehen auseinander.
Konzeption
Beginn der Konzeptionsphase (Jacobsen, 2007)
Anzahl


Art
Repräsentative Endnutzer (Nielsen, 2004)
Rolle


Partizipation
Wird beobachtet
Einbeziehung


Physikalische Einbeziehung
Ggf. Remote, falls eine webbasierte Software für die Durchführung verwendet wird
Anzahl
1 ggf. ein zusätzlicher Protokollant wenn z.B. Lautes Denken integriert wird (Usability.gov, 2013)
Rolle
Beobachter, Moderator, ggf. Protokollant, Analyst
Mindestens 15 (Nielsen, 2004)
5 bis 10 (Jacobsen, 2007)
Erforderliche Keine (Killam et al., 2009)
Kompetenzen
Usability-Methodenkatalog
82
Kategorie
Kriterium
Card Sorting
Werkzeuge,
Hilfsmittel




Papierkarten (bzw. –Zettel) in unterschiedlichen Farben, Stifte (Nielsen, 2004)
Ausreichend großer Tisch zum Ausbreiten der Zettel oder eine große Wand (z.B. Pinnwand, Flipchart) um
die Zettel zu befestigen (kleben/pinnen) (Usability.gov, 2013)
Ggf. eine Kamera zum Aufzeichnen der Ergebnisse
Alternativ kann eine Software verwendet werden (z.B. CardSword, CardZort, aCaSo, Concept System,
OptimalSort) (Redondo et al., 2009)
Computer (für die softwaregestützte Variante) (Usability.gov, 2013)
Tabellenkalkulationsprogramm (Spreadssheet Template) zur Auswertung (Lamantia, 2003)
Ort/Umgebung


Tagungsraum
Schreibtisch
Kosten
Gering

Weniger als 5000 € (CHeval, 2013)
Zeitaufwand
Gering


Ca. eine Stunde pro Teilnehmer plus Auswertung (Usability.gov, 2013)
Maximaler Zeithorizont: 1 Woche (CHeval, 2013)
Vorbereitung







4. Vorgehensweise

Art des Card Sortings wählen z.B. offenes, geschlossenen Card Sorting (Killam et al., 2009)
Art der Durchführung wählen z.B. mit Papierkarten oder Online-Tool (Killam et al., 2009)
Plan für die Durchführung und die Auswertung erstellen; inkl. Zeitplan (Killam et al., 2009)
Werkzeuge und Hilfsmittel organisieren
Testpersonen rekrutieren (soll möglichst die Gesamtheit der Nutzer repräsentieren) (CHeval, 2013; Nielsen,
2004)
Begriffe und ggf. kurze Beschreibungen (z.B. Elemente einer Sitemap) werden durch den Ausführenden
(Designer, Entwickler etc.) auf Papier-Karten geschrieben, ein Begriff pro Karte (Nielsen, 2004).
Durchführung
Der Ausführende erläutert dem Teilnehmer das Vorhaben und informiert ihn über die Ziele der Untersuchung.
(CHeval, 2013)
Die Karten werden gemischt und einem Benutzer geben. Der Benutzer sortieren die Karten nach selbst gewählten Kriterien (sog. offenes Card Sorting) oder nach zuvor durch den Ausführenden vorgegebenen Kriterien (geschlossenes Card Sorting) und bilden Stapel. Die Kriterien sind im Falle des offenen Card Sortings im
Anschluss durch den Benutzer zu benennen und auf separate leere andersfarbige Karten zu notieren. (Nielsen,
2004; Redondo et al., 2009)
Nachbereitung/
Auswertung
Bei wenigen Versuchspersonen kann jedes Ergebnis einzeln von einem Experten analysiert werden und Erkenntnisse abgeleitet werden.
Hierzu sollte nach der Durchführung ein Foto von den Ergebnissen gemacht werden, alternativ können die
Ergebnisse anhand von Nummern, die in der Vorbereitungsphase auf die Karten geschrieben werden, festgehalten werden. (Usability.gov, 2013)
 Qualitative Analyse anhand der Kommentare der Teilnehmer (Usability.gov, 2013)
 Quantitative Analyse anhand der Informationen aus dem Kartenlegen (Welche Karten sind häufig zusammengefasst worden? Wie oft sind Karten in bestimmten Kategorien aufgetaucht?) (Usability.gov, 2013)
Für große Datenmengen bietet es sich an eine „Faktorenanalyse“ durchzuführen.
Alternativ kann die Auswertung softwaregestützt erfolgen z.B. mit CardZort (Redondo et al., 2009).
5. Praxis-Tipps
Praxis-Tipps
Tipps:



Während der Durchführung bietet sich die Methode „Lautes Denken“ an (vgl. Kapitel 4.5.2) (Uselab, 2015)
Für das offene Card Sorting sollten nicht mehr als 40 Karten verwendet werden (Usability.gov, 2013)
Den Teilnehmern sollte für die Durchführung die Zeit vorgegeben werden, die sie zur Verfügung haben
(Usability.gov, 2013)
Varianten:



6. Zweck
Kombination von offenem und geschlossenem Card Sorting: Erst ein offenes Card Sorting durchführen, um
übergeordnete Kategorien zu ermitteln, danach ein geschlossenes Card Sorting durchführen.
Affinity-Diagramm: Die Teilnehmer (z.B. Entwickler) starten mit leeren Karten und müssen zunächst Begriffe darauf schreiben. Im Anschluss werden die Karten aller Teilnehmer zu einem Stapel zusammengefasst
und mit diesem die Sortierung und Strukturierung durchgeführt (ggf. im Rahmen einer Gruppendiskussion)
(vgl. Methodenbeschreibung Affinity-Diagramm Kapitel 4.2.7).
Struktur testen: Eine bereits bestehende Struktur (z.B. Menüstruktur) wird auf Karten nachgestellt und von
Endnutzern getestet. Jeder Menüeintrag wird auf eine Karte geschrieben. Alle Elemente, die einem gemeinsamen Menü bzw. Untermenü angehören, werden zu einem Stapel zusammengefasst. Die Oberbegriffe zu jedem Stapel werden auf andersfarbige Karten geschrieben und oben, offen auf die Stapel gelegt. Ein Proband bekommt nun die Aufgabe Menüelemente in den Stapeln zu finden. Auf diese Weise
lässt sich überprüfen, ob die Strukturierung des Menüs für den Nutzer intuitiv angeordnet ist.

Strukturen/Prozesse


Ideen & Konzepte
Software
folgendes zu bewerten:

Software
Daten…

zu ordnen/organisieren
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu erstellen:
es das Ziel ist…
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Usability-Methodenkatalog
Affinity-Diagram, Mindmap, Concept Map, Brainstorming
83
Kategorie
Kriterium
Card Sorting
Mögliche voran
gegangene Me
thoden/Tätigkeite 
n
Methoden des Bereichs „User research” (Killam et al., 2009)
Brainstorming (Killam et al., 2009)
Aufgabenanalyse (Task Analysis) (Killam et al., 2009)
Mögliche nachfol- 
gende Methoden/ 
Tätigkeiten


Clusteranalyse: Zur Auswertung der Daten (max. 50 Karten) (Faiks & Hyland, 2000)
Faktorenanalyse: Zur Auswertung der Daten (Capra, 2005)
Pathfinder-Methode: Zur Auswertung der Daten (Redondo et al., 2009)
Paper Prototyping: Verwenden, um das Design einer Webseite zu verfeinern (Nielsen, 2004)
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete



9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Literatur:
Umfangreiche Internetseite der TU Berlin mit Informationen zu Cart Sorting und weiteren Lege- und
Mappingtechniken:
http://www.uselab.tu-berlin.de/wiki/index.php/Lege-_und_Mapping-Techniken
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Erstellung einer Webseiten Sitemap (offenes Card Sorting)
Verändern einer bestehenden Webseite (geschlossenes Card Sorting)
Gestaltung und Aufbau von Software/Applikationen (z.B. Menüstrukturen) (CHeval, 2013)
Informationen zur Methode auf usability.gov: Beschreibt u.a. unterschiedliche Varianten von Card Sorting und
stellt diese mit Vor- und Nachteilen einander gegenüber. Enthält außerdem viele zusätzliche Anwendungstipps:
(englisch)
http://www.usability.gov/how-to-and-tools/methods/card-sorting.html
usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von http://www.usability.gov/howto-and-tools/index.html
Software und Tools:
Auf Boxes And Arrows wird ein Excel-Template zur Auswertung der Daten angeboten:
http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/
Plattformbasierte Software CardSword zur Durchführung von Card Sorting:
http://sourceforge.net/projects/cardsword/
Plattformbasierte Software CardZort Zone zur Durchführung von Card Sorting (inkl. 30 Tage Trial):
http://www.cardzort.com/cardzort/index.htm
Webbasierte Software OptimalSort zur Durchführung von Card Sorting inkl. Demo-Version:
https://www.optimalworkshop.com/optimalsort
Videos:
YouTube Tutorial eines alternativen Card Sortings mit “Blanko-Karten“ (englisch):
https://www.youtube.com/watch?v=FTzHeYPB9c8
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
-
84
Kategorie
Kriterium
Card Sorting
Quellen
Capra, M. (2005). Factor Analysis of Card Sort Data: An Alternative to Hierarchical Cluster Analysis. Proceedings
of the Human Factors and Ergonomics Society 49th Annual Meeting, 2005, 691–695. Abgerufen von
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3176&rep=rep1&type=pdf
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Faiks, A., & Hyland, N. (2000). Gaining user insight: a case study illustrating the card sort technique. College &
Research Libraries, (61(4)), 349–357.
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Killam, B., Preston, A., McHarg, S., & Wilson, C. (2009). Card Sorting. Zugriff am 05.06.15. Abgerufen von
http://usabilitybok.org/card-sorting
Lamantia, J. (2003). Analyzing Card Sort Results with a Spreadsheet Template. Abgerufen von
http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/
Nielsen, J. (1994). Usability Testing of WWW Designs: Article by Jakob Nielsen. Abgerufen von
http://www.nngroup.com/articles/usability-testing-1995-sun-microsystems-website/
Nielsen, J. (2004). Card Sorting: How Many Users to Test. Abgerufen von
http://www.nngroup.com/articles/card-sorting-how-many-users-to-test/
Redondo, M., Bravo, C., & Ortega, M. (2009). Engineering the user interface: From research to practice. London: Springer.
usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.de/leistungen/methoden.html
usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von http://www.usability.gov/howto-and-tools/index.html
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Usability-Methodenkatalog
85
4.2.7 Affinity-Diagramm
Kategorie
Kriterium
Affinity-Diagram
1. Bezeichnung
Name
Affinity-Diagram
Synonyme
Kawakita Jiro Method, KJ Methode
2. Beschreibung
Kurzbeschreibung Die Methode kann in zwei Varianten durchgeführt werden.
Variante A „neue Ideen“: Eine Personengruppe sammelt Begriffe (oder Phrasen), die auf Haftnotizen geschrieben und nach Oberbegriffen sortiert und ggf. strukturiert werden. Am Ende wird über die finale Anordnung entschieden
Variante B „bestehende Ideen“: Bestehende Begriffe (oder Phrasen) (z.B. aus einer Nutzerumfrage), die auf
Haftnotizen stehen, werden von einer Personengruppe nach Oberbegriffen sortiert. Am Ende wird über die
finale Anordnung entschieden.
Abbildungen
Abbildung 9: Anwendung der Methode Affinity-Diagram (Weevers et al., 2013)
Ziele



Informationen sind (z.B. an einer Wand) nach den Vorstellungen der Teilnehmer nach Oberbegriffen
geordnet und ggf. strukturiert und gewähren so eine visuellen Überblick.
Vorteile

Kann in vielen unterschiedlichen Situationen und in verschiedenen Disziplinen wie z.B. der Produktplanung,
dem Design oder dem User Research angewendet werden. (Weevers et al., 2013)
Nachteile/
Grenzen


Wenig geeignet, wenn eine Situation schnelles und entschlossenes Handeln erfordert (Weevers et al., 2013)
Wenig geeignet, wenn die Design-Lösung einfach ist (Weevers et al., 2013)
Projektphase(n)
Alle
Teilnehmer
Ergebnisse/
Output
Anwender
3. Rahmenbedingungen &
Ressourcen
Variante A „neue Ideen“: Es sollen Ideen erzeugt werden, die im Anschlussgruppiert und ggf. strukturiert
werden, um sie übersichtlich darzustellen.
Variante B „bestehende Ideen“: Eine große Menge an Informationen soll gruppiert und strukturiert werden, um sie übersichtlich darzustellen.
Anzahl
0-10, je nach Anwendungsfall können auch mehr Personen teilnehmen (Holtzblatt et al., 2005)
Art
Firmeninterne, Stakeholder
Rolle


Einbeziehung
Physikalische Einbeziehung
Partizipation
Diskussion
Anzahl
1-2 (Holtzblatt et al., 2005)
Rolle
Moderator, Organisator
Erforderliche Besonders bei einer großen Menge an Daten und vielen Teilnehmern werden gute Moderationsfähigkeiten
Kompetenzen benötigt. (Holtzblatt et al., 2005)
Werkzeuge,
Hilfsmittel



Ort zur Anordnung der Haftnotizen (z.B. Wand, Whiteboard, Tisch)
Haftnotizzettel in unterschiedlichen Farben
Schreibmaterial
Ort/Umgebung


Tagungsraum
Schreibtisch
Kosten
Gering
Zeitaufwand
Gering
Usability-Methodenkatalog


Variante A „neue Ideen“: ca. 1-2 Stunden (UsabilityNet, 2003)
Variante B „bestehende Ideen“: bei 50-80 Notizen pro Person ca. 1 Tag; die Durchführung sollte maximal 2 Tage dauern (ansonsten sollten mehr Teilnehmer involviert
werden) (Holtzblatt et al., 2005)
86
Kategorie
Kriterium
Affinity-Diagram
4. Vorgehensweise
Vorbereitung




Durchführung







5. Praxis-Tipps
Die Teilnehmer sind über die Methode selbst sowie über die Grundregeln (siehe Praxis-Tipps) zu informieren (Courage & Baxter, 2005).
Den Teilnehmern ist die Leitfrage bzw. das Thema darzustellen (UsabilityNet, 2003).
Jeder Teilnehmer für sich führt ein Brainstorming durch und schreibt Ideen auf die Haftnotizen, die ihm im
Zusammenhang mit der Leitfrage einfallen.
 Hierbei können je nach Art der Information unterschiedlich gefärbte Haftnotizen verwendet werden,
z.B. für Beobachtungen, Hypothesen, Fragen, Design-Ideen, Schwachstellen usw. (Courage & Baxter,
2005)
Die Notizen werden zu Gruppen auf einem Tisch oder an einer Wand zusammengefasst (Holtzblatt et al.,
2005):
 (Optional können alle Notizen zuvor eingesammelt, gemischt und dann unter den Teilnehmern neu
verteilt werden.) (Courage & Baxter, 2005)
 Hierzu beginnt ein Teilnehmer, liest seine Notiz laut vor und befestigt sie an der Wand.
 Die übrigen Teilnehmer durchsuchen ihre Notizen nach solchen, die dazu passen würden.
 Die Teilnehmer die passende Notizen haben, lesen diese ebenfalls laut vor und hängen sie zu der bestehenden Notiz (z.B. in einer Spalte untereinander) bis keiner mehr passende Haftzettel hat.
 Ein Teilnehmer fährt fort und eröffnet eine neue Spalte mit einem seiner Zettel, die Prozedur beginnt
von vorne bis alle Teilnehmer all ihre Zettel an der Wand haben.
 Falls jemand mit der Anordnung eines Zettels nicht einverstanden ist, kann er diesen anders platzieren.
Zu diesem Zeitpunkt sollte keine Diskussion darüber stattfinden!
Sind alle Notizen an der Wand, sollte sich jeder Teilnehmer noch einmal alle Notizen durchlesen.
Verfeinern der Ergebnisse und Benennung der Kategorien:
 Die einzelnen Notizzettelgruppen werden durchgegangen. Entweder zusammen von allen Teilnehmer
in einer Gruppendiskussion oder in kleinen Personengruppen (jede kleine Personengruppe betrachtet
dabei eine Notizen-Spalte.
 Es werden Notizen gesucht, die zu kleineren Gruppen zusammengefasst werden können.
 Redundanzen werden entfernt
 Die Gruppen werden betitelt, so dass aus der Bezeichnung auf die einzelnen Notizen geschlossen werden kann, ohne sie einzeln zu lesen. Die Titel werden auf andersfarbige Haftnotizzettel geschrieben
und zu den bzw. über die übrigen Notizen geklebt (Holtzblatt et al., 2005).
 Ggf. können Zettel zugeordnet werden.
Strukturieren der Informationen:
 Die vorhandenen Kategorien können nun hierarchisch strukturiert, bzw. zu übergeordneten Kategorien gruppiert werden.
Nachbereitung/
Auswertung

Bei der Verwendung der Ergebnisse sollte man flexibel sein, da die Gruppierungen willkürlich entstanden
sind (Weevers et al., 2013).
Praxis-Tipps

Falls zunächst von den Teilnehmern ein Brainstorming durchgeführt wird, sollte hierfür ein Zeitlimit festgelegt werden (UsabilityNet, 2003).
Grundregeln für die Erstellung eines Affinity-Diagramms (Courage & Baxter, 2005):
 jeder Teilnehmer ist gleich
 Ideen dürfen nicht kritisiert werden
 es gibt keine vorgefassten Kategorien; sie entstehen aus den Daten
 Notizzettel können dupliziert werden, wenn sie in mehreren Gruppen anzuordnen sind
 Einzelne Notizen gehören niemandem. Jeder darf jede beliebige Notiz neu anordnen (Holtzblatt et al.,
2005).
Tipps zur Gruppierungsphase:
 Es sollte keine Diskussion stattfinden (Holtzblatt et al., 2005).
 Den Gruppen (Spalten) sollten keine Namen gegeben werden! Es ist darauf zu achten, dass auch in
Gesprächen die Gruppen neutral bezeichnet werden, um die Teilnehmer bei der Zuordnung ihrer Notizen nicht zu beeinflussen. Zum Beispiel: „Hat noch jemand einen Zettel, der zur Notiz E-Mail passt?
(Holtzblatt et al., 2005)
 Hat ein Teilnehmer keine Notizen mehr, können die Notizen eines anderen Teilnehmers aufgeteilt
werden (Holtzblatt et al., 2005).
 Ziel dieser Phase ist, alle Notizen an die Wand zu bekommen. Die Zuordnung muss noch nicht perfekt
sein. Es sollte nicht zu viel Zeit in die Anordnung investiert werden (Holtzblatt et al., 2005).
 Einzelne Notizzetteln mit Informationen die zu keiner Gruppe zugeordnet werden können, sollten
aussortiert werden anstatt sie zwanghaft irgendwo einzusortieren (Weevers et al., 2013).


6. Zweck
Materialien und Ort bereitstellen
Thema festlegen:
 entweder im Vorfeld Daten sammeln z.B. mittels einer Umfrage
 oder Leitfrage(n) oder Themen festlegen, zu denen Ideen von den Teilnehmern während der Durchführung gesammelt werden sollen z.B. „Welche Faktoren bestimmen oder beeinflussen die Qualität
unserer Produkte“ (Weevers et al., 2013)
Team zusammenstellen: benötigte Expertise beachten (Holtzblatt et al., 2005); Außenstehende können
einen neuen Blick auf das Thema ermöglichen (Weevers et al., 2013))
Ggf. die Ergebnisse einer Befragung auf Notizzettel schreiben
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes
zu erstellen:
es das Ziel ist…
Usability-Methodenkatalog

Strukturen/Prozesse






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
87
Kategorie
Kriterium
Affinity-Diagram
Daten…
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/
Tätigkeiten



zu ordnen/organisieren
zu kommunizieren
zu dokumentieren
Card Sorting, Brainstorming, Mindmap
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete


9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
In einer Workshop-Umgebung sollen Teilnehmer Informationen sammeln, zu Kategorien gruppieren und
die Ergebnisse diskutieren (Weevers et al., 2013).
Eine große Menge an Informationen (z.B. aus einem Kontextuellen Interview, einer Feldstudie oder einer
Usability Evaluation) liegt vor und soll ausgewertet bzw. übersichtlich dargestellt werden (Weevers et al.,
2013).
Weitere Informationen zur Anwendung der Methode, im Besonderen vor dem Hintergrund der Auswertung
von Befragungsergebnissen können folgendem Buch entnommen werden: (englisch)
Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques
for User-centered Design: Elsevier/Morgan Kaufmann.
Zu beachtende
Normen und
Zertifikate
Quellen
Courage, C., & Baxter, K. (2005). Understanding Your Users: A Practical Guide to User Requirements: Methods,
Tools, and Techniques: Morgan Kaufmann Publishers.
Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key Techniques
for User-centered Design: Elsevier/Morgan Kaufmann.
UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von
http://www.usabilitynet.org/tools/list.htm
Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#
Usability-Methodenkatalog
88
4.3 Befragung
4.3.1 Interview
Kategorie
1. Bezeichnung
2. Beschreibung
Kriterium
Interview
Name
Interview
Synonyme
Mündliche Befragung
Kurzbeschreibung Bei einem Interview findet eine persönliche Befragung der Probanden durch einen Interviewer statt. Dieser
orientiert sich in seinem Befragungsgespräch an einen im Vorfeld definierten Leitfaden, um den Ablauf der
einzelnen Interviews möglichst einheitlich und dadurch vergleichbar zu machen.
Mit einem Interview lassen sich Meinungen und Fakten von Nutzern zu einem Produkt erfahren.
Abbildungen
Ziele


Spezifische Nutzergruppen besser kennenlernen (Usetree, 2014d)
Herausfinden, wie Endnutzer Produkteigenschaften wahrnehmen, interpretieren und nutzen (Usetree,
2014d)
Ergebnisse/
Output

Informationen zu den Meinungen der Befragten
Vorteile

Das nicht-standardisierte Interview ermöglicht es die Befragung flexibel aufzubauen und den Gegebenheiten anzupassen. So kann bei Unklarheiten genauer nachgefragt werden und so mehr über den Nutzer erfahren werden. (Quirmbach, 2013)
Die Methode ist kostengünstig und lässt sich gut mit anderen Vorhaben kombinieren (Quirmbach, 2013).

Nachteile/
Grenzen






Anwender
3. Rahmenbedingungen & Ressourcen
Teilnehmer
Projektphase(n)
Die Auswertung ist zeitintensiv (Quirmbach, 2013).
Die Ergebnisse der Interviews sind nur dann gut miteinander vergleichbar, wenn ein hoher Standardisierungsgrad bei Fragen und möglichen Antworten besteht (Quirmbach, 2013).
Die Probanden können durch den Interviewer beeinflusst werden (Quirmbach, 2013).
Eine gewisse Verbalisierungsfähigkeit wird vom Nutzer vorausgesetzt (Sarodnick & Brau, 2011).
Es können keine statistisch verwendbaren Daten gewonnen werden (Sarodnick & Brau, 2011).
Menschen tun und denken nicht immer das, was sie bei einer Befragung angeben (Jacobsen, 2007).
Alle
Vor allen in frühen Entwicklungsphasen Bedürfnisse und die Einstellung der Nutzer ermitteln (Quirmbach, 2013).
Anzahl
6-10 (Heuwing, 2010; KUSi, 2015)
Art
(Tatsächliche bzw. potentielle) Endnutzer (Usetree, 2014d)
Rolle


Diskussion
Wird befragt
Einbeziehung


Physikalische Einbeziehung
„Remote“ z.B. per Telefon
Anzahl
1+ (empfohlen wird zusätzlich ein Protokollant (Usetree, 2014d))
Rolle
Organisator, Interviewer, ggf. Protokollant
Erforderliche Soziale Kompetenz, Erfahrungen in der Interviewführung (Sarodnick & Brau, 2011)
Kompetenzen
Werkzeuge,
Hilfsmittel


Schreibmaterial, Notizblock
Aufnahmegerät z.B. Diktiergerät oder Videokamera
Ort/Umgebung





Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Kosten
Gering
Zeitaufwand
Gering bis mittel
Usability-Methodenkatalog


Übliche Dauer pro Interview: 30 bis 60 min (Heuwing, 2010)
Maximale Dauer pro Interview: 90 min (Heuwing, 2010)
89
Kategorie
Kriterium
Interview
4. Vorgehensweise
Vorbereitung









Durchführung





Nachbereitung/
Auswertung





5. Praxis-Tipps
Praxis-Tipps
Definition der Ziele: Was soll mit den Interviews herausgefunden werden? (UseWell, 2011)
Festlegen welche Teilnehmer einbezogen werden sollen (UseWell, 2011)
Interviewtyp wählen z.B. offen/strukturiert, standardisiert/nichtstandardisiert, Telefoninterview/direktes
Interview (USERfit, 1996a; Usetree, 2014d; UseWell, 2011)
Zeitplanung durchführen und ggf. Räume reservieren (UseWell, 2011)
Teilnehmer einladen: Einladung verschicken und die Details des Interviews kommunizieren (Ort, Zeit,
Dauer, Thema), Informationen zu öffentlichen Verkehrsmitteln und Parkmöglichkeiten.
Erstellen einer Leitfadens bzw. spezifischer Fragen, die im Interview angesprochen werden sollen. Mögliche
Themengebiete sind: Verhalten, Meinungen, Werte, Gefühle, Wissen, Demographie (UseWell, 2011).
Interview mit 1-2 Personen testen, um mit dem Leitfaden vertraut zu werden, die Verständlichkeit der
Fragen sowie den zeitlichen Rahmen der Durchführung zu überprüfen (Usetree, 2014d; UseWell, 2011).
Teilnehmer einen Tag vor der Durchführung telefonisch an die Termine erinnern (UseWell, 2011).
Aufnahmegeräte einrichten und testen (UseWell, 2011)
Den Teilnehmer begrüßen und sich selbst vorstellen (UseWell, 2011)
Dem Teilnehmer das Thema des Interviews vorstellen und erklären, wofür die Ergebnissen verwendet
werden (UseWell, 2011).
Abarbeiten der Fragen des Leitfadens
 Über Zwischenfragen kann der Befragte dazu gebracht werden, seine Antworten genauer darzustellen und weiter auszuarbeiten (UseWell, 2011).
 Folge-Fragen oder Fragen, die durch eine Reaktion ausgelöst wurden können zwischen geschoben
werden (UseWell, 2011).
 Während des Interviews beobachtet der Ausführende (oder ein Protokollant) den Teilnehmer und
macht sich kurze Notizen (nach Möglichkeit nur Schlagworte) zu den Antworten oder zum Verhalten
des Befragten. Nach dem Interview werden die Notizen vervollständigt (UseWell, 2011).
 „Schwere“ und „leichte“ Fragen sind abzuwechseln, genau wie faktenbasierende und auf Szenarien
basierende Fragen (UseWell, 2011).
 Die Frage-Phase wird durch den Interviewer beendet. Der Teilnehmer erhält die Möglichkeit seinerseits
Fragen zu stellen (UseWell, 2011).
Dem Befragten für die Teilnahme an dem Interview danken (UseWell, 2011).
Dem Teilnehmer werden eine Aufwandsentschädigung sowie eine Kostenerstattung überreicht (UseWell,
2011).
Die Notizen zu jedem geführten Interview sollten zeitnah (innerhalb von 24 Stunden) vervollständigt
werden (UseWell, 2011).
Aufzeichnungen durcharbeiten, ggf. transkribieren (UseWell, 2011)
Die Notizen je Interview sind zu vergleichen und Ergebnisse bzw. Kernaussagen herauszuarbeiten (Usetree,
2014d; UseWell, 2011).
Erstellen eines Berichts zu den Ergebnissen (UseWell, 2011).
Ergebnisse präsentieren (UseWell, 2011)
Tipps:






Der Schlüssel zu einem guten Interview ist eine angenehme Atmosphäre für den Interviewten zu schaffen
(UseWell, 2011).
Der Interview-Leitfaden sollte so gestaltet sein, dass die Fragen kurz, präzise und neutral formuliert sind
(Usetree, 2014d).
Fragen müssen offen formuliert sein, damit der Proband nicht nur mit ja oder nein antwortet (Knill, 2003).
Der Interviewer sollte sich während der Durchführung neutral verhalten (UseWell, 2011).
Eine Durchführung direkt am Arbeitsplatz biete sich oft an, da so Aspekte direkt gezeigt und vorgeführt
werden können und so die Verbalisierungsfähigkeit der Nutzer weniger zum Tragen kommt (Sarodnick
& Brau, 2011).
Bei der Auswertung der Ergebnisse ist darauf zu achten, dass nicht nur Probleme herausgearbeitet werden,
sondern auch Positives festgehalten wird (Usetree, 2014d).
Varianten:



6. Zweck
Standardisiert/Nichtstandardisiert: Bei standardisierten Interviews sind die Durchführung sowie die Fragestellungen vorgegeben, bei nichtstandardisierte Interviews können der Aufbau und die Durchführung frei
gestaltet werden (Quirmbach, 2013)..
Offen/Strukturiert: Bei offenen Interviews sind nur die anzusprechenden Themen vorgegeben, der genaue
Verlauf steht im Vorfeld nicht fest. Strukturierte Interviews sind die Fragen inkl. der genauen Formulierung
festgelegt, genau wie mögliche Antworten. Offene Interviews können aufschlussreicher sein, sind aber
aufwendiger auszuwerten und schwieriger zu vergleichen (Usetree, 2014d).
Telefoninterview (Usetree, 2014d)
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen:
Usability-Methodenkatalog



Benutzer
Benutzererfahrung
Kontext






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
90
Kategorie
Kriterium
Interview
folgendes zu bewerten:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
7. Verwandte
Verwandte MeFragebogen, Fokusgruppe
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfol- Affinity Diagramm
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete


9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012) enthält Informationen zur Erstellung von
Interviewleitfaden sowie zur Durchführung von Interviews:
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
Interview zur typischen Vorgehensweise beim Nutzen eines Produkts (KUSi, 2015)
Interview zu bestehenden Erlebnissen des Nutzers mit einem Produkt oder Produkten einer Marke (KUSi,
2015)
Im Rahmen des Usetree-Projekts des Berliner Kompetenzzentrums für Usability Maßnahmen wurde ein Artikel
zur Methode verfasst, der unteranderem Beispiel-Fragen für ein halbstandardisiertes Interview und Tipps zur
Formulierung von offenen Fragen enthält:
http://www.usetree.de/wp-content/uploads/2014/09/Interview.pdf
Usetree. (2014). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf
In einem Artikel von Vilela, (2014) werden viele weiterführende Informationen zur Methode, (z.B. Wann
eignet sich der Einsatz eines Telefoninterviews, wann ein direktes Interview?), eine Checkliste zur Überprüfung
der wichtigen Schritte, Anwendungsbeispiele sowie viele Anwendungstipps gegeben. Der Artikel wird auf der
Internetplattform von „Community Tool Box“ zur Verfügung gestellt: (englisch)
http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conductinterviews/checklist
Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main
Zu beachtende
Normen & Zertif.
Quellen
Heuwing, B. (2010). Interview. Zugriff am 08.06.2015. Abgerufen von http://usability-toolkit.de/usabilitymethoden/interview/
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Knill, M. (2003). Interviewtechnik. Abgerufen von
http://www.rhetorik.ch/Interviewtechnik/Interviewtechnik.html
KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen
von http://www.usability-siegen.de/qualifizierung.html
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
USERfit. (1996). Interviews. Zugriff am 11.05.2015. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTinterview.pdf
Usetree. (2014). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main
Usability-Methodenkatalog
91
Usability-Methodenkatalog
92
4.3.2 Fokusgruppe
Kategorie
Kriterium
Fokusgruppe
1. Bezeichnung
Name
Fokusgruppe
Synonyme
Themenspezifische Gruppendiskussion, Focus Groups
2. Beschreibung
Kurzbeschreibung Potenzielle Nutzer werden im Rahmen einer moderierten Gruppendiskussion zu ihren Erwartungen, Wünsche
und Gefühlen gegenüber dem zu entwickelnden Produkt, einer Marke oder einer Firma befragt. Hieraus lassen
sich Anregungen ableiten, z.B. zur Gestaltung eines Produkts.
Abbildungen
Abbildung 10: Anwendung der Methode Fokusgruppe (Usability.de, 2015)
Ziele
Gedanken, Empfindungen und Meinungen der Nutzer erfahren, die sie bezüglich eines Produktes haben.
Ergebnisse/
Output


Vorteile






Nachteile/
Grenzen






Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
Feedback zur Einstellung der Teilnehmer gegenüber einem Produkt
 Wie nutzen Teilnehmer das Produkt? Welche Inhalte und Funktionen werden nicht genutzt und warum? (Usability.de, 2015)
Fehlen den Nutzern bestimmt Funktionen oder Inhalte? (Usability.de, 2015)
(Vor-)Urteile und die emotionale Einstellung potentieller Kunden lassen sich gut herausfinden (Jacobsen,
2007).
Ermöglicht die Erhebung einer großen Datenmenge in kurzer Zeit (Wilkinson & Vanattenhoven, o. J.)
Direktes Feedback von realen Nutzern (Wilkinson & Vanattenhoven, o. J.)
Kann zu verschiedenen Zeitpunkten in der Entwicklung eingesetzt werden (Wilkinson & Vanattenhoven, o.
J.)
Es können verschiedene Designvarianten diskutiert werden
Es können Fragen von Nutzern beantwortet werden, die im Rahmen einer schriftlichen Umfrage nur
schwer zu beantworten wären (Berkowitz, 2015)
Die Methode ist für Webseiten nur bedingt geeignet. Bei bekannten Marken (oder solchen Unternehmen,
die bekannten Marken Konkurrenz machen wollen) kann eine Anwendung hilfreich sein, um die Website
an den Bedürfnissen der Nutzer auszurichten. (Jacobsen, 2007)
Gruppendenken kann dazu führen, dass Teilnehmer ihre Meinung der erwarteten Gruppenmeinung anpassen und so ihre wahren Gedanken nicht äußern. Dem kann dadurch entgegengewirkt werden, dass die
Teilnehmer schon vor dem Diskussionstreffen über die Themen informiert werden und die „Hausaufgabe“
erhalten, sich im Vorfeld darüber Gedanken zu machen und diese aufzuschreiben. (Usability First, 2015)
Es wird ein erfahrener Moderator benötigt, da die Moderation einer Fokusgruppe schwierig ist (Berkowitz,
2015).
Durch die Moderation können die Teilnehmer beeinflusst werden. (Wilkinson & Vanattenhoven, o. J.)
Oft handeln Nutzer anders, als sie es sagt. Daher sind die Ergebnisse mit Vorsicht zu interpretieren. Daher
rät Nielsen (2001): „Achte darauf was Nutzer tun, nicht darauf was sie sagen.“
Fokusgruppen können ein mächtiges Werkzeug in der Systementwicklung sein, sollten aber nicht die
einzige Informationsquelle zum Nutzerverhalten sein. Die Methode liefert Informationen zu den Erwartungen der Nutzer, nicht aber zur Nutzerinteraktion mit dem System oder der Gebrauchstauglichkeit (Nielsen, 1997).
Alle
Im Rahmen von Webprojekten nur sinnvoll, wenn sie zu Beginn der Konzeption durchgeführt werden (Jacobsen, 2007)
Anzahl
5-10 (Jacobsen, 2007)
Art


Rolle
Diskussion
Einbeziehung
Physikalische Einbeziehung
Anzahl
1-3
Rolle
Moderator, Organisator, Beobachter
Endnutzer
Experten (Wilkinson & Vanattenhoven, o. J.)
Drei Anwender sind zu empfehlen. (1 Organisator, 1 erfahrener Moderator, 1 CoModerator bzw. Beobachter/Protokollant) (Krueger, 2002)
Erforderliche Gute Moderationsfähigkeiten, Wissen über das Produkt
Kompetenzen
Usability-Methodenkatalog
93
Kategorie
4. Vorgehensweise
Kriterium
Fokusgruppe
Werkzeuge,
Hilfsmittel





Ort/Umgebung
Tagungsraum
Kosten
Gering bis hoch


Ca. 6600 €6 je Fokusgruppe (Nielsen, 1994b)
15000-25000 € (CHeval, 2013)
Zeitaufwand
Gering bis hoch



Max Personenstunden: 40 (Wilkinson & Vanattenhoven, o. J.)
Üblicher Zeithorizont: 1-2 Wochen (Wilkinson & Vanattenhoven, o. J.)
Max. Zeithorizont: 4-6 Wochen (CHeval, 2013)
Vorbereitung











Durchführung







Nachbereitung/
Auswertung




6
Technische Hilfsmittel zur Aufzeichnung der Diskussion (z.B. Videokamera)
Stimulus (z.B. Einführungstext, Bilder, Video) (CHeval, 2013)
Ggf. Prototypen oder erste Entwürfe des Produkts (Usability-Toolkit, o. J.)
Gesprächsleitfaden zur Steuerung des Diskussionsverlaufs (CHeval, 2013)
Schreibmaterial
Definition des Ziels: Welche Erkenntnisse sollen gewonnen werden? (UseWell, 2011)
Festlegen welche Personen man als Teilnehmer einbeziehen möchte (UseWell, 2011)
Zusammensetzung der Fokusgruppe festlegen (UseWell, 2011)
Erstellen einer Themenliste und Definition von Fragen für die Diskussion. Daraus wird ein Gesprächsleitfaden abgeleitet. Die erste Frage ist so zu wählen, dass sie gut in das Thema einführt und jeder Teilnehmer
etwas dazu beitragen kann. Alle Teilnehmer sollen sich an der Diskussion beteiligt sehen. (UseWell, 2011;
Wilson, 2006)
Entwicklung einer Vorgehensweise für die Datenauswertung (Wilson, 2006).
Ort der Durchführung festlegen z.B. Raum reservieren (UseWell, 2011)
Anzahl der Teilnehmer festlegen und einladen (ca. 1-2 Wochen vor der Durchführung)
Ggf. kann den Teilnehmern bereits eine Aufgabe mitgeteilt werden, die sie zur Vorbereitung auf das
Treffen ausführen. So können sich die Probanden schon im Vorfeld eine Meinung bilden. Die Beeinflussung
durch ein Gruppendenken wird so ggf. verringert. (Jacobsen, 2007)
Ggf. ist sind Moderator, Co-Moderator und Beobachter zu rekrutieren (UseWell, 2011)
Der Raum ist vorzubereiten (Tische und Stühle so anordnen, dass sich alle Teilnehmer sehen können; Videoaufnahmegerät so anbringen, dass alle Teilnehmen zu sehen sind; Namensschilder erstellen; Schreibmaterial bereitstellen, damit die Teilnehmer ihre Gedanken visualisieren können; Getränke und Snacks bereitstellen) (UseWell, 2011; Wilson, 2006)
Aufnahmegeräte einrichten und testen (UseWell, 2011)
Teilnehmer begrüßen; der Moderator stellt sich und ggf. seine Kollegen vor (UseWell, 2011)
Den Teilnehmern wird das Thema vorgestellt und die Grundregeln der Diskussion erläutert (laut sprechen,
sich nicht gegenseitig unterbrechen, Handys ausschalten, usw.) (UseWell, 2011).
Die Teilnehmer stellen sich vor (UseWell, 2011).
Der Moderator leitet durch die Fragen und achtet darauf, den Fokus der Gruppe auf den relevanten Sachverhalt zu lenken (UseWell, 2011).
Ggf. kann ein Co-Moderator Notizen machen, die Zeit im Auge behalten und überprüfen, dass alle Themen
angesprochen werden (UseWell, 2011).
Am Ende der Diskussion fasst der Moderator die Hauptpunkte der Teilnehmer zusammen und dankt allen
für die Teilnahme (UseWell, 2011).
Ggf. werden den Teilnehmern Aufwandsentschädigungen und Kostenerstattungen ausgehändigt
(UseWell, 2011).
Zeitnah nach der Durchführung sollten die Erkenntnisse des/der Moderatoren zusammengefasst werden,
da dann die Erfahrungen noch frisch im Gedächtnis sind (UseWell, 2011).
Die eigenen Notizen und Aufnahmen sind durchzugehen (ggf. zu transkribieren) und auszuwerten
(UseWell, 2011) .
Es wird ein Bericht erstellt, der alle Ergebnisse der Fokusgruppe zusammenfasst, sodass ein Außenstehender (z.B. ein Kollege, der nicht bei der Diskussion anwesend war) über die Resultate informiert wird. Die
Fakten sollten belegt werden, z.B. mit Zitaten der Teilnehmer. (UseWell, 2011)
Falls mehrere Fokusgruppen durchgeführt werden, sind die Ergebnisse zu vergleichen und ggf. zu kategorisieren (UseWell, 2011).
Inflationsbereinigt; bei einer mittleren Inflationsrate von 2,8% (1994-2014).
Usability-Methodenkatalog
94
Kategorie
Kriterium
5. Praxis-Tipps
Praxis-Tipps
Fokusgruppe
Tipps:







Für eine Diskussion von 1,5 Stunden sollten ca. 5 bis 6 Fragen im Vorfeld definiert werden (UseWell, 2011).
Es ist darauf zu achten, dass die Fragen vermitteln, was mit der Durchführung der Fokusgruppe erreicht
werden soll (UseWell, 2011).
Die Teilnehmer sollten einen Tag vor der Durchführung telefonisch an das Treffen erinnert werden
(UseWell, 2011).
Die Aufzeichnungsgeräte sollten schon beim Eintreffen der Teilnehmer einschaltet werden (UseWell,
2011).
Es ist wichtig den Teilnehmern zu vermitteln, dass ihre Meinungen wichtig und wertvoll sind (UseWell,
2011).
Der Moderator muss dafür sorgen, dass die Diskussion immer am Laufen bleibt und ggf. mit Stichworten in
die Diskussion eingreifen. Hierbei soll allerdings nicht der freie Fluss der Ideen der Teilnehmer behindert
werden. (Jordan, 1998)
Der Moderator muss darauf achten, dass alle Teilnehmer an der Diskussion beteiligt werden und die Meinungen einzelner Personen nicht dominieren (Jordan, 1998).
Varianten:

6. Zweck
Online Fokusgruppe: Es wird eine Software zur Onlinekommunikation (z.B. ein Chat-Programm) verwendet
um die Diskussion mit den Nutzern durchzuführen (Wilson, 2006).



Benutzer
Benutzererfahrung
Kontext
folgendes zu erstellen:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
folgendes zu bewerten:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
7. Verwandte
Verwandte MeBeobachtung, Interviews, Fragebogen, Brainstorming
und weiterfühthoden
rende Methoden
Mögliche voranBrainstorming (Wilkinson & Vanattenhoven, o. J.)
gegangene Methoden/Tätigkeite
n
Mögliche nachfol- 
gende Methoden/ 
Tätigkeiten
Prototyping (Wilkinson & Vanattenhoven, o. J.)
Card Sorting oder Affinity Diagramming: zur Analyse der Ergebnisse (UsabilityNet, 2003)
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Eine Website soll entwickelt werden. Zu Beginn der Entwicklung sollen potentielle Nutzer gefragt werden, was
sie von der Website erwarten und sich wünschen.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
In einem Artikel von Berkowitz (2015) werden viele weiterführende Informationen zur Methode, (z.B. Wann
eignet sich der Einsatz einer Fokusgruppe?), eine Checkliste zur Überprüfung der wichtigen Schritte, Anwendungsbeispiele sowie viele Anwendungstipps gegeben. Der Artikel wird auf der Internetplattform von „Community Tool Box“ zur Verfügung gestellt: (englisch)
http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conduct-focusgroups/main
Berkowitz, B. (2015). Conducting Focus Groups. Retrieved from http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main
Weitere Informationen zu den Anforderungen, der Vorgehensweise sowie Praxis-Tipps (z.B: zur Konzeption
der Fragen) gibt Krueger (2002) in „Designing and Conducting Focus Group Interviews“: (englisch)
http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf
Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St. Paul.
Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
95
Kategorie
Kriterium
Fokusgruppe
Quellen
Berkowitz, B. (2015). Conducting Focus Groups. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis.
Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St. Paul.
Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf
Nielsen, J. (1994). Guerrilla HCI: Using Discount Usability Engineering to Penetrate the Intimidation Barrier.
Abgerufen von http://www.nngroup.com/articles/guerrilla-hci/
Nielsen, J. (1997). The Use and Misuse of Focus Groups. Abgerufen von
http://www.nngroup.com/articles/focus-groups/
Nielsen, J. (2001). First Rule of Usability? Don't Listen to Users. Abgerufen von
http://www.nngroup.com/articles/first-rule-of-usability-dont-listen-to-users/
Usability First. (2015). Usability Methods. Zugriff am 19.05.2015. Abgerufen von http://www.usabilityfirst.com/
usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.de/leistungen/methoden.html
UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von
http://www.usabilitynet.org/tools/list.htm
usability-toolkit.de. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Wilkinson, A. W. & Vanattenhoven, J. V. (o. J.). Fucus Groups. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-32-focus-groups
Wilson, C. (2006). Focus Group. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/focus-group
Usability-Methodenkatalog
96
4.3.3 Fragebogen
Kategorie
Kriterium
Fragebogen
1. Bezeichnung
Name
Fragebogen
Synonyme
Fragebögen, Questionnaire, Surveys, Schriftliche Befragung, Umfrage
2. Beschreibung
Kurzbeschreibung Durch das Ausfüllen von Fragebogen durch Probanden, lassen sich Antworten auf festgelegte Fragen erhalten.
So können z.B. Nutzer zu ihrer Meinung zu einem Produkt befragt werden. Je nach Typ der Fragen werden
Antwortmöglichkeiten vorgegeben (geschlossene Frage) oder der Proband kann seine Antwort frei formulieren
(offene
Frage).
Im Gegensatz zum Interview lassen sich mit vergleichbar geringem Aufwand, viele Personen erreichen.
Abbildungen
Ziele



Erheben von quantitativen Aussagen von Nutzern (Sarodnick & Brau, 2011).
Vergleich verschiedener Produkte (Sarodnick & Brau, 2011)
Repräsentative Aussagen für die gesamte Benutzergruppe erhalten (Richter & Flückiger, 2010)
Ergebnisse/
Output

Je nach Fragebogen erhält man Aussagen über die Usability bzw. die pragmatische und hedonische Qualität des Produktes (Simply Usable, 2015).
Vorteile

Höhere Objektivität als z.B. Interviews, da keine Beeinflussung durch Dritte gegeben ist (Sarodnick & Brau,
2011).
Fragebogen können relativ unaufwändig an jeder Stelle des Entwicklungsprozesses eingesetzt werden
(Sarodnick & Brau, 2011, S. 184).
Es gibt eine Vielzahl standardisierter Fragebogen zur Usability-Evaluation (Sarodnick & Brau, 2011).
Es können viele Teilnehmer mittels Onlineerhebung erreicht werden (KUSi, 2015; Sarodnick & Brau, 2011)
Es können objektive und statistisch vergleichbare Daten gewonnen werden (Sarodnick & Brau, 2011).




Nachteile/
Grenzen








Projektphase(n)
Anwender
Teilnehmer
3. Rahmenbedingungen & Ressourcen
Die Erstellung und Auswertung von Fragebogen ist aufwendig (KUSi, 2015; Sarodnick & Brau, 2011)
Fragebogen müssen methodisch korrekt erstellt und eingesetzt werden, um aussagekräftige Ergebnisse zu
erhalten. Für selbsterstellte Fragebogen ist nicht sicher gestellt, dass sie die Gütekriterien Objektivität, Reliabilität und Validität hinreichend erfüllen. Daher sind sie „mit Vorsicht zu genießen“, nach Möglichkeit
sollten standardisierte Fragebogen verwendet werden. (Richter & Flückiger, 2010; Sarodnick & Brau, 2011).
Standardisierte Fragebogen lassen nur wenig Raum zur Anpassung durch den Anwender (Sarodnick
& Brau, 2011).
Es sind keine Nachfragen möglich (KUSi, 2015)
Es sind viele Nutzer notwendig (Sarodnick & Brau, 2011).
Es können nur bereits bekannte Informationen abgefragt werden (Sarodnick & Brau, 2011).
Menschen tun und denken nicht immer das, was sie bei einer Befragung angeben (Jacobsen, 2007).
Aufgrund von sozialem Druck füllen Menschen oft unbewusst Fragebogen zu positiv oder zu negativ aus.
Dies kann zum einen den Grund haben, dass die Befragten glauben, der Auftraggeber freue sich über positive Ergebnisse und zum anderen dass sie glauben Fehler bzw. negative Aspekte finden zu müssen. Betreffende Fragebogen sollten daher von erfahrenen Psychologen entworfen werden. (Jacobsen, 2007)
Alle
Anzahl
Ca. 10-30
(Simply Usable,
2015)
Art


Endnutzer
Experten
Rolle

Wird befragt
Einbeziehung


Physikalische Einbeziehung
„Remote“
Anzahl
1+
Rolle
Ggf. Ersteller des Fragebogens, Analyst
Erforderliche 
Kompetenzen 

Abhängig von der Größe der Zielgruppe und von der Art des Fragebogens (Goodman,
Kuniavsky, & Moed, 2012; Simply Usable, 2015)
Ggf. ein zusätzlicher Experte für die Erstellung des Fragebogens (Richter & Flückiger, 2010)

Basis-Usability-Know-how (Simply Usable, 2015)
Kenntnisse in Statistik und Testtheorie (Usetree, 2014b)
Der Ausführende sollte sich mit dem Fragebogen auskennen, damit es nicht zu Unklarheiten kommt.
(Simply Usable, 2015)
Ggf. Kenntnisse über die Erstellung von Fragebogen (Richter & Flückiger, 2010)
Werkzeuge,
Hilfsmittel


Schreibmaterial und gedruckte Fragebogen
Software zur Durchführung der Befragung
Ort/Umgebung





Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Kosten
Gering
Usability-Methodenkatalog
Ca. 0-10000 € (CHeval, 2013)
97
Kategorie
4. Vorgehensweise
Kriterium
Fragebogen
Zeitaufwand
Gering bis hoch
Vorbereitung

Zeitaufwand nach Richter & Flückiger, (2010) S. 76:
 Erstellen und Auswerten eines kleineren qualitativen Fragebogens: 5–10 PT
 Durchführen und Auswerten einer Untersuchung mit Standardfragebogen: 10–20 PT
 Erstellen und Auswerten einer quantitativen Fragebogen-Studie: nicht unter 30 PT


Definition der Ziele: Welche Fragen oder Hypotesen sollen beantwortet werden? Welcher Teil des Produkts
soll evaluiert werden? (Richter & Flückiger, 2010; Usetree, 2014b; UseWell, 2011)
Festlegen welcher Fragebogen benutzt werden soll. Fragebogen können selbst entwickelt und erstellt
werden, oder es kann auf standardisierte Fragebogen zurückgegriffen werden (vgl. Praxis-Tipps):
(UsabilityNet, 2006b)
 AttrakDiff
 IsoMetrics
 ISONORM 9241-110-S
 QUIS
 SUMI
 SUS
 WAMMI
 …
Art der Einbeziehung der Teilnehmer festlegen (UsabilityNet, 2006b):
 Physikalische Einbeziehung: Z.B. Ausfüllen des Fragebogens nach einem Usability-Test bzw. im Rahmen
einer anderen Usability-Methode.
 „Remote-Einbeziehung“: Den Probanden wird der Fragbogen per Post oder E-Mail zugeschickt.
Wählen wie Personen ausgewählt werden sollen, die an der Befragung teilnehmen: entweder als zufällige
Stichprobe oder nach bestimmten Kriterien (Richter & Flückiger, 2010)
Anzahl der teilnehmenden Personen festlegen: Wie viele Personen müssen befragt werden, um statistisch
genügend gesicherte Aussagen machen zu können? (Richter & Flückiger, 2010, S. 70).
Personen auswählen, die befragt werden sollen (Richter & Flückiger, 2010; UsabilityNet, 2006b).
Zeitplanung durchführen (Richter & Flückiger, 2010)
Die Probanden müssen sich mit dem zu testenden Produkt auseinander setzen oder dies bereits getan
haben (Simply Usable, 2015).
Ggf. Fragebogen erstellen (zur detaillierteren Darstellung der Fragebogenerstellung, siehe Methodenbeschreibung zum Online-Fragebogen Kapitel 4.3.5)
Ggf. Fragebogen testen, um zu überprüfen, ob alles richtig verstanden wird und Bearbeitungsdauer festzustellen (Usetree, 2014b)
Auswertung der Daten planen (Usetree, 2014b)
Die Fragebogen werden den Teilnehmern zugänglich gemacht, z.B. per E-Mail (UsabilityNet, 2006b)
Durchführung

Die Teilnehmer beantworten die Fragebogen
Nachbereitung/
Auswertung


Statistische Auswertung der Ergebnisse (UsabilityNet, 2006b)
Ableiten von Erkenntnissen









Usability-Methodenkatalog
98
Kategorie
Kriterium
5. Praxis-Tipps
Praxis-Tipps
Fragebogen
Tipps:


Wichtig ist, die Anonymität und den Datenschutz zu gewährleisten (Usetree, 2014b).
Es ist ggf. auf die Durchführungshinweise der jeweiligen Fragebogen zu achten (Simply Usable, 2015).
Varianten:




6. Zweck
Papier-Fragebogen
Online-Fragebogen (vgl. Methodenbeschreibung Kapitel 4.3.5)
Telefonbefragung: Proband wird per Telefon angerufen, und bekommt die Fragen gestellt (Richter
& Flückiger, 2010).
Standardisierte Fragebogen: (eine Auswahl wird im Folgenden kurz beschrieben)
 AttrakDiff: Es wird erfasst, wie die Nutzer die Qualität und Attraktivität eines Produkts bewerten (vgl.
Methodenbeschreibung Kapitel 4.3.4).
 IsoMetrics: Der Fragebogen steht in zwei Versionen zur Verfügung. Eine für den Einsatz während des
Entwicklungsprozesses einer Software (IsoMetrics (short)) und eine für die Bewertung einer fertigen
Software (IsoMetrix (long). Die Langform besteht aus 90 Items, die anhand einer fünfstufigen Skala
bewertet werden. Zusätzlich wird die Bedeutsamkeit der Items vom Nutzer bewertet. Letztere Bewertung findet bei der kurzen Version nicht statt, außerdem beinhaltet der Fragebogen weniger Items.
Die Auswertung des Fragebogens liefert eine detaillierte Auflistung von Usability-Problemen, die mit
Hilfe einfacher Kategorisierungen priorisiert werden können. In der Langform ist die Bearbeitung des
Fragebogens allerdings recht zeitintensiv.
Zur Anwendung des Fragebogens steht ein Softwaretool zur Verfügung. (Sarodnick & Brau, 2011)
 ISONORM 9241-110-S: Der Fragebogen besteht aus 21 Items (Fragen) die nach einer Skala von sieben
Gestaltungsanforderungen der DIN EN ISO 9241-110 von sehr negativ (---) bis sehr positiv (+++) bewertet werden. Durch die Normierung des Fragebogens lassen sich die Ergebnisse unterschiedlicher Befragungen miteinander vergleichen.
Das Ausfüllen des Fragebogens dauert ca. 15 Minuten. Zur Auswertung wird eine Mittelwertberechnung angewendet. Es ergeben sich Hinweise, in welchen Bereichen Schwachpunkte vom Teilnehmer
wahrgenommen wurden. Lösungsansätze zur Besaitung der Probleme werden durch die Methode
nicht angeboten.
Der Fragebogen steht kostenlos zur Verfügung und kann sowohl papiergestützt als auch online
durchgeführt werden (Sarodnick & Brau, 2011).
 QUIS (Questionnaire for User Interface Satisfaction): Dieser Fragebogen erfasst ausschließlich die subjektive Zufriedenheit der Nutzer mit dem Benutzerinterface. Der Fragebogen umfasst 90 Items, die je
aus zwei gegensätzlichen Adjektiven bestehen, die anhand einer neunstufigen Skala vom Nutzer bewertet werden. Der Umfang der Fragen kann durch den Versuchsleiter angepasst werden indem ItemGruppen weggelassen werden. Der Fragebogen ist nicht kostenlos nutzbar und muss lizensiert werden. Es ist ein Online-Tool verfügbar. (Sarodnick & Brau, 2011)
 SUMI (Software Usability Measurement Inventory): Der Fragebogen zielt darauf ab, die Eindrücke, Gefühle und die Zufriedenheit der Nutzer im Umgang mit einer Software zu ermitteln. Es sind 50 Items
enthalten, die in die fünf Unterskalen Emotion (affect), Effizienz (efficiency), Erlernbarkeit
(learnablility), Hilfsbereitschaft (helpfulness) und Kontrolle (control) eingeteilt sind. Der Nutzer wählt
bei der Beantwortung, ob er den Aussagen zustimmt, nicht zustimmt oder unentschlossen ist. Die
Auswertung liefert einen globalen Wert, welcher die subjektive Gebrauchstauglichkeit widerspiegelt.
Zur Anwendung der Methode wird eine Mindestmenge von zehn Teilnehmern empfohlen. Das Ausfüllen eines Fragebogens dauert ca. 5 Minuten. Die Verwendung ist kostenpflichtig. (Kirakowski & Corbett, 1993; Sarodnick & Brau, 2011)
 SUS (System Usability Scale): Dieser kurze Fragebogen ermöglicht eine umfassende Bewertung der Gebrauchstauglichkeit. Er enthält 10 Items, die mittels einer fünf-stufigen Skala bewertet werden. Der
Nutzer beantwortet die Fragen direkt nachdem er das zu bewertende Produkt getestet hat, ohne dass
zuvor eine Nachbesprechung stattfindet. Die Bewertung soll ohne großes Nachdenken erfolgen. Im
Zweifel soll die Mitte der Skala gewählt werden. Die Auswertung der Ergebnisse liefert einen Wert, der
ein Maß für die gesamte Gebrauchstauglichkeit des Produkts angibt. Das Verfahren kann kostenfrei
angewendet werden. (Bangor, Kortum, & Miller, 2008; Brooke)
 WAMMI (Website Analysis and Measurement Inventory): Dieser Fragebogen ist auf Webseiten spezialisiert stellt eine Weiterentwicklung es SUMI dar. Er enthält 20 Items auf den gleichen fünf Skalen, wobei „affect“ durch „attractivity“ ersetzt wurde. Der Fragebogen lässt sich auf der zu testenden Webseite eingliedern und kann direkt aus ihr gestartet werden. Zur Interpretation der Ergebnisse besteht die
Möglichkeit die sich ergebenen Kennwerte mit einer Datenbank zu vergleichen. Die Anwendung ist
kostenpflichtig. (Sarodnick & Brau, 2011)
 …



Benutzer
Benutzererfahrung
Kontext
folgendes zu erstellen:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
folgendes zu bewerten:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
Usability-Methodenkatalog
99
Kategorie
Kriterium
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Fragebogen
Interview, Fokusgruppe
Usability-Test: Nachdem sich der Teilnehmer in einem Usability-Test hinreichend mit dem zu testenden Produkt
auseinandergesetzt hat, biete sich die Verwendung von Fragebogen an, um die subjektiven Urteile der Probanden zu den Produktaspekten zu erfahren (Sarodnick & Brau, 2011).
Mögliche nachfol- Interview: Im Anschluss an den Fragebogen kann mit einer kleinen Teilgruppe der Probanden ein Interview
gende Methoden/ durchgeführt werden, um detailliertere Informationen zu erhalten (UsabilityNet, 2006b).
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Eine neue Softwareversion wurde veröffentlicht. Nachdem die Nutzer diese einige Zeit verwendet haben,
sollen sie nach ihrer Zufriedenheit gefragt werden.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Methodische Details zur Durchführung von Fragebogen-Untersuchungen können dem Buch „Forschungsmethoden und Evaluation“ von Bortz & Döring, (2002), entnommen werden:
Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3.,
überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer
Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012), enthält Informationen zur Erstellung und
Verwendung von eigenen Fragebogen:
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
Die Erstellung von Fragebogen wird ebenfalls in dem Buch „Testtheorie und Fragebogenkonstruktion“ von
(Moosbrugger, 2012), thematisiert:
Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2.,
aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer
Das Buch „Methoden der Usability Evaluation“ von Sarodnick & Brau, (2011) bietet einen guten Überblick über
einige Standardisierte Fragebogen:
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Der Artikel „Standardisierte Fragebögen zur Messung der Usability/User Experience – derzeit wieder in Mode?“
von Beschnitt, (2009), biete einen Überblick über standardisierte Fragebogen und verlink weitere Informationen zu den einzelnen Methoden:
http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messung-der-usabilityuser-experiencederzeit-wieder-in-mode/
Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit wieder
in Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messungder-usabilityuser-experience-derzeit-wieder-in-mode/
In einem Artikel von Hampton & Vivela, (2014), werden viele weiterführende Informationen zum Thema
Umfragen gegeben. Enthalten sind außerdem eine Checkliste zur Überprüfung der wichtigen Aspekte, Anwendungsbeispiele sowie viele Anwendungstipps. Der Artikel wird auf der Internetplattform von „Community
Tool Box“ zur Verfügung gestellt: (englisch)
http://ctb.ku.edu/en/table-of-contents/assessment/assessing-community-needs-and-resources/conductsurveys/example
Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
100
Kategorie
Kriterium
Fragebogen
Quellen
Bangor, A., Kortum, P. T., & Miller, J. T. (2008). An Empirical Evaluation of the System Usability Scale. International Journal of Human-Computer Interaction, 24(6), 574–594. doi:10.1080/10447310802205776
Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit wieder in
Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogen-zur-messungder-usabilityuser-experience-derzeit-wieder-in-mode/
Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3.,
überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer.
Brooke, J. SUS - A quick and dirty usability scale, 1996. Abgerufen von http://cui.unige.ch/isi/iclewiki/_media/ipm:test-suschapt.pdf
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide for user
research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier.
Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Kirakowski, J., & Corbett, M. (1993). SUMI: The Software Usability Measurement Inventory. British Journal of
Educational Technology, 24(3), 210–212. doi:10.1111/j.1467-8535.1993.tb00076.x
KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen
von http://www.usability-siegen.de/qualifizierung.html
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2.,
aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf
UsabilityNet. (2006). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von
http://www.usabilitynet.org/tools/subjective.htm
Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Usability-Methodenkatalog
101
4.3.4 AttrakDiff
Kategorie
Kriterium
AttrakDiff
1. Bezeichnung
Name
AttrakDiff
Synonyme
2. Beschreibung
Kurzbeschreibung AttrakDiff ist ein standardisierter Fragebogen zur Usability-Evaluation interaktiver Produkte. Er erfasst, wie die
Nutzer die Qualität und Attraktivität eines Produkts bewerten. Hierbei wird nicht nur die reine Gebrauchstauglichkeit (pragmatische Qualität) eines Produktes bewertet, sondern auch das Thema „joy of use“ also die Zufriedenstellung der Nutzer bei Aspekten wie beispielsweise der Neuheit, der Originalität sowie des Spaß bei der
Verwendung eines Produkts (hedonische Qualität).
Abbildungen
Abbildung 11: Beispiel-Items des AttrakDiff (Sarodnick & Brau, 2011)
Ziele

Die Ermittlung der Attraktivität eines interaktiven Produkts (Hassenzahl, Burmester, & Koller, 2003).
Ergebnisse/
Output

Informationen darüber, wie die Benutzer ihr Produkt subjektiv, in Bezug auf die Bedienbarkeit und das
Aussehen, wahrnehmen (User Interface Design, 2014).
Vorteile






Neben der pragmatischen Qualität wird auch die hedonische Qualität eines Produkts berücksichtigt
Ermöglicht einen Vergleich mit anderen Produkten (Uselab, 2015)
Ökonomisch, da schnell durchzuführen und kostenfrei erhältlich (Uselab, 2015)
Angemessene Reliabilität und Validität (Uselab, 2015)
Individuelle Anpassung des Fragebogens (Uselab, 2015)
Ergebnisauswertung kann online und automatisch erfolgen (Uselab, 2015)
Nachteile/
Grenzen



Fehlende Normstichprobe (Uselab, 2015)
Keine explizite, standardisierte Instruktion vorhanden (Uselab, 2015)
Es wird lediglich ein Gesamteintrug des bewerteten Produkts ermittelt. Welche Aspekte besonders attraktiv
oder unattraktiv sind, geht nicht hervor und muss bei Bedarf gesondert erhoben werden (CHeval, 2013).
Enthält viele ähnliche Fragen, was dazu führen kann, dass die Teilnehmer gelangweilt werden (Vermeeren,
o. J.)

Projektphase(n)
Teilnehmer
Anzahl
Anwender
3. Rahmenbedingungen & Ressourcen
Umsetzung,
Betrieb
Ein funktionierender Entwurf ist notwendig
5-20 oder mehr


Art
Endnutzer
Rolle
Wird befragt
Einbeziehung


Anzahl
1
Rolle
Organisator
Max. 20 bei der Online-Version; bei Verwendung den Premium Services sind mehr
Teilnehmer möglich (Hassenzahl, Burmester, & Koller, 2008)
5-10 können Trends aufzeigen besser sind 15 oder mehr (CHeval, 2013)
physikalische Einbeziehung
„Remote“
Erforderliche Keine
Kompetenzen
Werkzeuge,
Hilfsmittel
Kostenloses Online-Tool: www.attrakdiff.de
Ort/Umgebung


Kosten
Gering
Zeitaufwand
Gering
Usability-Methodenkatalog
Natürliche Nutzungsumgebung
Schreibtisch


Je nach gewählter Dauer des Projektzeitraums
Maximaler Zeithorizont: 3 Monate (www.attrakdiff.de)
102
Kategorie
Kriterium
AttrakDiff
4. Vorgehensweise
Vorbereitung




Bei Nutzung des Online-Tools: kostenlose Anmeldung auf www.attrakdiff.de
Einsatzgebiet von AttrakDiff wählen (Hassenzahl et al., 2008):
 Einzelauswertung: ein Produkt soll einmalig von Nutzern bewertet werden
 Vergleich zwischen zwei Produkten
 Vorher-Nachher-Vergleich: ein Produkt wird vor und nach einer Optimierung bewertet
Laufzeit des Projektes wählen
Testpersonen auswählen (maximal 20), die das Produkt schon getestet haben und die Qualität bewerten
können. Sie können über das Online-Tool angeschrieben und zu dem Test einladen werden.
Durchführung
Die Teilnehmer bearbeiten den Fragebogen.
Nachbereitung/
Auswertung
Die Ergebnisse werden durch die Online-Software ausgewertet und in Form von Diagrammen dargestellt. Die
Daten sind jederzeit während des Datenerhebungsvorgangs abrufbar. Zusätzlich sind Hinweise zur Interpretation der Ergebnisse gegeben.
5. Praxis-Tipps
Praxis-Tipps
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu bewerten:
es das Ziel ist…

Benutzererfahrung





Physikalisches Produkt
Software
integriertes Produkt
Dienstleistung
Umgebung/Ort
7. Verwandte
Verwandte MeSUMI, SUS, SQUS, QUIS (Vermeeren, o. J.)
und weiterfühthoden
rende Methoden
Mögliche voranUsability-Test (Sarodnick & Brau, 2011)
gegangene Methoden/Tätigkeite
n
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Die Attraktivität einer Website soll von Nutzern bewertet werden.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Ein Überblick über die 28 bipolaren Items des Fragebogens wird von dem Projekt uselab der TU Berlin bereitgestellt unter: http://www.uselab.tu-berlin.de/wiki/images/4/47/AttrakDiff_Fragebogen.pdf
Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Ausführliche Informationen über den Einsatz des Online-Tools attrakdiff.de biete ein Artikel der SeitenBetreiber: http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf
Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von
www.attrakdiff.de. Usability Professionals, 78–82. Retrieved from
http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf
Zu beachtende
Normen und
Zertifikate
Quellen
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Hassenzahl, M., Burmester, M., & Koller, F. (2003). AttrakDiff: Ein Fragebogen zur Messung wahrgenommener
hedonischer und pragmatischer Qualität. In G. Szwillus & J. Ziegler (Eds.), Berichte des German Chapter of
the ACM. Mensch & Computer 2003 (pp. 187–196). Wiesbaden: Vieweg+Teubner Verlag.
Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von
www.attrakdiff.de. Usability Professionals, 78–82. Abgerufen von
http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
User Interface Design. (2014). AttrakDiff. Zugriff am 08.05.2015. Abgerufen von http://attrakdiff.de/#nutzen
Vermeeren, A. P. O. S. (o. J.). Attrakdiff Questionnaire. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-1-attrakdiff-questionnaire
Usability-Methodenkatalog
103
4.3.5 Online-Befragung
Kategorie
Kriterium
Online-Befragung
1. Bezeichnung
Name
Online-Befragung
Synonyme
Online-Fragebogen
2. Beschreibung
Kurzbeschreibung Online-Befragungen sind eine internetbasierte Variante der Fragebogen. Aus dem Browser heraus können die
Befragten Online-Fragebogen ausfüllen, die auf einem Web-Server hinterlegt sind. Die Ergebnisse können
heruntergeladen und ausgewertet werden.
Abbildungen
Ziele



Erheben von quantitativen Aussagen von Nutzern (Sarodnick & Brau, 2011).
Vergleich verschiedener Produkte (Sarodnick & Brau, 2011)
Repräsentative Aussagen für die gesamte Benutzergruppe erhalten (Richter & Flückiger, 2010)
Ergebnisse/
Output

Aussagen über die Gebrauchstauglichkeit des Produktes (Simply Usable, 2015).
Vorteile



Kostengünstig durch Wegfall von Materialien (Sarodnick & Brau, 2011)
Interaktive Ansprache des Befragten (z.B. Hinweise, Hilfestellungen) (Sarodnick & Brau, 2011, S. 185)
Die Datenerhebung ist weniger fehleranfällig, da der Befragte Hinweise zur Korrektur von fehlerhaften
Eingabeformaten geben kann (Sarodnick & Brau, 2011).
Die Datenaufbereitung ist weniger aufwendig und weniger fehleranfällig, da die Daten schon in elektronischer Form vorliegen (Sarodnick & Brau, 2011).
Durch die Anonymität im Internet antworten Teilnehmer auch auf heikle und peinliche Fragen (Sarodnick
& Brau, 2011).
Es ist eine Filterführung der Fragen möglich. So können Fragen übersprungen oder vertiefende Fragen
eingeblendet werden, je nachdem welche Antworten der Nutzer zuvor gegeben hat (Quirmbach, 2013)
Fragenblöcken können rotiert oder randomisiert werden, um Reihenstellungseffekte zu vermeiden
(Quirmbach, 2013).
Dem Teilnehmer können Meldungen zur Ausfüllkontrolle der Fragen und Rückmeldungen angezeigt
werden, z.B. wenn bei einer Frage nicht alle Punkte beantwortet wurden (Quirmbach, 2013).





Nachteile/
Grenzen




Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
Hohe Abbruchquote durch die Unverbindlichkeit des Online-Mediums (Sarodnick & Brau, 2011)
Personengruppen mit höherer Computerexpertise sind stärker repräsentiert als bei Papier-Fragebogen
(Sarodnick & Brau, 2011).
Onlinespezifische Gestaltungsfehler z.B. technische Fehler, zu lange oder zu langweilige Fragen, können
zur Verzerrung der Daten führen (Sarodnick & Brau, 2011).
Die Teilnehmer können keine Verständnisfragen während der Bearbeitung stellen (Sarodnick & Brau,
2011).
Alle
Anzahl
Ca. 10-30
(Simply Usable,
2015)
Art


Endnutzer
Experten
Rolle

Wird befragt
Einbeziehung

„Remote“
Anzahl
1+
Rolle
Ersteller des Fragebogens, Analyst
Erforderliche 
Kompetenzen 

Abhängig von der Größe der Zielgruppe und von der Art des Fragebogens (Goodman et
al., 2012; Simply Usable, 2015)
Ggf. ein zusätzlicher Experte für die Erstellung eines Fragebogens (Richter & Flückiger,
2010)
Kenntnisse über die Erstellung von Fragebogen (Richter & Flückiger, 2010)
Kenntnisse in Statistik und Testtheorie (Usetree, 2014b)
Basis-Usability-Know-how (Simply Usable, 2015)
Werkzeuge,
Hilfsmittel
Software zur Durchführung der Befragung
Ort/Umgebung
Schreibtisch
Kosten
Gering

Zeitaufwand
Gering bis hoch
Zeitaufwand nach Richter & Flückiger, (2010) S. 76:
 Erstellen und Auswerten eines kleineren qualitativen Fragebogens: 5–10 PT
 Durchführen und Auswerten einer Untersuchung mit Standardfragebogen: 10–20 PT
 Erstellen und Auswerten einer quantitativen Fragebogen-Studie: nicht unter 30 PT
Usability-Methodenkatalog
104
Kategorie
Kriterium
Online-Befragung
4. Vorgehensweise
Vorbereitung


Definition der Ziele: Welche Fragen oder Hypotesen sollen beantwortet werden? Welcher Teil des Produkts
soll evaluiert werden? (Richter & Flückiger, 2010; Usetree, 2014b; UseWell, 2011)
Zeitplanung durchführen (Richter & Flückiger, 2010)
Wahl des Online-Umfrage-Tools: Mögliche Auswahlkriterien (Usetree, 2014b):
 Werden bestimmte Fragenformate benötigt, die von der Software unterstützt werden sollen?
 Soll ein eigenes Layout erstellt werden können?
 In welcher Form sollen die Umfragedaten exportiert werden können?
 Soll eine Installation auf einem eigenen Server möglich sein?
 …
Wählen wie Personen ausgewählt werden sollen, die an der Befragung teilnehmen: entweder als zufällige
Stichprobe oder nach bestimmten Kriterien (Richter & Flückiger, 2010)
Anzahl der teilnehmenden Personen festlegen: Wie viele Personen müssen befragt werden, um statistisch
genügend gesicherte Aussagen machen zu können? (Richter & Flückiger, 2010, S. 70).
Personen auswählen, die befragt werden sollen (UsabilityNet, 2006b)
Die Probanden müssen sich mit dem zu testenden Produkt auseinander setzen oder dies bereits getan
haben (Simply Usable, 2015).
Fragebogen erstellen (Eichhorn, 2004 S. 3):
 Formulierung der Fragen
 Wahl der Antwortmöglichkeiten
 Konstruktion von Skalen aus Fragesequenzen
 Zusammenstellung der Fragen und Fragesequenzen zu einem Fragebogen
Fragebogen testen, um zu überprüfen, ob alles richtig verstanden wird und Bearbeitungsdauer festzustellen (Usetree, 2014b)
Die Fragebogen werden den Teilnehmern zugänglich gemacht, z.B. per E-Mail (UsabilityNet, 2006b)
Durchführung

Die Teilnehmer beantworten die Fragebogen
Nachbereitung/
Auswertung


Statistische Auswertung der Ergebnisse (UsabilityNet, 2006b)
Ableiten von Erkenntnissen








5. Praxis-Tipps
Praxis-Tipps
Tipps:



Usability-Methodenkatalog
Wichtig ist, die Anonymität und den Datenschutz zu gewährleisten (Usetree, 2014b).
Tipps zur Gestaltung von Online-Fragebogen (Gräf, 2002 nach Sarodnick & Brau, 2011, S. 185 f.):
 Beachte technische Anforderungen.
 Formuliere die Fragen nach den Regeln der empirischen Sozialforschung.
 Etabliere eine glaubwürdige Kommunikation mit den Antwortenden.
 Erzeuge Awareness (in dt. Literatur: «Gewährtigkeit») und Aufmerksamkeit.
 Verwende ein ansprechendes Design und setze Usability-Kriterien um.
 Hebe zentrale Textpassagen hervor.
 Vermeide Matrix-Fragen.
 Halte den Fragebogen kurz.
 Setze Filter-Fragen ein.
 Führe einen Vortest durch
Tipps zur Formulierung von Fragen (Eichhorn, 2004 S. 5 ff.):
 Einfache Wörter verwenden
 Fremdwörter vermeiden
 Einfachen Satzbau, kurze Sätze, möglichst keine Nebensätze oder missverständliche temporale oder
konjunktive Konstruktionen verwenden
 der Befragte soll sich angesprochen fühlen
 der Befragte darf sich nicht durch die Frage angegriffen oder in seiner Privatsphäre gestört fühlen
 Die Frageformulierung darf den Befragten nicht beeinflussen, die Frage in einer bestimmten Art und
Weise zu deuten und zu beantworten.
 Suggestivfragen, die eine bestimmte Antwort nahelegen, sind zu vermeiden
105
Kategorie
Kriterium
Online-Befragung
Varianten:



6. Zweck
Panelumfragen: Hierbei werden Teilnehmergruppen aus einem passiv rekrutierten Adresspool befragt.
Internetnutzer registrieren sich bei einem Panelbetreiber und werden dann zu Umfragen eingeladen. Die
Auswahl der Einladung erfolgt nach den Daten, die die Internetnutzung ihrem persönlichen Nutzerprofil
hinzugefügt haben. Dies können z.B. soziodemokratische Angaben, Vorlieben, Nutzungsverhalten oder
Einstellungen der Nutzer sein. Auf diese Weise lassen sich auch schwer zu erreichende Zielgruppen erreichen. (Quirmbach, 2013)
Onsitebefragung: Mit dieser Variante lassen sich Umfragen auf Webseiten durchführen. Sie wird verwendet, um schnelle und umfangreiche Nutzerbefragungen, mit großen Stichproben, zu realisieren. Ein Anwendungsbeispiel könnte die Abfrage der allgemeinen Zufriedenheit der Nutzer mit einer Website sein.
Die Einladung zur Befragung wird üblicherweise in Form von Pop-ups oder Layern direkt auf der Site eingebunden, kann aber auch per E-Mail, postalisch oder per Telefon versandt werden. Die Nutzer einer Website treffen so meist zufällig beim Surfen auf die Aufforderung zur Teilnahme.
Vorteile der Methode sind, die schnelle und günstige Möglichkeit ein Nutzerfeedback zu erhalten, die vielfältigen Möglichkeiten der Verteilung der Einladungen sowie die Möglichkeit der Durchführung auf mobilen Endgeräte. Nachteilig ist, dass nur bestehende Nutzer bzw. Kunden, die z.B. die Website besuchen befragt werden. Dadurch ist die Repräsentativität der gewonnenen Stichprobe möglicherweise nicht gegeben. (Quirmbach, 2013)
Onsitefeedback: Bei dieser Variante wird ein Feedback-Button auf einer Site integriert. Hier können gezielt
Fragestellungen eingeblendet werden, die Nutzer bei Interesse beantworten können. So können unmittelbare Rückmeldungen zu Inhalten oder integrierten Funktionen erhalten werden. Im Gegensatz zur klassischen Online-Umfrage werden nur ein bis drei Fragen gestellt.
Vorteile dieser Variante sind, dass alle Nutzer einer Website die Umfrage sehen können und die Befragung
direkt im Kontext der Nutzung erfolgt. Nachteilig ist, dass nur bestehende Nutzer bzw. Kunden befragt
werden können. Dadurch ist die Repräsentativität der gewonnenen Stichprobe möglicherweise nicht gegeben. Außerdem können nur Produkte bewertet werden, die schon vom Kunden verwendet werden.
(Quirmbach, 2013)



Benutzer
Benutzererfahrung
Kontext
folgendes zu erstellen:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
folgendes zu bewerten:






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
7. Verwandte
Verwandte MeFragebogen, AttrakDiff, Interview, Fokusgruppe
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Eine neue Softwareversion wurde veröffentlicht. Nachdem die Nutzer diese einige Zeit verwendet haben,
sollen sie nach ihrer Zufriedenheit gefragt werden.
106
Kategorie
Kriterium
Online-Befragung
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Methodische Details zur Durchführung von Fragebogen-Untersuchungen können dem Buch „Forschungsmethoden und Evaluation“ von (Bortz & Döring, 2002), entnommen werden:
Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3.,
überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer
Das Buch „Interview und schriftliche Befragung“ von Mayer, (2012), enthält Informationen zur Erstellung und
Verwendung von eigenen Fragebogen:
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
In „Online-Befragung“ von Eichhorn, (2004), wird detailliert auf die Konstruktion von Online-Fragebogen
eingegangen. Das Dokument ist frei erhältlich unter:
http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf
Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung.
Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf
Die Erstellung von Fragebogen wird ebenfalls in dem Buch „Testtheorie und Fragebogenkonstruktion“ von
(Moosbrugger, 2012), thematisiert:
Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2.,
aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer
Der Artikel „Fragebogen“, der von dem Usetree-Projekt erstellt wurde, enthält eine Gegenüberstellung von
Softwarelösungen, die zur Durchführung der Online-Befragung verwendet werden können:
http://www.usetree.de/wp-content/uploads/2014/09/Fragebogen.pdf
Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf
Zu beachtende
Normen und
Zertifikate
Quellen
Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3.,
überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer.
Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung.
Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf
Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide for user
research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier.
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen (2.,
aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer.
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf
UsabilityNet. (2006). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von
http://www.usabilitynet.org/tools/subjective.htm
Usetree. (2014). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Usability-Methodenkatalog
107
4.4 Prototyping
4.4.1 Prototyping
Kategorie
1. Bezeichnung
Kriterium
Prototyping (allgemein)
Name
Prototyping
Synonyme
2. Beschreibung
Kurzbeschreibung Die Erstellung eines Prototyps hilft dabei, sich ein Endprodukt zu vergegenwärtigen, bevor dieses fertig entwickelt ist. Hierdurch können Ideen/Konzepte/Entwürfe erzeugt, kommuniziert und getestet werden. Durch den
Eindruck des Systems bzw. die Evaluation des Systems können Probleme gefunden, Verbesserungen abgeleitet
und das System weiter entwickelt werden.
Abbildungen
Abbildung 12: Grober Prototyp eines Geräts aus der HNO-Heilkunde aus einer sehr frühen Entwicklungsphase
(Suzuki, 2010)
Ziele



Förderung der Kreativität: Wird der Prototyp im Rahmen eines Workshops erstellt, kann der kreative
Prozess die Entwicklung von Ideen, Funktionen und Benutzerschnittstellen unterstützen. (Bevan & Wilson,
2005)
Unterstützung der Kommunikation: Der Prototyp kann die Kommunikation von Design-Ideen unterstützen,
indem eine erlebbare Demonstration geschaffen wird. (Bevan & Wilson, 2005)
Testmöglichkeit schaffen: Der entwickelte Prototyp kann von realen Nutzern im Hinblick auf die Gebrauchstauglichkeit und die Nützlichkeit getestet werden. (Bevan & Wilson, 2005)
Ergebnisse/
Output


Repräsentation des Systems
Ggf. Erkenntnisse bezüglich der Gebrauchstauglichkeit eines Systems
Vorteile

Kommunikation:
 Ermöglicht die Kommunikation und Diskussion über Entwürfe und Ideen (UseWell, 2011)
 Verbessert die Kommunikation im Projektteam, insbesondere zwischen Programmierern und Designern (Rammelt & Otto, o. J.).
 Gerade in frühen Phasen des Projektes sind Prototypen besser zur Kommunikation von Ideen geeignet
als Worte oder Bilder (Suzuki, 2010).
Kosten- und Zeitaufwand:
 Prototypen können schnell und kostengünstig erstellt, modifiziert und erweitert werden (Rammelt
& Otto, o. J.).
 Verminderung kostspieliger Fehler, da diese schon entdeckt und korrigiert werden können, solange
Änderungen noch relativ leicht und günstig zu vollziehen sind (Rammelt & Otto, o. J.).
 Senkung der Entwicklungszeit, da Verbesserungen frühzeitig gemacht werden können und die Implementierung frühzeitig geplant werden kann (Rammelt & Otto, o. J.).
Testbarkeit:
 Es können frühzeitig Test mit potentiellen Kunden durchgeführt werden (Rammelt & Otto, o. J.).


Nachteile/
Grenzen




Usability-Methodenkatalog
Zu schnelles Entwickeln hin zu Prototypen kann die Ausbildung weiterer Design-Ideen einschränken (Bevan
& Wilson, 2005).
Der Entwicklungsprozess kann durch Prototyping verlangsamt werden, wenn Anforderungen weder korrekt erhoben noch sauber dokumentiert sind (Rammelt & Otto, o. J.).
Design-Features können durch den Umfang des Prototyping-Tools limitiert werden (Bevan & Wilson, 2005).
Antipathien gegenüber Prototyping von Seiten der Systementwickler (wenn das Prototyping nicht ernst
genommen oder als überflüssig angesehen wird) können den Prozess stören (Rammelt & Otto, o. J.).
108
Kategorie
Kriterium
Prototyping (allgemein)
Projektphase(n)
Konzeption,
Umsetzung
Anwender
Teilnehmer
3. Rahmenbedingungen &
Ressourcen
Anzahl
Variiert je nach Art des Prototyps, Anwendungsfall und Art der Teilnehmer die involviert werden sollen
Art






Firmeninterne
Entwickler
Designer
(Potentielle) Endnutzer
Kunde
Stakeholder
Rolle



Partizipation
Diskussion
Wird beobachtet
Einbeziehung

Physikalische Einbeziehung
Anzahl
1
Rolle
Organisator, ggf. Ersteller des Prototyps, ggf. Moderator, ggf. Beobachter
Erforderliche  Variiert je nach Art des Prototyps:
Kompetenzen
 Einfache Ideenskizzen können von jedem erstellt werden (Usability-Toolkit, o. J.)
 Generell ist Erfahrung in Konzeption erforderlich (Simply Usable, o. J.)
Werkzeuge,
Hilfsmittel


Prototyping Tools (Gläser, 2014):
 Für Wireframe-Prototypen (vgl. Praxis-Tipps): Balsamiq, HotGloo, Axure, Omnigraffle, Fireworks, Illustrator
 Für Mockup-Prototypen (vgl. Praxis-Tipps): Fireworks (für Layouts), Photoshop (Styling), Illustrator
(Grafik-Elemente und Icons), Cinama 4D (3D Grafiken).
Materialien für die Herstellung des Prototypen (z.B. Papier)
Ort/Umgebung





Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Kosten
Gering bis hoch
Variiert je nach Art des Prototyps
Zeitaufwand
Gering bis hoch
Variiert je nach Art des Prototyps
Usability-Methodenkatalog
109
Kategorie
Kriterium
Prototyping (allgemein)
4. Vorgehensweise
Vorbereitung













Durchführung




Nachbereitung/
Auswertung




Usability-Methodenkatalog
Anlegen eines Logbuchs um darin Zeichnungen, Skizzen und Notizen zu sammeln (UseWell, 2011)
Ausgehend von ersten Skizzen werden detaillierte Zeichnungen von dem Konzept bzw. der Idee angefertigt (UseWell, 2011).
Ggf. Erstellen eines einfachen Basis-Modells (ohne Funktionen) aus günstigen Materialien z.B. Papier,
Pappe oder Holz (UseWell, 2011)
Ggf. Basis-Modell auf Probleme untersuchen (UseWell, 2011)
Wählen welche Art des Prototypings verwendet werden soll:
 Exploratives Prototyping: Es werden verschiedene Lösungsmöglichkeiten durch die Prototypen dargestellt und veranschaulicht. Vor- und Nachteile können untersucht und gegenübergestellt werden. Eine
begründete und dokumentierte Designentscheidung kann getroffen werden. (DAkkS, 2010)
 Evolutionäres Prototyping: Ein Prototypt wird iterativ immer weiter verbessert und schließlich zum fertigen Zielsystem weiterentwickelt (Rammelt & Otto, o. J.).
Einstufung des Prototyps nach den vier Dimensionen festlegen (Beadouin-Lafon & Mackay, 2003):
 Repräsentation: Offline Prototypen (z.B. Paper-Prototyps, Storyboards, Mockups) Online Prototypen
(z.B. interaktive Videopräsentationen, Wizard of Oz)
 Präzision (Detailgrad)
 Interaktivität
 Evolution (Lebensdauer)
Festlegen der Prototyping-Strategie (Nielsen, 1993):
 Horizontale Prototypen: Überblick über alle Funktionen mit geringem Detailtiefe
 Vertikale Prototypen: einige wenige Funktionen im Detail mit hoher Präzision
 Aufgabenorientierte Prototypen: Mix aus horizontalem und vertikalem Prototyp mit der Ausrichtung
auf spezifische Aufgaben, die abgebildet werden sollen
 Szenario-basierte Prototypen: ähnlich den aufgabenorientierten Prototypen aber mit dem Fokus auf
Szenarien; der Nutzer soll eine System so erfahren, wie es sich in einer realistischen Situation verhalten
würde
Kann der Prototyp eigenständig angefertigt werden? Alternativ könnte z.B: ein Unternehmen für Rapid
Prototyping beauftragt werden? (UseWell, 2011).
Material und Werkzeuge für die Erstellung wählen; bei einer eigenen Erstellung ist die Wahl von günstigen,
langlebigen und leicht zu verarbeitenden Materialien sinnvoll (UseWell, 2011)
Identifizieren der Arbeitsschritte zur Erstellung des Prototyps (UseWell, 2011)
Ermittlung der Kosten für die Erstellung (UseWell, 2011)
Falls der Prototyp getestet werden soll (UseWell, 2011):
 Definition von Aufgaben, die die Probanden mit dem Prototyp ausführen
 Rekrutierung von Probanden
 Ort für den Test festlegen und ggf. reservieren
Für den Test nötige Werkzeuge und Hilfsmittel organisieren (z.B. Aufzeichnungsgeräte)
Erstellen des Prototyps (UseWell, 2011)
In einem schnellen Test überprüfen, ob mit dem Prototyp die definierten Aufgaben durchgeführt werden
können (UseWell, 2011).
Prototyp testen (UseWell, 2011):
 Werkzeuge und Hilfsmittel z.B: Videoaufzeichnungsgeräte bereitstellen und einrichten
 Probanden (z.B. repräsentative Endnutzer) für den Test begrüßen und in den Test einweisen (durchzuführende Aufgaben vorstellen)
 Probanden beobachten (Notizen machen, ggf. im Anschluss interviewen)
Nachbesprechung mit den Probanden (UseWell, 2011)
Aufzeichnungen über den Test auswerten und einen abschließenden Bericht erstellen, der die Untersuchung zusammenfasst (UseWell, 2011)
Ggf. Verbesserungen ableiten (UseWell, 2011)
Ggf. die Ergebnisse dem Entwicklerteam präsentieren (UseWell, 2011)
Ggf. Überarbeiten des Prototyps (erneutes Durchführen der Prototyping-Methode) (UseWell, 2011)
110
Kategorie
Kriterium
5. Praxis-Tipps
Praxis-Tipps
Prototyping (allgemein)
Tipps:

Falls der Prototyp nicht selbst erstellt werden kann, kann ein professioneller Prototyp-Designer beauftragt
werden (UseWell, 2011)
Varianten:







6. Zweck
Storyboards: Es werden Skizzen vom Benutzerinterface angefertigt. Im Fokus steht der zentrale Inhalt und
wie dieser in Szene gesetzt wird. Elemente wie Listen, Buttons und Drop-down-Menüs werden platziert.
Die Skizzen werden anhand von konkreten Anwendungsfällen miteinander verknüpft. Es entsteht eine
comic-artige Ablauf-Beschreibung möglicher Interaktionsszenarien (vgl. Kapitel 4.4.2). (Gläser, 2014;
Usability-Toolkit, o. J.)
Wireframes: Es handelt sich dabei um einen digitalen Prototyp, der das konkrete Design der Benutzeroberfläche zeigt. Der Fokus liegt dabei auf der Anordnung und der Große der Elemente. Texte und Bilder sind
daher in der finalen Größe und in der richtigen Relation zueinander dargestellt. Die konkreten Inhalte der
Texte und Bilder sind noch nicht enthalten. Man verwendet Blindtexte und Platzhalter für Bilder. Designvariablen wie Farben, Schriftarten, Formen, Texturen und Effekte sind noch nicht definiert. (Gläser, 2014)
Paper-Prototypes: Das Benutzerinterface eines Systems wird bei diesem Verfahren aus Papier nachgebildet.
Ein Proband führt vorgegebene Aufgaben mit dem Prototyp durch, während der Ausführende das PapierInterface in Echtzeit anpasst, um das Verhalten des Systems zu simulieren (vgl. Kapitel 4.4.3).
Mockups: Bei diesem digitalen Prototyp wird das Design der Benutzeroberfläche abgebildet. Eine Teilfunktionalität ist vorhanden. Im Gegensatz zu Wireframes spielen jetzt auch Designvariablen wie Farben, Formen, Texturen, Abstände und Schriftwahl eine Rolle. Detailfragen wie die Rundung von Buttons können an
dem Prototyp geklärt werden. (Gläser, 2014)
Screenflows: Anhand von Screenflows werden Storyboard-Abläufe als Ganzes dargestellt. Anhand eines
Flussdiagramms werden alle Screen-Ansichten dargestellt und mit Verbindungspfaden verknüpft. Es ergibt
sich eine Karte auf der ersichtlich ist, welche Screen-Ansichten aufeinander folgen. (Gläser, 2014)
Click-Dummys: Es wird eine programmierte, teilfunktionale Demonstration der Anwendung geschaffen.
Anhand dieser Prototypen können die Benutzer die Anwendung erleben und die User-Experience kann getestet werden. (Gläser, 2014)
Wizard of Oz: Bei der Methode wird ein Prototyp eines technischen Systems mit noch eingeschränkter
Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur (sog. Wizard) (ggf.
auch mehrere) beobachtet die Aktionen des Anwenders und simuliert die Systemantwort für die noch
nicht implementierten Funktionen in Echtzeit (vgl. Kapitel 4.4.4).




Interaktion
Strukturen/Prozesse
Benutzererfahrung
Kontext
folgendes zu erstellen:





Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Umgebung/Ort
folgendes zu bewerten:





Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Umgebung/Ort
Daten…


zu kommunizieren
zu verbreiten
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Paper-Prototyping, Storyboard, Wizard of Oz, Scenario machine, Mockups, User Interface Prototyping, Rapid
Prototyping (Richter & Flückiger, 2010; Sarodnick & Brau, 2011)


Card-Sorting: zur Festlegung der Navigationsstruktur (Usability-Toolkit, o. J.)
Personas, Interviews: zur Festlegung der Zielgruppe (Usability-Toolkit, o. J.)
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Um den neuen Aufbau einer Webseite zu bestimmen, werden verschiedene Ideen zur Veranschaulichung als
Papier-Prototyp umgesetzt. Eine engere Auswahl von Konzepten wird als digitaler, interaktiver Prototyp umgesetzt und mit potentiellen Nutzern getestet, um eine Entscheidung zu treffen. Der Designer kommuniziert die
Anforderungen mit Hilfe eines grafisch ausgestaltet Prototypen an den Entwickler. (KUSi, 2015)
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Einen guten Überblick über die verschiedenen Arten von Prototypen sowie über Prototyping-Tools gibt der
Artikel „Prototyping“ von Postert (2014), der im Rahmen des UseTree Projektes veröffentlicht wurde:
http://www.usetree.de/wp-content/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf
Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
111
Kategorie
Kriterium
Prototyping (allgemein)
Quellen
Beadouin-Lafon, M., & Mackay, W. E. (2003). Prototyping Tools and Techniques. The Human-Computer Interaction Handbook, 1006–1039. Abgerufen von https://www.lri.fr/~mackay/pdffiles/Prototype.chapter.pdf
Bevan, N. & Wilson, C. (2005). Rapid Prototyping. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/rapid-prototyping
DAkkS. (2010). Leitfaden Usability (Verison 1.3). Abgerufen von
http://www.dakks.de/sites/default/files/71_sd_2_007_leitfaden_usability_1.3_0.pdf
Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen von
http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/
KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen
von http://www.usability-siegen.de/qualifizierung.html
Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers.
Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf
Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.berlinusability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Simply Usable. (o. J.). Factsheet-Prototyping. Zugriff am 30.05.2015. Abgerufen von http://www.simplyusable.de/wp-content/uploads/2015/02/Factsheet-Prototyping-simply-usable.pdf
Suzuki, S. (2010). The Power of Prototyping. Abgerufen von
http://www.paristechreview.com/2010/11/02/power-prototyping/
Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
Usability-Methodenkatalog
112
4.4.2 Storyboarding
Kategorie
Kriterium
Storyboarding
1. Bezeichnung
Name
Storyboarding
Synonyme
Storyboard, Storyboarded scenarios
2. Beschreibung
Kurzbeschreibung Ein Storyboard stellt eine comic-artige Ablauf-Beschreibung der Interaktion zwischen dem Benutzer und dem
technischen System dar. Diese Interaktion wird als konkretes Fallbeispiel in Form einer Bilder-Geschichte dargestellt. Hierdurch wird vermittelt, wie ein Produkt vom Nutzer verwendet werden soll, wie es gestaltet ist und
welche Funktionen es bietet.
Storyboards bieten einem Entwickler die Möglichkeit das Produkts visuell darzustellen, um so eine Evaluationsgrundlage für das Entwickler-Team, potentielle Endnutzer oder sonstige Steakholder zu schaffen.
Abbildungen
Abbildung 13: Beispiel für ein Storyboard (UX Apprentice, o. J.)
Ziele




Ergebnisse/
Output
Ein oder mehrere Storyboards
Vorteile












Visualisieren von Ideen/Konzepten
Feedback zu Ideen und Entscheidungen erhalten (Richter & Flückiger, 2010)
Akzeptanz bei Auftraggebern und Benutzern erzeugen (Richter & Flückiger, 2010)
Kontext an das Projektteam kommunizieren (Richter & Flückiger, 2010)
Stellt eine effektive Kommunikationsgrundlage zwischen Entwicklern, Designer, Kunden, künftigen Nutzern und anderen Steakholdern dar (Stappers, 2012; van der Lelie, 2006).
Die Art der visuellen Darstellung stellt eine universelle Sprache zur Kommunikation von Ideen/Konzepten
dar. Personen mit unterschiedlichem Hintergrund können diese Ideen „lesen“ und verstehen (Stappers,
2012; van der Lelie, 2006).
Die Methode gewährt einen einheitlichen Blick auf die Form, die Ästhetik, die Funktionalität und die soziale Wirkung eines Produkts (Stappers, 2012).
In Bildern können Aspekte vermittelt werden, die mit Text nicht oder nur schwer auszudrücken sind (Richter & Flückiger, 2010).
Das „visuelle Denken“, das einen entscheidenden Faktor für den kreativen Prozess in der Entwicklung eines
Produkts darstellt, wird durch die Methode unterstützt (Muller, 2001).
Es unterstützt die Generierung von Ideen (van der Lelie, 2006).
Gibt einen Überblick über das System (UsabilityNet, 2003).
Kann von Nutzern evaluiert werden (UsabilityNet, 2003).
Es sind keine Programmierkenntnisse erforderlich (Sharon, Ekhteraei, McHarg, & Wilson, 2010).
Kann die Erstellung von Personas und Szenarien unterstützen (Sharon et al., 2010).
Bietet die Möglichkeit Use Cases in einer kohärenten Beschreibung von Nutzeraktionen zu organisieren
(Sharon et al., 2010).
Sie sind einfach zu verändern und ermöglichen es Funktionen zu simulieren ohne sich über die Implementierung Gedanken machen zu müssen (Landay & Myers, 1995).
Nachteile/
Grenzen




Projektphase(n)
Konzeption
Usability-Methodenkatalog
Erfordert vom Anwender Visualisierungsfähigkeit (Stappers, 2012).
Erfordert Fähigkeiten des Storytellings und der Szenarioerstellung (Stappers, 2012)
Die Interaktion zwischen einem Storyboard und den Endnutzern ist begrenzt (Landay & Myers, 1996).
Eine große Herausforderung beim Storyboarding ist die Wahl des Anfangs und des Endes eines
Storyboards. Falsch gewählte Punkte führen zu irrelevanten Informationen oder zu zu vielen Funktionen
(Sharon et al., 2010).
113
Kategorie
Kriterium
Anwender
Teilnehmer
3. Rahmenbedingungen &
Ressourcen
Storyboarding
Anzahl
Beliebig
Art




Entwickler
Software-Gestalter
Endnutzer
Stakeholder
Rolle


Partizipation
Diskussion
Einbeziehung
Physikalische Einbeziehung
Anzahl
1
Rolle
Ersteller des/der Storyboards (Zeichner, Designer)
erforderliche 
Kompetenzen 
Werkzeuge,
Hilfsmittel



Erfordert vom Anwender Visualisierungsfähigkeit (Stappers, 2012)
Erfordert Fähigkeiten des Storytellings und der Szenarioerstellung (Stappers, 2012)
Schreib-, Zeichenmaterial
Ggf. Software zum Zeichnen des Storyboards und zur Präsentation des Ergebnisses (z.B. PowerPoint,
Photoshop, Illustrator) (Sharon et al., 2010; Stappers, 2012)
Ggf. spezielle Software-Tools für Storyboarding z.B. Comic Life, StoryBoard Artist, StoryBoard Quick)
(Sharon et al., 2010)
Ort/Umgebung


Kosten
Gering

Es sind weder besondere Werkzeuge/Hilfsmittel noch Personen mit speziellem Wissen/Erfahrungen/Kompetenzen notwendig
Zeitaufwand
Gering

Pro Storyboard ca. 1-2 Personentage (sofern alle Grundlagen vorhanden sind) (Richter
& Flückiger, 2010)
Inkl. Evaluation durch Endnutzer sind ca. 2-4 Tage einzuplanen (Sharon et al., 2010)
Tagungsraum
Schreibtisch

4. Vorgehensweise
Vorbereitung


Festlegen des Zeichenstils (vgl. Praxis-Tipps) (Stappers, 2012)
Festlegen der Geschichte (Storyline) bzw. der Abfolge der Ereignisse, die visualisiert werden sollen. Als
Grundlage dienen Konzeptideen oder Forschungsdaten (Stappers, 2012).
Durchführung

Erstellen des Storyboards (Stappers, 2012):
 Festlegen der darzustellenden Situation (Wann? Wo?), der Akteure (Wer?), ihre Motivation (Warum?)
sowie den zentralen Aspekt des Designs.
 Erstellen von ca. 5-7 Bildern, anhand derer die Geschichte erzählt werden soll. (vgl. Praxis-Tipps)
 Es sind ausreichend optische Details einzufügen, damit das Wo, Wann, Was, Wer, Wie und Warum ersichtlich wird.
 Anordnen der Bilder, vorzugsweise in einer Zeile von links nach rechts
 Einfügen von Beschriftungen, um schwierig zu visualisierende Aspekte wie z.B. die Motivation der Nutzer, darzustellen
 Betiteln des Storyboards um den zentralen Aspekt des Dargestellten zu vermitteln
Diskussion und Evaluation von/mit Teammitgliedern, die nicht an der Erstellung der Storyboards beteiligt
waren, ggf. von Endnutzern (Stappers, 2012)
Verbesserung des Storyboards: Aspekte, die nicht verstanden wurden werden überarbeitet (Stappers,
2012)
Fertigstellen des Storyboards (Stappers, 2012)
Diskussion mit Stakeholdern (Stappers, 2012)




5. Praxis-Tipps
Nachbereitung/
Auswertung

Praxis-Tipps
Tipps:





Das finale Storyboard kann als Poster an die Wand gehängt werden, um das Entwicklungsteam an das
zentrale Konzept zu erinnern (Stappers, 2012).
Die Wahl des Zeichenstils entscheidet, wie die Betrachter auf das Storyboard reagieren:
 Der Zeichenstil des Storyboards kann von groben Skizzen bis zu sehr detaillierten Zeichnungen reichen.
Storyboards mit einem skizzenartigen Look werden beim Betrachter eher Kommentare und Vorschläge hervorrufen, während detaillierte Hochglanz-Darstellungen eher den Eindruck erwecken, final zu
sein (van der Lelie, 2006).
Die Geschichte sollte ein konkretes, realitätsnahes Fallbeispiel erzählen, in dem kritische Punkte detailliert
dargestellt sind um Anlass zu interessanten Diskussionen zu bieten, in denen Missverständnisse und Diskrepanzen aufgedeckt werden (Richter & Flückiger, 2010).
Ein gutes Storyboard soll dem Entwicklerteam ein Gefühl von der Nutzererfahrung vermitteln (Sharon et
al., 2010).
Die in der Geschichte handelnden Personen sollen charakterisiert werden (Richter & Flückiger, 2010).
Die Geschichte sollte plausibel begründen, warum die Personen so handeln (Richter & Flückiger, 2010).
Varianten:


Usability-Methodenkatalog
Eine moderierte Gruppe von Teilnehmern entwickelt eine Geschichte (Storyline) zur Verwendung eines
Produkts und visualisiert diese. Aus dieser Darstellung lassen sich Produktdetails ableiten (Stappers, 2012).
User Interface Storyboard: Es werden Skizzen vom Benutzerinterface angefertigt. Im Fokus steht der
zentrale Inhalt und wie dieser in Szene gesetzt wird. Elemente wie Listen, Buttons und Drop-down-Menüs
werden platziert. Die Skizzen werden anhand von konkreten Anwendungsfällen miteinander verknüpft.
(Gläser, 2014; Richter & Flückiger, 2010; Usability-Toolkit, o. J.)
114
Kategorie
Kriterium
Storyboarding
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen
Daten…


Strukturen/Prozesse
Kontext






Ideen & Konzepte
physikalisches Produkt
Software
integriertes Produkt
Dienstleistung
Umgebung/Ort


zu kommunizieren
zu verbreiten
7. Verwandte
Verwandte MeSzenario-Analyse, Skizzen (Stappers, 2012)
und weiterfühthoden
rende Methoden
Mögliche voranGenerieren von Ideen, Kontextuelle Studien (z.B. Ethnographische Studie, Nutzer Tests) (Stappers, 2012)
gegangene Methoden/Tätigkeite
n
Mögliche nachfol- Ausarbeitung des Konzepts, Testen des Konzepts (Stappers, 2012)
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Darstellung der Abfolge von Ansichten eines Benutzerinterfaces bei der Bearbeitung einer Aufgabe mit einem
konzipierten technischen System.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Zusätzliche Informationen zur Methode und viele weiterführende Informationsquellen werden von Sharon et
al., (2010) auf der Web-Plattform „Usability Body of Knowledge“ gegeben: (englisch)
http://www.usabilitybok.org/storyboard
Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/storyboard
Eine Übersicht über die Anwendung von Storyboarding, sowie Praxis-Tipps sind in dem Buch „Usability Engineering kompakt“ von Richter & Flückiger, (2010) gegeben.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Zu beachtende
Normen und
Zertifikate
Quellen
Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen von
http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/
Landay, J. A., & Myers, B. A. (1995). Just Draw It! Programming by Sketching Storyboards. Carnegie Mellon
University, Human-Computer Interaction Institute Technical Report CMU-HCII-95-106 and School of Computer Science Technical Report CMU-CS-95-199. Abgerufen von
http://www.cs.cmu.edu/~landay/research/publications/storyboard-tr/storyboard.pdf
Landay, J. A., & Myers, B. A. (1996). Sketching Storyboards to Illustrate Interface Behaviours. In the Conference
Companion of ACM Conference on Human Factors in Computing Systems: CHI '96, 193-194. Abgerufen von
http://www.cs.cmu.edu/~landay/research/publications/CHI96/short_storyboard.pdf
Muller, W. (2001). Order and meaning in design. Delft University of Technology series in industrial design.
Utrecht: Lemma Publishers.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/storyboard
Stappers, P.-J. (2012). Storyoarding. Zugriff am 01.06.15. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-12-storyboarding
UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von
http://www.usabilitynet.org/tools/list.htm
Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/
UX Apprentice. (o. J.). Storyboarding. Zugriff am 01.06.2015. Abgerufen von
http://www.uxapprentice.com/strategy/
van der Lelie, C. (2006). The value of storyboards in the product design process. Personal and Ubiquitous Computing, 10(2-3), 159–162. doi:10.1007/s00779-005-0026-7
Usability-Methodenkatalog
115
4.4.3 Paper-Prototyping
Kategorie
Kriterium
Paper-Prototyping
1. Bezeichnung
Name
Paper-Prototyping
Synonyme
Stift & Papier Prototypen, Rapid Prototyping
2. Beschreibung
Kurzbeschreibung Bei dem Papier-Prototyping wird das Benutzerinterface eines Systems aus Papier nachgebildet. Ein Proband
führt vorgegebene Aufgaben mit dem Prototyp durch, während der Ausführende das Papier-Interface in
Echtzeit anpasst, um das Verhalten des Systems zu simulieren. Durch das Testen des Prototyps lässt sich schnell
ein Eindruck bezüglich des Interface-Designs gewinnen. Es lassen sich auf einfache Weise Probleme finden und
Verbesserungen ableiten.
Abbildungen
Abbildung 14: Durchführung eines Usability-Test an einem Paper-Prototyp (Cronin, 2009)
Ziele


Usability-Probleme durch die Ausführung von Aufgaben an dem Prototyp aufspüren
Vergleichen von Designalternativen
Ergebnisse/
Output

Nach Prioritäten sortierte Usability Probleme, die sich bei der Evaluation des Papier-Prototyps ergeben
haben
Vorteile




Eine schnelle und einfache Möglichkeit ein Interface ohne Programmierung darzustellen (Snyder, 2003).
Es lassen sich viele unterschiedliche Probleme des Benutzerinterfaces finden (Snyder, 2003).
Nutzer können ein Interface testen, bevor dieses Implementiert wurde (Snyder, 2003).
Es können auch Prozesse und Interaktionsmöglichkeiten mit hoher Komplexität abgebildet und hinterfragt
werden (Quirmbach, 2013).
Nachteile/
Grenzen


Es kann nur das Aussehen des Systems nachgestellt werden, nicht das Gefühl der Nutzung (Snyder, 2003).
Die Art und Weise, wie ein Nutzer eine Schnittstelle benutzt kann durch den Prototyp beeinflusst werden
und die natürliche Verhaltensweise des Probanden verändern. Die Aktionen und Aussagen der Probanden
können dadurch verzerrt werden. (Quirmbach, 2013; Snyder, 2003)
Multi-Touch-Schnittstellen lassen sich nur schwer simulieren (Snyder, 2003).
Projektphase(n)
Konzeption
Anwender
3. Rahmenbedingungen & Ressourcen
Teilnehmer

Anzahl
5 (Nielsen, 2000)
Art
(Repräsentative) Endnutzer
Rolle
Wird beobachtet
Einbeziehung
Physikalische Einbeziehung
Anzahl
2 oder mehr
Rolle
Organisator, Moderator, Beobachter, Simulator der Systemantwort, ggf. Ersteller des Prototyps
Erforderliche 
Kompetenzen 
Werkzeuge,
Hilfsmittel
Usability-Methodenkatalog


Erfahrungen und Kenntnisse im Bereich Usability sind von Vorteil (Pasman, o. J.).
Die Systemantworten müssen möglichst schnell während des Tests simuliert werden. Gute Kenntnis über
das System, den Prototyp, sowie die Organisation der Papierelemente sind erforderlich.
Prototyp
Ggf. Videoaufzeichnungsgeräte
116
Kategorie
4. Vorgehensweise
Kriterium
Paper-Prototyping
Ort/Umgebung



Kosten
Gering
Zeitaufwand
Gering bis mittel
Vorbereitung














Durchführung











Nachbereitung/
Auswertung





Usability-Methodenkatalog
Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor



Erstellen des Prototyps: ca. 5 Tage (Snyder, 2003)
Erstellen der Aufgaben für den Test: ca. 3-5 Stunden
Usability Testing mit Teilnehmern: ca. 2 Stunden pro Teilnehmer (Snyder, 2003)
Der Prototypt wird erstellt (vgl. Methodenbeschreibung zu Prototyping Kapitel 4.4.1):
 Die an der Produktentwicklung beteiligten Personen wie z.B. der Designer und der Produktentwickler
entwickeln den Prototypen auf Basis von ersten Ideen und Anforderungen eines Produkts (Quirmbach,
2013).
Probanden zum Test einladen, ca. 2-3 Wochen vor dem Termin der Durchführung (Snyder, 2003)
Identifizieren von repräsentativen Aufgaben und Szenarien (Pasman, o. J.)
Definition einer Aufgabenliste inkl. Kriterien für die Auswertung (Pasman, o. J.)
Erstellen eines Skripts mit dem geplanten Ablauf der Tests (Pasman, o. J.)
Erstellen von Protokollierungs-Blattern, um Zeiten, Ereignisse und Aktionen der Probanden aufzuzeichnen
und zu kommentieren (Pasman, o. J.)
Erstellen eines Pre-Test-Fragebogens zur Aufnahme personenbezogener Daten von den Teilnehmern, um
zu überprüfen, ob eine repräsentative Probandenauswahl getroffen wurde und die Teilnehmer mit den
erwarteten Nutzerprofilen übereinstimmen (Pasman, o. J.)
Erstellen eines Post-Test-Fragebogens um die Nutzerzufriedenheit zu messen und den Teilnehmern die
Möglichkeit zu geben Anmerkungen zu äußern (Pasman, o. J.)
Einverständniserklärung aufsetzen: Die Probanden sollen vor der Durchführung des Tests hier bestätigen,
dass sie mit der Videoaufzeichnung einverstanden sind.
Der Prototyp ist an die Aufgaben anzupassen, so dass die Teilnehmer diese ausführen können (Pasman, o.
J.).
Die einzelnen Elemente des Prototyps sind so zu organisieren, dass Systemantworten schnell simuliert
werden können. Dabei ist eine Ordnung nach Kategorien sinnvoller als eine Ordnung nach der erwarteten
Reihenfolge der Elemente, da es meist nicht möglich ist das genaue Vorgehen der Teilnehmer vorherzusagen. (Pasman, o. J.)
Ein Zeitplan für die Tests erstellen und den Ort für die Durchführung organisieren z.B. reservieren (Pasman,
o. J.)
Durchführen eines Pilot-Tests (Pasman, o. J.)
 Vertraut machen mit der Durchformung und der Simulation der Systemantworten
Videoaufzeichnungsgeräte ausrichten und testen
Probenden begrüßen und eine angenehme Atmosphäre schaffen (Pasman, o. J.)
Den Probanden das Vorhaben erläutern: Ihnen mitteilen, dass sie Aufgaben abbrechen dürfen, falls sie sie
nicht vollenden können (Pasman, o. J.).
Die Probanden über die Videoaufzeichnung informieren und die Einverständniserklärung unterzeichnen
lassen (Pasman, o. J.)
Der Proband füllt den Pre-Test-Fragebogen aus.
Die Methode „Lautes Denken“ kann von den Probanden während der Durchführung angewendet werden.
Den Teilnehmern ist ggf. die Methode zu erläutern (Pasman, o. J.).
Test beginnen
Der Proband führt Aufgaben mit dem Prototyp aus; ein Anwender simuliert die Systemantwort, indem das
Papier-Interface verändert wird.
Der Proband wird dabei beobachtet und seine Aktionen werden protokolliert.
Nach Beendigung des Tests wird der Proband gefragt, wie er die Durchführung empfand. In einem Gespräch können die Ereignisse des Tests Revue passiert werden lassen. Bsp.: Wo hatte der Proband Schwierigkeiten bei der Ausführung der Aufgaben? Was war der Grund dafür? usw. (Pasman, o. J.)
Der Proband füllt den Post-Test-Fragebogen aus.
Dem Proband wird die Aufwandsentschädigung ausgehändigt, dann wird er verabschiedet (Pasman, o. J.).
Die Ergebnisse werden zunächst in einer Tabelle zusammengefasst (Pasman, o. J.) :
 Für jeden Probanden sollte festgehalten werden, wie weit die Aufgaben erfüllt werden könnten und
welche Zeit dafür benötigt wurde. Außerdem sollten die Notizen der Beobachtung den Teilnehmern
sowie den Aufgaben zugeordnet werden.
Daten nach Trends untersuchen (Pasman, o. J.)
Usability Probleme identifizieren und die Priorität mit der sie behoben werden müssen festlegen (Pasman,
o. J.)
Ableiten von Verbesserungen
Erstellen eines Berichts
117
Kategorie
Kriterium
Paper-Prototyping
5. Praxis-Tipps
Praxis-Tipps






6. Zweck
Bei der Definition von Aufgaben ist besonders wichtig festzulegen, wann eine Aufgabe abgeschlossen ist
(Pasman, o. J.).
Der Pilot-Test sollte ca. zwei Wochen vor dem realen Test durchgeführt werden (Pasman, o. J.).
Während der Durchführung des Tests sollten die Teilnehmer nicht unterbrochen und nicht vom beobachtenden Anwender gestört bzw. beeinflusst werden (Pasman, o. J.).
Dem Probanden sollte nicht geholfen werden, wenn er eine Aufgabe nicht beenden kann oder sonstige
Probleme mit dem Interface hat (Pasman, o. J.).
Bei Bedarf kann mittels Zwischenfragen dem Probanden „geholfen“ werden. „Was versuchen Sie zu erreichen?“ Was denken Sie wofür diese Schaltfläche ist?“ usw.
Der Proband ist aus einiger Entfernung zu beobachten (Pasman, o. J.).

Interaktion



Ideen & Konzepte
Software
Integriertes Produkt
folgendes zu bewerten:



Ideen & Konzepte
Software
Integriertes Produkt
Daten…

zu kommunizieren
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu erstellen:
es das Ziel ist…
7. Verwandte
Verwandte MePrototyping, Storyboards, Wireframes
und weiterfühthoden
rende Methoden
Mögliche voran Interview, Beobachtungen, Befragungen: Zur Wahl der repräsentativen Teilnehmer müssen zunächst
gegangene MeInformationen über die Endnutzer gesammelt werden (Pasman, o. J.).
thoden/Tätigkeite  Szenarios, Use Cases: Zur Auswahl von geeigneten Aufgaben und Szenarien, die die Teilnehmer während
n
des Tests am Prototyp durchführen sollen (Pasman, o. J.).
Mögliche nachfol- 
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete




9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Verfeinern des untersuchten Designs (McHarg, 2010)
Unterschiedliche Designideen für eine Benutzeroberfläche eines Programms sollen bereits vor der Implementierung getestet und miteinander verglichen werden.
Die Terminologie von Elementen wie Buttons, Checkboxen oder Kategorien soll kontrolliert werden
(Quirmbach, 2013).
Im mobilen Bereich sollen Nutzungsszenarien überprüft und Erwartungshaltungen der Probanden bei den
einzelnen Prozessschritten abgeglichen werden (Quirmbach, 2013).
Es soll herausgefunden werden, wann Probanden eine Rückmeldung des Systems erwarten und wie diese
auszusehen hätte, damit sie hilfreich ist (Quirmbach, 2013).
Viele weiter Informationen sind in dem Buch „Paper Prototyping“ von Snyder, (2003) enthalten.
Ebenfalls empfehlenswert ist die zugehörige Internetseite. Hier sind viele zusätzliche Informationen sowie
Verweise auf weiterführende Artikel und Paper gegeben: (englisch)
http://www.paperprototyping.com/index.html
Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan
Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann; Elsevier Science.
Das folgende Video zeigt eine beispielhafte Anwendung von Paper-Prototyping in der Praxis:
https://www.youtube.com/watch?v=oITeUEjrY3Q#t=23
Zu beachtende
Normen und
Zertifikate
Quellen
Cronin, D. (2009). Industry trends in prototyping. Abgerufen von
http://www.adobe.com/devnet/archive/fireworks/articles/cooper_prototyping.html
McHarg, S. (2010). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/paperprototyping
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Pasman, G. J. (o. J.). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-4-paper-prototyping
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan
Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann; Elsevier Science.
Usability-Methodenkatalog
118
4.4.4 Wizard of Oz
Kategorie
Kriterium
Wizard of Oz
1. Bezeichnung
Name
Wizard of Oz
Synonyme
Wizard of Oz Szenario
2. Beschreibung
Kurzbeschreibung Bei der Methode wird ein Prototyp eines technischen Systems mit noch eingeschränkter Funktionalität geschaffen und von einem Anwender evaluiert. Ein menschlicher Akteur (sog. Wizard) (ggf. auch mehrere) beobachtet
die Aktionen des Anwenders (sog. Oz) und simuliert die Systemantwort für die noch nicht implementierten
Funktionen in Echtzeit. Das ganze geschieht meist, ohne dass der Anwender es während seinem Test bemerkt.
Abbildungen
Abbildung 15: Beispiel für die Durchfühugen der Methode Wizard of Oz (Riek, 2012)
Ziele
Funktionen eines technischen Systems vor der Implementierung durch Anwender testen lassen um mögliche
Probleme zu finden und Verbesserungen abzuleiten
Ergebnisse/
Output


Gesammelte Informationen über die Nutzerinteraktion (UsabilityNet, 2003)
Kenntnisse zur visuellen Affordanz (Gibt die visuelle Darstellung von Objekten dem Nutzer Hinweise zur
Interaktion mit dem Objekt?) (UsabilityNet, 2003)
Vorteile

Ermöglicht das Testen von Konzepten, Techniken und angestrebten Funktionen bevor diese implementiert
sind (UsabilityNet, 2003)
Stellt eine sehr schnelle Form des Prototypings interaktiver Applikationen dar, da Funktionen nicht aufwendig implementiert werden müssen (Uselab, 2015)
Neben der Zeit können auch Kosten gespart werden, da Funktionen bereits vor der Implementierung
getestet werden können. Somit entfällt der Aufwand eine vor der Evaluation implementierte Funktion
nach Mängeln neu umzusetzen (Uselab, 2015).
Sehr kosteneffiziente Methode um mehrere Designs-Möglichkeiten miteinander zu vergleichen (Bevan,
Wilson, Chung, DeBoard, & Herzon, 2006)



Nachteile/
Grenzen




3. Rahmenbedingungen & Ressourcen
Teilnehmer
Projektphase(n)
Anzahl
Werden die Teilnehmer nach der Durchführung der Methode nicht darüber informiert, dass sie nicht mit
einem technischen System, sondern mit einem Menschen interagiert haben, bestehen ethische Bedenken
gegenüber der Methodenanwendung, da die Teilnehmer getäuscht werden (Riek, 2012).
Es findet keine wirkliche Interaktion zwischen Mensch und technischen System statt, sondern zwischen
Mensch und Mensch. Bei der Interpretation der Ergebnisse muss dies stets berücksichtigt werden (Riek,
2012).
Es besteht die Gefahr, dass durch den „Wizard“ Funktionen simuliert werden, die das System im implementierten Zustand gar nicht leisten können wird (Riek, 2012).
Die Tätigkeit des „Wizards“ ist ermüdend. Seine Reaktionen können sich mit der Zeit verschlechtern (Bevan
et al., 2006).
Konzeption,
Umsetzung
5 (Nielsen, 2000)
Art
Endnutzer
Rolle
Wird beobachtet
Einbeziehung
Physikalische Einbeziehung
Usability-Methodenkatalog
119
Kriterium
Anwender
Kategorie
Wizard of Oz


Anzahl
2 oder mehr
Rolle
Organisator, Beobachter, „Wizard“, Analyst
Erforderliche Der „Wizard“ muss umfassend mit dem System vertraut sein (z.B: ein erfahrenes Mitglied des EntwicklungsKompetenzen teams), um logische und glaubhafte Systemantworten zu simulieren. (Maulsby et al., 1993)
Werkzeuge,
Hilfsmittel


Aufzeichnungsgeräte (z.B. Videokameras), die die Aktionen der Teilnehmer an den „Wizard“ übermitteln;
ggf. zusätzliche Geräte zur Analyse der Tests
Technisches System, das vom Teilnehmer bedient und vom „Wizard“ beeinflusst werden kann (z.B: Zwei
Computer Systeme) (Maulsby et al., 1993)
Ort/Umgebung
Usabiliy Labor
Kosten
Gering bis hoch


Je nach Anwendungsfall können die Kosten variieren.
Bei komplexen System kann das Training des/der Wizards aufwendig sein (Bevan et
al., 2006).
Zeitaufwand
Gering bis hoch

Je nach Anwendungsfall und Anzahl der Teilnehmer kann der Zeitaufwand variieren.
(Maulsby et al., 1993)
Bei komplexen System kann das Training des/der Wizards aufwendig sein (Bevan et
al., 2006).
Das System glaubwürdig zu machen ist sehr aufwendig, oft sind hierfür 20-40 Pilottests notwendig. Besonders das Erstellen vorgefertigter Menübausteine kostet viel
Zeit (Dahlbäck, Jönsson, & Ahrenberg, 1993).


4. Vorgehensweise
1 Ausführender, der den Teilnehmer in den Test einführt und beobachtet, 1 Wizard
Je nach Komplexität des Systems können mehrere „Wizards“ erforderlich sein
(Maulsby, Greenberg, & Mander, 1993)
Vorbereitung








Durchführung




Nachbereitung/
Auswertung




Entwicklung des simulierten Nutzerinterfaces für das technische System (Bevan et al., 2006)
Entwicklung eines detaillierten Testplans mit Instruktionen für den Teilnehmer, den „Wizard“ und sonstige
Beteiligte (Bevan et al., 2006).
Aufgaben, die die Teilnehmer durchführen sollen sind zu definieren (Riek, 2012).
Repräsentative Endnutzer sind zu rekrutieren.
Der „Wizard“ muss in der Lage sein, die Interaktionen des Teilnehmers in Echtzeit zu verfolgen, um darauf
zu reagieren.
Der Prototyp muss so gestaltet sein, dass der „Wizard“ in der Lage ist schnell auf die Eingabe des Anwenders zu reagieren.
Der „Wizard“ ist zu trainieren (Bevan et al., 2006).
Pilot-Tests sind durchzuführen um das System zu testen damit der „Wizard“ Erfahrungen sammeln kann
(Bevan et al., 2006).
Der Teilnehmer wird begrüßt
Er wird darüber informiert, dass es sich bei dem System um einen frühen Prototyp handelt, dessen Performance noch nicht optimiert ist.
Der Teilnehmer wird über seine Aufgaben informiert.
Der Teilnehmer führt Aufgaben an dem System durch. Der „Wizard“ beobachtet den Teilnehmer und
simuliert in Echtzeit die Systemantworten.
Die Teilnehmer sollten nach der Durchführung der Tests über die Untersuchung aufgeklärt werden. Die
Funktion des „Wizard“ ist ihnen darzulegen, sowie der Grund dafür, warum diese Versuchsanordnung gewählt worden ist. So können ethische Bedenken, wegen einer Täuschung der Teilnehmer entkräftet werden (Bevan et al., 2006; Riek, 2012).
Die Daten der Studie werden ausgewertet.
Verbesserungen können aus den Ergebnissen abgeleitet werden.
5. Praxis-Tipps
Praxis-Tipps
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen:
Nach der Durchführung und Auswertung der Methode können die Verbesserungen am Prototyp vorgenommen werden. Die Prozedur des Testens kann wiederholt werden (Bevan et al., 2006).
folgendes zu bewerten:


Interaktion
Benutzererfahrung



Physikalisches Produkt
Software
Integriertes Produkt



Physikalisches Produkt
Software
Integriertes Produkt
7. Verwandte
Verwandte MePrototyping, Usability Test
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfolgende Methoden/
Tätigkeiten
Usability-Methodenkatalog
120
Kategorie
Kriterium
Wizard of Oz
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Es können Bedienschnittstellen (z.B. Sprach- oder Gestensteuerungen) getestet werden, obwohl diese noch
nicht in das System integriert sind.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Hintergrundinformationen über die Ursprünge der Methode, unterschiedliche Anwendungsvarianten sowie
Beispiele von konkreten Anwendungen können dem Wiki des Uselab-Projektes der TU Berlin entnommen
werden:
http://www.uselab.tu-berlin.de/wiki/index.php/Wizard_of_Oz_Szenarien
Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Das Paper “Prototyping an Intelligent Agent through Wizard of Oz” beschreibt die praktische Anwendung der
Methode am Beispiel eines intelligenten Nutzerinterfaces (IUI): (englisch)
http://grouplab.cpsc.ucalgary.ca/grouplab/uploads/Publications/Publications/1993-Woz.CHI.pdf
Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of Oz.
Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215
Zu beachtende
Normen und
Zertifikate
Quellen
Bevan, N., Wilson, C., Chung, S., DeBoard, D., & Herzon, C. (2006). Wizard of Oz. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/wizard-of-oz
Dahlbäck, N., Jönsson, A., & Ahrenberg, L. (1993). Wizard of Oz studies — why and how. Knowledge-Based
Systems, 6(4), 258–266. doi:10.1016/0950-7051(93)90017-N
Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of Oz.
Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Riek, L. (2012). Wizard of Oz Studies in HRI: A Systematic Review and New Reporting Guidelines. Journal of
Human-Robot Interaction, 119–136. doi:10.5898/JHRI.1.1.Riek
UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von
http://www.usabilitynet.org/tools/list.htm
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Usability-Methodenkatalog
121
4.5 Usability-Test mit Nutzern
4.5.1 Usability-Test
Kategorie
Kriterium
Usability-Test
1. Bezeichnung
Name
Usability-Test
Synonyme
Nutzertest, Benutzbarkeitstest, Usability Testing
2. Beschreibung
Kurzbeschreibung Bei einem Usability-Test führen Probanden realistische Aufgaben mit dem zu untersuchenden Produkt aus und
werden dabei von Usability-Experten beobachtet. Aufgrund der Beobachtungen der Experten, der Äußerungen der Testpersonen sowie sonstiger Messungen werden Usability-Probleme identifiziert und Verbesserungsmöglichkeiten abgeleitet.
Abbildungen
Ziele



Gewinnung von Gestaltungs- und Verbesserungsvorschlägen (Sarodnick & Brau, 2011)
Analyse von Schwachstellen (Sarodnick & Brau, 2011)
Beurteilung eines oder mehrerer Systeme hinsichtlich Leistung oder Güte (siehe auch Methodenbeschreibung A/B-Testing Kapitel 0) (Sarodnick & Brau, 2011)
Ergebnisse/
Output

Bericht mit priorisierten Usability-Problemen samt Handlungsempfehlungen
Vorteile

Es werden unmittelbare Einblicke in die Interaktion eines Anwenders mit einem Produkt ermöglicht. So
können reale Nutzungsprobleme abgeleitet werden (Nielsen, 1993).
Es können sowohl qualitative als auch quantitative Test durchgeführt werden (Quirmbach, 2013).
Probleme in der Verwendung eines Produktes werden schnell deutlich (Richter & Flückiger, 2010).
Die Bedeutung von Usability Engineering wird unmittelbar ersichtlich (Richter & Flückiger, 2010).



Nachteile/
Grenzen







Projektphase(n)
Die Vorbereitung und Durchführung ist meist sehr zeitintensiv (Quirmbach, 2013).
Meist muss ein Usability-Labor gemietet werden, was die Kosten der Anwendung erhöht (Quirmbach,
2013).
Da die Anwendung teuer und zeitintensiv ist, können meist nur kleine Stichproben genommen werden
(Quirmbach, 2013).
Probanden reagieren aufgrund ihrer starken Motivation anders als in der realen Nutzungssituation. Sie
geben sich bei dem mehr Mühe, obwohl sie in der normalen Alltagssituation schon aufgegeben hätten (Jacobsen, 2007).
Probanden können Hemmungen haben Kritik zu äußern, weil sie die Verantwortlichen nicht verletzen
wollen (Jacobsen, 2007).
Personen können aufgrund der Beobachtungssituation nervös sein und sich andern verhalten als unter
normalen Umständen (Jacobsen, 2007).
Es kann nur schwer getestet werden, wie Nutzer nach mehrmaliger Verwendung des Produkts mit diesem
umgehen (Jacobsen, 2007).
Konzeption,
Umsetzung,
Betrieb




3. Rahmenbedingungen &
Ressourcen
Anzahl
3-8
(Jacobsen, 2007;
Nielsen, 2000)


Teilnehmer

Getestet werden kann bereits an Prototypen, allerdings sollten die Systemfunktionalitäten im für die Aufgabenbearbeitung nötigen Bereich möglichst vollständig und das
Systemverhalten möglichst realitätsgerecht sein (Sarodnick & Brau, 2011).
Bei einfachen Prototypen, die früh in der Entwicklung erstellt werden, fällt es Probanden oft leichter grundsätzliche Aspekte zu kritisieren und sich nicht nur auf die Ebene
des Designs zu beziehen (Rosson & Carroll, 2002 nach Sarodnick & Brau, 2011).
Usability-Test sollten nicht zu spät im Entwicklungsprozess durchgeführt werden, da
Änderungen am System dann sehr zeitaufwendig und kostenintensiv sind (Sarodnick
& Brau, 2011).
Es bietet sich an mehrere Testrunden in verschiedenen Projektphasen durchzuführen
(Jacobsen, 2007).
Mit 5 Probanden lassen sich über 75 % der Usability Probleme finden (Nielsen, 2000)
Je nach Einsatzfeld kann die Einbeziehung von mehr als 8 Probanden sinnvoll bzw.
notwendig sein. Die kann beispielsweise bei Systemen der Fall sein, bei denen möglichst alle Fehler gefunden werden sollten, z.B. in der Medizintechnik oder wenn mit
quantitativen Daten gearbeitet werden soll (Sarodnick & Brau, 2011).
Es sollte keine Testrunde mit weniger als 3 Teilnehmern durchgeführt werden, da
sonst die Gefahr besteht, dass das Produkt für einen Benutzer optimiert wird, der
nicht repräsentativ ist (Jacobsen, 2007).
Art
(Repräsentative) Endnutzer
Rolle


Einbeziehung
Usability-Methodenkatalog


Wird beobach- 
tet
Ggf. wird
befragt
Im Anschluss an die Durchführung kann der Teilnehmer befragt werden z.B. mittels
Interview oder Fragebogen.
Physikalische Einbeziehung
Ggf. „Remote“ (Remote-Usability-Test, siehe Praxis-Tipps)
122
Kategorie
Kriterium
Anzahl
Usability-Test
1-3+
(Jacobsen, 2007;
Sarodnick & Brau,
2011)


Anwender


Rolle
Organisator, Beobachter, ggf. Interviewer, Analyst,
Erforderliche 
Kompetenzen

Wissen und Erfahrung mit Usability-Test sind hilfreich und führen zu besseren Resultaten, sind aber nicht
erforderlich um Probleme aufzudecken (Jacobsen, 2007)
Die Person, die die Beobachtung des Probanden durchführt, muss in das zu testende System eingearbeitet
sein, um jederzeit die Handlungen der Testperson beurteilen zu können (Sarodnick & Brau, 2011).
Werkzeuge,
Hilfsmittel



Aufzeichnungsgeräte, z.B. Videokamera, Mikrofon
Ggf. Eye-Tracking Hard- und Software
Ggf. Mouse-Tracking Software
Ort/Umgebung

Ggf. natürliche 
Nutzungsumgebung
Ggf. simulierte 
Nutzungsumgebung
Usability Labor
Ggf. Schreib
tisch



Meist ist eine Durchführung im Usability Labor vorteilhaft, da so standardisierte Bedingungen geschaffen werden können, die für eine Vergleichbarkeit notwendig sind
(Sarodnick & Brau, 2011).
Bei induktiven Tests, also solche die zur entwicklungsbegleitenden Bewertung verwendet werden, kann es sinnvoll sein, die natürliche Nutzungsumgebung als Durchführungsort zu verwenden (Feld Usability-Test), um die Einflüsse in die Untersuchung
mit einzubeziehen und ggf. Störende Aspekte durch Systemveränderungen zu beheben oder abzuschwächen (Sarodnick & Brau, 2011).
Im Falle eines Remote Usability-Test führt der Teilnehmer die Tests vom eigenen
Schreibtisch aus durch.
Kosten
Gering bis hoch


Ca. 15000 bis 25000 € (CHeval, 2013)
Mindestens 3000 € pro Testrunde, falls der Test durch externe Usability-Experten
durchgeführt wird (Jacobsen, 2007)
Zeitaufwand
Mittel bis hoch

Zeitaufwand für einen formalen Usability-Test im Labor mit 5-7 Probanden: ca. 10
Personentage (Richter & Flückiger, 2010)
Maximaler Zeithorizont: 4 bis 6 Wochen (CHeval, 2013)
Die Testdauer sollte pro Teilnehmer maximal 45 Minuten betragen. (Jacobsen, 2007)


4. Vorgehensweise
1 Moderator, der die hauptsächliche Kommunikation mit der Testperson übernimmt,
während der Durchführung beim Probanden im Raum ist, ihn beobachtet, durch den
Test leitet und bei Bedarf Hilfestellungen gibt; ggf leitet die Person im Anschluss das
Interview (Sarodnick & Brau, 2011)
Ggf. 1 Ausführender, der die technischen Geräte wie Kameras, Screen-Recording und
Licht bedient und überwacht (Sarodnick & Brau, 2011).
Ggf. 1-2 Personen, die ein Beobachtungsprotokoll erstellen, um die Auswertung der
aufgezeichneten Daten zu verkürzen; ggf. ist Videomaterial für ein Videofeedback
vorzubereiten (Sarodnick & Brau, 2011)
Ggf. können weitere Personen (z.B. Vertreter des Auftraggebers, Entwickler, UsabilityExperten) aus einem separaten Raum heraus an der Beobachtung teilnehmen (Richter
& Flückiger, 2010)
Vorbereitung







Usability-Methodenkatalog
Festlegen, was mit der Durchführung der Methode erreicht werden soll (Sarodnick & Brau, 2011)
Welche Art des Usability-Tests soll verwendet werden (vgl. Praxis-Tipps)? (Sarodnick & Brau, 2011).
Planen der Durchführung der Methode
 Welche Werkzeuge/Hilfsmittel sollen verwendet werden?
 Sollen weitere Methoden integriert werden, z.B. Lautes Denken, Fragebogen, Interview, Eye-Tracking,
Mouse-Tracking (vgl. Durchführung)?
 Definition von Aufgaben, die die Teilnehmer während des Tests durchführen. Hierbei ist wichtig, dass
die Testaufgaben mit den realen Aufgaben aus der Praxis übereinstimmen sollten, um die Aussagekraft der Ergebnisse sicherzustellen. Zur Bestimmung der Aufgaben kann eine Aufgabenanalyse (vgl.
Kapitel 4.2.4) durchgeführt werden.
Die Aufgaben sollten den Probanden während der Durchführung in schriftlicher Form zur Verfügung
stehen (Sarodnick & Brau, 2011).
 Welche und wie viele Teilnehmer sollen einbezogen werden? Die gewählten Teilnehmer sollten die
spätere Nutzergruppe repräsentieren.
 Zeitliche, räumliche und ggf. personelle Planung der Durchführung
Rekrutieren von Probanden
Vorbereiten des zu prüfenden Produktes
Bereitstellen, einrichten und testen der verwendeten Werkzeuge und Hilfsmittel.
Durchführen eines Vorabtests, die Hardware auf der das Produkt getestet wird zu überprüfen und zu
kontrollieren, ob die veranschlagte Zeit für die Durchführung realistisch ist (Jacobsen, 2007; Sarodnick
& Brau, 2011).
123
Kategorie
Kriterium
Usability-Test
Durchführung









Nachbereitung/
Auswertung







Usability-Methodenkatalog
Vor der Durchführung sollten den Teilnehmern genau mitgeteilt werden, was sie im Test erwartet, um
Ängste und Stress abzubauen und die Schaffung einer angenehmen Testatmosphäre zu schaffen. Außerdem ist den Probanden das Ziel des Usability-Tests darzustellen und sie über die Nutzung der Ergebnisse zu
informieren. (Sarodnick & Brau, 2011)
Das Einverständnis der Teilnehmer für die Video- und Audioaufzeichnung ist einzuholen (Sarodnick & Brau,
2011).
Die Teilnehmer haben die Möglichkeit Fragen zu stellen (Sarodnick & Brau, 2011).
Überreichen der Aufwandsentschädigung. Diese sollte zwischen 25 und 60 € (je nachdem wie viel die
Teilnehmer verdienen, ein Student erhält weniger als ein Arzt) liegen für eine Testsitzung von 45 bis 60 Minuten. Durch die Überreichen vor der Durchführung soll Vertrauen in den Probanden vermittelt werden
und zeigen, dass die Bezahlung unabhängig von der Leistung ist. (Jacobsen, 2007)
Smalltalk um die Atmosphäre aufzulockern und die Vorkenntnisse des Probanden zu erfragen (Jacobsen,
2007).
Der Nutzer führt die festgelegten Arbeitsaufgaben durch (Sarodnick & Brau, 2011).
Die Usability Experten beobachten den Nutzer (Sarodnick & Brau, 2011).
 Ggf. kann die Methode des lauten Denkens (vgl. Kapitel 4.5.2) von der Testperson angewendet werden (Sarodnick & Brau, 2011).
 Ggf. können die Methoden Eye-Tracking (vgl. Kapitel 4.5.3) und/oder Mouse-Tracking (vgl. Kapitel
4.5.4) verwendet werden
 Ggf. kann die Beobachtung durch die Erstellung von Eingabeprotokollen (Logfiles) unterstützt werden. Hierbei werden alle Interaktionen des Probanden mit dem System aufgezeichnet. So lassen sich
die Handlungen der Teilnehmer und deren Reihenfolge genau nachvollziehen. Allerdings ist die Vorbereitung des Einsatzes mit großem Aufwand verbunden. (Sarodnick & Brau, 2011)
 Ggf. können Zeit- und Fehlerdaten aufgenommen werden. Hierbei kann unteranderem untersucht
werden, wie lange Probanden für die Bearbeitung einer Aufgabe mit dem System brachen. Zu beachten ist, dass eine gleichzeitige Verwendung des Lauten Denkens nicht möglich ist. (Sarodnick & Brau,
2011)
 Es werden Notizen vom Moderierenden oder von einem Protokollant gemacht und so das Beobachtete festgehalten. Das Protokoll erleichtert die Auswertung der aufgezeichneten Daten. Notiert werden
sollte (Jacobsen, 2007 S. 217):
 Konnte die Aufgabe erfolgreich abgeschlossen werden?
 Brauchte die Testperson Hilfe?
 Hatte die Testperson Probleme mit Begriffen, Funktionen oder Abbildungen?
 Wie lange hat die Aufgabe gedauert?
 Gab es technsiche Probleme?
 Weitere Beobachtungen wie Anmerkungen, Wünsche oder Emotionen der Teilnehmer.
 Der Test sollte nach Ablauf einer Vorgegeben Zeit (max. 45 Minuten) oder nach dem Bearbeiten aller
Aufgaben abgebrochen bzw. abgeschlossen werden (Jacobsen, 2007).
 Die Testperson hat die Möglichkeit Kritik offen zu äußern und Verbesserungsvorschläge für das Produkt zu machen (Jacobsen, 2007).
Ggf. Befragung im Rahmen eines Interviews (vgl. Kapitel 4.3.1) oder eines Fragebogens (vgl. Kapitel 4.3.3):
 Der Nutzer wird zu ausgewählten Situationen oder Schwierigkeiten befragt und seine subjektive Beurteilung des Systems erhoben. Hierzu kann auch ein Videofeedback verwendet werden, bei dem ausgewählte Videoausschnitte mit dem Probanden besprochen werden. (Nielsen, 1993; Sarodnick & Brau,
2011)
 Beeinflussende Faktoren wie z.B. die Vorerfahrung des Teilnehmers werden ermittelt (Sarodnick
& Brau, 2011).
Bedanken beim Teilnehmer und Verabschiedung
Auswertung der erhobenen Daten, z.B. Video- und Audiodaten, Logfiles, Screenrecording-Daten, Daten
aus der Befragung (Sarodnick & Brau, 2011)
 Analyse der Videoaufzeichnungen, um das Nutzerverhalten im Detail zu analysieren und verpasst oder
zu schnelle Sequenzen auszuwerten. Eine ausführliche Auswertung des gesamten Videomaterials ist allerdings sehr aufwendig und sollte nicht durchgeführt werden. (Nielsen, 1993; Sarodnick & Brau, 2011)
 Erstellung eines Auswertungsrasters, in dem sich Probleme und Schwierigkeiten aller Testpersonen systematisch und übersichtlich zusammengeführt sind (Rautenberg et al., 1994 nach Sarodnick & Brau,
2011).
Ggf. können aufgrund der aufgezeichneten Daten Zeitmessungen durchgeführt werden (Sarodnick
& Brau, 2011).
Erstellen eines Berichts, in dem die identifizierten Probleme aufgeführt und priorisiert sind.
 Es sollten auch positive Aspekte dargestellt werden.
 Für jedes Problem ist eine konkrete Handlungsempfehlung anzugeben (Sarodnick & Brau, 2011).
 Die Probleme und Schwachstellen können mit Screenshots verdeutlicht werden (Richter & Flückiger,
2010).
 Die Aufgaben der Probanden sind beizufügen (Richter & Flückiger, 2010).
 Beobachtete Probleme sowie persönliche Meinungen und Vorschläge sollten klar voneinander unterscheidbar sein (Richter & Flückiger, 2010).
 Bei der Erstellung des Ergebnisberichts kann sich an dem standardisierten Common Industry Format
(CIF), das in der ISO/IEC 25062 festgelegt ist, orientiert werden (Sarodnick & Brau, 2011).
Die gemachten Videoaufzeichnungen lassen sich den Entwicklern präsentieren, um identifizierte Probleme
zu verdeutlichen (Sarodnick & Brau, 2011).
Im Team sollten die Probleme besprochen und die Schwere nochmals diskutiert werden (Jacobsen, 2007).
Beheben der Probleme, je nach Priorität bzw. nach dem Verhältnis von Nutzen und Aufwand (Jacobsen,
2007).
Planen einer weiteren Testrunde, in der überprüft wird, ob alle gefundenen Probleme beseitigt wurden
(Jacobsen, 2007).
124
Kategorie
Kriterium
Usability-Test
5. Praxis-Tipps
Praxis-Tipps
Tipps:












Bei der Rekrutierung der Probanden sollte darauf geachtet werden, dass diese nach Möglichkeit das zu
testende Produkt nicht schon kennen. Anderenfalls werden viele Probleme nicht auftreten bzw. würden
umgangen werden (Sarodnick & Brau, 2011).
Die erste Aufgabe des Tests sollte sehr einfach sein, damit der Proband mit einem Erfolgserlebnis den Test
beginnt (Sarodnick & Brau, 2011).
Alle weiteren Aufgaben sollen einen mittleren Schwierigkeitsgrad haben, so dass die Bearbeitung nicht
trivial, aber auch nicht zu schwierig ist (Richter & Flückiger, 2010).
Die Aufgabenbeschreibung für die Probanden soll so formuliert sein, dass Begriffe und Bezeichnungen, die
beim zu testenden Produkt (z.B. der Website oder der Softwareanwendung) vorkommen, vermieden werden. Beispielsweise ist die neutrale Formulierung „Sie überweisen den Betrag von…“ besser als „gehen Sie
im Menü auf Einzahlungen“. (Richter & Flückiger, 2010 S. 61) .
Falls der Test in einem Usability-Labor durchgeführt wird, bietet es sich an, eine simulierte Nutzungsumgebung zu erzeugen, um die Umgebungsfaktoren in der Evaluation angemessen zu berücksichtigen
(Sarodnick & Brau, 2011).
Allgemein sollte eine angenehme Testatmosphäre geschaffen werden, um den Stress der Probanden, der
durch die Situation des Arbeitens unter Beobachtung entsteht, zu verringern (Sarodnick & Brau, 2011).
Finden die Tests in einem Labor mit separatem Beobachtungsraum statt, können sich die Produktentwickler dabei einen sehr guten Überblick über die Benutzung ihres Produktes verschaffen. Die Produktmanager
können sich währenddessen über ihre Beobachtungen untereinander in Ruhe austauschen, ohne dass dies
die Probanden mitbekommen. (Quirmbach, 2013 S. 107)
Vor der Durchführung sollte den Probanden mitgeteilt werden, dass es sich bei dem zu testenden Produkt
nicht um das endgültige System handelt, sondern für Weiterentwicklungen genutzt werden. Anderenfalls
können falsche Erwartungen erzeugt werden und die Akzeptanz der Testpersonen gefährdet werden.
(Sarodnick & Brau, 2011)
Den Probanden ist ebenfalls vor der Durchführung mitzuteilen, dass das Produkt und nicht sie getestet
werden (Jacobsen, 2007).
Die beobachtende Person darf nicht zu früh in die Handlungen des Probanden eingreifen, falls dieser nicht
weiter kommt, da hierdurch die Ergebnisse verfälscht werden können. Zu spätes Helfen kann allerdings zu
Frustration beim Probanden führen. Der Ausführende sollte daher bei Bedarf mit vorsichtigen Hinweise
schrittweise eingreifen. Es sollte dabei immer betont werden, dass das die Testperson alles richtig gemacht
hat und die Probleme dabei helfen das Produkt zu verbessern. Bei quantitativen Messungen dürfen keine
Hilfestellungen gegeben werden, da sonst die Aussagekraft der Ergebnisse nicht mehr gegeben ist. (Nielsen, 1993; Sarodnick & Brau, 2011)
Dem Teilnehmer sollte bei der Verabschiedung das Gefühl gegeben werden entscheidend dazu beigetragen zu haben, das Produkt zu verbessern (Jacobsen, 2007).
Der Bericht sollte möglichst kurz sein, um zu erreichen, dass ihn alle Beteiligen lesen (Jacobsen, 2007).
Varianten:


6. Zweck
Induktiver/deduktiver Usability-Test (Sarodnick & Brau, 2011 S. 163 f.):
 Ein induktiver Test dient der formativen Evaluation, wird also entwicklungsbegleitend an einem Prototyp oder einer Vorabversion durchgeführt.
 Ein deduktiver Usability-Test dient der summativen Evaluation und wird am fertigen Produkt durchgeführt. Es werden mehrere Alternativen miteinander verglichen, ein einzelnes System in seiner Leistungsfähigkeit beurteilt oder die erreichten Verbesserungen bei der Entwicklung kontrolliert.
Remote-Usability-Test (Online-Usability-Test): Bei dieser Variante der Methode findet die Durchführung
nicht im Usability-Labor, sondern z.B. bei der Testperson zu Hause statt. Der Testleiter ist räumlich getrennt
vom Durchführungsort. Man unterscheide zwei Durchführungsarten, den synchronen und den asynchronen Test. (Sarodnick & Brau, 2011)
 Beim synchronen Remote-Usability-Test führt der Proband die Ausgaben mit dem System durch und
wird zur gleichen Zeit vom Testleiter beobachtet, z.B. per Video- und Bildschirmübertragung. Der Testleiter kann so direkt durch den Test leiten und den Probanden ggf. auch befragen. Mit dieser Form des
Tests kann auf einfach Weise eine räumliche Distanz zwischen den Probanden und dem Testleiter
überwunden werden. Es wird kein Usability-Labor benötigt und es können auch schwer erreichbare
Nutzergruppen eingebunden werden. Hinzu kommt der Vorteil, dass so Tests in der natürlichen Nutzungsumgebung, und mit der realen Hardware durchgeführt werden können. (Sarodnick & Brau,
2011)
 Bei der asynchronen Variante findet zusätzlich zu der räumlichen Trennung auch eine zeitliche Trennung zwischen der Durchführung der Aktionen der Probanden und der Sichtung und Auswertung der
Daten durch den Testleiter statt. Die Probanden führen die Aufgaben mit dem System durch und die
Bildschirminhalte werden aufgezeichnet und übermittelt. Es finden keine Videoaufzeichnungen statt.
Zusätzlich zu der Durchführung der Aufgaben können die Probanden mittels Fragebogen befragt
werden. Vorteile dieses Verfahrens sind, dass der Proband die Zeit für die Durchführung selbst festlegt
und dass viele Probanden damit erreicht werden können. Mit einer großen Stichprobe lassen sich auch
quantitative Fragestellungen beantworten. Allerdings sind keine Zwischenfragen durch den Testleiter
möglich, und so kann auf unerwartete Handlungen des Teilnehmers nicht reagiert werden. Die Methode ist eher als Ergänzung zu einem Usability-Test im Labor anzusehen, als zum Ersatz. (Sarodnick
& Brau, 2011)
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu erstellen:
folgendes zu bewerten:
Usability-Methodenkatalog


Interaktion
Benutzererfahrung



Physikalisches Produkt
Software
Integriertes Produkt



Physikalisches Produkt
Software
Integriertes Produkt
125
Kategorie
Kriterium
Usability-Test
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche voranAufgabenanalyse, Personas, Szenarien
gegangene Methoden/Tätigkeite
n
Mögliche nachfol- 
gende Methoden/ 
Tätigkeiten
Befragungsmethoden
Heuristische Evaluation: Falls sich in besonders schwierigen Fällen die Relevanz von Problemen bzw. Verbesserungsvorschlägen nicht beurteilen lässt (Sarodnick & Brau, 2011).
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Auffinden von Aspekten, die die Gebrauchstauglichkeit von Webseiten, Software oder auch von physikalischer
Produkte einschränken.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
In dem Buch „Methoden der Usability Evaluation“ von Sarodnick & Brau, (2011) sind ausführliche Informationen über Usability-Tests gegeben sowie eine beispielhafte Durchführung der Methode beschrieben.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Zu beachtende
Normen und
Zertifikate
Bei der Erstellung des Ergebnisberichts kann sich an dem standardisierten Common Industry Format (CIF), das
in der ISO/IEC 25062 festgelegt ist, orientiert werden.
Quellen
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers.
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln
(2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Usability-Methodenkatalog
126
4.5.2 Lautes Denken
Kategorie
Kriterium
Lautes Denken (Thinking Aloud)
1. Bezeichnung
Name
Lautes Denken
Synonyme
Thinking Aloud, Think Aloud Testing
2. Beschreibung
Kurzbeschreibung Beim „Lauten Denken“ geht es darum, dass eine Testperson bei der Interaktion mit einem System (z.B. Webseite, Software) laut denkt und dadurch ihre Gedanken, Emotionen, Absichten, Handlungen, Erwartungen und
Meinungen verbalisiert. Die Äußerungen des Teilnehmers werden protokolliert. Probleme, die die Testperson
bei der Interaktion hatte, werden aufgespürt.
Abbildungen
Ziele


Analyse von Nutzererfahrungen
Probleme der Nutzer bei der Interaktion mit einem System (z.B. Webseiten oder Software) aufspüren
Ergebnisse/
Output


Liste mit Problemen, die Nutzer bei der Verwendung eines Systems hatten
Von den Teilnehmern verwendete Wörter können als Anregungen für die Benennung von Labels (z.B.
Buttons, Links usw.) verwendet werden (Uselab, 2015).
Vorteile

Es bringt sowohl die Probleme, die ein Nutzer mit einem System hat zutage, als auch warum diese Probleme auftreten (Jordan, 1998).
Mit nur fünf Teilnehmern können schon viele hilfreiche Informationen gewonnen werden. (Jordan, 1998)
Günstige Methode, da kein spezielles Equipment benötigt wird (Nielsen, 2012b)
Leicht zu erlernen: ein Tag Grundlagen erlernen; drei Tage „Learning-by-Doing“ (Nielsen, 2012b)
Leicht anzuwenden: auch mit geringen Moderationskenntnissen können brauchbare Ergebnisse erzielt
werden (Nielsen, 2012b)
Flexibel anwendbar: lässt sich in jeder Phase der Produktentwicklung einsetzen (Nielsen, 2012b)
Stellt einen guten „Ersten Schritt“ in das Thema Usability dar und kann zur Verwendung weiterer Maßnahmen überzeugen (Nielsen, 2012b)






Nachteile/
Grenzen





Anwender
3. Rahmenbedingungen & Ressourcen
Teilnehmer
Projektphase(n)
4. Vorgehensweise
Die Doppelbelastung der Aufgabenbearbeitung und Verbalisierung kann negative Effekte auf die Aufgabenperformanz haben. Daher kann die Methode nicht bei gleichzeitiger Zeitmessung der Aufgabenbearbeitung verwendet werden. (Jordan, 1998; Sarodnick & Brau, 2011; van den Haak, Maaike, Jong, & Jan
Schellens, 2003)
Nur schwer bei Programmen mit Sprachsteuerung bzw. auditivem Feedback anwendbar (Nielsen, 2012b)
Methoden wie der Cognitive Walkthrough oder die Heuristische Evaluation bringen signifikant mehr Auskünfte (Frøkjær & Hornbæk, 2008)
Es wird eine unnatürliche Testsituation erzeugt, in der die Teilnehmer ganz besonders auf das Finden von
Fehlern fokussiert sind. (Uselab, 2015)
Die Ergebnisse hängen stark von der Fähigkeit der Versuchsperson, sich zu artikulieren ab (Arndt, 2006).
Alle
Lässt sich in allen Phasen der Produktentwicklung anwenden (Nielsen, 2012b; Uselab,
2015). Um die Hauptvorteile der Methode nutzen zu können ist es notwendig, dass zumindest ein interaktiver Prototyp vorhanden ist (Jordan, 1998).
Anzahl
5 (Nielsen, 2000)
Art
Endnutzer
Rolle
Wird beobachtet
Einbeziehung
Physikalische Einbeziehung
Anzahl
1
Rolle
Beobachter, Moderator, Protokollant
Erforderliche Keine, nach Einarbeitung in die Grundlagen durchführbar (Nielsen, 2012b)
Kompetenzen
Werkzeuge,
Hilfsmittel


Schreibmaterial
Ggf. Aufzeichnungsgerät (z.B. Videokamera, Diktiergerät, Screencapture-Software) (Nielsen, 1994a)
Ort/Umgebung





Natürliche Nutzungsumgebung
Simulierte Nutzungsumgebung
Usability Labor
Tagungsraum
Schreibtisch
Kosten
Gering
(Nielsen, 2012b)
Zeitaufwand
Gering
Vorbereitung



Usability-Methodenkatalog
Ca. 1 Tag für die Durchführung mit 5 Teilnehmern (Nielsen, 2012b)
Rekrutieren repräsentativer Nutzer (Nielsen, 2012b)
Bei der Verwendung von technischen Aufzeichnungsgeräten (z.B. Tonbandgerät) sollte zunächst ein
Probedurchlauf durchgeführt werden (Nørgaard & Hornbæk, 2006).
Instruktionen für die Teilnehmer erstellen und bereitlegen (Uselab, 2015)
127
Kategorie
Kriterium
Lautes Denken (Thinking Aloud)
Durchführung


Der Teilnehmer wird begrüßt. Mit etwas Smalltalk soll eine angenehme Atmosphäre geschaffen werden
(Uselab, 2015).
Den Teilnehmer über das Vorhaben informieren (Ziel und Dauer der Untersuchung; ggf. Aufzeichnungsmethode erläutern und Einverständniserklärung unterschreiben lassen) (Uselab, 2015)
Den Teilnehmer über die Durchführung informieren (Gedanken, Gefühle, Handlungen etc. laut äußern)
und ggf. ein Video von einer vorherigen Durchführung vorführen, damit der Proband einen Eindruck vom
Ablauf der Methode bekommt (Nielsen, 2012b; Uselab, 2015).
Probedurchlauf mit der Bearbeitung einer Übungsaufgabe. Der Teilnehmer soll sich so an das laute Denken
gewöhnen. Im Anschluss ist ihm ein kurzes Feedback zu geben (Uselab, 2015).
Dem Teilnehmer die Instruktionen aushändigen. (Uselab, 2015) Ein Beispiel für das Instruktionsschreiben ist
auf der Usabilityplattform der TU Berlin gegeben: http://www.uselab.tuberlin.de/wiki/images/4/46/Instriction.png
Der Teilnehmer beginnt die Aufgaben zu bearbeiten und spricht seine Gedanken laut aus. Der Ausführende kann bei längeren Stillephasen zum Sprechen ermutigen (Jordan, 1998).
Aufgetretene Probleme werden kategorisiert, gewichtet und bewertet (Uselab, 2015).

Transkription der Notizen und ggf. der durchgeführten Aufnahmen (Uselab, 2015)





Nachbereitung/
Auswertung
5. Praxis-Tipps
Praxis-Tipps
Tipps:



Der Ausführende sollte den Teilnehmer so wenig wie möglich bei der Durchführung der Methode beeinflussen (keine zusätzlichen Informationen oder Hilfestellungen geben) (Ericsson & Simon, 1993).
Es sollte für eine angenehme und freundliche Atmosphäre gesorgt werden, um den Teilnehmern Hemmungen zu nehmen (Uselab, 2015)
Der Teilnehmer sollte darauf hingewiesen werden, dass nicht er, sondern das System getestet wird (Uselab,
2015).
Varianten:



6. Zweck
Co-discovery Method: Zwei Teilnehmer testen gleichzeitig ein System. Die Testsituation wird dadurch
natürlicher, da Menschen das laute Denken gewohnt sind, wenn sie gemeinsam Probleme lösen. Es sind allerdings mehr Testpersonen und größere Räumlichkeiten notwendig. (Nielsen, 1993)
Retroperspective Testing: Der Teilnehmer führt eine Tätigkeit aus, die aufgezeichnet wird, ohne diese
direkt zu kommentieren. Im Nachhinein wird dem Teilnehmer die Aufnahme gezeigt und er kommentiert
rückwirkend seine Gedanken. Hierdurch findet während der Tätigkeit keine Doppelbelastung statt, die
Durchführung der Methode ist allerdings zeitintensiver. (Nielsen, 1993)
Coaching Method: Der Teilnehmer kann während der Durchführung der Methode systembezogene Fragen
stellen, die sofort beantwortet werden. Der Ausführende greift bei dieser Variante mehr in die Durchführung ein. (Nielsen, 1993)
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
es das Ziel ist…
folgendes zu bewerten:
Daten…


Interaktion
Benutzererfahrung






Ideen & Konzepte
Physikalisches Produkt
Software
Integriertes Produkt
Dienstleistung
Umgebung/Ort

zu kommunizieren
7. Verwandte
Verwandte MeEye-tracking
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfol- Gewichtete Punktbewertung zur Auswertung der Ergebnisse (Uselab, 2015)
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Während Probanden die Gebrauchstauglichkeit von Webseiten oder Softwareanwendungen überprüfen, z.B.
im Rahmen eines Usability-Tests, kann die Methode Lautes Denken angewendet werden, um mehr über die
Test-Personen zu erfahren.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Umfangreiche Internetseite der TU Berlin mit Informationen zum Lauten Denken:
http://www.uselab.tu-berlin.de/wiki/index.php/Lautes_Denken
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
128
Kategorie
Kriterium
Lautes Denken (Thinking Aloud)
Quellen
Arndt, H. (2006). Integrierte Informationsarchitektur: Die erfolgreiche Konzeption professioneller Websites.
X.media.press. Berlin: Springer.
Ericsson, K. A., & Simon, H. A. (1993). Protocol analysis: Verbal reports as data (Rev. ed.). Cambridge, Mass.:
MIT Press.
Frøkjær, E., & Hornbæk, K. (2008). Metaphors of human thinking for usability inspection and design. ACM
Transactions on Computer-Human Interaction, 14(4), 1–33. doi:10.1145/1314683.1314688
Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis.
Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers.
Nielsen, J. (1994). Estimating the number of subjects needed for a thinking aloud test. Human- Computer
Studies, (41), 385–397. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/DG308%20DID/nielsen-1994.pdf
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Nielsen, J. (2012). Thinking Aloud: The #1 Usability Tool. Abgerufen von
http://www.nngroup.com/articles/thinking-aloud-the-1-usability-tool/
Nørgaard, M., & Hornbæk, K. (2006). What Do Usability Evaluators Do in Practice?: An Explorative Study of
Think-Aloud Testing. ACM Symposium on Designing Interactive Systems, (DIS 2006), 209–218. Abgerufen
von http://www.kasperhornbaek.dk/papers/DIS2006_UsabilityEvaluation.pdf
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
van den Haak, Maaike, Jong, M. de, & Jan Schellens, P. (2003). Retrospective vs. concurrent think-aloud protocols: Testing the usability of an online library catalogue. Behaviour & Information Technology, 22(5), 339–
351. doi:10.1080/0044929031000
Usability-Methodenkatalog
129
4.5.3 Blickbewegungsanalyse
Kategorie
Kriterium
Blickbewegungsanalyse (Eye-Tracking)
1. Bezeichnung
Name
Blickbewegungsanalyse
Synonyme
Eye-Tracking, Gaze-Tracking, Blickbewegungsmessung
2. Beschreibung
Kurzbeschreibung Probanden führen Aufgaben auf einer interaktiven Benutzeroberfläche z.B. einer Website durch. Die Blickbewegung der Probanden wird dabei mit Hilfe von technischen Hilfsmitteln erfasst und aufgezeichnet. Durch die
Analyse der aufgezeichneten Daten lässt sich die Benutzeroberfläche optimieren. Die Durchführung der Methode bietet sich besonders im Rahmen eines Usability-Tests an.
Abbildungen
Abbildung 16: Testaufbau einer Blickbewegungsanalyse (Pernice & Nielsen, 2003)
Ziele

Inhaltlich und gestalterisch Optimierungsansätze für Benutzeroberflächen/Websites erhalten.
Ergebnisse/
Output

Objektive Rückschlüsse über weitestgehend unbewusste Wahrnehmungs-, Aufmerksamkeits- und Informationsverarbeitungsprozesse der Probanden (Quirmbach, 2013).
Mittels sogenannter „Heatmaps“ oder „Opacity Maps“ kann veranschaulicht werden, welche Bereiche
betrachtet wurden.
Reihenfolge in der Objekte z.B. einer Website betrachtet werden und die Dauer der Betrachtung können
mittels Gazeplots visualisiert werden.


Vorteile







Usability-Methodenkatalog
Wird die Methode im Rahmen von Usability-Tests im Labor eingesetzt, ist die zusätzliche Aufnahme der
Blickbewegung meist nicht teuer (Quirmbach, 2013).
Liefert tiefere Kenntnisse darüber, wie Nutzer beispielsweise eine Website lesen (z.B. wo sie zuerst hinsehen) (Quirmbach, 2013)
Es zeigt sich, wo sich z.B. auf Webseiten Blickbarrieren befinden, über die Benutzer nicht hinaussehen und
dadurch ein Explorieren der restlichen Inhalte nicht stattfindet (Quirmbach, 2013).
Lässt Rückschlüsse auf die Leserlichkeit (engl. scanability) und den Lesefluss zu (Quirmbach, 2013).
Blickverläufe zeigen, ob sich Elemente an den Positionen befinden, wo der Nutzer sie vermutet, z.B. die
Login-Schaltfläche (Quirmbach, 2013).
Über die Auswertung der Blickbewegung lässt sich bei Konzept- und Designtests die Wirkung von alternativen Konzepten testen (Quirmbach, 2013).
Die Blickintensität kann über die Blickdauer, also die Zeit, die ein Proband auf einen Bereich blickt, ermittelt
werden. Zur Interpretation der Daten muss eine Nachbefragung der Probanden durchgeführt werden
(Quirmbach, 2013).
130
Kategorie
Kriterium
Blickbewegungsanalyse (Eye-Tracking)
Nachteile/
Grenzen







Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
4. Vorgehensweise
Methode ist von Laien nicht anwendbar. Erst mit Erfahrung aus ca. 100 normalen Usability-Tests sollte man
das Eye-Tracking nutzen (Pernice & Nielsen, 2003).
Hohe Anschaffungskosten da ein spezielles Gerät und Software zur Aufzeichnung und Auswertung benötigt werden.
Hohe Teilnehmeranzahl erforderlich.
Methoden wie Lautes Denken oder Befragungen sind während der Durchführung des Tests nicht möglich,
da der Proband dadurch in seinem natürlichen Blickverlauf gestört wird (Ross, 2009; Sarodnick & Brau,
2011).
Probanden können durch die Aufzeichnung der Blickbewegung in ihrem Verhalten beeinflusst werden, da
sie in einer bestimmten Position nahe dem Aufzeichnungsgerät bleiben müssen (Quirmbach, 2013; Ross,
2009; Sarodnick & Brau, 2011).
Methode kann nur ergänzend zu anderen Methoden (z.B. Interviews, Fragebogen) verwendet werden, da
nur so eine verlässliche Aussage über das Nutzerverhalten getroffen werden kann (Quirmbach, 2013;
Sarodnick & Brau, 2011).
Die Auswertung der Daten ist zeitaufwändig, da die Methode in Kombination mit Video- und Tonaufzeichnungen erfolgt. Die einzelnen Aussagen müssen mit den Daten verknüpft und richtig interpretiert
werden. (Quirmbach, 2013)
Umsetzung,
Betrieb
Eye-Tracking Studien eignen sich erst, wenn erste grafische Designs vorhanden sind.
(Usability.de, 2015)
Anzahl
6-50



Art
(repräsentative) Endnutzer
Rolle
wird beobachtet
Einbeziehung
physikalische Einbeziehung
Anzahl
1
Rolle
Organisator, Beobachter, Analyst (Auswerten der Daten und Ableiten von Verbesserungen)
50 (Lesemann und Wilms, 2007, nach Sarodnick & Brau, 2011)
falls man Heatmaps erstellen will: 39 Teilnehmer (Pernice & Nielsen, 2003)
für eine qualitative Eye-Tracking Studie: ca. 6 Teilnehmer (Pernice & Nielsen, 2003)
Erforderliche Umfassendes Wissen und Erfahrungen im Bereich Usability Testing (Pernice & Nielsen, 2003)
Kompetenzen
Werkzeuge,
Hilfsmittel



Ort/Umgebung
Usability Labor
Kosten
hoch


Hohe Anschaffungskosten von ca. 30000€ (Rakoczi, 2012)
hohe Kosten durch hohen Zeitaufwand und viele benötigten Teilnehmer
Zeitaufwand
mittel



viele Durchführungen notwendig: ca. 1,5h pro Teilnehmer (Pernice & Nielsen, 2003)
hoher Analyseaufwand (Rakoczi, 2012)
maximaler Zeithorizont: 1 Monat (Varga, o. J.)
Vorbereitung






Durchführung






Nachbereitung/
Auswertung




Usability-Methodenkatalog
Hard- und Software zur Auszeichnung und Auswertung der Blickbewegung
PC-Arbeitsplatz für die Durchführung des Tests durch den Teilnehmer
Zweiter Monitor für den Ausführenden, der den Teilnehmer beobachtet, um die Blickbewegung in Echtzeit
mitzuverfolgen.
Teilnehmer rekrutieren
Testaufgaben sind zu definieren und ggf. auszudrucken um sie den Teilnehmer .während der Durchführung zur Verfügung zu stellen. Eine Testaufgabe könnte z.B. sein, eine bestimmt Information auf einer
Website zu suchen.
Pilot-Studie durchführen, um die Nützlichkeit und Verständlichkeit der Aufgaben zu überprüfen und die
Dauer der Durchführung zu planen. (Varga, o. J.)
Eine Befragung zur Aufnahme persönlicher Daten (Älter, Geschlecht, Erfahrungen, …) ist vorzubereiten.
Eine Nachbefragung ist vorzubereiten z.B. Fragebogen.
Technische Hilfsmittel sind einzurichten und zu testen. So sind die Aufgaben beispielsweise schon in der
Eye-Tracking-Software vorzubereiten (Pernice & Nielsen, 2003).
Teilnehmer begrüßen und das Vorhaben, das Verhalten der Teilnehmer während der Durchführung sowie
die technische Einrichtung erklären (Varga, o. J.).
Befragung zur Aufnahme der persönlichen Daten (Varga, o. J.).
Der Teilnehmer sollte eine Übungsaufgabe am Testsystem durchführen um eine angenehme Sitz- und
Arbeitsposition einzunehmen (Pernice & Nielsen, 2003).
Technische Hilfsmittel zur Aufzeichnung der Blickbewegung sind an den Teilnehmer anzupassen und zu
kalibrieren
Der Teilnehmer führt die Aufgaben durch.
Zum Abschluss ist der Teilnehmer zu befragen bzw. der Fragebogen ist ihm vorzulegen (Pernice & Nielsen,
2003).
Aufgezeichnet Daten werden mit Hilfe von spezieller Software ausgewertet.
Es ist zu entscheiden auf welche Weise die Daten dargestellt werden sollen z.B. mittels Heatmaps (Varga,
o. J.).
Die Ergebnisse werden unter Einbeziehung von anderen Methoden (z.B. Interviews, Fokusgruppen, …)
interpretiert (Varga, o. J.).
Aus den Ergebnissen der Untersuchung sind Design-Optimierungen abzuleiten.
131
Kategorie
Kriterium
5. Praxis-Tipps
Praxis-Tipps
Blickbewegungsanalyse (Eye-Tracking)
Tipps:





Zusätzlich zur Blickbewegung kann auch eine Aufzeichnung der Mausbewegung und Klicks nützlich sein
(vgl. Mouse-Tracking Kapitel 4.5.4).
Teilnehmer lassen sich leichter per Telefon rekrutieren als per E-Mail (Pernice & Nielsen, 2003).
Das Usability-Labor sollte gut beleuchtet, aber nicht zu hell sein (Pernice & Nielsen, 2003).
Die Teilnehmer sollten einen Stuhl ohne Rollen und ohne Schwenk- oder Neigefunktion erhalten (Pernice
& Nielsen, 2003).
Während der Durchführung sollte sich der Ausführende, der den Teilnehmer beobachtet und die Blickbewegungen auf einem 2. Monitor verfolgt, außerhalb des Blickfeldes des Teilnehmers befinden, um den
Probanden nicht abzulenken (Pernice & Nielsen, 2003).
Varianten:

6. Zweck
Qualitative Eye-Tracking Studie: Hierbei werden keine Heatmaps betrachtet, sondern man betrachtet im
Nachhinein die Blickbewegung von jedem Teilnehmer einzeln und wertet sie individuell mit den gemachten
Notizen während der Durchführung des Tests aus. Der große Vorteil dieser Variante ist, dass nur 6 Teilnehmer benötigt werden. (Pernice & Nielsen, 2003, S. 51-52)
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu erstellen:
es das Ziel ist…
folgendes zu bewerten:

Interaktion



Physikalisches Produkt
Software
Integriertes Produkt




Physikalisches Produkt
Software
Integriertes Produkt
Umgebung/Ort
7. Verwandte
Verwandte MeAttention-Tracking, Mausbewegungsmessung, 5-Sekunden-Test (Sarodnick & Brau, 2011)
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfol- Interview, Fragebogen
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete



9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Kann zur Überprüfung der Scanability, d.h. der Leserlichkeit und des Leseflusses einer Website verwendet
werden (Quirmbach, 2013).
Kann zur Überprüfung der Sichtbarkeit von Elementen (z.B. Werbung) auf einer Website verwendet werden (Quirmbach, 2013).
Kann verwendet werden um zu untersuchen, welche Bereiche einer Website betrachtet werden und
welche nicht. Wie schnell Elemente und in welcher Reihenfolge sie wahrgenommen werden (Quirmbach,
2013; Sarodnick & Brau, 2011).
Hintergrundinformationen zur Methode, die im Rahmen des Uselab-Projektes der TU-Berlin gesammelt wurden:
http://www.uselab.tu-berlin.de/wiki/index.php/Aufmerksamkeitserfassung_per_Eyetracking
Uselab. (2015). Usability und UX Wiki. Retrieved from http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Artikel mit dem Fokus auf den Stärken und Schwächen der Methode sowie einer Empfehlung wann sich ein
Einsatz lohnt: (englisch)
http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php
Ross, J. (2009). Eyetracking: Is It Worth It? Retrieved from
http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php
Ausführliche Informationen über die Methodik des Eyetrackings mit vielen Tipps zur Anwendung bietet der
159-seitige Report „How to Conduct Eyetracking Studies“ von Kara Pernice und Jakob Nielsen. (englisch)
http://media.nngroup.com/media/reports/free/How_to_Conduct_Eyetracking_Studies.pdf
Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Retrieved from
http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/
Ausführliche Informationen zu Designempfehlungen auf Grundlage von Eyetracking bietet das Buch
„Eyetracking Web Usability“ von Nielsen & Pernice, (2010). (englisch)
Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders.
Zu beachtende
Normen und
Zertifikate
Usability-Methodenkatalog
132
Kategorie
Kriterium
Blickbewegungsanalyse (Eye-Tracking)
Quellen
Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders.
Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Abgerufen von
http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Rakoczi, G. (2012). Eye Tracking in Forschung und Lehre: Möglichkeiten und Grenzen eines vielversprechenden
Erkenntnismittels. Digitale Medien: Werkzeuge für exzellente Forschung und Lehre. Abgerufen von
http://publik.tuwien.ac.at/files/PubDat_209599.pdf
Ross, J. (2009). Eyetracking: Is It Worth It? Abgerufen von
http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.de/leistungen/methoden.html
Varga, E. (o. J.). Eye Tracking. Zugriff am 05.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter#info-3eye-tracking
Usability-Methodenkatalog
133
4.5.4 Mausbewegungsmessung
Kategorie
Kriterium
Mausbewegungsmessung (Mouse-Tracking)
1. Bezeichnung
Name
Mausbewegungsmessung
Synonyme
Mouse-Tracking
2. Beschreibung
Kurzbeschreibung Die Teilnehmer führen Aufgaben auf einer grafischen Benutzeroberfläche eines Computers aus z.B. auf einer
Website. Hierbei werden die Bewegung des Mauszeigers, die durchgeführten Klicks sowie die Bewegung des
Mausrades aufgezeichnet. Mehrere Studien haben gezeigt, dass eine starke Korrelation zwischen der Augenund der Mausbewegung beim Verwenden einer Website besteht (Arroyo, Selker, & Wei, 2006). Daher können
die grafisch aufbereiteten Daten der Mausbewegungsmessung Rückschluss auf die Aufmerksamkeit der Anwender zulassen und zur Analyse des Nutzerverhaltens verwendet werden.
Abbildungen
Abbildung 17: Graphische Auswertung einer Mausbewegungsmessung (Arroyo et al., 2006)
Ziele
Das Verhalten der Nutzer analysieren und daraus Verbesserungen der Benutzerfreundlichkeit ableiten.
Ergebnisse/
Output
Graphisch dargestellte Mausbewegung z.B. mittels Headmap, Schattendarstellung oder Maustrajektorien und
damit einen Indikator für die Verteilung der Aufmerksamkeit am Bildschirm (Arroyo et al., 2006; Uselab, 2015).
Vorteile







Nachteile/
Grenzen




Projektphase(n)
Usability-Methodenkatalog
Lässt sich im Gegensatz zur Blickbewegungsanalyse (Eye-Tracking) leicht auch außerhalb eines UsabilityLabors durchführen.
Programme zur Erfassung der Cursorbewegung lassen sich mit sehr geringem Aufwand auf einer Website
installieren, ohne dass es zu Leistungsverschlechterungen z.B. längere Ladezeiten, kommt (Uselab, 2015).
Die Mausbewegungsdaten von allen Besuchern einer Website können verwendet werden. Es kann so leicht
eine große Menge von Daten gesammelt werden. (Arroyo et al., 2006)
Die typischen Nutzer eine Website können in der natürlichen Umgebung erreicht werden (Arroyo et al.,
2006).
Die Nutzer werden durch den Test nicht beeinflusst. Sie sitzen am heimischen Rechner und es werden keine
zusätzlichen technischen Hilfsmittel benötigt (wie z.B. bei der Blickbewegungsanalyse), die die Bewegung
und das Verhalten der Teilnehmer beeinflussen könnten. Somit treten keine Verzerrungen auf und der Test
ist sehr valide. (Arroyo et al., 2006; Uselab, 2015)
Die Kosten und der Zeitaufwand sind gering, gerade gegenüber der Blickbewegungsanalyse, da lediglich
ein kleines Programm in den Quellcode einer Website eingefügt werden muss (Uselab, 2015).
Je nach Software ist auch eine Aufzeichnung der Tastatureingabe möglich (Atterer & Schmidt, 2007).
Die unwissentliche Datenerhebung stellt gegenüber den Nutzern ein ethisches Problem dar (Atterer
& Schmidt, 2007).
Es kann nicht sicher gesagt werden, dass die Aufmerksamkeit der Nutzer mit der Mausbewegung übereinstimmt. Beim Lesen verfolgt z.B. nicht jeder Nutzer den Vorgang mit dem Mauszeiger.
In einem nicht experimentellen Setting werden demographische Daten der Probanden (auf legalem Weg)
nicht erfasst, was die Verwendbarkeit der gesammelten Daten (z.B. für Marktforschungszwecke) einschränken kann (Uselab, 2015).
Da die Gedanken der Nutzer bei der Verwendung einer Website nicht mit eingezogen werden, besteht ein
großer Interpretationsspielraum bei der Auswertung der Daten. Eine zusätzliche Verwendung von anderen
Usability-Methoden wie z.B. Lautes Denken kann vorteilhaft sein. (Atterer & Schmidt, 2007)
Betrieb
134
Anzahl
Anwender
3. Rahmenbedingungen &
Ressourcen
Kriterium
Teilnehmer
Kategorie
Mausbewegungsmessung (Mouse-Tracking)
Große Stichprobe bis hin zur natürlichen Population (Uselab, 2015)
Art
Endnutzer
Rolle
Wird beobachtet
Einbeziehung


Anzahl
1
Rolle
Organisator, Analyst
Physikalische Einbeziehung möglich bei zusätzlicher Anwendung weiterer Usability-Methoden
„Remote“
Erforderliche Bei der Verwendung von kommerziellen Softwaretools wie z.B. M-Pathy sind keine besonderen Vorkenntnisse
Kompetenzen notwendig.
Werkzeuge,
Hilfsmittel
Software zur Aufzeichnung und Analyse von Mausbewegungen (z.B. M-Pathy, Crazy Egg, Lucky Orange,
eTracker, Inspectlet, YUNIT) (vgl. Weiterführende Literatur) (Stanitzek, 2013)
Ort/Umgebung
Natürliche Nutzungsumgebung
Kosten
Gering
Die Preise der Software-Tools reichen von 0-300€/Monat (Usability-Tipps.de, o. J.)
Zeitaufwand
Gering
Geringe Vorbereitungszeit (Uselab, 2015)
Vorbereitung


Durchführung
Die Messung wird durchgeführt.
Nachbereitung/
Auswertung
Die Daten werden ausgewertet (z.B. von der Software) und ggf. Usability-Maßnahmen abgeleitet.
5. Praxis-Tipps
Praxis-Tipps
Die Mausbewegungsmessung kann im Labor, invasiv (Installation eines Programms auf dem Nutzer-PC) oder
nicht-invasiv (ohne Installation zusätzlicher Software) erhoben werden (Uselab, 2015).
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu erstellen:
es das Ziel ist…
4. Vorgehensweise
Software zur Aufzeichnung der Mausbewegung ist auszuwählen, zu beziehen und einzurichten.
Die eigenen AGBs müssen angepasst werden.
folgendes zu bewerten:

Interaktion

Software

Software
7. Verwandte
Verwandte MeBlickbewegungsanalyse
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfol- Onlineumfrage (Arroyo et al., 2006)
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Optimierung von Such- und Navigationsvorgängen in Websuchmaschinen (Uselab, 2015)
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Einen Überblick über mögliche Tools zur Aufzeichnung der Mausbewegung gibt Kamila Stanitzek in einem
Artikel auf:
http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/
Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von
http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/
Normen & Zertif.
Usability-Methodenkatalog
135
Kategorie
Kriterium
Mausbewegungsmessung (Mouse-Tracking)
Quellen
Arroyo, E., Selker, T., & Wei, W. (2006). Usability Tool for Analysis of Web Designs Using Mouse Tracks.
Proceedings of CHI 2006, 484–489. Abgerufen von
http://delivery.acm.org/10.1145/1130000/1125557/p484arroyo.pdf?ip=130.83.73.38&id=1125557&acc=ACTIVE%20SERVICE&key=2BA2C432AB83DA15%2E24DDBA2
ADC8180AB%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&CFID=511751455&CFTOKEN=59509924&__
acm__=1431679515_80d06f9f128b8f5c60b189e08b5a114c
Atterer, R., & Schmidt, A. (2007). Tracking the Interaction of Users with AJAX Applications for Usability Testing.
Proceedings of CHI 2007. Abgerufen von
http://www.academia.edu/581876/What_can_a_mouse_cursor_tell_us_more_correlation_of_eye_mouse_
movements_on_web_browsing
Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von
http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/
Usability-Tipps. (o. J.). Mouse-Tracking & Co: Problemen auf der Mausspur… Zugriff am 16.05.2015. Abgerufen
von http://www.usability-tipps.de/info/index.php/mouse-tracking-click-tracking/
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Usability-Methodenkatalog
136
4.5.5 A/B-Testing
Kategorie
Kriterium
A/B-Testing
1. Bezeichnung
Name
A/B-Testing und Multivariantes-Testing
Synonyme
AB-Test, Split-Run-Test
2. Beschreibung
Kurzbeschreibung Mit dem A/B-Testing bzw. dem Multivarianten-Testing können zwei oder mehrere Varianten eines Systems
(z.B. eine Website) von Nutzern getestet werden.
Es werden beispielsweise bei einer bestehenden Website Elemente wie Schaltflächen oder Graphiken verändert
- z.B. in ihrer Größe, Farbe, Platzierung, Beschriftung - und damit eine Variante (beim A/B-Testing) oder mehrere Varianten (beim Multivarianten Testing) der Website geschaffen. Diese Varianten werden den Nutzern
zugänglich gemacht und ihr Verhalten bei der Verwendung der Seite untersucht. Eine Webanalytik-Software
wird zur Messung der Nutzung verwendet. Die Messungen der unterschiedlichen Varianten werden verglichen
und die beste Variante umgesetzt.
Abbildungen
Ziele

Aus der Messung des Nutzerverhaltens sollen zwei oder mehr Designalternativen verglichen werden.
Ergebnisse/
Output

Es wird die Designalternative ermittelt, die im jeweiligen Kontext am besten abschneidet.
Vorteile


A/B-Tests sind günstig. (Nielsen, 2005)
Varianten können unter realen Nutzungsbedingungen getestet werden. Schwankungen der allgemeinen
Internetnutzung werden berücksichtigt. (z.B. Freizeit, schönes Wetter, Events) (Quirmbach, 2013)
Es liegen sehr schnell Ergebnisse vor (Quirmbach, 2013).
Das tatsächliche Nutzerverhalten wird gemessen. (Die Nutzer wissen und merken nichts von dem Test.)
(Nielsen, 2005; Quirmbach, 2013)
Es können selbst sehr geringe Leistungsunterschiede mit statistischer Signifikanz gemessen werden (Nielsen, 2005).
Widersprüche zwischen bestehenden Richtlinien und quantitativen Usability-Resultaten können aufgelöst
werden (Nielsen, 2005).
Mehrere Ideen können simultan getestet werden (Quirmbach, 2013).
Verschiedene Hypothesen können gleichzeitig optimiert werden (Quirmbach, 2013).
Der Mikrobereich einer Site kann optimiert werden (Quirmbach, 2013).







Nachteile/
Grenzen







Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
Die Methode kann nur bei Projekten verwendet werden, für die sich ein einziges klares Ziel definieren lässt,
das zudem mit einem Computer messbar sein muss.
Meist ist dies nicht der Fall, da sich viele Ziele wie z.B. die Steigerung der Markenreputation, nicht durch
Nutzeraktionen auf dem Server messen lassen. (Nielsen, 2005)
Kann nur mit einer komplett fertigen Designvariante durchgeführt werden (Nielsen, 2005)
Eignet sich im allgemeinen nur für die Umsetzung von wenigen kleinen Designideen; Paper-Prototyping
bietet die Möglichkeit innerhalb eines Tages mehrere Designideen auszuprobieren (Nielsen, 2005)
Es ist detailliertes Wissen zur Umsetzung der Hypothesen in die Varianten notwendig (Quirmbach, 2013)
Der Test kann nicht erfolgreich sein. Wenn die Hypothese nicht bestätigt wurde können die entstanden
Kosten nicht durch einen Erfolg amortisiert werden (Quirmbach, 2013).
Erst sehr spät in der Produktentwicklung, im Betrieb, anwendbar (Quirmbach, 2013)
Es kann nicht ermittelt werden, warum sich die Nutzer auf der Site so verhalten haben; eine Befragung
kann die Methode ergänzen (Quirmbach, 2013)
Betrieb
Anzahl
Abhängig von der gesamten Anzahl der Nutzer sind so viele Teilnehmer notwendig wie für ein statistisch
brauchbares Ergebnis benötigt werden.
Art
Endnutzer
Rolle
Wird beobachtet
Einbeziehung
„Remote“
Anzahl
1
Rolle
Organisator
Erforderliche Keine, kann von jedem angewendet werden: „A/B testing can be done by a monkey“ (Nielsen, 2012a)
Kompetenzen
Werkzeuge,
Hilfsmittel


Ort/Umgebung
Natürliche Nutzungsumgebung
Kosten
Gering
Usability-Methodenkatalog
Webanalytic-Software zur detaillierten Statistik über das reale Nutzerverhalten (Quirmbach, 2013)
Es können spezielle Softwarelösungen verwendet werden, welche die Varianten einer Seite automatisch
den Nutzern zur Verfügung stellen und gleichzeitig den Erfolg messen, z.B. Divolution, Omiture. Alternativ
können selbst programmierte Cookies gesetzt werden, die die Nutzer auf die jeweilige Seite leiten.
(Quirmbach, 2013)
Der Designer muss bezahlt werden (Nielsen, 2012a)
137
Kategorie
Kriterium
A/B-Testing
Zeitaufwand
Gering



4. Vorgehensweise
Vorbereitung





Ca. 1 bis 2 Tage für die Durchführung bei ausreichendem Website Zugriff (Nielsen,
2012a)
Geschwindigkeitsbestimmender Faktor ist das Ausdenken von Design-Variationen
(Nielsen, 2012a)
Maximaler Zeithorizont: 1 Woche (Nielsen, 2012a)
Es müssen Hypothesen aufgestellt werden auf deren Grundlage dann die Variante(n) erstellt werden.
Beispiel eine Hypotese nach Quirmbach, 2013: „Ein höheres und längeres Sucheingabefeld mit größerer
Schrift in 12 Pixel, farbiger Suche-Button mit der Benennung Suchen und dem Hinweis in der Sucheingabe
Suchbegriff eingeben wird von unseren Nutzern besser gesehen als die aktuelle Darstellung der Suche. Dadurch steigen die Suchanfragen um 5 %, da dieses Element für unsere Nutzer sichtbarer und eindeutiger
ist.“
Alternativen können im Vorfeld durch andere Methoden wie z.B. Paper-Prototyping entwickelt werden
(Nielsen, 2005)
Designalternativen sind zu erstellen und auf den Server zu laden (Nielsen, 2005).
Art der Durchführung wählen:
 Variante A wird von der einen Hälfte der Nutzer, Variante B wird von der anderen Hälfte verwendet
(Nielsen, 2005).
 Variante A wird von der Mehrheit der Nutzer verwendet, Variante B nur von einer kleinen Gruppe
(Nielsen, 2005).
 Nutzergruppe 1 wird eine Zeit lang Variante A präsentiert, dann Variante B. Nutzergrupee 2 wird
eine Zeit lang Variante B präsentiert, dann Variante A. (Split-Test) (Nielsen, 2005; Sarodnick & Brau,
2011)
Software erstellen (oder fertige Lösungen nutzen), um den Besuchern der Seite die jeweilige Variante zu
zeigen. Cookies können genutzt werden, um ein und demselben Besucher immer die gleiche Variante zu
präsentieren. (Nielsen, 2005)
Durchführung

Die Nutzer verwenden die Website. Es ist zu warten, bis genug Material für eine Statistik angesammelt ist
(Nielsen, 2005).
Nachbereitung/
Auswertung

Die Ergebnisse sind auszuwerten. Es kann sich für eine Alternative entschieden werden (Nielsen, 2005).
5. Praxis-Tipps
Praxis-Tipps

Ein A/B-Test hat mehr Nachteile als Vorteile. Man solle den Test nicht als erste Maßnahme einsetzen. In
Kombination zu qualitativen Studien kann der A/B-Test aber eine gute Ergänzung darstellen. (Nielsen,
2005)
6. Zweck
Die Methode ist
mehr zu erfahren über…
anwendbar, wenn
folgendes zu erstellen:
es das Ziel ist…
folgendes zu bewerten:

Interaktion

Software

Software
7. Verwandte
Verwandte Meund weiterfühthoden
rende Methoden
Mögliche voranPaper-Prototyping um zunächst erfolgsversprechende Designs zu entwickeln; mit A/B-Testing kann die beste
gegangene MeAlternative ermittelt werden (Nielsen, 2005)
thoden/Tätigkeite
n
Mögliche nachfol- Befragung der Nutzer, um Gründe für ihr Verhalten auf der Site zu erfahren (Quirmbach, 2013)
gende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Mehrere Designvarianten einer Website sollen miteinander verglichen werden.
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Auf der Seite AdPushup.com werden neun weiterführende Artikel über A/B-Testing vorgestellt und verlinkt:
(englisch)
http://www.adpushup.com/blog/great-articles-ab-testing/
Zu beachtende
Normen und
Zertifikate
Quellen
Nielsen, J. (2005). Putting A/B Testing in Its Place. Abgerufen von http://www.nngroup.com/articles/puttingab-testing-in-its-place/
Nielsen, J. (2012a). A/B Testing, Usability Engineering, Radical Innovation:What Pays Best? Abgerufen von
http://www.nngroup.com/articles/ab-testing-usability-engineering/
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte Website-Gestaltung.
X.media.press. Berlin u.a.: Springer.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber
Usability-Methodenkatalog
138
4.6 Usability-Inspektion
4.6.1 Heuristische Evaluation
Kategorie
1. Bezeichnung
2. Beschreibung
Kriterium
Heuristische Evaluation
Name
Heuristische Evaluation
Synonyme
Experten Evaluation
Kurzbeschreibung Mit der Methode Heuristische Evaluation lassen sich Usability-Probleme in Dialogsystemen (z.B. auf Webseiten)
aufspüren.
Mehrere Usability-Experten testen hierbei das System und notieren potentielle Probleme, die sie aufgrund ihrer
Erfahrung vermuten. Sie orientieren sich hierbei an Heuristiken (Richtlinien) die erwünschte Eigenschaften
eines gebrauchstauglichen Dialogsystems beschreiben.
Die Ergebnisse werden im Rahmen einer Nachbesprechung diskutiert und Änderungen des Systems besprochen.
Abbildungen
Ziele

Das Finden von Usability-Probleme in Dialogsystemen (Nielsen, 1993)
Ergebnisse/
Output

Liste der Usability-Probleme im Dialogsystem mit Verweisen auf die jeweilige Heuristik, die verletzt wurden
(Nielsen, 1993)
Vorteile



Sehr kosteneffiziente Methode (Nielsen, 1992)
Methode ist im Vergleich zu Nutzertests kostengünstig (Usetree, 2014c)
Lässt sich bereits sehr früh im Entwicklungsprozess anwenden (Nielsen & Molich, 1990)
Nachteile/
Grenzen

Usability-Experten sind teuer und ggf. schwer zu finden wenn sie zusätzlich über spezielles DomänenWissen verfügen sollen (Nielsen, 1992)
Usability-Experten stellen keine realen Nutzer dar. Dies führt dazu, dass nicht alle Probleme gefunden
werden, die ein Nutzer haben wird. (Usetree, 2014c)
Die Methode gibt keine Garantie alle Probleme aufzuspüren (Nielsen, 1992).
Es werden häufig sog. falsche Positive gefunden. Darunter versteht man Usability-Probleme, die im tatsächlichen Gebrauch des Systems nicht auftreten werden, also keine wirklichen Probleme darstellen (Nielsen
& Molich, 1990).
Methode stellt kein Ersatz für Usability-Tests mit realen Nutzern, sondern lediglich eine Ergänzung dar
(Usetree, 2014c)




Projektphase(n)
Anwender
Teilnehmer
3. Rahmenbedingungen &
Ressourcen
Konzept,
Umsetzung,
Betrieb
Kann bereits an ersten Konzepten wie Papier-Prototypen angewendet werden
Anzahl
1-5
(Nielsen, 1993)


Art
Usability-Experten
Rolle


Partizipation
Diskussion
Einbeziehung


Physikalische Einbeziehung
„Remote“
Anzahl
1
Rolle
Organisator, Ansprechpartner für die Probanden bei Fragen und Problemen (Nielsen, 1993)
Mindestens 3 Teilnehmer werden empfohlen (Nielsen, 1993)
3 Experten finden ca. 60 Prozent aller Usability-Probleme, 5 finden ca. 75 Prozent und
10 ca. 85 Prozent (Nielsen, 1993)
Erforderliche Erforderliche Kompetenzen der Teilnehmer (Usability-Experten):
Kompetenzen  Wissen und Erfahrung im Bereich Usability (Nielsen, 1992)
 Wissen über den Hintergründe der zu untersuchenden Anwendung (Domänenexpertise) ist vorteilhaft (bei
komplexen Systemen notwendig (Sarodnick & Brau, 2011)) und verbessert die Fehleraufdeckung (Nielsen,
1992)
Erforderliche Kompetenzen des Ausführenden:
 Sollte mit der Methode vertraut sein (Sarodnick & Brau, 2011)
 Muss Wissen und Erfahrungen mit dem technischen System haben (Sarodnick & Brau, 2011)
 Muss ausreichendes Wissen in der Anwendungsdomäne haben (Sarodnick & Brau, 2011)
 Für die Nachbesprechung ist diplomatisches Geschick hilfreich, um den unterschiedlichen Interessen der
Evaluatoren und des Entwicklungsteams gerecht zu werden (Sarodnick & Brau, 2011)
Werkzeuge,
Hilfsmittel


Schreibmaterialien (Sarodnick & Brau, 2011)
Systeme auf denen der Test durchgeführt wird (Sarodnick & Brau, 2011)
Ort/Umgebung



Simulierte Nutzungsumgebung
Tagungsraum
Schreibtisch
Kosten
Mittel
Usability-Methodenkatalog

10000-15000 € (CHeval, 2013; Nielsen, 1995c)
139
Kategorie
4. Vorgehensweise
Kriterium
Heuristische Evaluation
Zeitaufwand
Gering
Vorbereitung



Durchführung


Maximaler Zeithorizont: ca. 4 Wochen (CHeval, 2013; Sarodnick & Brau, 2011)
Die Dauer der Evaluationsdurchgänge soll maximal 3 Stunden betragen (Sarodnick
& Brau, 2011)
Rekrutierung von Usability-Experten
Typische Nutzungs-Szenarien des Systems erstellen (z.B. mit Task Analysis) und den Usability-Experten zur
Verfügung stellen. Diese Szenarien sollten typische Aufgaben, die ein Nutzer auf dem System durchführen
wird, Schritt für Schritt beschreiben (Nielsen, 1993). (Dieser Arbeitsschritt kann auch von den UsabilityExperten durchgeführt werden).
Es sind die Heuristiken festzulegen, die verwendet werden sollen. Es kann ein individueller Pool von Heuristiken genutzt werden. Alternativ können bewährte Heuristiken wie z.B. die zehn generellen Heuristiken
nach Nielsen oder der Satz aus zwölf Heuristiken nach Sarodnick & Brau (2011), die auf der DIN EN ISO
9241-110 basieren, verwendet werden (siehe „Weiterführende Literatur“). (Schritt kann auch von den
Usability-Experten durchgeführt werden).
Vorevaluatives Training (Nielsen, 1993; Sarodnick & Brau, 2011):
 Es wird den Teilnehmern die Durchführung der Methode sowie die zu verwendenden Heuristiken dargestellt. So soll eine einheitliche Terminologie sichergestellt sein.
 Das zu evaluierende System wird den Usability-Experten vorgestellt.
 Den Evaluatoren werden typische Arbeitsaufgaben vorgelegt, die im Vorfeld ermittelt wurden.
Evaluationsdurchgänge (Nielsen, 1993; Sarodnick & Brau, 2011):
 Jeder Experte durchsucht das System (z.B. eine Website) explorativ nach Usability-Problemen und orientiert
sich ggf. an den Nutzungs-Szenarien. Sie verwenden dabei individuelle Suchstrategien. Die Evaluatoren sollen dabei nicht miteinander interagieren. Die Experten nutzen ihr Wissen und ihre Erfahrung, sowie die
festgelegten Heuristiken. Gefundene Probleme werden gemäß der Heuristiken kategorisiert.
Auswertung der Usability-Probleme (Nielsen, 1993; Sarodnick & Brau, 2011):
 Jeder Evaluator erstellt eine Liste mit Problemen.
 Der Ausführende fasst alle Listen zu einer Gesamtliste zusammen. (Zeitintensiver Prozess)
Bewertung und Kategorisierung aller gefundener Hinweise (Nielsen, 1994 nach Sarodnick & Brau, 2011):
 Alle gefundenen Probleme werden in einer weiteren Sitzung von den Usability-Experten gewichtet bewertet. (Details zu dem Bewertungsverfahrens nach Nielsen sind z.B. dem Buch Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendungen von Sarodnick & Brau zu entnehmen.)
Nachbereitung/
Auswertung
5. Praxis-Tipps
Praxis-Tipps
Zu einem weiteren Termin wird eine Nachbesprechung durchgeführt, an der die Usability-Experten, die die
Heuristische Evaluation durchgeführt haben, sowie firmeninterne Entwickler und Designer teilnehmen. Es
werden mögliche Änderungen des Systems diskutiert, um die gefundenen Usability-Probleme zu beseitigen.
Hierzu kann ein Brainstorming angewendet werden. (Nielsen, 1993)
Tipps:



Während des Evaluationsdurchgangs sind die Usability-Experten darauf hinzuweisen, dass sie sich ausschließlich auf die Identifizierung von Problemen, nicht auf die Behebung selbiger konzentrieren sollen.
Somit kann verhindert werden, dass die Evaluatoren nur solche Probleme hervorheben, für die sie sich eine
Lösung erdenken können. (Sarodnick & Brau, 2011)
Bei komplexen Systemen kann es sinnvoll sein, im Vorfeld eine Vorstrukturierung der Evaluationsbereiche
je Evaluator vorzunehmen um zu verhindern, dass die Evaluatoren völlig unterschiedliche Funktionszweige
bearbeiten.
Bei der Nachbesprechung sollten neben den Problemen auch positive Aspekte besprochen werden, um
keine ausufernden Diskussionen mit der Entwicklungsseite auszulösen.
Varianten:

6. Zweck
Expertenbasierte Evaluation: Hierbei orientieren sich Usability-Experten ausschließlich nach ihrer Erfahrung
und verwenden keine Heuristiken.
Die Methode ist
folgendes zu erstellen:
anwendbar, wenn
es das Ziel ist…
folgendes zu bewerten:


Software
Integriertes Produkt



Ideen & Konzepte
Software
Integriertes Produkt
7. Verwandte
Verwandte MePluralistic Usability Walkthrough, Claims Analysis, Cognitive Walkthrough, Expertenanalyse (Inspektionsmethound weiterfühthoden
den) (Nielsen, 1992)
rende Methoden
Mögliche voranTask Analysis: Zur Analyse der Aufgaben, die ein Nutzer mit dem System durchführen wird (Nielsen, 1993).
gegangene Methoden/Tätigkeite
n
Mögliche nachfol- Nutzertests: können verwendet werden um die Ergebnisse der Heuristischen Evaluation zu ergänzen bzw.
gende Methoden/ abzusichern (Nielsen, 1995b)
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Die Gebrauchstauglichkeit einer Website kann mittels einer Heuristischen Evaluation überprüft werden.
140
Kategorie
Kriterium
Heuristische Evaluation
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Die zehn generellen Heuristiken nach Nielsen (1995a) können im Detail auf der Website des Autors nachgelesen werden: (englisch)
http://www.nngroup.com/articles/ten-usability-heuristics/
Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Retrieved from
http://www.nngroup.com/articles/ten-usability-heuristics/
Ausführliche Informationen zur Methode inkl. Anwendungsbeispiel und –tipps sowie ein Heuristiken-Satz,
bestehend aus 12 Regeln, der auf der DIN EN ISO 9241-110 basiert, kann folgendem Buch entnommen werden:
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Das Projekt UseTree des Berliner Kompetenzzentrums für Usability-Maßnahmen stellt ein Dokument mit vielen
Informationen zu den Hintergründen und Gegenüberstellung unterschiedlicher Heuristiken, sowie eine Schritt
für Schritt Anleitung der Methode als Best-Practice zur Verfügung:
http://www.usetree.de/wp-content/uploads/2014/09/Heuristische-Evaluation.pdf
Usetree. (2014). Heuristische Evaluation. Zugriff am 04.05.2015. Retrieved from http://www.usetree.de/wpcontent/uploads/2014/09/Heuristische-Evaluation.pdf
Zu beachtende
Normen und
Zertifikate
Ein möglicher Pool von Heuristiken stellt die Norm DIN EN ISO 9241-110 zur Verfügung.
Quellen
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Nielsen, J. (1992). Finding Usability Problems Through Heuristic Evaluation. Proceedings of the ACM CHI'92
Conference, 373–380. Abgerufen von
http://faculty.utpa.edu/fowler/csci6316/papers/Nielsen_1992_Finding-Usability-Problems-throughHeuristic-Evaluation_CHI.pdf
Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers.
Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Abgerufen von
http://www.nngroup.com/articles/ten-usability-heuristics/
Nielsen, J. (1995b). Characteristics of Usability Problems Found by Heuristic Evaluation. Abgerufen von
http://www.nngroup.com/articles/usability-problems-found-by-heuristic-evaluation/
Nielsen, J. (1995c). How to Conduct a Heuristic Evaluation. Abgerufen von
http://www.nngroup.com/articles/how-to-conduct-a-heuristic-evaluation/
Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. In J. C. Chew & J. Whiteside (Eds.), the
SIGCHI conference (pp. 249–256).
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Usetree. (2014). Heuristische Evaluation. Zugriff am 04.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Heuristische-Evaluation.pdf
Usability-Methodenkatalog
141
4.6.2 Cognitive Walkthrough
Kategorie
Kriterium
Cognitive Walkthrough
1. Bezeichnung
Name
Cognitive Walkthrough
Synonyme
2. Beschreibung
Kurzbeschreibung Beim Cognitive Walkthrough untersuchen Usability-Experten ein System (z.B. eine Website oder eine Softwareanwendung) hinsichtlich seiner Erlernbarkeit. Hierbei versetzen sich die Experten in die Rolle der Benutzer und
führen Aufgaben auf dem System durch, die zukünftig durch die Benutzer intuitiv durchgeführt werden sollen.
Die Aufgaben (Tasks) werden in Einzelaktionen (Actions) zerlegt und dann anhand einer Checkliste, bestehend
auf 4 Fragen, analysiert. Es werden Stellen identifiziert, die bei einem Anwender zu Problemen führen könnten. (Jacobsen, 2007; Sarodnick & Brau, 2011; Wharton, Rieman, Lewis, & Polson, 1994)
Abbildungen
Ziele

Alle Gestaltungsanteile sollen optimiert werden, die das explorative Systemerlernen (das Kennenlernen
eines Systems direkt durch die Nutzung; ohne Handbuch oder Anleitungen) behindern könnten (Wharton
et al., 1994).
Ergebnisse/
Output

Ein System (z.B. Website), das intuitiv von einem neuen unerfahrenen Nutzer bedient werden kann.
Vorteile

Dadurch das Nutzerprofile erstellt werden müssen ist sichergestellt, dass der Anwender der Methode die
Kenntnisse der Nutzer in die Evaluation mit einbezieht (Jordan, Thomas, McClelland, & Weerdmeester,
1996).
Es werden keine Nutzer zur Durchführung der Methode benötigt. Dadurch ist die Methode schnell durchführbar und führt direkt zu Erkenntnissen (Jordan et al., 1996).

Nachteile/
Grenzen


Anwender
3. Rahmenbedingungen &
Ressourcen
Teilnehmer
Projektphase(n)
Die Methode stützt sich auf das Urteil der Experten. Wird bei der Durchführung nicht gründlich vorgegangen, sind die Ergebnisse ungültig.
Da der Fokus der Methode auf der Erlernbarkeit eines Systems liegt, bleiben andere relevante Aspekte ggf.
unberücksichtigt (Wilson, 2013).
Konzeption,
Umsetzung,
Betrieb
Die Methode kann sowohl auf Papier-Prototypen des Interfaces als auch auf voll funktionsfähige Systeme angewendet werden (Wharton et al., 1994).
Anzahl
1-4 (CHeval, 2013)
Kann alleine oder im Team durchgeführt werden (Wharton et al., 1994)
Art



Usability Experten
Firmeninterne
Entwickler
Rolle


Partizipation
Diskussion
Einbeziehung
Physikalische Einbeziehung
Anzahl
1
Rolle
Organisator, Moderator
Erforderliche 
Kompetenzen


Die allgemeinen Richtlinien der Ergonomie in der Gestaltung müssen bekannt sein, um die Aufgabe in die
Aktionen zu zerlegen (Jordan et al., 1996).
Die kognitiven Fähigkeiten, das Wissen und die Fertigkeiten der Nutzer müssen beurteilt werden können
(Jordan et al., 1996).
Fähigkeit zu Moderieren (Wharton et al., 1994)
Werkzeuge,
Hilfsmittel

Schreibmaterial
Ort/Umgebung

Simulierte Nutzungsumgebung: um es den Teilnehmern zu erleichtern sich wie Nutzer zu verhalten und so
zu denken (Weevers et al., 2013)
Tagungsraum
Schreibtisch


Kosten
Mittel bis hoch

Ca. 15000-25000 € (CHeval, 2013)
Zeitaufwand
Hoch

Wenn eine zu evaluierende Aufgabe auf unterschiedliche Weisen gelöst werden kann,
kann es aufwendig sein zu ermitteln, welches der beste Lösungsweg ist. (Wilson,
2013)
Maximaler Zeithorizont: 4-6 Wochen (CHeval, 2013)

Usability-Methodenkatalog
142
Kategorie
Kriterium
Cognitive Walkthrough
4. Vorgehensweise
Vorbereitung
Vorbereitungsphase:
 Nutzerprofil erstellen:
Man sollte sich darüber im Klaren sein, welche Benutzer das System verwenden sollen. Welches Vorwissen
und welche Erfahrungen haben die Anwender? (Wharton et al., 1994)
 Zu analysierende Aufgaben festlegen:
Meist können nicht alle Aufgaben getrachtet werden, die mit einem System durchgeführt werden können.
Daher sollte man die bedeutsamsten Aufgaben auswählen. Typische Aufgabenszenarien lassen sich aus
den Kernfunktionen des Systems ableiten. (Sarodnick & Brau, 2011; Wharton et al., 1994)
 Aufgaben in Aktionen zerlegen:
Zunächst wird jede Aufgabe so beschrieben, wie sie ein Nutzer wahrscheinlich angehen würde, ohne die
Schnittstellen des Systems zu kennen. Dann werden die Aufgaben in ideale Handlungsabfolgen, bestehend
aus Einzelaktionen (z.B. „drücke die Return-Taste“ oder „bewege den Cursor zum Datei-Menü“, zerlegt.
Die Einzelaktionen sollten in etwa so detailliert sein, wie eine Anleitung, mit der ein Nutzer die Aktion alleine ausführen könnte. (Wharton et al., 1994)
 Schnittstellen definieren:
Die Schnittstellen, die der Nutzer bei den Aktionen zu Gesicht bekommt, werden detailliert beschrieben
(Wharton et al., 1994).
 Ggf. Team für die Durchführung zusammenstellen
Durchführung
Analysephase:
 Alle Aktionen der Aufgaben werden von den Experten in der chronologischen Reihenfolge analysiert.
Anhand einer von Wharton et al. dargestellten Checkliste, bestehend aus vier Fragen, werden die Aktionen
untersucht (Wharton et al., 1994):
1.
Wird der Nutzer versuchen, den gewünschten Effekt zu erzielen?
2.
Wird der Nutzer erkennen, dass die korrekte Aktion verfügbar ist?
3.
Wird der Nutzer erkennen, dass die korrekte Aktion zu dem Effekt führen wird, den er erreichen
will?
4.
Wird der Nutzer, wenn er die korrekte Aktion durchgeführt hat erkennen, dass er der Lösung seiner
Aufgabe näher gekommen ist?
 Sind alle Fragen mit „ja“ zu beantworten handelt es sich um eine Erfolgsstory und es sind keine
Optimierungen notwendig. Wird mindestens eine der Fragen mit „nein“ beantwortet handelt es sich bei
dieser Aktion um eine Misserfolgsstory. In diesem Fall muss genau untersucht werden, welcher Grund zu
dem Scheitern geführt hat. (Wharton et al., 1994)
Nachbereitung/
Auswertung
Optimierung der Misserfolgstorys:
 Die Misserfolge werden abhängig von der Frage an der sie gescheitert sind optimiert (Wharton et al.,
1994):
1.
Scheitern bei der ersten Frage:

Die Aktion wird aus der Handlungsabfolge entfernt (z.B. automatisiert oder mit anderen Aktionen kombiniert).

hinzufügen eines Hinweistextes

andere Teile der Aufgabe so umgestalten, dass der Nutzer die Notwendigkeit der Aktion erkennt
2.
Scheitern bei der zweiten Frage:

optimieren der Bedienelemente für diese Aktion
3.
Scheitern bei der dritten Frage:

optimieren der Anordnung, Gestaltung und der Benennung der Auswahl- und Eingabemöglichkeiten
4.
Scheitern bei der vierten Frage:

optimieren des Feedbacks: die Ausgabe sollte Begriffe oder Abbildungen verwenden, die der
Nutzer mit dieser Aufgabe verbindet
5. Praxis-Tipps
Praxis-Tipps
6. Zweck
Die Methode ist
folgendes zu erstellen:
anwendbar, wenn
es das Ziel ist…
folgendes zu bewerten:


Software
Integriertes Produkt



Ideen & Konzepte
Software
Integriertes Produkt
7. Verwandte
Verwandte MeHeuristische Evaluation
und weiterfühthoden
rende Methoden
Mögliche vorangegangene Methoden/Tätigkeite
n
Mögliche nachfolgende Methoden/
Tätigkeiten
8. Anwendungsbeispiele
Mögliche Anwendungsgebiete
Usability-Methodenkatalog
Eine Website soll für Benutzer intuitiv bedienbar sein. Es wird die Methode Cognitive Walkthrough angewendet um die Erlernbarkeit zu untersuchen und ggf. zu optimieren.
143
Kategorie
Kriterium
Cognitive Walkthrough
9. Referenzen
und weiterführende Informationen
Weiterführende
Informationen
Weitere Informationen können dem Paper von Wharton et al. (1994) „The cognitive walkthrough method“
entnommen werden: (englisch)
http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf
Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's
guide. Usability inspection methods, 105–140. Retrieved from
http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf
Zu beachtende
Normen und
Zertifikate
Quellen
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.cheval-lab.ch/wasist-usability/cheval-methodencheck/
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte und
erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Jordan, P. W., Thomas, B., McClelland, I. L., & Weerdmeester, B. (1996). Usability Evaluation In Industry: Taylor
& Francis.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung. Bern: Huber.
Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#
Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's
guide. Usability inspection methods, 105–140. Abgerufen von
http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf
Wilson, C. (2013). User interface inspection methods: A user-centered design method.
Usability-Methodenkatalog
144
5 Zusammenfassung und Ausblick
Das Ziel der vorliegenden Arbeit war es, einen gut strukturierten Methodenkatalog für UsabilityMethoden zu entwickeln, der an die Bedürfnisse potentieller Nutzer der PUMa-Kompetenzplattform
angepasst ist.
Hierzu wurden zunächst neun bestehende Kriteriensammlungen analysiert und zu einem strukturierten Kriterienkatalog vereinigt. Dieser wurde mittels einer Online-Befragung von 14 potenziellen Nutzern der o.g. Plattform, bestehend aus Softwareentwicklern deutscher KMU sowie Usability-Experten,
evaluiert. Die gewonnenen Erkenntnisse wurden dazu verwendet einen finalen Kriterienkatalog zu
entwickeln, der als Grundlage für den Methodenkatalog diente. Zusätzlich zur Strukturierung der Kriterien innerhalb der Methodenbeschreibungen wurden die Methoden in ihrer Anordnung innerhalb
des Katalogs geordnet. Hierzu wurden bestehende Kategorisierungen von Usability-Methoden untersucht und eine geeignete Anordnung definiert. Auf diese Weise konnte eine Auswahl von 23 UsabilityMethoden in einer gut strukturierten Art und Weise beschrieben werden.
Es sei allerdings erwähnt, dass im Rahmen dieser Arbeit nur eine Teilmenge aller bestehenden
Usability-Methoden betrachtet und beschrieben werden konnten. In Zukunft könnte der Katalog um
weitere Methodenbeschreibungen ergänzt werden, um so den Nutzen des Katalogs für den Anwender
zu vergrößern. Hierbei kann es nötig sein, die gewählte Art der Methodenklassifizierung um neue Kategorien zu erweitern. Die große Vielzahl an unterschiedlichen Usability-Methoden, sowie die unzähligen Varianten in der Beschreibung machen es unmöglich, eine allgemeingültige und eindeutige Methoden-Kategorisierung zu entwickeln, bei der jede Methode nur genau einer Kategorie zugeordnet ist.
Die Informationen der Methodenbeschreibungen wurden gut strukturiert in Tabellen angeordnet, sodass die Möglichkeit besteht, die Methodenbeschreibungen im Layout dieser Arbeit ohne weitere Änderungen online als Download anzubieten. Alternativ lassen sich die Daten ohne größere Anpassungen
auf eine Internetplattform übertragen. Das Design der Website sowie das Layout des dargestellten Methodenwissens müssten hierfür noch entwickelt werden.
Der Methodenkatalog enthält zudem die nötigen Informationen um eine Filterfunktion auf einer Onlineplattform umzusetzen. Hierdurch lässt sich eine individuelle Strukturierung der beschriebenen Methoden realisieren und ein Anwender der Plattform könnte so bei der Auswahl einer passenden Methode unterstützen werden.
Die Methodenbeschreibungen, die im Rahmen dieser Arbeit entwickelt wurden, konnten noch nicht
praktisch angewendet und evaluiert werden. Demnach basieren sie bisher nur auf den jeweils verwiesenen Quellenangaben. Zur Verbesserung dieses Umstandes könnte im Rahmen zukünftiger Forschungstätigkeit untersucht werden, ob die angegebenen Informationen des Methodenkataloges ausreichend und verständlich genug sind, sodass Anwender ohne Usability-Expertise in der Lage sind, die
Methoden anzuwenden oder zumindest eine Anwendung zu organisieren. Hierzu könnte z.B. eine
Onsitebefragung, unter Nutzern des Methodenkatalogs, auf der Website der Kompetenzplattform
durchgeführt werden. Ebenfalls wäre es möglich eine Gruppe von Nutzern bei der Durchführung der
Methoden nach den Beschreibungen des Katalogs zu beobachten und so einen Eindruck von der Verständlichkeit und der Anwendbarkeit der zusammengefassten Informationen zu gewinnen. Mit Hilfe
dieser oder vergleichbarer Maßnahmen könnte die praktische Anwendbarkeit des Methodenkatalogs
überprüft werden.
Nach einer zukünftigen Veröffentlichung des Methodenkatalogs auf der Web-Plattform könnte ein System etabliert werden, über das Softwareentwickler und Usability-Experten in der Lage sind, die Me-
Zusammenfassung und Ausblick
145
thodenbeschreibungen zu ergänzen, und damit den praktischen Nutzen dieses Werkzeugs weiter auszubauen. Anwender der Plattform könnten ihre Erfahrungen im Umgang mit dem Methodenkatalog
direkt in die Methodenbeschreibungen einfließen lassen. Besonders interessant könnte hierbei der Erfahrungsaustausch im Bereich der Kosten sowie dem Zeitaufwand sein. Ebenfalls könnten PlattformNutzer ergänzende Informationen zur Anwendung der Methoden, also zu den Kriterien Vorbereitung,
Durchführung und Nachbereitung einbringen. Praxis-Tipps sowie Empfehlungen zu weiterführender
Literatur könnten ebenfalls den Nutzen des Methodenkatalogs vergrößern. Generell könnte ein solches
System den Erfahrungsaustausch zwischen Anwendern der Kompetenzplattform unterstützen und die
Qualität des angebotenen Methodenwissens verbessern.
Abschließend lässt sich zusammenfassen, dass das Ziel der Entwicklung eines gut strukturierten Methodenkatalogs erreicht werden konnte und somit der Grundstein für die Bereitstellung von systematisiertem Methodenwissen, auf der Kompetenzplattform des PUMa-Projekts, gelegt ist.
Zusammenfassung und Ausblick
146
Anhang
A Anforderungsliste Befragung
Tabelle15:AnforderungslistezumBefragungsverfahren,derSoftwaresowiezumFragebogen
Fragebogen
Fragebogen-Software
Befragungs-Verfahren
Gliederung FF Anforderungen
BF
ZF
W Nr. Bezeichnung
Anhang
FF
1
Befragung soll „aus der Ferne“ möglich sein
ZF
2
FF
3
BF
4
W
5
Befragte Personen sollen ausreichend Zeit haben
um überlegt auf Fragen antworten zu können
Befragte Personen sollen einen visuellen Überblick
über Kategorien, Kriterien und Ausprägungen
haben
Geringer Zeitaufwand für gesamte Durchführung
aller Befragungen
Kostenlos
FF
FF
FF
FF
6
7
8
9
W
W
W
W
ZF
ZF
BF
10
11
12
13
14
15
16
Möglichkeit Matrixfragen zu stellen
Möglichkeit offene Fragen zu stellen
Möglichkeit Abbildungen einzufügen
Möglichkeit sich beliebig zwischen den Fragen vor
und zurück zu bewegen
Einfache Handhabung der Software
Auswertung und Darstellung der Ergebnisse
Ansprechendes Layout der fertigen Fragebogen
Kostenlos
Eindeutige Formulierung der Fragen
Leicht verständliche Formulierung der Fragen
Befragungsdauer
Werte, Daten, Erläuterung
Max. 60 Stunden, max 30
Tage
Soll selbsterklärend sein
Max. 15 min
vi
B
Anhang
Fragebogen zur Evaluation des Kriterienkatalogs
vii
Anhang
viii
Anhang
ix
Anhang
x
Anhang
xi
Anhang
xii
Anhang
xiii
Anhang
xiv
Anhang
xv
Anhang
xvi
C
Begleitschreiben zur Einladung zur Befragung
In diesem Anschnitt sind die Begleitschreiben (Einladungsemails) abgebildet, über die der ZugangsLink zum Fragebogen verschickt worden ist. Abhängig von der Personengruppe wurden unterschiedliche Informationen in das Schreiben aufgenommen. Abbildung 18 zeigt die E-Mail, mit der die
Usability-Experten der involvierten Forschungsprojekte zur Befragung eingeladen wurden. Für die Einladung der externen Experten wurde das Anschreiben durch den Zusatz ergänzt, ihnen bei Interesse
einen Kurzbericht der Befragungsergebnissen zuzuschicken.
Abbildung18:BegleitschreibenfürinterneUsability‐Experten
Abbildung 19 zeigt das Begleitschreiben, mit dem die deutschen, softwareentwickelten KMU angeschrieben wurden. Hier wurde im Vergleich zu den Schreiben für die Usability-Experten darauf hingewiesen, welche Zielgruppen mit der Umfrage erreicht werden sollen. Außerdem wurde betont, dass die
Unterstützung der KMU durch den Methodenkatalog zu einer Steigerung der Wettbewerbsfähigkeit
führen kann. Bei der Recherche der E-Mail-Adressen der Unternehmen konnten im Allgemeinen nur
Adressen der Form info@(Name des Unternehmen).de ermittelt werden. Daher wurde der E-Mail zusätzlich die Bitte hinzugefügt, die Nachreicht ggf. an die richtigen Ansprechpartner im Unternehmen
weiter zu leiten.
Bei den Softwareentwicklern, die persönlich angeschrieben werden konnten, wurde eine Kombination
der beiden hier dargestellten E-Mails verwendet. Grundlage bildete die Nachricht aus Abbildung 18.
Zusätzlich wurde auf den wettbewerbsfähigkeitssteigernden Charakter hingewiesen und die Option
angeboten, bei Interesse an den Befragungsergebnissen einen Kurzbericht zu versenden.
Anhang
xvii
Abbildung19:BegleitschreibenfürsoftwareentwickelndeKMU
Anhang
xviii
Abbildungsverzeichnis
Abbildung 1: Aufbau einer Fragebogen-Seite ....................................................................................... 31
Abbildung 2: Einteilung der Projektphasen nach Jacobsen (2007)....................................................... 42
Abbildung 3: Kategorisierung von Usability-Methoden anhand von Projektphasen .............................. 58
Abbildung 4: Filterungsmöglichkeit der Methoden auf der Website der UCDtoolbox ........................... 59
Abbildung 5: Beispiele für die Darstellung von Personas ...................................................................... 64
Abbildung 6: Hierarchisch strukturierte Ergebnisse einer Aufgabenanalyse ......................................... 74
Abbildung 7: Beobachtung eines Probanden durch den Methodenanwender bei der Durchführung
eines Kontextuellen Interviews ...................................................................................................... 77
Abbildung 8: Beispiel für die Anwendung des Card Sorting ................................................................. 82
Abbildung 9: Anwendung der Methode Affinity-Diagram .................................................................... 86
Abbildung 10: Anwendung der Methode Fokusgruppe ........................................................................ 93
Abbildung 11: Beispiel-Items des AttrakDiff ....................................................................................... 102
Abbildung 12: Grober Prototyp eines Geräts aus der HNO-Heilkunde aus einer sehr frühen
Entwicklungsphase ...................................................................................................................... 108
Abbildung 13: Beispiel für ein Storyboard .......................................................................................... 113
Abbildung 14: Durchführung eines Usability-Test an einem Paper-Prototyp ...................................... 116
Abbildung 15: Beispiel für die Durchfühugen der Methode Wizard of Oz .......................................... 119
Abbildung 16: Testaufbau einer Blickbewegungsanalyse ................................................................... 130
Abbildung 17: Graphische Auswertung einer Mausbewegungsmessung ............................................. 134
Abbildung 18: Begleitschreiben für interne Usability-Experten .......................................................... xvii
Abbildung 19: Begleitschreiben für softwareentwickelnde KMU ....................................................... xviii Anhang
xix
Tabellenverzeichnis
Tabelle 1: Kriterienkatalog des PUMa-Projektes ..................................................................................... 9 Tabelle 2: Zusammenführung der analysierten Kriterien...................................................................... 14 Tabelle 3: Vorläufiger Kriterienkatalog, der im Rahmen der Befragung evaluiert wird ........................ 23 Tabelle 4: Ergebnisse der Befragung für die geschlossenen Fragen. ..................................................... 35 Tabelle 5: Überarbeiteter Kriterienkatalog ........................................................................................... 46 Tabelle 6: Layout des finalen Kriterienkatalogs, wie er in Kapitel 4 zur Beschreibung von UsabilityMethoden eingesetzt wird ............................................................................................................. 49 Tabelle 7: Klassifizierung in Empirische und Analytische Methoden .................................................... 52 Tabelle 8: Klassifizierung in summative und formative Methoden ....................................................... 52 Tabelle 9: Klassifizierungsmöglichkeit für Usability-Methoden nach Sarodnick & Brau (2011) ........... 54 Tabelle 10: Klassifizierung von Usability-Methoden nach Bernsen & Dybkjær (2010) ......................... 55 Tabelle 11: Klassifizierung von Usability-Methoden nach der Strukturierung auf www.usabilitybok.org
...................................................................................................................................................... 57 Tabelle 12: Klassifizierung von Usability-Methoden nach der Strukturierung auf www.usabilitynet.org
...................................................................................................................................................... 58 Tabelle 13: Zusammenfassung der Informationen des Kriteriums Zweck des Methodenkatalogs ......... 60 Tabelle 14: Finale Klassifizierung der im Rahmen dieser Arbeit gewählten Methoden ......................... 62 Tabelle 15: Anforderungsliste zum Befragungsverfahren, der Software sowie zum Fragebogen ........... vi Anhang
xx
Indexverzeichnis
A/B-Testing ..................... 134
Affinity-Diagram ............... 85
AttrakDiff ....................... 100
Aufgabenanalyse .............. 73
Befragung .................. 88, 95
Benchmarking .................. 70
Blickbewegungsanalyse .. 128
Card Sorting ..................... 81
Click-Dummys ................. 109
Coaching Method ........... 126
Co-discovery Method ...... 126
Cognitive Walkthrough .. 139
Contextual Inquiry ............ 76
Experten Evaluation 136, 137
Eye-Tracking ................... 128
Fokusgruppe .................... 91
Fragebogen ...................... 95
Gaze-Tracking ................. 128
Heuristische Evaluation ... 136
Interview .......................... 88
IsoMetrics ......................... 97
Anhang
ISONORM 9241-110-S ....... 97
Kawakita Jiro Method ...... 85
Kontextuelles Interview .... 76
Lautes Denken ................ 125
Mausbewegungsmessung
................................... 132
Mouse-Tracking .............. 132
Multivarianten-Testing .... 134
Mündliche Befragung ....... 88
Nutzungsszenarien ........... 67
Online Fokusgruppe ......... 93
Online-Befragung ........... 102
Online-Usability-Test ....... 123
Onsitebefragung ............ 104
Onsitefeedback .............. 104
Panelumfragen ............... 104
Paper-Prototyping .......... 114
Personas ........................... 63
Prototyping .................... 106
QUIS ................................. 97
Rapid Prototyping .......... 114
Remote-Usability-Test ..... 123
Retroperspective Testing 126
Schriftliche Befragung....... 95
Screenflows .................... 109
Storyboarding ................. 111
SUMI ................................. 97
SUS ................................... 97
Szenarien .......................... 67
Task Analysis ..................... 73
Task Scenarios................... 67
Themenspezifische
Gruppendiskussion ........ 91
Thinking Aloud ............... 125
Umfrage ........................... 95
Usability Benchmark ......... 70
Usability-Test .................. 120
User Interface Storyboard
................................... 112
WAMMI ............................ 97
Wireframes ..................... 109
Wizard of Oz .................. 117
xxi
6
Literaturverzeichnis
[About QuestionPro]. (2015). Zugriff am 22.04.2015. Abgerufen von
http://www.questionpro.com/info/aboutUs.html
Arndt, H. (2006). Integrierte Informationsarchitektur: Die erfolgreiche Konzeption professioneller Websites. X.media.press. Berlin: Springer.
Arroyo, E., Selker, T., & Wei, W. (2006). Usability Tool for Analysis of Web Designs Using Mouse
Tracks. Proceedings of CHI 2006, 484–489. Abgerufen von
http://delivery.acm.org/10.1145/1130000/1125557/p484arroyo.pdf?ip=130.83.73.38&id=1125557&acc=ACTIVE%20SERVICE&key=2BA2C432AB83DA15%
2E24DDBA2ADC8180AB%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&CFID=511751455&C
FTOKEN=59509924&__acm__=1431679515_80d06f9f128b8f5c60b189e08b5a114c
Atterer, R., & Schmidt, A. (2007). Tracking the Interaction of Users with AJAX Applications for Usability Testing. Proceedings of CHI 2007. Abgerufen von
http://www.academia.edu/581876/What_can_a_mouse_cursor_tell_us_more_correlation_of_eye_
mouse_movements_on_web_browsing
Atteslander, P. M. (1991). Methoden der empirischen Sozialforschung (6., neubearbeitete und erw.
Aufl.). Sammlung Göschen: Vol. 2100. Berlin, New York: De Gruyter.
Bamberg, G., Baur, F., & Krapp, M. (2011). Statistik (16. Aufl.). Oldenbourgs Lehr- und Handbücher der
Wirtschafts- und Sozialwissenschaften. München: Oldenbourg.
Bangor, A., Kortum, P. T., & Miller, J. T. (2008). An Empirical Evaluation of the System Usability
Scale. International Journal of Human-Computer Interaction, 24(6), 574–594.
doi:10.1080/10447310802205776
Beadouin-Lafon, M., & Mackay, W. E. (2003). Prototyping Tools and Techniques. The HumanComputer Interaction Handbook, 1006–1039. Abgerufen von
https://www.lri.fr/~mackay/pdffiles/Prototype.chapter.pdf
Berekoven, L., Eckert, W., & Ellenrieder, P. (2001). Marktforschung: Methodische Grundlagen und praktische Anwendung (9., überarb. Aufl.). Lehrbuch. Wiesbaden: Gabler.
Berkowitz, B. (2015). Conducting Focus Groups. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-focus-groups/main
Berkun, S. (2003). #27 - The art of usability benchmarking: Benchmark: A standard by which something
can be measured or judged. Abgerufen von http://scottberkun.com/essays/27-the-art-of-usabilitybenchmarking/
Bernsen, N. O., & Dybkjær, L. (2010). Multimodal Usability. Human-computer interaction series. London: Springer London.
Beschnitt, M. (2009). Standardisierte Fragebögen zur Messung der Usability/User Experience - derzeit
wieder in Mode? Abgerufen von http://www.usabilityblog.de/2009/09/standardisierte-fragebogenzur-messung-der-usabilityuser-experience-derzeit-wieder-in-mode/
Bevan, N., Degler, D., & Wilson, C. (2011). Scenario of Use. Abgerufen von
http://usabilitybok.org/scenario-of-use
Anhang
xxii
Bevan, N. & Wilson, C. (2005). Rapid Prototyping. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/rapid-prototyping
Bevan, N., Wilson, C., Chung, S., DeBoard, D., & Herzon, C. (2006). Wizard of Oz. Zugriff am
05.06.2015. Abgerufen von http://usabilitybok.org/wizard-of-oz
Bevan, N., Wilson, C., & Kantner, L. (2009). Usability Benchmark. Zugriff am 05.06.2015. Abgerufen
von http://usabilitybok.org/usability-benchmark
BMWi. (2014a). Faktenblatt: PUMa – Projekt Usability in Mittelstandsanwendungen. Zugriff am
30.06.2015. Abgerufen von http://141.76.68.3/wordpress_website/wpcontent/uploads/2014/10/faktenblatt-puma.pdf
BMWi. (2014b). PUMa - Projekt Usability in Mittelstandsanwendungen. Zugriff am 15.06.2015. Abgerufen von http://www.mittelstand-digital.de/DE/Foerderinitiativen/Usability/puma.html
BMWi. (2014c). Usability Inside - Usabiltiy in KMU verankern durch Sensibilisieren, Informieren, Dienstleistungen und Entwicklung passgenauer Vorgehensmodelle. Abgerufen von http://www.mittelstanddigital.de/MD/Redaktion/DE/PDF/faktenblatt-usability-insidepdf,property=pdf,bereich=md,sprache=de,rwb=true.pdf
BMWi. (2014d). UseTree - Das Berliner Kompetenzzentrum für Usability-Maßnahmen. Abgerufen von
http://www.mittelstand-digital.de/MD/Redaktion/DE/PDF/faktenblatt-usetree,property=pdf,bereich=md,sprache=de,rwb=true.pdf
BMWi. (2015a). CUBES - Community Usability betrieblicher Software kleiner und mittelständischer Unternehmen. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/cubes.html
BMWi. (2015b). Design4Xperience - Erlebniszentrierter Gestaltungprozess für kleine und mittlere Softwareunternehmen. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/design4xperience.html
BMWi. (2015c). Einfach intuitiv - Usability für den Mittelstand. Zugriff am 16.04.2015. Abgerufen von
http://mittelstand-digital.de/DE/Foerderinitiativen/usability.html
BMWi. (2015d). KompUEterchen4KMU - Kompetenznetzwerk Usability Engineering für Mobile Unternehmenssoftware von KMU für KMU. Abgerufen von http://www.mittelstanddigital.de/DE/Foerderinitiativen/Usability/kompueterchen4kmu.html
BMWi. (2015e). Simply usable - Gebrauchstaugliche, geprüfte und gewinnbringende SoftwareEntwicklung für den Mittelstand. Abgerufen von http://www.mittelstanddigital.de/MD/Redaktion/DE/PDF/faktenblatt-simply-usablepdf,property=pdf,bereich=md,sprache=de,rwb=true.pdf
Bortz, J., & Döring, N. (2002). Forschungsmethoden und Evaluation: Für Human- und Sozialwissenschaftler (3., überarb. Aufl.). Springer-Lehrbuch. Berlin [u.a.]: Springer.
Brandenburg, S., Stevens, G., Schmidt, R., Denzinger, J., Burmester, M., & Döbelt, S. (2015). Usability
für die Betriebliche Praxis: Skalierung und Einsatz von UUX-Methoden in kleinen und mittleren Unternehmen. Abgerufen von http://www.usetree.de/wp-content/uploads/2015/04/MuC2015_WS.pdf
Brooke, J. SUS - A quick and dirty usability scale, 1996. Abgerufen von http://cui.unige.ch/isi/iclewiki/_media/ipm:test-suschapt.pdf
Anhang
xxiii
Brown, D. M. (2011). Communicating design: Developing web site documentation for design and planning
(2nd ed.). Voices that matter. Berkeley, CA: New Riders.
Calabria, T. (2004). An introduction to personas and how to create them. Abgerufen von
http://www.steptwo.com.au/papers/kmc_personas/
Capra, M. (2005). Factor Analysis of Card Sort Data: An Alternative to Hierarchical Cluster Analysis.
Proceedings of the Human Factors and Ergonomics Society 49th Annual Meeting, 2005, 691–695. Abgerufen von
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.60.3176&rep=rep1&type=pdf
Carey, J. (2011). Persona. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/persona
CHeval. (2013). Cheval Methodencheck. Zugriff am 28.04.2015. Abgerufen von http://www.chevallab.ch/was-ist-usability/cheval-methodencheck/
Cooper, A. (1999). The Inmates are running the Asylum. Indianapolis, IN: SAMS: Macmillan Computer
Publishing.
Courage, C., & Baxter, K. (2005). Understanding Your Users: A Practical Guide to User Requirements:
Methods, Tools, and Techniques: Morgan Kaufmann Publishers.
Cronin, D. (2009). Industry trends in prototyping. Abgerufen von
http://www.adobe.com/devnet/archive/fireworks/articles/cooper_prototyping.html
Crystal, A., & Ellington, B. (2004). Task analysis and human-computer interaction: approaches, techniques, and levels of analysis. Proceedings of the Tenth Americas Conference on Information Systems.
Abgerufen von http://www.ils.unc.edu/~acrystal/AMCIS04_crystal_ellington_final.pdf
Dahlbäck, N., Jönsson, A., & Ahrenberg, L. (1993). Wizard of Oz studies — why and how. KnowledgeBased Systems, 6(4), 258–266. doi:10.1016/0950-7051(93)90017-N
DAkkS. (2010). Leitfaden Usability (Verison 1.3). Abgerufen von
http://www.dakks.de/sites/default/files/71_sd_2_007_leitfaden_usability_1.3_0.pdf
Das Verbundvorhaben PQ4Agile. (2015). Zugriff am 04.06.2015. Abgerufen von
http://www.pq4agile.de/projekt-pq4agile/
Diekmann, A. (2004). Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen (11. Aufl.,
Orig.-Ausg). Rororo Rowohlts Enzyklopädie: Vol. 55551. Reinbek bei Hamburg: RowohltTaschenbuch-Verl.
(2011). Duden online. Mannheim: Dudenverl. Abgerufen von http://dnbhh1.ad.ddb.de/NetManBin/nmwebclt.asp?CONFIGID=DUDENONLINE&DT=4&LANGUAGE=German
Eichhorn, W. (2004). Online-Befragung: Methodische Grundlagen, Problemfelder, praktische Durchführung. Abgerufen von http://www2.ifkw.uni-muenchen.de/ps/we/cc/onlinebefragung-rev1.0.pdf
DIN EN ISO 9241-11 (1999). Berlin: Beuth Verlag GmbH.
Ericsson, K. A., & Simon, H. A. (1993). Protocol analysis: Verbal reports as data (Rev. ed.). Cambridge,
Mass.: MIT Press.
Europäische Kommission. (2006). Die neue KMU-Definition – Benutzerhandbuch und Mustererklärung.
Abgerufen von
http://ec.europa.eu/enterprise/policies/sme/files/sme_definition/sme_user_guide_de.pd
Anhang
xxiv
Faiks, A., & Hyland, N. (2000). Gaining user insight: a case study illustrating the card sort technique.
College & Research Libraries, (61(4)), 349–357.
Frøkjær, E., & Hornbæk, K. (2008). Metaphors of human thinking for usability inspection and design.
ACM Transactions on Computer-Human Interaction, 14(4), 1–33. doi:10.1145/1314683.1314688
Gaffney, G. (2004). Contextual Enquiry - A Primer. Abgerufen von
http://www.sitepoint.com/contextual-enquiry-primer/
Georgii, H.-O. (2009). Stochastik: Einführung in die Wahrscheinlichkeitstheorie und Statistik (4., überarbeitete und erw. Aufl.). De Gruyter Lehrbuch. Berlin: Walter de Gruyter.
Gläser, T. (2014). Prototyping UX: Mit Wireframes und Prototypes zum optimalen Interface. Abgerufen
von http://t3n.de/magazin/wireframes-prototypes-optimalen-interface-prototyping-ux-233367/
Goodman, E., Kuniavsky, M., & Moed, A. (2012). Observing the user experience: A practitioner's guide
for user research ([2nd ed]). Amsterdam: Morgan Kaufmann/Elsevier.
Goodwin, K. (2008a). Getting from research to personas: harnessing the power of data. Abgerufen von
http://www.cooper.com/journal/2002/11/getting_from_research_to_perso
Goodwin, K. (2008b). Perfecting your personas. Abgerufen von
http://www.cooper.com/journal/2001/08/perfecting_your_personas
Graeb, M. (2013). CUBES. Zugriff am 30.03.2015. Abgerufen von http://www.wiwi.unisiegen.de/wirtschaftsinformatik/projekte/cubes/
Hackos, J. T., & Redish, J. (1998). User and task analysis for interface design. Wiley computer publishing.
New York: Wiley.
Hampton, C. & Vivela, M. (2014). Conducting Surveys. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-surveys/main
Hassenzahl, M., Burmester, M., & Koller, F. (2003). AttrakDiff: Ein Fragebogen zur Messung wahrgenommener hedonischer und pragmatischer Qualität. In G. Szwillus & J. Ziegler (Eds.), Berichte des
German Chapter of the ACM. Mensch & Computer 2003 (pp.187–196). Wiesbaden: Vieweg+Teubner
Verlag.
Hassenzahl, M., Burmester, M., & Koller, F. (2008). Der User Experience (UX) auf der Spur: Zum Einsatz von www.attrakdiff.de. Usability Professionals, 78–82. Abgerufen von
http://attrakdiff.de/files/up08_ux_auf_der_spur.pdf
Herzon, C., DeBoard, D., Wilson, C., & Bevan, N. (2010). Contextual Inquiry. Zugriff am 05.06.2015.
Abgerufen von http://usabilitybok.org/contextual-inquiry
Heuwing, B. (2010). Interview. Zugriff am 08.06.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/interview/
Holtzblatt, K., Wendell, J. B., & Wood, S. (2005). Rapid Contextual Design: A How-to Guide to Key
Techniques for User-centered Design: Elsevier/Morgan Kaufmann.
Hornsby, P. (2010). Hierarchical Task Analysis. Abgerufen von
http://www.uxmatters.com/mt/archives/2010/02/hierarchical-task-analysis.php
IAD. (o. J.). PUMaUsability in Mittelstandsanwendungen. Zugriff am 30.06.2015. Abgerufen von
http://www.usability-netz.de/
Jacobsen, J. (2007). Website-Konzeption: Erfolgreiche Websites planen und umsetzen (4., aktualisierte
und erw. Aufl.). Design publishing imaging - DPI. München [u.a.]: Addison-Wesley.
Anhang
xxv
Jordan, P. W. (1998). An introduction to usability. London, Bristol, Pa.: Taylor & Francis.
Jordan, P. W., Thomas, B., McClelland, I. L., & Weerdmeester, B. (1996). Usability Evaluation In Industry: Taylor & Francis.
K. Holm. (1986). Die Frage. Die Befragung 1, 32–91.
Killam, B., Preston, A., McHarg, S., & Wilson, C. (2009). Card Sorting. Zugriff am 05.06.15. Abgerufen
von http://usabilitybok.org/card-sorting
Kirakowski, J., & Corbett, M. (1993). SUMI: The Software Usability Measurement Inventory. British
Journal of Educational Technology, 24(3), 210–212. doi:10.1111/j.1467-8535.1993.tb00076.x
Knill, M. (2003). Interviewtechnik. Abgerufen von
http://www.rhetorik.ch/Interviewtechnik/Interviewtechnik.html
KompUEterchen4KMU. (2015). Zugriff am 30.03.2015. Abgerufen von http://www.kmuusability.de/index.shtml
Krueger, R. A. (2002). Designing and Conducting Focus Group Interviews. University of Minnesota, St.
Paul. Abgerufen von http://www.eiu.edu/~ihec/Krueger-FocusGroupInterviews.pdf
KUSi. (2015). Usability & User-Experience Methoden für den Mittelstand. Zugriff am 16.05.2015. Abgerufen von http://www.usability-siegen.de/qualifizierung.html
Lamantia, J. (2003). Analyzing Card Sort Results with a Spreadsheet Template. Abgerufen von
http://boxesandarrows.com/analyzing-card-sort-results-with-a-spreadsheet-template/
Landay, J. A., & Myers, B. A. (1995). Just Draw It! Programming by Sketching Storyboards. Carnegie
Mellon University, Human-Computer Interaction Institute Technical Report CMU-HCII-95-106 and
School of Computer Science Technical Report CMU-CS-95-199. Abgerufen von
http://www.cs.cmu.edu/~landay/research/publications/storyboard-tr/storyboard.pdf
Landay, J. A., & Myers, B. A. (1996). Sketching Storyboards to Illustrate Interface Behaviours. In the
Conference Companion of ACM Conference on Human Factors in Computing Systems: CHI '96, 193194. Abgerufen von
http://www.cs.cmu.edu/~landay/research/publications/CHI96/short_storyboard.pdf
Lindemann, U. (2009). Methodische Entwicklung technischer Produkte: Methoden flexibel und situationsgerecht anwenden (3., korrigierte Aufl.). VDI-Buch. Berlin, Heidelberg: Springer.
Maulsby, D., Greenberg, S., & Mander, R. (1993). Prototyping an intelligent agent through Wizard of
Oz. Interchi '93 Conference Proceedings, 277–284. doi:10.1145/169059.169215
Mayer, H. O. (2012). Interview und schriftliche Befragung: Grundlagen und Methoden empirischer Sozialforschung (6., überarbeitete Auflage). München: Oldenbourg.
McHarg, S. (2010). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von
http://usabilitybok.org/paper-prototyping
Moosbrugger, H. (2012). Testtheorie und Fragebogenkonstruktion: Mit 66 Abbildung und 41 Tabellen
(2., aktual. und überarb. Aufl.). Springer-Lehrbuch. Berlin: Springer.
Muller, W. (2001). Order and meaning in design. Delft University of Technology series in industrial design. Utrecht: Lemma Publishers.
Nielsen, J. (1992). Finding Usability Problems Through Heuristic Evaluation. Proceedings of the ACM
CHI'92 Conference, 373–380. Abgerufen von
Anhang
xxvi
http://faculty.utpa.edu/fowler/csci6316/papers/Nielsen_1992_Finding-Usability-Problemsthrough-Heuristic-Evaluation_CHI.pdf
Nielsen, J. (1993). Usability engineering (Updated ed.). San Francisco, Calif.: Morgan Kaufmann Publishers.
Nielsen, J. (1994a). Estimating the number of subjects needed for a thinking aloud test. Human- Computer Studies, (41), 385–397. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/DG308%20DID/nielsen-1994.pdf
Nielsen, J. (1994b). Guerrilla HCI: Using Discount Usability Engineering to Penetrate the Intimidation
Barrier. Abgerufen von http://www.nngroup.com/articles/guerrilla-hci/
Nielsen, J. (1994c). Usability Testing of WWW Designs: Article by Jakob Nielsen. Abgerufen von
http://www.nngroup.com/articles/usability-testing-1995-sun-microsystems-website/
Nielsen, J. (1995a). 10 Heuristics for User Interface Design. Abgerufen von
http://www.nngroup.com/articles/ten-usability-heuristics/
Nielsen, J. (1995b). Characteristics of Usability Problems Found by Heuristic Evaluation. Abgerufen von
http://www.nngroup.com/articles/usability-problems-found-by-heuristic-evaluation/
Nielsen, J. (1995c). How to Conduct a Heuristic Evaluation. Abgerufen von
http://www.nngroup.com/articles/how-to-conduct-a-heuristic-evaluation/
Nielsen, J. (1997). The Use and Misuse of Focus Groups. Abgerufen von
http://www.nngroup.com/articles/focus-groups/
Nielsen, J. (2000). Why You Only Need to Test with 5 Users. Abgerufen von
http://www.nngroup.com/articles/why-you-only-need-to-test-with-5-users/
Nielsen, J. (2001). First Rule of Usability? Don't Listen to Users. Abgerufen von
http://www.nngroup.com/articles/first-rule-of-usability-dont-listen-to-users/
Nielsen, J. (2004). Card Sorting: How Many Users to Test. Abgerufen von
http://www.nngroup.com/articles/card-sorting-how-many-users-to-test/
Nielsen, J. (2005). Putting A/B Testing in Its Place. Abgerufen von
http://www.nngroup.com/articles/putting-ab-testing-in-its-place/
Nielsen, J. (2012a). A/B Testing, Usability Engineering, Radical Innovation:What Pays Best? Abgerufen
von http://www.nngroup.com/articles/ab-testing-usability-engineering/
Nielsen, J. (2012b). Thinking Aloud: The #1 Usability Tool. Abgerufen von
http://www.nngroup.com/articles/thinking-aloud-the-1-usability-tool/
Nielsen, J., & Molich, R. (1990). Heuristic evaluation of user interfaces. In J. C. Chew & J. Whiteside
(Eds.), the SIGCHI conference (pp.249–256).
Nielsen, J., & Pernice, K. (2010). Eyetracking web usability. Berkeley, CA: New Riders.
Nørgaard, M., & Hornbæk, K. (2006). What Do Usability Evaluators Do in Practice?: An Explorative
Study of Think-Aloud Testing. ACM Symposium on Designing Interactive Systems, (DIS 2006), 209–
218. Abgerufen von http://www.kasperhornbaek.dk/papers/DIS2006_UsabilityEvaluation.pdf
Pasman, G. J. (o. J.). Paper Prototyping. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-4-paper-prototyping
Anhang
xxvii
Pernice, K., & Nielsen, J. (2003). How to Conduct Eyetracking Studies. Abgerufen von
http://www.nngroup.com/reports/how-to-conduct-eyetracking-studies/
Postert, D. (2014). Prototyping. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/06/Themenschwerpunkt_Juni_Prototyping.pdf
Quirmbach, S. M. (2013). Suchmaschinen: User Experience, Usability und nutzerzentrierte WebsiteGestaltung. X.media.press. Berlin u.a.: Springer.
Rakoczi, G. (2012). Eye Tracking in Forschung und Lehre: Möglichkeiten und Grenzen eines vielversprechenden Erkenntnismittels. Digitale Medien: Werkzeuge für exzellente Forschung und Lehre. Abgerufen von http://publik.tuwien.ac.at/files/PubDat_209599.pdf
Rammelt, R. & Otto, S. (o. J.). Rapid Prototyping. Zugriff am 30.05.2015. Abgerufen von
http://www.berlin-usability.de/usability/methoden-zur-evaluierung/rapid-prototyping.html#c200
Redondo, M., Bravo, C., & Ortega, M. (2009). Engineering the user interface: From research to practice.
London: Springer.
Richter, M., & Flückiger, M. D. (2010). Usability Engineering kompakt: Benutzbare Software gezielt entwickeln (2nd ed.). IT kompakt. Heidelberg: Spektrum Akademischer Verlag.
Riek, L. (2012). Wizard of Oz Studies in HRI: A Systematic Review and New Reporting Guidelines.
Journal of Human-Robot Interaction, 119–136. doi:10.5898/JHRI.1.1.Riek
Ross, J. (2009). Eyetracking: Is It Worth It? Abgerufen von
http://www.uxmatters.com/mt/archives/2009/10/eyetracking-is-it-worth-it.php
Ross, J. (2012). Why Are Contextual Inquiries So Difficult? Abgerufen von
http://www.uxmatters.com/mt/archives/2012/06/why-are-contextual-inquiries-so-difficult.php
Rosson, M. B., & Carroll, J. M. (2002). Usability engineering: Scenario-based development of humancomputer interaction (1st ed.). Morgan Kaufmann series in interactive technologies. San Fancisco: Academic Press.
Sarodnick, F., & Brau, H. (2011). Methoden der Usability Evaluation: Wissenschaftliche Grundlagen und
praktische Anwendung (2., überarb. und aktualisierte Aufl.). Wirtschaftspsychologie in Anwendung.
Bern: Huber.
Schmitt Hartmut, Dominik Rost, & Balthasar Weitzel. (2015). Kontextuelles Benutzerinterview durchführen. Abgerufen von http://www.pq4agile.de/PQ4WP/wp-content/uploads/2015/02/PQ4Agile-AP2.2-Kontextuelles-Benutzerinterview-durchf%C3%BChren-V.1.pdf
Schnell, R., Hill, P. B., & Esser, E. (2011). Methoden der empirischen Sozialforschung (9., aktualis. Auflage). München: Oldenbourg, R.
Schweibenz, W. (2007). Putting personas into practice. Workshop "Using the Personas Method for Applying Marketing and User Research Data", Jan 2007(15th BOBCATSSS symposium), 29–31.
Sharon, T., Ekhteraei, S., McHarg, S., & Wilson, C. (2010). Storyboard. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/storyboard
Shepherd, A. (1985). Hierarchical Task Analysis and Training Decisions. Innovations in Education &
Training International, 22(2), 162–176. doi:10.1080/1355800850220209
Simply Usable. Factsheet-Personas. Zugriff am 16.05.2015. Abgerufen von http://www.simplyusable.de/wp-content/uploads/2015/02/Factsheet-Personas-simply-usable.pdf
Anhang
xxviii
Simply Usable. (o. J.). Factsheet-Prototyping. Zugriff am 30.05.2015. Abgerufen von
http://www.simply-usable.de/wp-content/uploads/2015/02/Factsheet-Prototyping-simplyusable.pdf
Simply Usable. (2015). Factsheet-Benutzerbefragung. Abgerufen von http://www.simply-usable.de/wpcontent/uploads/2015/02/Factsheet-Benutzerbefragung-simply-usable.pdf
Snyder, C. (2003). Paper prototyping: Fast and easy way to design and refining user interfaces. The Morgan Kaufmann series in interactive technologies. San Francisco, Calif., Oxford: Morgan Kaufmann;
Elsevier Science.
Springer Gabler Verlag. (o. J.). Gabler Wirtschaftslexikon, Stichwort: Ausprägung. Abgerufen von
http://wirtschaftslexikon.gabler.de/Archiv/4423/auspraegung-v9.html
Stanitzek, K. (2013). Mouse Tracking - Übersicht zu Einsatz und Tools -. Abgerufen von
http://www.dieproduktmacher.com/mouse-tracking-uebersicht-zu-einsatz-und-tools/
Stappers, P.-J. (2012). Storyboarding. Zugriff am 01.06.15. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-12-storyboarding
Stiller, G. (2015). Mündliche Befragung (Interview). Zugriff am 21.04.2015. Abgerufen von
http://www.wirtschaftslexikon24.com/e/m%C3%BCndliche-befragunginterview/m%C3%BCndliche-befragung-interview.htm
Suzuki, S. (2010). The Power of Prototyping. Abgerufen von
http://www.paristechreview.com/2010/11/02/power-prototyping/
Travis, D. (2015). Benchmark usability testing. Zugriff am 12.05.2015. Abgerufen von
http://www.userfocus.co.uk/consultancy/benchmarkusabilitytesting.html
Usability First. (2015). Usability Methods. Zugriff am 19.05.2015. Abgerufen von
http://www.usabilityfirst.com/
Usability Inside. (2015). Persona. Zugriff am 16.05.2015. Abgerufen von http://www.usabilityinside.net/wissen/massnahmen-und-methoden/methoden/persona/
Usability.de. (2015). Ausgewählte UX Methoden im Überblick. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.de/leistungen/methoden.html
Usability.gov. (2013). How To & Tools. Zugriff am 27.04.2015. Abgerufen von
http://www.usability.gov/how-to-and-tools/index.html
UsabilityNet. (2003). List of methods. Zugriff am 07.05.2015. Abgerufen von
http://www.usabilitynet.org/tools/list.htm
UsabilityNet. (2006a). Methods table. Zugriff am 18.06.2015. Abgerufen von
http://www.usabilitynet.org/tools/methods.htm
UsabilityNet. (2006b). Subjective Assessment. Zugriff am 08.06.2015. Abgerufen von
http://www.usabilitynet.org/tools/subjective.htm
Usability-Tipps.de. (o. J.). Mouse-Tracking & Co: Problemen auf der Mausspur… Zugriff am 16.05.2015.
Abgerufen von http://www.usability-tipps.de/info/index.php/mouse-tracking-click-tracking/
Usability-Toolkit. (o. J.). Usability-Methoden. Zugriff am 17.05.2015. Abgerufen von http://usabilitytoolkit.de/usability-methoden/
Uselab. (2015). Usability und UX Wiki. Zugriff am 27.04.2015. Abgerufen von http://www.uselab.tuberlin.de/wiki/index.php/Hauptseite
Anhang
xxix
User Interface Design. (2014). AttrakDiff. Zugriff am 08.05.2015. Abgerufen von
http://attrakdiff.de/#nutzen
USERfit. (1996a). Interviews. Zugriff am 11.05.2015. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTinterview.pdf
USERfit. (1996b). Task Analysis. Zugriff am 11.05.2015. Abgerufen von
http://www.idemployee.id.tue.nl/g.w.m.rauterberg/lecturenotes/UFTtask-analysis.pdf
Usetree. (2014a). Aufgabenanalyse. Zugriff am 09.05.2015. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Aufgabenanalyse.pdf
Usetree. (2014b). Fragebogen. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Fragebogen.pdf
Usetree. (2014c). Heuristische Evaluation. Zugriff am 04.05.2015. Abgerufen von
http://www.usetree.de/wp-content/uploads/2014/09/Heuristische-Evaluation.pdf
Usetree. (2014d). Interview. Abgerufen von http://www.usetree.de/wpcontent/uploads/2014/09/Interview.pdf
UseWell. (2011). Method overview. Zugriff am 09.05.2015. Abgerufen von
http://www.usewell.be/#/methods/
UX Apprentice. (o. J.). Storyboarding. Zugriff am 01.06.2015. Abgerufen von
http://www.uxapprentice.com/strategy/
UXPA. (2012). Usability Body of Knowledge: Methods. Zugriff am 12.05.2015. Abgerufen von
http://www.usabilitybok.org/methods
van den Haak, Maaike, Jong, M. de, & Jan Schellens, P. (2003). Retrospective vs. concurrent thinkaloud protocols: Testing the usability of an online library catalogue. Behaviour & Information Technology, 22(5), 339–351. doi:10.1080/0044929031000
van der Lelie, C. (2006). The value of storyboards in the product design process. Personal and Ubiquitous Computing, 10(2-3), 159–162. doi:10.1007/s00779-005-0026-7
Vanatenhoven, J. V. & Wilkinson, A. W. (o. J.). Task Analysis. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-37-task-analysis
Vanhoutte, A. S. J. & van Vliembergen, E. J. W. (o. J.). Contextual Inquiry. Zugriff am 04.06.2015. Abgerufen von http://filter.ucdtoolbox.com/filter
Varga, E. (o. J.). Eye Tracking. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-3-eye-tracking
Vermeeren, A. P. O. S. (o. J.). Attrakdiff Questionnaire. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-1-attrakdiff-questionnaire
Vilela, M. (2014). Conducting Interviews. Abgerufen von http://ctb.ku.edu/en/table-ofcontents/assessment/assessing-community-needs-and-resources/conduct-interviews/main
Völkel, M. (2006). Webride-Usability: Das Personas-Modell. Abgerufen von http://www.webblog.net/comments/P212_0_1_0/
Weevers, T., Jacobs, L., & Oestendorp, W. (2013). UCD Toolbox. Zugriff am 21.05.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#
Anhang
xxx
Welker, M. (2005). Online-Research: Markt- und Sozialforschung mit dem Internet (1. Aufl.). Heidelberg: Dpunkt.verlag.
Wharton, C., Rieman, J., Lewis, C., & Polson, P. (1994). The cognitive walkthrough method: A practitioner's guide. Usability inspection methods, 105–140. Abgerufen von
http://www.colorado.edu/ics/sites/default/files/attached-files/93-07.pdf
Wikipedia. (2015). Kleine und mittlere Unternehmen. Zugriff am 01.03.2015. Abgerufen von
http://de.wikipedia.org/w/index.php?oldid=137915251
Wilkinson, A. W. & Vanattenhoven, J. V. (o. J.). Fucus Groups. Zugriff am 05.06.2015. Abgerufen von
http://filter.ucdtoolbox.com/filter#info-32-focus-groups
Wilson, C. (2006). Focus Group. Zugriff am 05.06.2015. Abgerufen von http://usabilitybok.org/focusgroup
Wilson, C. (2010). Persona conception and gestation. User Experience Re-Mastered: Your Guide to Getting the Right Design,
Wilson, C. (2013). User interface inspection methods: A user-centered design method.
Anhang
xxxi