PDF der Diplomarbeit - Professur Mediengestaltung
Transcription
PDF der Diplomarbeit - Professur Mediengestaltung
Fakultät Informatik Institut für Software- und Multimediatechnik Professur für Mediengestaltung Prof. Dr.-Ing. habil. Rainer Groh Diplomarbeit im Studiengang Medieninformatik Konzeption eines grafischen Multi-Meeting Protokoll-Browsers Bettina Kirchner Dresden, 14.02.2014 Betreuer: Dipl.-Medieninf. Mirko de Almeida Madeira Clemente Dipl.-Medieninf. Hannes Leitner Hiermit erkläre ich, Bettina Kirchner, die vorliegende Diplomarbeit zum Thema selbständig und ausschließlich unter Verwendung der im Literaturverzeichnis aufgeführten Informationsquellen verfasst zu haben. Diese Arbeit wurde noch keiner Prüfungsbehörde in gleicher oder ähnlicher Form vorgelegt. Dresden, 14.02.2014 Bettina Kirchner Matrikelnummer: 3338705 An dieser Stelle möchte ich mich bei allen bedanken, die mich auf dem Weg hierher begleitet und unterstützt haben. Mein Dank gilt zunächst Prof. Dr.-Ing. habil. Rainer Groh und meinen wissenschaftlichen Betreuern Mirko de Almeida Madeira Clemente und Hannes Leitner für die konstruktive Kritik und Motivation sowie die Zeit, die sie investiert haben. Ohne ihre fachliche Unterstützung wäre die Arbeit in dieser Form nicht möglich gewesen. Besonders bedanken möchte ich mich weiterhin bei meinen Eltern, die mir stets unterstützend zur Seite standen. Ohne meine Eltern wären meine Ausbildung und alles, was dazu gehörte, nicht möglich gewesen. Ein Dankeschön geht auch an meine Schwester, dir mir in dieser Zeit immer ein Vorbild und Motivation war. Ebenso möchte ich mich bei meinen Kommilitonen bedanken, die teilweise bereits vom ersten Tag an mit mir die schönen und stressigen Momente des Studiums erlebt haben und mir während der ganzen Zeit seelisch und moralisch beistanden. Ihre Begleitung hat meinen akademischen Werdegang maßgeblich beeinflusst und ich bin dankbar für die Umstände, die uns alle über die Jahre hinweg zusammengebracht haben. Nicht zuletzt gilt ein besonderes Dankeschön auch meinen Freunden, die mich mit zahlreichen Anmerkungen unterstützt haben und immer ein offenes Ohr für mich hatten. 1 2 3 4 5 6 Einleitung..................................................................................................1 1.1 Motivation ........................................................................................1 1.2 Zielstellung ......................................................................................2 1.3 Gliederung .......................................................................................3 Grundlagen ...............................................................................................5 2.1 Meetings und Meeting-Aufzeichnungen .........................................5 2.2 Visual Text Mining .........................................................................14 2.3 Grundlagen Dokument- und Textstruktur ......................................20 2.4 Zusammenfassung ........................................................................22 Verwandte Arbeiten ...............................................................................25 3.1 Meeting-Browser...........................................................................25 3.2 Visualisierung zeitbasierter Textkollektionen ................................30 3.3 Zusammenfassung ........................................................................34 Anforderungsanalyse .............................................................................37 4.1 Problemanalyse .............................................................................37 4.2 Datenanalyse .................................................................................43 4.3 Bewertung der verwandten Arbeiten ............................................47 4.4 Anforderungen an das Konzept .....................................................53 Synthese und Konzeption ......................................................................59 5.1 Visualisierungskonzept ..................................................................59 5.2 Interaktionskonzept .......................................................................66 5.3 Umsetzung der Anwendungsfälle .................................................72 5.4 Kritische Betrachtung ....................................................................75 5.5 Zusammenfassung ........................................................................78 Technische Umsetzung ..........................................................................83 6.1 Technologie ...................................................................................83 6.2 Implementierung der GUI ..............................................................85 6.3 Implementierung der Interaktion ...................................................92 6.4 7 Zusammenfassung ....................................................................... 97 Zusammenfassung .............................................................................. 101 7.1 Fazit ............................................................................................ 101 7.2 Ausblick ...................................................................................... 102 Anhang........................................................................................................ 105 Literaturverzeichnis .................................................................................... 109 Webquellen................................................................................................. 115 Abbildungsverzeichnis ................................................................................ 117 Tabellenverzeichnis .................................................................................... 121 Quellcodeverzeichnis .................................................................................. 123 Meetings dienen dem umfangreichen Austausch projektbezogener Informationen und der Organisation von Teamarbeit, wobei neue projektbezogene Informationen entstehen (vgl. [Banerjee et al. 05] und [Pallotta et al. 07]). Aufgaben werden verteilt, Termine festgelegt und Beschlüsse gefasst. Die Bedeutung von Meetings als Kollaborationsmethode ist heutzutage größer denn je [S. Yu et al. 10]. Dabei sollten sie als eine Reihe von Ereignissen betrachtet werden, die aufeinander aufbauen und deren Inhalte in Zusammenhang stehen (vgl. [Post et al. 04]). Umso wichtiger werden die Aufzeichnungen eines Meetings. Sie realisieren die Arbeit, die in einem Meeting bewältigt wurde, und protokollieren die gesamte Projektarbeit (vgl. [Tinnirello 02]). Die vorliegende Arbeit beschreibt die Konzeption eines grafischen Browsers, der Inhalte einer Reihe von aufeinanderfolgenden Meetings sowie bestehende Meeting-übergreifende Zusammenhänge visualisiert. Weiterhin wird ein spezielles Interaktionskonzept erarbeitet, das Projekt-Informationen über die Visualisierung zugänglich macht. Eine Anwendung des konzipierten Werkzeugs ist insbesondere für Projekt-Meetings vorgesehen. “Capture is meaningless without access.” [Abowd 99] Das heißt: Die Sicherung von Informationen ist bedeutungslos, wenn der Zugang zu den Informationen nicht in geeigneter Weise bereitgestellt wird (vgl. [Abowd 99] , S. 526). Damit weist ABOWD auf eine grundlegende Problemstellung hin, die im Rahmen dieser Arbeit auf den Abruf von MeetingInhalten übertragen wird. Im Bereich der Informationssicherung von Meeting-Inhalten werden seit Jahrzehnten Forschung und Entwicklung vorangetrieben, wobei der Schwerpunkt existierender Systeme auf dem Ausgleich der kognitiven Belastung der Teilnehmer beim Notieren und der vollständigen Sicherung der Inhalte liegt (vgl. [Z. Yu et al. 10]). Dabei herrschen Technologien zur automatischen Informationssicherung mittels Audio- und Videoaufnahmen vor (vgl. [Geyer et al. 05]), [Z. Yu et al. 10]). Während es keine großen Schwierigkeiten bereitet, automatische Audio- und Videoaufzeichnungen abzuspielen, stellt die gezielte Suche nach Informationen für den Nutzer einen Mehr- 2 1.2. Zielstellung aufwand gegenüber der Verwendung eigener Notizen oder MeetingProtokolle dar (vgl. [Wellner et al. 05]). Aus diesem und anderen Gründen1 werden solche Systeme noch immer kaum verwendet [Whittaker et al. 12], und persönliche Notizen und Textprotokolle zählen mit Abstand zu den am häufigsten genutzten Meeting-Aufzeichnungen [Whittaker et al. 07]. Halbautomatische2 Ansätze wie Audio-Annotationswerkzeuge (siehe Abschnitt 2.1.4) oder das elektronische Notizbuch NiCEBook [Brandl et al. 10] versuchen bestehende Probleme automatischer Ansätze zu lösen und zeigen vielversprechende Ergebnisse in ihren Nutzerstudien. Der Bereich der Informationssicherung von Meeting-Inhalten ist somit weitgehend abgedeckt. Bei der Unterstützung des Informationsabrufs fokussieren sich sowohl automatische, als auch halbautomatische Systeme jedoch hauptsächlich auf einzelne Meetings. Sie vernachlässigen dabei die Tatsache, dass MeetingInhalte und -Ergebnisse als Ausgangspunkt für die weitere Projektarbeit sowie weitere Meetings dienen (vgl. [Pallotta et al. 07]). An dieser Stelle setzt die vorliegende Arbeit an. Die Themenstellung dieser Arbeit geht aus dem Forschungsprojekt Vizamp hervor, welches an der TU Dresden in Zusammenarbeit mit der queo GmbH durchgeführt wird. Vizamp widmet sich der Thematik des Projektmanagements in mittelständischen Unternehmen in der Wissensgesellschaft 3 und bislang verfügbare Projektmanagement-Software. Schwerpunkt des Forschungsprojektes ist die Konzeption eines interaktiven Systems für agiles Multi-Projektmanagement, „das innovative Visualisierungs- und Interaktionskonzepte für die Arbeit von Projektmanagern und das kollaborative Arbeiten der Projektteams verbessern soll.“ In diesem Kontext wird in der vorliegenden Arbeit ein Werkzeug konzipiert, das den Zugang zu Meeting-Inhalten über eine Folge von Projekt-Meetings hinweg bereitstellt. Ziel des Konzepts ist es, durch eine Meetingübergreifende Darstellung der Inhalte konkrete Anwendungsfälle beim Informationsabruf zu unterstützen. Der Schwerpunkt der Arbeit liegt auf der Visualisierung von Meeting-Inhalten und Meeting-übergreifenden Zusammenhängen. Zu diesem Zweck sind einerseits grundlegende Strukturen von MeetingInhalten zu analysieren. Anhand der Erkenntnisse wird die inhaltliche Grundlage des Konzepts definiert. Andererseits findet eine Untersuchung ausge1 Beispielsweise erhöhter technologischer Aufwand oder Bedenken hinsichtlich dem Schutz der Privatsphäre (vgl. [Z. Yu et al. 10]). 2 Der Begriff „halbautomatisch“ bezeichnet hier die Kombination automatischer Aufzeichnung mit Mechanismen zur manuellen Bearbeitung und Annotation 3 Werbebranche, IT-Sektor, und Individual-Softwareentwicklung EINLEITUNG 3 wählter Visualisierungsansätze aus dem Bereich des Text Mining statt. Einzelne Aspekte der Visualisierungsformen werden auf Meeting-Inhalte übertragen. Darauf basierend schließt sich die Erarbeitung des Visualisierungsund Interaktionskonzepts an. Abschließend wird ein Prototyp entwickelt, der das Konzept praktisch umsetzt. Die Arbeit ist in sieben Kapitel gegliedert. Im Anschluss an die Einleitung behandelt Kapitel 2 zunächst wichtige Grundlagen zu Meetings und Meeting-Aufzeichnungen. Weiterhin erfolgt eine Einführung in das Gebiet des Text Mining und die Vorstellung grundlegender Visualisierungsansätze aus diesem Bereich. Der letzte Abschnitt legt Grundlagen zu Dokument- und Textstrukturen dar. Kapitel 3 betrachtet verwandte Arbeiten aus zwei Bereichen. Der erste Teil beschreibt existierende Systeme zur Unterstützung des Informationsabrufs von Meeting-Inhalten und dient der Abbildung des aktuellen Forschungsund Entwicklungsstands in diesem Bereich. Der zweite Teil beleuchtet Ansätze zur Visualisierung großer Textsammlungen mit Zeitbezug. Kapitel 4 stellt Anforderungen an das Konzept auf. In diesem Zusammenhang werden Anwendungsfälle untersucht, die sich beim Informationsabruf von Meeting-Inhalten ergeben. Die detaillierte Analyse von Meeting-Inhalten und ihren Meeting-übergreifenden Zusammenhägen resultiert in der Definition der Datengrundlage. Aufbauend darauf werden die verwandten Arbeiten aus Kapitel 3 hinsichtlich ihrer Eignung für den Meeting-übergreifenden Informationsabruf untersucht und bewertet. Kapitel 1 stellt das auf Basis der Anforderungen erarbeitete Visualisierungsund Interaktionskonzept vor. Zum einen wird die visuelle Repräsentation der Datengrundlage erläutert. Zum anderen wird der Funktionsumfang des Interaktionskonzepts veranschaulicht. Mögliche Vorgehensweisen zur Umsetzung der zuvor definierten Anwendungsfälle runden den konzeptionellen Teil dieser Arbeit ab. Die kritische Betrachtung des Konzepts bildet den Abschluss dieses Kapitels. Der im Rahmen dieser Arbeit entstandene Prototyp setzt ausgewählte Aspekte des Visualisierungs- und Interaktionskonzepts um, deren Implementierung Kapitel 6 erläutert. Eine Vorstellung grundlegender Bestandteile der gewählten Technologie geht der Beschreibung der Implementierung voraus. Kapitel 7 zieht ein Fazit aus den erreichten Ergebnissen und fasst die Arbeit abschließend zusammen. Das Kapitel gibt außerdem einen Ausblick auf eine mögliche Weiterentwicklung des Konzepts und nennt potentielle Forschungsfragen, die aus den Erkenntnissen der Arbeit hervorgehen. Dieses Kapitel betrachtet Grundlagen aus drei Bereichen, die Voraussetzung zum wesentlichen Verständnis der Arbeit sind. Der erste Abschnitt vermittelt einen Überblick zu Meetings und Meeting-Aufzeichnungen und behandelt insbesondere strukturelle Merkmale, die einen essentiellen Teil der Datengrundlage des Konzepts bilden. Zur Vermittlung der gestalterischen Grundlage der konzeptionellen Arbeit werden anschließend ausgewählte Visualisierungsansätze und ihre Verwendung im Bereich Text Mining beleuchtet. Der letzte Abschnitt stellt ein Modell allgemeiner Dokumentstrukturen sowie organisatorische Textstrukturen vor. Meetings können je nach ihrem Kontext sehr unterschiedlich ausfallen und aufgefasst werden - sie sind einzigartig [Romano et al. 01]. Dennoch lassen sich allgemeingültige Meeting-Strukturen und -Inhalte definieren, die in diesem Abschnitt dargelegt werden. Weiterhin wird erläutert, welche Formen von Meeting-Aufzeichnungen es gibt, und welche Anhaltspunkte sie zum Informationsabruf bereitstellen. Der letzte Abschnitt dieses Kapitels beschreibt schließlich den Zyklus, den aufeinanderfolgende Meetings und ihre Aufzeichnungen bilden. Im Hinblick auf die Themenstellung dieser Arbeit werden Meetings speziell im Kontext des Projektmanagements betrachtet, wozu es einer detaillierteren Definition bedarf. Folgende allgemeine Meeting-Definitionen finden sich in der Literatur: „Ein Meeting ist die strukturierte Kommunikation zwischen zwei oder mehr zusammenarbeitenden Personen“, wobei sowohl formale Vorstandssitzungen als auch spontane Mitarbeiterversammlungen dazu gezählt werden, welche zeit- und ortsunabhängig stattfinden können [Cook et al. 87]. ROMANO ET AL. beschreiben Meetings als „zielgerichtete Interaktion kognitiver Aufmerksamkeit, geplant oder zufällig, wenn Personen ein Zusammenkommen zu einem gemeinsamen Zweck vereinbaren – un- Gesamtheit aller Funktionen zur Planung, Steuerung und Kontrolle bei der Durchführung zeitlich begrenzter Aufgaben (vgl. [Wytrzens 10], S. 22) 6 2.1. Meetings und Meeting-Aufzeichnungen abhängig davon, ob sie zur gleichen Zeit am gleichen Ort oder zu unterschiedlichen Zeiten an unterschiedlichen Orten zusammenkommen“ [Romano et al. 01]. Der Meeting-Begriff wird durch die Autoren vom örtlich und zeitlich gleichen Zusammenkommen von Personen erweitert auf örtlich verteilte Telekommunikation bis hin zum ungleichzeitigen Bearbeiten gemeinsam genutzter Aufzeichnungen (analog oder digital, Dokumente, WhiteboardAufzeichnungen). Im Kontext dieser Arbeit spielen solche zeitlich verteilten Meetings jedoch keine Rolle, und Meetings werden definiert als: Das (möglicherweise örtlich verteilte) gleichzeitige Zusammenkommen zweier oder mehrerer Personen zum gezielten Informationsaustausch. Anhand verschiedener Eigenschaften eines Meetings lässt sich ein Klassifikationsschema definieren, das Romano et al. mit dem Begriff der MeetingDimensionen belegen [Romano et al. 01]. Basierend auf dieser und ähnlichen Beschreibungen aus der Literatur (vgl. [Mannering 11] und [Tinnirello 02]) werden Meetings im Folgenden nach Zeit und Ort ihrer Durchführung, Zweck des Meetings und ihrem wesentlichen Ablauf klassifiziert und erläutert. Aufgrund der Globalisierung arbeiten Teams heutzutage zum Teil über die ganze Welt verstreut, und Unternehmen müssen regelmäßig in Kontakt mit Kooperationspartnern oder Kunden aus anderen Ländern und Kontinenten treten (vgl. [Plaue 09]). Telekommunikation ermöglicht es, Meetings im virtuellen Raum abzuhalten und damit Reisekosten und Zeitaufwand zu minimieren. Aus der zeitlichen und örtlichen Verteilung von MeetingTeilnehmern lassen sich verschiedene Meeting-Arten ableiten. In Anlehnung an die Raum/Zeit-Matrix für CSCW-Systeme4 [Johnson 07] ordnet Tabelle 2.1 diese Meeting-Arten hinsichtlich Zeit und Ort ihrer Durchführung ein. Face-To-Face Meeting Telefonkonferenz Videokonferenz Datenkonferenz (Whiteboard, Texteditoren) Chat Whiteboard File Sharing E-Mail File Sharing Face-To-Face Meetings beschreiben solche Meetings, bei denen sich eine variable Anzahl von Personen zur gleichen Zeit in einem Raum zusammenfindet, um gemeinsame Belange zu besprechen. Telekonferenzen sind Mee4 CSCW: Computer Supported Collaborative Work – Systeme zur Kollaborations-Unterstützung GRUNDLAGEN 7 tings mit Audioübertragung, Videokonferenzen beinhalten Audio- und Videodaten und Datenkonferenzen bezeichnen Meetings, bei denen an allen Kommunikationsenden Daten wie Whiteboard-Aufzeichnungen zugänglich sind, oder das gemeinsame Bearbeiten von Textdokumenten möglich ist. Chats umfassen das Senden von Nachrichten per Instant Messaging Systemen. Nach den Meeting-Definitionen von Cook et al. und Romano et al. (siehe Abschnitt 2.1.1) gelten auch das gemeinsame, zeitunabhängige Bearbeiten von Dateien (analog oder digital) sowie die Kommunikation per E-Mail zu einem bestimmten Thema als Meeting. Die Bestimmung des Meeting-Zwecks im Vorfeld hilft den Teilnehmern, einheitliche Erwartungen an das Ergebnis des Meetings aufzubauen. Damit wird ein gemeinsames Ziel gesetzt, was sich meist positiv auf das Meeting selbst auswirkt, da die Teilnehmer im Hinblick auf das Erreichen dieses Ziels agieren und weniger vom Thema abschweifen. (vgl. [Tinnirello 02], S. 84) Bezüglich der Arten von Meetings in Hinsicht auf ihren Zweck gibt es keine einheitliche Aufstellung in der Literatur. Die meisten Überschneidungen finden sich bei TINNIRELLO, COOK ET AL. und HENKEL. Die Autoren definieren folgende Meeting-Arten (vgl. [Tinnirello 02], [Cook et al. 87] und [Henkel 07]): Problemlösung Entscheidungsfindung Informationsaustausch (Präsentation, Report) Brainstorming Planung COOK ET AL. und HENKEL weisen außerdem darauf hin, dass diese Unterscheidung nicht ausschließlich ist. Sie dient zunächst nur der Bestimmung des Hauptziels eines Meetings – die meisten Meetings beinhalten Komponenten mehrerer dieser Arten [Cook et al. 87]. In der Literatur wird bezüglich des Ablaufs zwischen formellen (strukturierten) und informellen (unstrukturierten) Meetings unterschieden. Formelle Meetings haben einen fest vorgegebenen Ablauf, während informelle Meetings freier in ihrer Durchführung sind. Zu informellen Meetings zählen beispielsweise spontane Mitarbeiterversammlungen, während Vorstandssitzungen formell ablaufen (vgl. Meeting-Definition nach COOK ET AL., Abschnitt 2.1.1) Ihre Eigenschaften sind in Tabelle 2.2 gegenübergestellt. So gibt es bei strukturierten Meetings eine Rollenverteilung mit festem Protokollanten und Moderator, sowie eine vorgegebene Sprecherreihenfolge, und die Agenda dient als fest einzuhaltender Leitfaden des Meetings. Unstrukturierte Meetings haben dagegen im Vorfeld nicht immer eine Agenda, oder sie ergibt sich oft erst im Meeting und ist flexibler und allgemeiner gehalten. Beispiele formeller und informeller Meeting-Protokolle finden sich in Abbildung A.1 und Abbildung A.2 (siehe Anhang). (vgl. [Mannering 11] und [Jaimes et al. 05]) 8 2.1. Meetings und Meeting-Aufzeichnungen Dedizierter Protokollant Protokollierung durch Teilnehmer Geleitet durch Moderator, vorgegebene Sprecherreihenfolge Frei, diskussionsartig Strikt einzuhalten, vorher festgelegt Flexibel, erweiterbar Jede dieser Dimensionen beeinflusst das Meeting: Eine Telefonkonferenz dient einem Zweck und wird formell oder informell abgehalten, ein Meeting zur Problemlösung kann formellen oder informellen Charakter haben und ist in seinem Zweck unabhängig von Zeit und Ort der Durchführung (vgl. Meeting-Definition nach ROMANO ET AL., Abschnitt 2.1.1). Abbildung 2.1 zeigt die Meeting-Arten im Überblick. Meeting-Aufzeichnungen stellen eine wichtige Informationsquelle dar. Sie dienen als Referenz zu Inhalten und Ergebnissen eines Meetings, welche einen direkten Einfluss auf die Effizienz und Organisation eines Unternehmens oder eines Teams haben. Damit bilden sie das kollektive Gedächtnis eines Teams und werden häufig in späteren Meetings als Diskussionsgrundlage herangezogen. [Pallotta et al. 07] Eine Unterscheidung verschiedener Formen von Meeting-Aufzeichnungen erfolgt einerseits anhand der Art ihrer Anlegung, die manuell oder automatisch abläuft, andererseits danach, ob ihre Nutzung privat oder für die Öffentlichkeit im Sinne aller Projekt-Beteiligten bestimmt ist. Notizen werden mit Stift und Papier oder mittels Laptop, Tablet, Smartphone oder digitalem Stift5 angefertigt. Handschriftliche Notizen werden dabei häufig im Anschluss an ein Meeting digitalisiert [Brandl et al. 10]. Sie können von Teilnehmer zu Teilnehmer für das gleiche Meeting höchst unterschiedlich ausfallen und präsentieren oft nur einen kleinen Ausschnitt aus dem 5 Beispielsweise der Anoto Pen (siehe www.anoto.com, aufgerufen am 12.02.2014) GRUNDLAGEN 9 Meeting (vgl. [Whittaker et al. 06]). Weiterhin beinhalten Notizen die wichtigsten Informationen und eine persönliche Zusammenfassung für den Autor selbst, und sind durch ihren subjektiven Charakter für andere Personen nur eingeschränkt nützlich [Geyer et al. 05]. Trotz der allgemein verbreiteten Gewohnheit des Notierens von MeetingInhalten verlassen sich die Teilnehmer häufig auf das Meeting-Protokoll als öffentliche Informationsquelle, die für alle Beteiligten gleichermaßen zur Verfügung steht. Das Protokoll wird meist von einem ausgewählten Protokollanten angefertigt und im Anschluss an das Meeting verbreitet. Es dient als öffentliche Aufzeichnung vergangener Ereignisse, der Erinnerung an zu erledigende Aufgaben und dem Überprüfen des Projekt-Fortschritts und bildet eine allgemeine Zusammenfassung der Meeting-Inhalte. Gleichzeitig hat das Meeting-Protokoll eine vertragsähnliche Funktion zwischen den Teilnehmern, indem es von der Gruppe gemeinsam getroffene Entscheidungen festhält. [Whittaker et al. 07] Audio- und Videoaufzeichnungen eines Meetings dienen der vollständigen Informationserfassung bei gleichzeitiger Entlastung der Teilnehmer, die sich durch die automatische Informationssicherung auf ihre aktive Beteiligung an der Besprechung konzentrieren können. Kameras und Mikrofone sind dabei oft an mehreren Stellen im Raum verteilt und Teil sogenannter „Smart Meeting Environments“ oder Räumen, die speziell auf diese Art der Informationssicherung ausgelegt sind (vgl. [Z. Yu et al. 10]). Heutzutage ist das automatische Aufzeichnen von Audio und Video mit einfacheren Mitteln möglich, da fast jeder Laptop über eine integrierte Kamera verfügt, und Audioaufzeichnungen ohne Probleme mit dem Tablet oder Smartphone gemacht werden können. Technisch hoch aufwändige Smart Meeting Environments (SME) oder Rooms (SMR), wie der IDIAP SMR [Moore 02], erfassen Meeting-Inhalte, die über einfache Audio- und Video-Aufzeichnungen hinausgehen. Dazu zählen neben dem automatisch generierten Transkript der AudioAufzeichnungen auch Emotionen oder Sprechererkennung. Abbildung 2.2 zeigt den allgemeinen Aufbau eines solchen Systems. 10 2.1. Meetings und Meeting-Aufzeichnungen Zu den multimedialen Aufzeichnungen zählen ebenfalls annotierte AudioAufzeichnungen. Sie zählen zu den halbautomatischen Ansätzen (vgl. Abschnitt 1.1). Bei Systemen wie Filochat [Whittaker et al. 94] und Dynomite [Wilcox et al. 97] können Aufnahmen beispielsweise mit Notizen angereichert werden. Andere Werkzeuge ermöglichen das Markieren relevanter Abschnitte der Audio-Aufzeichnung auf dem Smartphone (vgl. [Kalnikaitė et al. 12]). Eine Zusammenfassung der wichtigsten Eigenschaften der verschiedenen Meeting-Aufzeichnungen stellt abschließend Abbildung 2.3 dar. Die Erinnerung der Teilnehmer verblasst mit der Zeit, und beim späteren Informationsabruf bedarf es verschiedener Anhaltspunkte, um das Gesuchte GRUNDLAGEN 11 in den Aufzeichnungen zu finden. Der Informationsabruf gestaltet sich je nach Art der Meeting-Aufzeichnungen unterschiedlich. Dabei ist bei allen Formen von Aufzeichnungen die Zeit ein wichtiges Kriterium für den Zugang zu Meeting-Inhalten [Geyer et al. 01]. Besonders bei der Verwendung von Notizen und Protokollen wird zunächst abgeschätzt, in welchem Zeitrahmen eine Information festgehalten wurde, und die betreffenden Aufzeichnungen durchsucht. Listen, Überschriften und andere Strukturierungen der Inhalte dienen als visuelle Unterstützung bei der Informationssuche in Protokollen und Notizen. Notizen werden zudem häufig mit Hervorhebungen und Markierungen versehen, wie das Einkreisen oder Unterstreichen von Informationen oder das farbliche Hervorheben mit Textmarkern (vgl. [Wilcox et al. 97]). Die Protokoll-Struktur folgt weiterhin der Agenda des Meetings, welche die Inhalte thematisch getrennt auflistet und damit als Leitfaden des Dokuments fungiert (vgl. [Mannering 11]). Zusätzlich bilden Protokolle Zusammenhänge mithilfe von Einrückungen oder Tabellen ab. Dem Informationsabruf von Audio- und Video- sowie multimedialen Aufzeichnungen dienen spezielle Meeting Browser. Sie sind meist Teil eines Smart Meeting Environments und im Bereich „Semantic Processing“ eingeordnet (siehe Abbildung 2.2, vgl. [Z. Yu et al. 10]). Mittels verschiedener Methoden zur Indexierung und Annotation der Aufzeichnungen wird der gezielte Zugang zu Inhalten unterstützt. Es existieren verschiedene Arten von Meeting Browsern, klassifiziert nach den Inhaltsformaten, die den Schwerpunkt beim Informationsabruf bilden [Whittaker et al. 12]. Neben Audio- und Video-Browsern gibt es sogenannte „Artifact Browser“, die Elemente (Artefakte) wie Whiteboard-Aufzeichnungen, Notizen des Meetings, Präsentationsfolien, die Agenda oder sonstige Dokumente einbeziehen und als Index zum entsprechenden Abschnitt in den Aufnahmen dienen. Sogenannte „Discourse Browser“ bieten zur Informationssuche hauptsächlich Daten, die aus den Aufzeichnungen abgeleitet wurden. Dazu zählen das ASR Transcript6 und die Sprechererkennung. Abbildung 2.4 stellt eine Übersicht zu den Anhaltspunkten beim Informationsabruf dar. 6 ASR Transcript: ASR steht für Spracherkennung (automatic speech recognition); ASR Transcript bezeichnet die Mitschrift der Spracherkennung 12 2.1. Meetings und Meeting-Aufzeichnungen In einem Projekt wird kontinuierlich Information generiert und verarbeitet. Meetings dienen dem Austausch dieser Information, und dürfen dabei nicht als alleinstehende Ereignisse aufgefasst werden [Post et al. 04]. Besprochene Inhalte sind mit dem Ende des Meetings oftmals nicht abgeschlossen, sondern werden bearbeitet und in folgenden Meetings wieder aufgegriffen (vgl. [Handford 10], S. 75). Dem Informationsaustausch im Meeting folgt die Verarbeitung und Generierung neuer Informationen, und schließlich das nächste Meeting. Meeting-Aufzeichnungen dokumentieren diesen Fortschritt und machen ihn rekonstruierbar. Es ergibt sich ein Meeting-Zyklus, der unendlich sein kann (wie im Beispiel von Vorstandssitzungen eines Unternehmens). Bei der Durchführung eines Projekts endet der Zyklus hingegen mit dem Projektabschluss. (vgl. [Post et al. 04]) In der Literatur (vgl. [Mannering 11] und [Jain et al. 03]) wird der MeetingZyklus häufig als das Abarbeiten verschiedener Schritte auf dem Weg von einem zum nächsten Meeting beschrieben. Dazu gehören das Verbreiten von Meeting-Aufzeichnungen und die Vorbereitung des nächsten Meetings. JAIN ET AL. teilen den Zyklus anhand von Meeting-bezogenen Zeitpunkten und zugehörigen Aufgaben in vier Phasen ein [Jain et al. 03]. Man beachte, dass sich die Punkte 1 bis 4 in dieser Reihenfolge stets wiederholen: 1. Vor dem Meeting: a. Betrachten vorhergehender Meetings b. Meeting-Ziele beschreiben c. Agenda erstellen d. Dokumente zusammentragen e. Teilnehmer benachrichtigen 2. Im Meeting: a. Agenda überprüfen und ergänzen b. Meeting halten c. Zusammenfassung der Inhalte GRUNDLAGEN 13 3. Nach dem Meeting: a. Dokumente erstellen und verteilen b. Meeting analysieren c. Nächste Schritte einleiten 4. Zwischen Meetings a. Festgelegte Schritte ausführen b. Dokumente aktualisieren COOK ET AL. legen den Meeting-Zyklus als verschiedene Phasen der Informationsverarbeitung aus (vgl. [Cook et al. 87]). Durch das Zusammenkommen von Personen und deren Informationsaustausch (entspricht Punkt 2 nach JAIN ET AL.) entsteht neue Information, welche im Meeting sowie im Anschluss an das Meeting festgehalten (3.a), analysiert (3.b) und abgerufen wird. Der Informationsabruf findet in allen vier Phasen des Meeting-Zyklus statt: zwischen Meetings, um das Projekt voranzutreiben (3.b-4.b), in Vorbereitung auf das nächste Meeting (1.), und im Meeting selbst, wo neu entstandene Information präsentiert und in Verbindung mit bereits festgehaltenen Inhalten vorheriger Meetings zu neuer Information verknüpft wird (vgl. [Geyer et al. 05]). Diese wird ebenfalls festgehalten, und so schließt sich der Meeting-Zyklus (siehe Abbildung 2.5). Dabei beeinflussen Informationen aus der Vergangenheit die der Gegenwart, und somit auch zukünftige Informationen. 14 2.2. Visual Text Mining Dieses Kapitel liefert eine kurze Einführung zu Text Mining Systemen mit besonderem Augenmerk auf der Visualisierungskomponente. Darauf aufbauend werden grundlegende Visualisierungsformen vorgestellt und ihre Bedeutung in diesem Bereich erläutert. Eine Vorstellung der Visualisierungsansätze ausgewählter Text Mining Systeme demonstriert beispielhaft ihre Verwendung. Bei der Beschreibung der Visualisierungsformen werden teilweise ihre englischen Bezeichnungen beibehalten, wenn eine eindeutige deutsche Übersetzung nicht existiert oder der englische Begriff sich im deutschen Sprachraum etabliert hat. Prozess der nichttrivialen Extraktion von impliziter und möglicherweise wertvoller Information aus Daten-beständen (vgl. [Perner 02]) Dienen der Transformation von Datenobjekten (Entitäten) in grafische Objekte, indem ihre Eigenschaften (Attribute) in visuelle Variablen wie Form, Größe, Position, Farbe etc. übersetzt werden (vgl. [Bertin 83] und [Ware 04]) Text Mining7 stellt eine spezifische Form des Data Mining dar, bei der große Dokumentkollektionen die Datengrundlage stellen. Durch die Identifikation und Exploration von Mustern in unstrukturierten Textsammlungen wird wertvolle Information gewonnen. Text Mining Architekturen bestehen aus einer Komponente zur Vorverarbeitung der Daten, Muster-ErkennungsAlgorithmen und einer Präsentationsschicht, die das Browsen der Daten mithilfe von Visualisierungswerkzeugen unterstützt (Abbildung 2.6). (vgl. [Feldman et al. 07], S. 1) Die Visualisierungswerkzeuge ermöglichen es, neben der semantischen Struktur der Dokumentkollektion auch weitere Eigenschaften der Textsammlungen sowie eine visuelle Zusammenfassung ihrer Inhalte zu präsentieren [Risch et al. 08]. Üblicherweise werden zu diesem Zweck die Eigenschaften, die dargestellt werden, auf sogenannte visuelle Variablen wie Farbe oder Form projiziert. Visualisierungsformen reichen von einfachen Listen und Tabellen über Baumgraphen bis hin zu komplexeren Graphen. Für einen Großteil der Anfragen an das System können Checkboxen oder Dropdown-Listen eingesetzt werden. Die Analyse von und Interaktion auf besonders großen Textsammlungen erfordert jedoch anspruchsvollere Visualisierungen [Feldman et al. 07]. Diese genügen jedoch nur dann den Anfor7 Auch bezeichnet als Text Analytics oder Text Data Mining (vgl. [Aggarwal et al. 12]) GRUNDLAGEN 15 derungen, solange sie nicht zu komplex und dadurch unübersichtlich wirken, was die Datenexploration erschweren oder gänzlich verhindern kann. Zu den Vorteilen, die ein an die Datengrundlage angepasster, individueller Visualisierungsansatz gegenüber Zeichen-orientierten Darstellungsformen hat, zählen die Autoren (vgl. [Feldman et al. 07], S. 191): Prägnanz: Die Fähigkeit, eine große Menge an Daten verschiedener Typen gleichzeitig abzubilden. Verhältnismäßigkeit und Ähnlichkeit: Die Fähigkeit, Cluster, die relative Größe von Gruppierungen, Ähnlichkeiten und Verschiedenartigkeiten sowie Ausreißer bei den Ergebnissen zu zeigen. Fokus mit Kontext: Die Möglichkeit der Interaktion mit einem hervorgehobenen Ausschnitt der Datenmenge bei gleichzeitiger Betrachtung des relationalen Kontexts. Zoomfunktion: Die Möglichkeit der schnellen Bewegung von Mikrozu Makroansichten in einem oder mehreren inkrementellen Schritten. Stimulation der rechten Gehirnhälfte: Aufforderung des Nutzers zur Interaktion mit den Text-Daten nicht nur aufgrund einer vorsätzlichen Suchintention, sondern zusätzlich durch die Anregung intuitiver, reaktiver oder räumlich orientierter kognitiver Prozesse zur Identifikation interessanter Muster. Dabei liegt der Wert der Systeme nicht nur in der grafischen Repräsentation der Analyseergebnisse, sondern ebenso in den bereitgestellten Interaktionsarten. Dazu gehören häufig eine Reihe von Such- und Filtermöglichkeiten, die die Komplexität der Darstellung reduzieren und damit einerseits die Interpretation der Information unterstützen, andererseits das Auffinden der für den Nutzer interessanten Information vorantreiben sollen [Risch et al. 08]. Diese Interaktionsmöglichkeiten sind meist speziell auf spezifische Entitäten des Systems ausgerichtet, zum Beispiel auf die Dokumente selbst. Die grafische Benutzeroberfläche (GUI) zur Interaktion auf der Visualisierung bezeichnen FELDMAN ET AL. als Browser (vgl. [Feldman et al. 07], S.189 ff). Topic Evolution Mining beschäftigt sich mit der Beobachtung von zeitbasierten Textströmen, wobei Themen und ihre Entwicklungen über einen längeren Zeitraum hinweg aus Dokumentkollektionen extrahiert werden (vgl. [Cui et al. 11]). Es ist ein Teilgebiet des Text Mining, spezieller des Text Stream Mining, das besonders bei der Analyse von Textströmen in sozialen Netzwerken oder auf Nachrichtenportalen zur Anwendung kommt (siehe [Aggarwal et al. 12], S. 297). Topic Evolution Mining bietet dem Nutzer Möglichkeiten zur Unterscheidung und Untersuchung individueller Themen und ihrer Entwicklung im Laufe der Zeit. Darüber hinaus sollen Nutzer solcher 16 2.2. Visual Text Mining Systeme in der Lage sein, wichtige Ereignisse und ihre Ursachen zu identifizieren. CUI ET AL. unterscheiden diesbezüglich das Entstehen neuer Themen (topic birth), die Entwicklung und das Verschwinden von Themen (topic death), das sukzessive Aufteilen eines Themas in verschiedene Themen (topic splitting) sowie das Verschmelzen von Themen zu einem neuen Thema (topic merging). Konzeptgraphen (engl. concept graphs) dienen der semantischen Beschreibung von Ontologien8, deren Datenstrukturen mithilfe der Graphen auf Knoten (Entitäten) und Kanten (Relationen) abgebildet werden. Ausprägungsformen von Konzeptgraphen reichen von hierarchischen Baumdarstellungen mit Wurzel- und Blätterknoten (siehe Abbildung 2.7, a) über gerichtete azyklische Graphen9 (DAG, b) hin zu Assoziationsgraphen (c). DAGs verfügen über die Fähigkeit komplexere Ontologien als strikt hierarchische Ordnungen zu beschreiben. Aus diesem Grund bilden sie oftmals die Basis für anspruchsvollere Relationsabbildungen in Text Mining Anwendungen. Assoziationsgraphen erweitern DAGs um die Darstellung ungerichteter Beziehungen verschiedener Konzepte im Hinblick auf eine oder mehrere Kategorien. Zu den üblichen Interaktionsarten, die Konzeptgraphen bieten, gehören Sortier-, Filter- und Zoomfunktionen und die Möglichkeit des Ein- und Ausblendens von Teilgraphen. (vgl. [Feldman et al. 07] S. 195 ff) Histogramme und Liniendiagramme (eng. line-graphs) dienen im Bereich von Text Mining Systemen hauptsächlich der Abbildung der Häufigkeitsverteilung von Suchergebnissen. Histogramme (siehe Abbildung 2.8) erlauben den Vergleich individueller Konzepte, wie das Vorkommen verschiedener Themen, innerhalb einer Dokumentkollektion. Liniendiagramme (Abbildung 2.9) bieten die Möglichkeit, Ergebnisse verschiedener Suchanfragen miteinander in Vergleich zu setzen, mehrere Dokumentkollektionen im Hinblick auf eine Suchanfrage gegenüberzustellen oder die Änderung weiterer Parameter und ihre Auswirkung auf die Suchergebnisse zu vergleichen. (vgl. [Feldman et al. 07] S. 205 ff) Ein Beispiel der Anwendung eines Histogramms zur Visualisierung in einem Text Mining System zeigt Abbildung 2.10. Diese Visualisierung stellt die Menge an Beiträgen dar, die der Nutzer eines Forums zu seinen eigenen 8 Ontologie: explizite Spezifizierung einer vereinfacht abstrakten Sicht auf die Welt oder einen Ausschnitt daraus (Konzeptualisierung) [Gruber 93] 9 Engl. DAG: directed acyclic graph GRUNDLAGEN 17 Threads (oben) und zu anderen Threads des Forums (unten) im Verlauf eines Jahres erstellt hat. Ein Circle Graph bildet Elemente (Entitäten) auf seinem Umkreis ab, deren Relationen sich als Kanten durch das Kreisinnere ziehen (Abbildung 2.11). Dieser Visualisierungsansatz ist in der Lage, große Datenmengen übersichtlich abzubilden. Visuelle Variablen wie Farbe oder Stärke der Linie können zur Repräsentation verschiedener Eigenschaften der Relationen genutzt werden, oder Farbverläufe die Verbindungsrichtung anzeigen. Circle Graphs sind eine geeignete Methode, um Assoziationsregeln 10 innerhalb der Ergebnismenge einer Suchanfrage darzustellen oder Konzepte in Bezug auf spezifische Kategorien miteinander zu verlinken. Interaktionsansätze beziehen die Elemente auf dem Umkreis sowie die Relationen selbst mit ein. Durch Anklicken oder Mouseover werden Relationen oder die zugehörigen Elemente hervorgehoben, und zusätzliche Information präsentiert. Eine Implementation dieses Visualisierungs- und Interaktionsansatzes existiert beispielsweise in „Naming Names“ [@Corum et al.], einer Web-Anwendung der New York Times (siehe Abbildung 2.12). Die Visualisierung bildet Reden von USPräsidenten auf dem Kreisumfang ab und stellt mithilfe der Linien dar, welche anderen Präsidenten in der Rede namentlich erwähnt wurden (vgl. [Feldman et al. 07], S. 208 ff) 10 Assoziationsregeln: Beschreiben Zusammenhänge und Abhängigkeiten in einer Datenbasis [Mann 13] 18 Das Gestaltungsprinzip von Tag Clouds lässt sich bis auf den Stil des Konstruktivismus Anfang des 20. Jh. zurückführen. Das erste Anwendungsbeispiel zur Textvisualisierung stellt die Abbildung der Umfrageergebnisse des Psychologen Stanley Milgram aus dem Jahr 1976 dar (siehe Abbildung A.3, S. 107). [Viégas et al. 08] 2.2. Visual Text Mining Konzeptionell gesehen ähneln Text Clouds, oder auch Word Clouds, Histogrammen insofern, dass sie die Häufigkeitsverteilung von Worten innerhalb von Dokumentkollektionen visualisieren. Dabei bieten sie jedoch durch die Variation der Schriftgröße und -farbe sowie der Textorientierung (horizontal oder vertikal) und der Nähe einzelner Tags zueinander eine größere Flexibilität in der Darstellung des relativen Stellenwerts eines Tags. WebAnwendungen wie Wordle [@Feinberg] generieren individuelle Tag Clouds auf Basis von Nutzertexten (siehe Abbildung 2.13). [Berry et al. 10] Zeitbasierte Tag Clouds erlauben die sequentielle Untersuchung chronologisch aufeinanderfolgender Dokumente [Viégas et al. 08]. Ein Beispiel dafür stellt die Website chir.ag11 zur Verfügung, die dieses Prinzip auf die Reden US-amerikanischer Präsidenten von 1776 bis 2007 anwendet. Im Bereich des Topic Evolution Mining nutzen CUI ET AL. Tag Clouds zum Vergleich der Inhalte mehrerer Themen (siehe Abbildung 2.14). 11 http://chir.ag/projects/preztags/, aufgerufen am 29.01.2014 GRUNDLAGEN 19 20 2.3. Grundlagen Dokument- und Textstruktur Stacked Graphs bilden individuelle Zeitverläufe und ihre Summe ab und lassen sich auf das Prinzip von gestapelten Säulendiagrammen (engl. Stacked bar chart) zurückführen (siehe Abbildung 2.15). Im Bereich des Text Mining eignen sie sich zur Visualisierung zeitbasierter Dokumentkollektionen [Aigner et al. 11]. Sie addieren zu jedem Zeitpunkt die Höhe der einzelnen Schichten – die Schichten werden so übereinander „gestapelt“. Dabei beeinflussen sich die einzelnen Zeitverläufe gegenseitig, und die Wahrnehmung der individuellen Daten kann dadurch getrübt werden [Byron et al. 08]. Eine Variante der Stacked Graphs sind die Streamgraphs, die die Daten um eine zentrale Achse „fließen“ lassen, anstatt sie ausgehend von einer Grundlinie nach oben aufzustapeln [Byron et al. 08]. Im Bereich des Topic Evolution Mining stellen Stacked Graphs und Streamgraphs die am weitesten verbreitete Visualisierungsmethode dar [Cui et al. 11]. Jede Schicht repräsentiert ein Thema, und der Fluss von rechts nach links bildet die Entwicklung des Themas im Laufe der Zeit ab. ThemeRiver [Havre et al. 00] ist die Anwendung eines Streamgraphs auf die Visualisierung der Themenentwicklung einer Dokumentkollektion und wird in der Literatur gleichzeitig als ein selbstständiger Visualisierungsansatz mit Stacked Graphs und Streamgraphs verglichen (siehe Abbildung 2.16). Die Farbgebung signalisiert thematische Veränderungen innerhalb der Dokumente, die Höhe der einzelnen „Flüsse“ repräsentiert ihre Relevanz zum jeweiligen Zeitpunkt (vgl. [Aigner et al. 11], S.197). Dieser Abschnitt gibt einen Überblick zu Grundlagen von Dokument- und organisatorischen Textstrukturen. Zunächst wird ein Modell allgemeiner Dokumentstrukturen vorgestellt. Im Anschluss daran werden ausgewählte Textstrukturen aufgezeigt, die relevant zum Verständnis eines Textes sind. Dokumente beinhalten Fließtext, der beispielsweise durch Überschriften, Listen oder Tabellen strukturiert wird. Diese Strukturierungen stellen eine semantische Gliederung des Textes dar und dienen als erste Anhaltspunkte beim Lesen eines Dokuments. KLINK ET AL. bezeichnen diese semantische Gliederung als logische Struktur eines Dokuments [Klink et al. 00]. Daneben definieren sie die geometrische Struktur beziehungsweise das DokumentLayout als zweite Art der Strukturierung. GRUNDLAGEN 21 Zusammen sind die geometrische und logische Dokumentstruktur essentiell für die Dokumentverarbeitung, die KLINK ET AL. in zwei Phasen gliedern: 1. Analyse 2. Verständnis Die Extraktion der geometrischen Struktur eines Dokuments ist Teil der Analyse. Das Verständnis eines Dokuments bezeichnet die Abbildung der geometrischen auf die logische Struktur. [Klink et al. 00] Allgemein besteht ein Dokument aus einer oder mehreren Seiten, die jeweils in Blöcke eingeteilt sind. Diese Blöcke bestehen aus Zeilen, die sich aus einzelnen Wörtern zusammensetzen. Von jedem Layout-Objekt enthält ein Dokument mindestens eins. Der Aufbau aus den einzelnen LayoutObjekten stellt die geometrische Struktur eines Dokuments dar. Die logische Struktur basiert auf diesen Objekten. Blöcke, Zeilen und Worte werden durch Überschriften, Tabellen, Listen oder andere sogenannte Label zu logischen Einheiten zusammengefasst. Abbildung 2.17 zeigt das Dokumentmodell, gegliedert in logische Struktur und Layout. Organisatorische Textstrukturen sind Muster, die Informationen einzelne Teile zerlegen, welche für den Leser leicht verständlich sind (vgl. [Cameron et al. 13], S.4). Besonders im Bereich der Didaktik 12 werden solche Muster verwendet, um den Aufbau eines Textes zu gliedern und damit das Verständnis von Zusammenhängen zu erleichtern. CAMERON ET AL. unterscheiden die folgenden Arten von Textstrukturen (siehe [Cameron et al. 13], S. 4): 12 Ursache und Wirkung Sequentielle Ordnung Beschreibung Didaktik: bezeichnet „die Wissenschaft und Praxis vom Lehren und Lernen“ [Riedl 04], S. 8 22 2.4. Zusammenfassung Vergleich und Gegenüberstellung Chronologische Ordnung Konzept und Detail Die Textstruktur „Ursache und Wirkung“ wird auch bezeichnet als „Problem-Lösung“-Struktur und beschreibt die kausale Beziehung von Elementen. „Vergleich und Gegenüberstellung“ ist ein grundlegendes Muster, das dem Erkennen und Beibehalten von Information dient. (vgl. [Johnson 09], S. 56 ff). Chronologische und sequentielle Ordnungen werden oft gleichbedeutend verwendet. Sie beschreiben eine Folge von Ereignissen, Ideen oder Schritten, die in zeitlicher Reihenfolge ablaufen. (vgl. [Medina 08], S. 147) „Konzept und Detail“-Strukturen bestehen aus einem Konzept, dessen Kernaussage durch zusätzlicher Informationen unterstützt wird (vgl. [Cameron et al. 13], S. 4). In diesem Kapitel wurden inhaltliche Grundlagen zu Meetings und MeetingAufzeichnungen sowie gestalterische Grundlagen zu Visualisierungsansätzen im Bereich Text Mining vorgestellt. Zunächst wurden Meetings definiert, wobei der Schwerpunkt bei den Projekt-Meetings lag, da die Themenstellung der Arbeit den Bereich des Projektmanagements betrachtet. Die Klassifikation von Meetings (vgl. Abschnitt 2.1.2) hat gezeigt, dass Meetings anhand von verschiedenen Dimensionen Meeting-Arten zugeordnet werden können, deren Eigenschaften im Zusammenspiel das Meeting beschreiben. Abschnitt 2.1.3 erläuterte unterschiedliche Formen von MeetingAufzeichnungen. Sie stellen ebenso unterschiedliche Anhaltspunkte für den Informationsabruf bereit (vgl. Abschnitt 2.1.4). Diese Anhaltspunkte werden bei der Analyse der Anforderungen an das Konzept (siehe Kapitel 4) aufgegriffen. Der Meeting-Zyklus verdeutlichte abschließend zu diesem ersten Grundlagen-Bereich die Existenz von Zusammenhängen zwischen aufeinanderfolgenden Meetings und ihren Inhalten, was schließlich den Ausgangspunkt für den Visualisierungsansatz bildet (siehe Kapitel 1). Der Abschnitt zu Visual Text Mining führte zunächst die Begriffe Text Mining und Topic Evolution Mining ein, deren Grundgedanken sich auf die Visualisierung von Meeting-Inhalten übertragen lassen. Verschiedene Visualisierungsformen aus diesen Bereichen vermittelten anschließend einen Überblick zur grafischen Abbildung Inhalten umfangreicher Dokumentkollektionen. Die Auswahl dieser Visualisierungsansätze wurde hinsichtlich der Abgrenzung des Konzepts auf die Visualisierung von Meeting-Protokollen (siehe Abschnitt 4.1.4) getroffen, die in Bezug auf eine Folge von Meetings ebenfalls eine Dokumentkollektion darstellen. Die vorgestellten Visualisie- GRUNDLAGEN 23 rungsansätze umfassen die Abbildung von Wissensdomänen (Ontologien) mittels Konzeptgraphen, die Repräsentation der Häufigkeitsverteilung von Suchergebnissen mittels Histogrammen und Line Graphs, sowie die Darstellung der Relationen verschiedener Textdaten mithilfe von Circle Graphs. Tag Clouds dienen der visuellen Zusammenfassung von Textsammlungen. In abgewandelter Form sind sie außerdem in der Lage, die Entwicklung von Dokumenten über einen längeren Zeitraum hinweg zu verdeutlichen. Weiterhin wurden Stacked Graphs und darauf aufbauende Visualisierungsformen zur Abbildung zeitbasierter Dokumente erläutert. Text- und Dokumentstrukturen spielen eine Rolle bei der Informationsstrukturierung des Konzepts. Zu diesem Zweck wurde in Abschnitt 2.3.1 das Modell der Dokumentstruktur beschrieben, welches den Grundaufbau von Dokumenten abbildet und semantische Einheiten definiert, die zur Auslegung des Inhalts relevant sind. Abschnitt 2.3.2 stellte ausgewählte Textstrukturen vor, deren Prinzipien bei der Informationsstruktur des Konzepts berücksichtigt werden (vgl. Abschnitt 5.1.1). Im nächsten Kapitel werden verwandte Arbeiten zu den Bereichen der inhaltlichen und gestalterischen Grundlagen näher erläutert. Dieses Kapitel stellt verwandte wissenschaftliche Arbeiten aus zwei Bereichen vor, die für die vorliegende Arbeit von Bedeutung sind. Der erste Abschnitt beleuchtet die Unterstützung beim Informationsabruf von MeetingInhalten in Form von Meeting-Browsern. Der zweite Abschnitt behandelt Arbeiten zur zeitbezogenen Visualisierung von Inhalten aus großen Textsammlungen. Die hier vorgestellten Arbeiten wurden ausgewählt, da sie den aktuellen Stand13 in beiden Bereichen darstellen. Außerdem weisen die Ansätze viele Gemeinsamkeiten zur Zielstellung der vorliegenden Arbeit auf, die in der Unterstützung beim Informationsabruf über eine Folge von Meetings liegt. Unter diesem Gesichtspunkt werden die Arbeiten in den folgenden zwei Abschnitten beschrieben. Meeting-Browser unterstützen den Abruf von Meeting-Inhalten aus multimedialen Aufzeichnungen (siehe Abschnitt 2.1.4). Durch Annotation und Indexierung digitaler Aufzeichnungen dienen sie dem gezielten Informationszugang. TeamSpace [Richter et al. 01] und ARCHIVUS [Lisowska et al. 05] werden hier als Beispiele solcher Meeting-Browser vorgestellt, da sie das Browsen mehrerer Meetings anbieten. Gleichzeitig legen sie den Fokus auf Meeting-Aufzeichnungen selbst, und nicht, wie andere Browser, auf multimediale Aufzeichnungen im Allgemeinen (vgl. Meeting-BrowserÜbersicht in [Lalanne et al. 05]). TeamSpace [Richter et al. 01] ist ein aufgabenorientiertes Kollaborationswerkzeug, welches örtlich verteilte Arbeitsprozesse und gemeinsam genutzte Dokumente verwaltet. Ein Teil des Systems ist der Unterstützung virtueller Meetings gewidmet, die aufgezeichnet und mit Meeting-Aktivitäten (automatisch) sowie mit Dokumenten und anderen Inhalten (manuell) angereichert werden können. (vgl. [Geyer et al. 01]) Abbildung 3.1 zeigt einen Screenshot der Anwendungsoberfläche mit geöffnetem Meeting-Tab. Der obere Teil des Fensters beinhaltet eine Übersicht aller Meetings, ein Eingabefeld zur Schlüsselwortsuche, Filterfunktio13 Zur Aktualität der vorgestellten Meeting Browser siehe [Popescu-Belis et al. 12] 26 3.1. Meeting-Browser nen zur Einschränkung des Zeitraumes der dargestellten Meetings sowie die Möglichkeit zur Anzeige einzig der Meetings, an denen der Nutzer selbst teilgenommen hat. Der untere Teil bildet weitere Details des aktuell ausgewählten Meetings ab. Hier wird der eigentliche Meeting Browser, der MeetingViewer, aufgerufen. (vgl. [Richter et al. 01]) Zunächst wird zur Meeting-Aufzeichnung der sogenannte MeetingClient verwendet. Diese Komponente stellt neben der Audio- und Videoaufzeichnung auch die Interaktion der Teilnehmer mit dem System bereit. Interaktionsmöglichkeiten bestehen im Erstellen, Ansehen und Abhaken von Aufgaben und Agendapunkten, dem Hochladen und Ansehen von Präsentationen, Annotieren von Folien sowie Kennzeichnen hinzukommender oder hinausgehender Teilnehmer. Jede Interaktion mit dem System wird gleichzeitig als Ereignis festgehalten. Solche Ereignisse werden als Indizes zur Aufzeichnung gespeichert und fungieren beim Durchsuchen der Inhalte mit MeetingViewer als Navigationspunkte. (vgl. [Richter et al. 01]) MeetingViewer (siehe Abbildung 3.2) dient dem eigentlichen Durchsuchen der Meeting-Inhalte anhand einer zweiteiligen Zeitachse. Die obere Zeitachse spannt sich über den gesamten Meetingverlauf, während die untere Zeitachse zur feingranularen Navigation nur einen Ausschnitt aus dem Meeting VERWANDTE ARBEITEN 27 zeigt. Die Position des Ausschnitts wird dabei auf der oberen Zeitachse mittels eines schwarzen Rechtecks gekennzeichnet. Die Ereignisse, die als Indizes auf den Zeitachsen angeordnet sind, werden nach Agendapunkten, Präsentationen, Aufgaben, Personen und Schlüsselwörtern unterschieden, wobei jeder dieser fünf Kategorien eine Farbe zugewiesen ist. Einerseits soll damit eine visuelle Zusammenfassung des Meetings geliefert werden, andererseits dient es der Navigation, da der Nutzer durch Anklicken der Indizes direkt zum zugehörigen Aufnahmeteil springen kann und dieser anschließend abgespielt wird. Zusammen mit der Aufnahme werden ebenfalls die entsprechenden Ereignisse abgespielt – beispielsweise die zu dem Zeitpunkt angezeigten Folien einer Präsentation. Das vorhandene Material ist über Tabs zugänglich. Es kann außerdem in separaten Fenstern geöffnet und dadurch gleichzeitig gesichtet werden. Der Nutzer kann weiterhin über Checkboxen filtern, welche der Kategorien auf der Zeitachse angezeigt werden sollen. (vgl. [Richter et al. 01]) In der kurzfristigen Evaluation (siehe [Richter et al. 01] und [Geyer et al. 01]) hat sich das System bei Brainstorming Meetings und zur Besprechung von Präsentationen als nützlich erwiesen. Die Langzeitstudie [Lipford et al. 08] untersuchte hauptsächlich, wie die Teilnehmer Meeting-Aufzeichnungen durchsuchen und welche Artefakte zur Navigation verwendet werden. Anhand der Ergebnisse wurde ein Navigationsmuster aufgestellt, das in dieser Form der Durchführung am häufigsten zum erfolgreichen Informationsabruf geführt hat: 28 3.1. Meeting-Browser 1. Öffnen der Agenda. 2. Anklicken des Themas, das zum gesuchten Inhalt gehört. 3. Durchsicht der Präsentationsfolien und Annotationen ab Themenbeginn. 4. Anschließend, falls die gesuchte Information noch nicht gefunden wurde, Abspielen der Audioaufzeichnung. Damit konnte gezeigt werden, dass die Einbindung von Artefakten als Indizes die Suche gegenüber dem unkoordinierten Abspielen der Aufzeichnungen vereinfacht und beschleunigt. Für den Langzeiteinsatz wurde die Navigation über große Sets von Meeting-Aufzeichnungen nicht nur chronologisch, sondern auch sortiert nach Themen, in Aussicht gestellt. In der Langzeitevaluierung [Lipford et al. 08] findet sich dazu jedoch keine Information. ARCHIVUS [Lisowska et al. 05] ist ein multimodaler Meeting Browser für den Informationsabruf gespeicherter und annotierter MeetingAufzeichnungen. Im Gegensatz zu TeamSpace bietet ARCHIVUS keine Funktionalität zur Informationssicherung, konzentriert sich also allein auf den Informationsabruf. Ein Hauptbestandteil des Prototyps ist die multimodale Interaktion mit dem System. Sprache, Zeiger (Maus und Touch) und Tastatur dienen als aktive, Emotionserkennung als passive Eingabemethode. Grafiken, Audio und Text gehören zu den Ausgabemodalitäten. Der ARCHIVUS Prototyp unterstützt zunächst folgende Daten: Audio- und Videoaufzeichnungen, ASR Transcript des Meetings inklusive Annotationen, sowie Präsentationsfolien, Whiteboard Aktivitäten und Notizen der Teilnehmer. Um dem Nutzer die Verwendung des Systems zu erleichtern, bedient sich ARCHIVUS einer Bibliotheksmetapher, auf der die gesamte Interaktion und Navigation aufbaut. Dabei wird eine Sammlung an Meeting-Aufzeichnungen in den Kontext einer Bibliothek übertragen, wobei beispielsweise jedes Buch einem Meeting entspricht, das Inhaltsverzeichnis der Agenda, und die im Meeting verwendeten Dokumente als Anhang an das Buch dargestellt werden (siehe [Lisowska et al. 05]). Abbildung 3.3 zeigt einen Screenshot der Anwendungsoberfläche. VERWANDTE ARBEITEN 29 Bereich 1 in Abbildung 3.3 listet alle Meetings in Form von Büchern auf. Hier können einzelne Meetings direkt ausgewählt und die zugehörigen Aufzeichnungen damit geöffnet werden. Über die Bereiche 2 und 5 erfolgt die Eingabe von Suchbegriffen zur Schlüsselwortsuche, wobei Bereich 2 die Tastatureingabe und Bereich 5 die Spracheingabe unterstützt. Alternativ oder auch zusätzlich zur Schlüsselwortsuche stellt Bereich 6 Funktionen zum Filtern nach Ort, Person, Datum, Thema, Ereignis, Dokument und verschiedenen Dialogelementen (Schlussfolgerungen, Fragen, Entscheidungen, etc.) bereit. Ein Verlauf der ausgewählten Suchkriterien in chronologischer Reihenfolge wird in Bereich 7 angezeigt. Die Hauptinteraktion findet schließlich in Bereich 4 statt. Hier werden Suchkriterien spezifiziert (beispielsweise beim Filtern nach Daten mithilfe eines Kalenders), Dokumente geöffnet, Video- und Audioaufzeichnungen abgespielt sowie konkrete Meeting-Inhalte angezeigt. Abbildung 3.4 zeigt exemplarisch ein Meeting, welches über die Suchfunktion aufgerufen wurde. Die oberste Zeile beinhaltet den Namen des Meetings sowie das aktuelle Kapitel, also den jeweiligen Agendapunkt. Der Buchtext ist das Sprachtranskript des Meetings, wobei die verschiedenen Sprecher jeweils farblich gekennzeichnet sind und ihre Namen am Seitenrand stehen. Dokumente, die zu den Abschnitten gehören, erscheinen als Icon ebenfalls am Rand der Seite. Die Pfeile in den unteren Ecken dienen der Navigation zur vorherigen oder nächsten Seite und über das Audio- und Video-Icon unterhalb der Seite lassen sich die Audio- und Videoaufzeichnungen zum aktuell gewählten Abschnitt abspielen. Für einen schnellen Wechsel zwischen Suchergebnissen dienen die Register am Buchrand. Die Register auf der rechten Seite stellen dabei die Suchergebnisse innerhalb des Buches in der Form „x/y“ dar, wobei „x“ die Nummer des Ergebnisses und 30 3.2. Visualisierung zeitbasierter Textkollektionen „y“ die Gesamtzahl der Suchergebnisse bezeichnet. Innerhalb der aktuellen Seite wird das Ergebnis zusätzlich hervorgehoben, je nach Länge des betreffenden Abschnittes auch über mehrere Seiten. Die folgenden beiden Arbeiten stellen zeitabhängige Visualisierungen großer Textsammlungen und der in ihnen behandelten Themen vor. Ziel der Ansätze ist es, mittels expliziter Darstellung von Zusammenhängen die Informationserschließung zu fördern. Den Schwerpunkt der Visualisierung legen beide Arbeiten auf die Themen, die aus den Dokumenten extrahiert werden, und deren Entwicklung im Laufe der Zeit. Sie folgen damit den Prinzipien des Topic Evolution Mining (vgl. Abschnitt 2.2.2). Die Story Flow Visualisierung [Rose et al. 09] ist Teil eines Systems zur visuellen Verknüpfung von Inhalten aus dynamischen Informationsquellen, wie beispielsweise Nachrichtenportalen, die kontinuierlich über Themen des aktuellen Zeitgeschehens informieren. Diese Themen entwickeln sich durch die Verknüpfung zu neu aufkommender Information nach und nach zu Geschichten (engl. stories) und bilden damit den Story Flow. Ziel des Systems ist es, diese Geschichten zu visualisieren und den Zugang zu länger zurückliegender Information zu erleichtern. Damit soll das Auffinden von Ursachen, Beobachten von Entwicklungen sowie die Interaktion mit der Information unterstützt werden. VERWANDTE ARBEITEN 31 Abbildung 3.5 zeigt die Story Flow Visualisierung. Sie bildet die Themen auf einer Zeitachse von links nach rechts ab und ordnet ihnen Dokumente zu, die diese Themen behandeln. Je nach Anzahl der zugehörigen Dokumente erfolgt die vertikale Anordnung der Themen. Die Namen der Themen stehen in Kursivschrift, darunter sind jeweils die Titel der zugehörigen Dokumente aufgelistet, die außerdem durch einzelne Linien repräsentiert werden. Die Gesamt-Linienstärke ist dabei direkt proportional zur Anzahl an Dokumenten. Abbildung 3.6 zeigt die Visualisierung für einen Zeitraum von zwei Wochen. Jede Linie zieht sich solange nach rechts fort, wie das jeweilige Dokument einem Thema zugeordnet ist. Aus einzelnen Themen entstehen Geschichten, wenn sie durch die Dokumentlinien miteinander verbunden sind. Verzweigungen zwischen Linien bedeuten, dass einige Dokumente zunächst dem gleichen Thema, später verschiedenen Themen zugewiesen werden, sich also aus einem Thema verschiedene Geschichten entwickeln. So wird die Entwicklung einer Geschichte letztendlich anhand der Linienführung dargestellt. 32 3.2. Visualisierung zeitbasierter Textkollektionen EventRiver [Luo et al. 12] visualisiert reale Ereignisse anhand ihres zeitlichen Auftretens und ihrer Auswirkungen auf andere Ereignisse, ähnlich wie Story Flow. Ziel ist gleichermaßen die Unterstützung bei der Analyse und Informationssuche von Inhalten aus großen Textsammlungen, wobei hier neben Nachrichtensammlungen auch Blogs oder E-Mail-Archive als mögliche Quellen genannt werden. Die Visualisierung soll dabei sowohl dem freien Durchsuchen der Daten zum Entdecken semantischer und zeitlicher Zusammenhänge, als auch dem gezielten Verfolgen von Entwicklungen dienen. Jedes Ereignis wird durch eine farbige Blase repräsentiert (siehe Abbildung 3.7). Die horizontale Ausbreitung einer solchen Ereignisblase gibt die Zeitspanne an, in der das Ereignis Aufmerksamkeit auf sich gezogen hat. Die vertikale Ausdehnung der Blase ist direkt proportional zur Bedeutung (beziehungsweise dem Einfluss) des Ereignisses zu einem Zeitpunkt, festgelegt durch die Anzahl an Dokumenten, in denen es auftritt. Damit ist die Signifikanz eines Ereignisses über den Vergleich zur Blasengröße anderer Ereignisse ersichtlich. Die Farbe liefert die Zuordnung zu einer Reihe verwandter Ereignisse, also einer Geschichte. Abbildung 3.8 zeigt die Visualisierung einer realen Textsammlung. Die einzelnen Ereignisblasen sind je nach dem Zeitpunkt ihres Auftretens anhand einer Zeitachse (oberer Bildrand) horizontal eingeordnet, wobei länger zurückliegende Ereignisse weiter links im Bild positioniert sind und aktuellere Ereignisse weiter rechts. Die vertikale Anordnung ergibt sich aus der Einhaltung folgender Regeln: 1. Verwandte Ereignisse werden in ähnlicher Höhe positioniert. 2. Geschichten werden höher angeordnet je wichtiger sie sind. Die Wichtigkeit wird aus verschiedenen Kriterien berechnet. 3. Innerhalb einer Geschichte werden Ereignisse zunächst nach Startzeitpunkt, anschließend nach höchster Bedeutung und schließlich nach ihrer Dauer priorisiert. Je höher die Priorität, desto höher die Position. 4. Es gibt keine Überschneidungen von Blasen. Verwandte Ereignisse spannen somit Geschichten über einen längeren Zeitraum auf, wobei gegenseitige Einflüsse der Ereignisse einer Geschichte offenbart werden. VERWANDTE ARBEITEN 33 Dem Nutzer bieten sich verschiedene Interaktionsmöglichkeiten. Er kann zum Beispiel einen Ausschnitt auf der Zeitachse festlegen, sodass nur Ereignisse des gewählten Zeitraums angezeigt werden. Eine Filterung der Ereignisse nach ihrer Wichtigkeit ist ebenfalls möglich. Außerdem kann eine Neuberechnung der Wichtigkeit der Geschichten durch Änderung der Kriterien erfolgen. Beim Hineinzoomen in die Visualisierung erscheinen Beschriftungen, die nähere Informationen zu den Ereignissen und Geschichten liefern (siehe Abbildung 3.9). Ereignisse können verschoben oder ausgeblendet werden, um Überlappungen der Beschriftungen aufzuheben. Weiterhin kann eine Schlüsselwortsuche über den Ereignissen und den ihnen zugehörigen Dokumenten durchgeführt werden. Durch Anklicken eines Ereignisses öffnet sich schließlich ein neues Fenster, welches eine Liste der zugehörigen Dokumente beinhaltet und das jeweils ausgewählte Dokument vollständig darstellt (vgl. Abbildung 3.10). Mehrere Ereignisse können damit durch gleichzeitige Auswahl im Detail untersucht und verglichen werden. 34 3.3. Zusammenfassung Dieses Kapitel stellt vier Forschungsarbeiten vor, deren Schwerpunkte in zwei verschiedenen Bereichen liegen. Die beiden Meeting Browser TeamSpace [Richter et al. 01] und ARCHIVUS [Lisowska et al. 05] spezialisieren sich auf die Darstellung multimedialer Meeting-Aufzeichnungen unter Einbeziehung weiterer Meeting-Inhalte, wobei sie verschiedene Interaktionsansätze verfolgen. Die Visualisierungsansätze von Story Flow [Rose et al. 09] und EventRiver [Luo et al. 12] dienen vor allem der Darstellung großer Textsammlungen mit Zeitbezug, und weichen damit sowohl in ihrer Datengrundlage, als auch in der Zielstellung, von den beiden Meeting Browsern ab. Alle diese Arbeiten weisen jedoch Gemeinsamkeiten auf. Sowohl die hier vorgestellten Meeting Browser, als auch die Systeme zur Visualisierung, haben die Unterstützung des Informationsabrufs zum Ziel und legen den Schwerpunkt dabei auf Themen. Der Zeitbezug ist zwar bei beiden Visualisierungen deutlicher ausgeprägt als bei den Meeting Browsern, doch auch bei diesen wird er berücksichtigt – bei TeamSpace mit der Zeitleiste für ein einzelnes Meeting, bei ARCHIVUS anhand der Filterfunktionen für die Meeting-Daten. Alle Systeme stellen außerdem den Zugriff auf inhaltlich relevante Dokumente bereit. Im Rahmen der Analyse im nächsten Kapitel bewertet Abschnitt 4.3 die hier vorgestellten Systeme im Hinblick auf die Zielstellung der vorliegenden Arbeit. Dieses Kapitel ist in vier Bereiche gegliedert. Der erste Abschnitt dient der Problemanalyse und umfasst die Beschreibung der Anwendungsfälle, die mit dem Konzept umzusetzen sind. Darauf aufbauend definiert der zweite Teil der Analyse die Datengrundlage für das Konzept. Die Untersuchung und Bewertung der in Kapitel 3 vorgestellten verwandten Arbeiten hinsichtlich ausgewählter Aspekte erfolgt in Abschnitt 4.3. Aus den Ergebnissen und Erkenntnissen dieser drei Bereiche werden im letzten Abschnitt die Anforderungen an das eigene Konzept abgeleitet. Im Hinblick auf den Forschungsschwerpunkt von Vizamp (vgl. Kapitel 1) konzentriert sich die vorliegende Arbeit auf einen Bereich aus dem umfassenden Gebiet des Projektmanagements: die Projektmeetings. Sie nehmen einen signifikanten Teil der Arbeitszeit ein [Romano et al. 01] und sind heutzutage mehr denn je als Kollaborationsmethode gefragt [S. Yu et al. 10]. Meetings dienen der Kommunikation zwischen Projektmitgliedern, der Koordination von Prozessen und der kollaborativen Projektplanung (siehe Abschnitt 2.1). Die dabei ausgetauschten sowie neu entstehenden Informationen sind essentiell für den Projektfortschritt und müssen gesichert werden (engl. capture), um einen späteren Informationsabruf (engl. retrieval) zu ermöglichen: “However, without suitable capture and retrieval mechanisms, these important information are prone to being interpreted incorrectly or differently by different people, in addition to fading in memory over time.” [S. Yu et al. 10] In diesem Kontext fokussiert sich die vorliegende Arbeit auf das Szenario des Informationsabrufs. Meeting-Aufzeichnungen werden in allen Phasen des Meeting-Zyklus verwendet (siehe Abschnitt 2.1.5): vor dem Meeting, im Meeting und nach dem Meeting, was üblicherweise wiederum vor dem nächsten Meeting ist. Der Informationsabruf dient dabei vorrangig einem der beiden folgenden Zwecke (vgl. [Whittaker et al. 06]): 38 4.1. Problemanalyse 1. Suche: Das Auffinden von Informationen 2. Analyse: Die Beschaffung eines Überblicks über Themen- oder Projektstatus Zur Untersuchung spezifischer Anwendungsfälle haben sich verschiedene Studien (siehe [Lisowska 03], [Pallotta et al. 07] und [Banerjee et al. 05]) mit Nutzeranfragen an Meeting-Aufzeichnungen beschäftigt. Einige Fragestellungen, die die Autoren in ihren Studien herausgestellt haben, profitieren in vielen Fällen von der Unterstützung eines Meeting-übergreifenden Informationsabrufs und spielen im weiteren Verlauf der vorliegenden Arbeit eine gesonderte Rolle. Diese Fragestellungen lassen sich drei HauptAnwendungsfällen zuordnen, welche entweder der Suche oder der Analyse dienen: Auffinden von Informationen (SUCHE) Was wurde besprochen? Was wurde zu einem Thema besprochen? Wie lautete eine Entscheidung genau? Wie lautete eine Aussage zum Thema? Warum wurde eine bestimmte Entscheidung getroffen? Welche Aufgaben wurden deklariert? Was wurde besprochen? Was wurde zu einem Thema besprochen? Wie lautete das Ergebnis genau? Warum wurde eine bestimmte Entscheidung getroffen? Welche Aufgaben wurden deklariert? Wurde das Thema weitergeführt? Gab es Entscheidungen zu Diskussionen vorheriger Meetings? Was ist aus Aufgabe „xy“ geworden? Welche Dokumente wurden betrachtet? Überblick zu Projekt- oder Themenstand (ANALYSE) Wo besteht noch Gesprächsbedarf? Welche Themen wurden noch nicht abgeschlossen und warum? Welche Aufgaben wurden erledigt, welche nicht? Weshalb wurden Aufgaben noch nicht erledigt? Gibt es Ideen oder Lösungsvorschläge, die noch nicht umgesetzt wurden? Bedarf es einer Entscheidung, zu welchen Punkten? Die beiden Anwendungsfälle des ersten Szenarios unterscheiden sich hinsichtlich der Fragestellungen nur wenig. Die Differenz besteht im Bezugs- ANFORDERUNGSANALYSE 39 rahmen: Beim Anwendungsfall 1 weiß der Nutzer, in welcher Form und in welchem Umfang das Ergebnis seiner Suche ausfallen wird. Bei Anwendungsfall 2 dagegen hat der Nutzer keine oder kaum Informationen zum Kontext des Gesuchten. Die folgenden schematischen Darstellungen demonstrieren, inwiefern sich die Anwendungsfälle bei Meeting-übergreifendem Informationsabruf von der Verwendung einzelner Aufzeichnungen unterscheiden. Abbildung 4.1 stellt das Vorgehen beim Ausführen einer Suchanfrage (Anwendungsfall 1) gegenüber. Die Nummern 1-4 bezeichnen die einzelnen Meetings. Die Buchstaben A-G stehen für verschiedene Themen, wobei gleiche Buchstaben das gleiche Thema repräsentieren. Die Stellen, an denen Ergebnisse der Suchanfrage auftreten, sind mit einem „x“ gekennzeichnet. Einzelne Meeting-Aufzeichnungen müssen separat durchsucht und geöffnet werden (siehe Abbildung 4.1, links). Eine zusammenhängende Abbildung der Suchergebnisse, wie von EventRiver [Luo et al. 12] umgesetzt, beschleunigt unter Umständen das Auffinden der gesuchten Information erheblich. Dabei werden aus den Meeting-Aufzeichnungen die Stellen extrahiert, die den Suchbegriff beinhalten, und gleichzeitig dargestellt (siehe Abbildung 4.1, links). Anwendungsfall 2 betrifft häufig einen Zeitraum, in dem ein oder mehrere Meetings verpasst wurden. In diesem Fall werden üblicherweise die entsprechenden Aufzeichnungen ebenfalls separat geöffnet. Bestehen Zusammenhänge zu vorherigen oder nachfolgenden Meetings, sind diese nicht ersichtlich. In diesem Fall werden möglicherweise relevante Informationen außer Acht gelassen. Eine Meeting-übergreifende Darstellung bietet auch hier den Vorteil, dass die Inhalte der verpassten Meetings im Kontext aller relevanten Informationen ersichtlich sind. Außerdem kann man sich auf die Themen der Reihenfolge nach konzentrieren (siehe Abbildung 4.2). 40 4.1. Problemanalyse Beim Erstellen der Agenda (Anwendungsfall 3) wird üblicherweise die Aufzeichnung des letzten Meetings betrachtet und daraus Gesprächsbedarf zu offenen Sachverhalten entnommen. Dabei gehen unter Umständen Inhalte verloren, die das letzte Meeting beeinflusst haben oder in vorhergehenden Meetings Fragen offen gelassen haben. Die gleichzeitige Anzeige der Inhalte mehrerer Meetings gewährleistet, dass alle relevanten Informationen ersichtlich sind (siehe Abbildung 4.3). Projekte haben Laufzeiten von mehreren Wochen, Monaten oder auch Jahren, während Meetings zur Projekt-Besprechung meist in regelmäßigen Abständen stattfinden und unterschiedlich umfassend sind. Das bedeutet, dass keine allgemeingültigen Aussagen zum Umfang der MeetingAufzeichnungen eines Projekts getroffen werden können. Je mehr Zeit im Anschluss an ein Meeting vergeht, desto mehr verblassen Erinnerungen daran und umso schwieriger wird es besonders bei langen Projektlaufzeiten, Inhalte von Interesse aufzufinden. Um den Informationsabruf effizienter zu gestalten, bieten Meeting-Aufzeichnungen daher einige Anhaltspunkte, wie zum Beispiel eine Strukturierung der Inhalte mittels Listen, oder eine Übersicht der Themen in Form der Agenda (siehe Abschnitt 2.1.4). Bis auf den Hinweis der zeitlichen Einordnung beziehen sich diese jedoch nur auf ein einzelnes Meeting - der Meeting-Zyklus (Abschnitt 2.1.5) und seine Implikationen auf Meeting-Inhalte werden derzeit größtenteils vernachlässigt. In Abschnitt 2.1.5 wurde bereits darauf eingegangen, dass Themen häufig in mehreren Meetings besprochen werden. Es bestehen also inhaltliche Zusammenhänge zwischen den Meetings, die auch in Hinsicht auf die Anwendungsfälle und Fragestellungen aus Abschnitt 4.1.1 berücksichtigt werden müssen. Die dem Meeting Browser ARCHIVUS zugrunde liegende Studie ANFORDERUNGSANALYSE 41 [Lisowska 03] stellte heraus, dass zur Beantwortung der Hälfte aller Fragen zu Meeting-Inhalten die Aufzeichnungen mehrerer Meetings betrachtet werden müssen. Forderungen nach Meeting-übergreifender Darstellung von Inhalten wurden bisher dennoch von keinem System umgesetzt. Die herkömmliche Vorgehensweise beim Informationsabruf anhand mehrerer Meeting-Aufzeichnungen besteht in einer Suchanfrage über alle Aufzeichnungen, aus der einzelne Meetings als Ergebnis hervorgehen. Die zugehörigen Aufzeichnungen werden anschließend einzeln betrachtet (vgl. Abschnitt 4.1.1). Allein die Fragestellung zum Inhalt eines Themas kann sich dann als zeitintensive Angelegenheit erweisen, und das Erkennen von Zusammenhängen wird erschwert. Weitere Anwendungsfälle, wie die Fortschrittsverfolgung einer Aufgabe, die in einem Meeting zugewiesen wurde [Whittaker et al. 06], ergeben sich sogar erst aus einer Meetingübergreifenden Darstellung der Inhalte. Es ist also stark anzunehmen, dass ein Werkzeug zur Analyse einer Reihe von Meetings („Multi-Meeting Analysis Tool“) einen Mehrwert gegenüber existierenden Ansätzen bietet [Tucker et al. 05]. Daraus leitet sich die Zielstellung der vorliegenden Arbeit ab. Ziel dieser Arbeit ist die Konzeption eines Werkzeugs zur Unterstützung des Informationsabrufs von Meeting-Inhalten über eine Folge von Meetings hinweg. Der Schwerpunkt liegt auf der Visualisierung der Inhalte einer Reihe von Meetings und ihren Zusammenhängen. Zur Bearbeitung der Anwendungsfälle (siehe Abschnitt 4.1.1) wird weiterhin ein Interaktionskonzept entwickelt. Dabei werden besonders solche Fragestellungen berücksichtigt, deren Beantwortung durch die Meeting-übergreifende Darstellung von Inhalten einen Mehrwert erfährt. Trotz jahrzehntelanger Forschung und Entwicklung im Bereich automatischer und halbautomatischer14 Informationssicherung werden weiterhin hauptsächlich Notizen und Protokolle zu diesem Zweck genutzt und dominieren somit auch beim Informationsabruf (vgl. [Whittaker et al. 06]). Eine Ursache für diesen Umstand sehen WHITTAKER ET AL. in der fehlenden Abstraktion der Systeme: “The main failings of meeting browsers seem to be that they are largely only able to offer a view of a single meeting, that there is not layer of abstraction between the user and the underlying data and annotations […]”[Whittaker et al. 06] 14 Smartphone-basierte Anwendungen wie Mobileessence [Johnson 07], MarkUp As You Talk [Kalnikaitė et al. 12] oder das elektronische Notizbuch NiCEBook [Brandl et al. 10] 42 4.1. Problemanalyse Sie erachten eine Abstraktion der Meeting-Inhalte als notwendig für ein Multi-Meeting Analyse-Werkzeug. Textprotokolle und Notizen liefern eine solche Abstraktion: Die Zuordnung von Inhalten zu Themen sowie die Kategorisierung in Aufgaben, Entscheidungen oder andere Dialogelemente stellt eine Zusammenfassung der wichtigsten Inhalte dar (vgl. [Whittaker et al. 07]). Während Notizen als persönliche Aufzeichnungsform meist nur für den Notierenden selbst bestimmt und daher eine subjektive Zusammenfassung liefern, stellen Protokolle eine öffentliche15, objektive Informationsquelle dar (vgl. Abschnitt 2.1.3). Aus diesem Grund orientiert sich das Konzept dieser Arbeit an Struktur und Aufbau von Meeting-Protokollen. Abbildung 4.4 zeigt die Einordnung der Zielstellung in den Gesamtablauf bestehend aus Informationssicherung, Informationsabruf und Informationsaustausch. Zunächst erfolgt im Anschluss an ein Meeting die Informationssicherung, welche sich in Digitalisierung und semantische Anreicherung gliedert. Unter der Annahme, dass die Inhalte mehrerer aufeinanderfolgender Meetings bereits semantisch angereichert vorliegen, schließt sich das Visualisierungs- und Interaktionskonzept mit dem Ziel der Unterstützung des Informationsabrufs an. Beim Informationsaustausch werden die Informationen in weiteren Prozessen verwertet und unter Umständen mit anderen Inhalten verknüpft. Wie in Abschnitt 4.1.1 erläutert, spezialisiert sich die vorliegende Arbeit auf das Szenario des Informationsabrufs. 15 Für alle Berechtigten, am Projekt beteiligten Personen zugänglich ANFORDERUNGSANALYSE 43 Ziel dieses Analyseteils ist es, eine fundierte Datengrundlage für das Visualisierungs- und Interaktionskonzept zu erarbeiten. Deshalb wird an dieser Stelle das Meeting anhand grundlegender Strukturen betrachtet. Zur Erleichterung der Lesbarkeit werden im Folgenden alle inhaltlich relevanten Daten eines Meetings, wie Dokumente, Themen, Agenda, Datum, etc., unter dem Begriff „Meeting-Inhalte“ zusammengefasst. Der Begriff „Inhalte“ alleinstehend bezeichnet hingegen die Gesprächsgegenstände eines Meetings, also die Informationen zu den Themen. Im Rahmen der Studie zu TeamSpace [Lipford et al. 08] wurde die Heterogenität vieler Meetings in Bezug auf ihre Ziele und den Ablauf festgestellt (vgl. Abschnitt 2.1.2). Gleichzeitig wurde erkannt, dass die meisten Meetings dennoch eine ähnliche inhaltliche Struktur aufweisen. Um möglichst viele Meetings unterstützen zu können, haben LIPFORD ET AL. solch einen allgemeinen Meeting-Aufbau definiert, wobei sie sich zumindest auf den Kontext des Projektmanagements festlegen. Nach LIPFORD ET AL. gelten folgende Aussagen: Meetings basieren auf einer Agenda, enthalten Präsentationen und sonstige Dokumente zum Informationsaustausch. Weiterhin gehört jedes Meeting einem Projekt an und wird innerhalb dieses Projekts anhand des Meeting-Datums definiert. Eine Folge von Meetings ergibt sich somit aus chronologisch aufeinanderfolgenden Zeitpunkten, zu denen Projekt-Inhalte besprochen werden. Diese Inhalte werden in MeetingProtokollen festgehalten. Dabei sind die Themen eines Meetings die wichtigsten Anhaltspunkte zur Strukturierung (vgl. [Lisowska et al. 04]): Sie fassen Inhalte unter einem aussagekräftigen Titel zu einer Einheit zusammen und bilden in ihrer Gesamtheit pro Meeting die Agenda 16. Es wurde bereits beschrieben, dass Notizen und Textprotokolle eine abstrakte Repräsentation von Meeting-Inhalten darstellen, indem Inhalte Themen zugeordnet und in verschiedene Dialogelemente kategorisiert werden (vgl. Abschnitt 4.1.4). Welche Kategorien mit dem Konzept dieser Arbeit unterstützt werden sollen, wird anhand der Ergebnisse aus vier Studien zu Meeting-Aufzeichnungen ([Brandl et al. 10], [Ispas et al. 10], [Khan 93] und [Lisowska et al. 04]) untersucht. ISPAS ET AL., BRANDL ET AL. und KHAN analysierten den Inhalt von Meeting-Notizen mit dem Ziel, das Notieren selbst zu unterstützen. LISOWSKA ET AL. zeigen hingegen, welche Arten von Informati16 Einen ähnlichen Meeting-Aufbau beschreibt auch MARCHAND-MAILLET in seinem Modell für Meeting-Aufzeichnungen [Marchand-Maillet 03] 44 4.2. Datenanalyse onen Nutzer mithilfe von Meeting-Aufzeichnungen abrufen. Obwohl die Studien verschiedenen Zielen dienen, geben alle einen Überblick über die Inhalte, die in Meetings besprochen werden, und benennen verschiedene Inhaltskategorien. Tabelle 4.1 listet alle genannten Kategorien und ihre Nennung in den vier Studien auf. Folgende Kategorien gehen aus Tabelle 4.1 mit drei oder vier Nennungen als besonders wichtig hervor: „Aufgabe“, „Kontakt“, „Termin“, „Idee“ und „Entscheidung“, wobei „Entscheidung“ in der vorliegenden Arbeit allgemeiner als „Beschluss“ bezeichnet wird. Die Kategorie „Kontakt“ wird vernachlässigt, da die Suche nach Kontaktdaten keinen Anwendungsfall im Sinne der Zielstellung darstellt. Weiterhin wird die Kategorie „Gesprächspunkt“ zur Repräsentation der weniger häufig genannten Kategorien hinzugefügt. Zusammen mit den Feststellungen zum allgemeinen MeetingAufbau aus Abschnitt 4.2.1 ergibt sich damit die in Abbildung 4.5 dargestellte Meeting-Struktur. ANFORDERUNGSANALYSE 45 Im Rahmen der Literaturrecherche fanden sich zwei Arbeiten, die das Thema Meeting-übergreifender Zusammenhänge aufgreifen: zum einen ein Modell für Meeting-Aufzeichnungen [Marchand-Maillet 03], zum anderen die zuvor genannte Studie von LISOWSKA [LISOWSKA 03]. Tabelle 4.2 stellt die Relationen zwischen Meeting-Inhalten und -Dokumenten aus beiden genannten Arbeiten gegenüber, wobei nur solche Relationen berücksichtigt werden, die die zuvor beschriebene Datengrundlage betreffen. A. C. D. E. F. Themen über mehrere Meetings hinweg B. Inhalt und Thema Entscheidung und Thema Gesprächspunkt und Thema Aufgabe und Projekt Dokument und Projekt G. Dokument und Thema Angelehnt daran werden die Relationen R1 bis R6 aufgestellt, welche für das Konzept relevant sind. Bei den Punkten „Inhalt und Thema“ (B), „Entscheidung und Thema“ (C) und „Gesprächspunkt und Thema“ (D) handelt es sich bezüglich der hier definierten Datengrundlage jeweils um die Relation Inhalt – Thema. Aus diesem Grund werden die drei Punkte in Relation R3 zusammengefasst. Der Punkt „Aufgabe und Projekt“ (E) fließt ebenfalls R3 zu, da „Aufgaben“ in dieser Arbeit nicht dem Projekt, sondern einem Thema angehören. Die Relation R6 vereinigt die Punkte „Dokument und Projekt“ (F) sowie „Dokument und Thema“ (G) in sich. Im Sinne der Zielstellung werden mit R2, R3 und R4 drei weitere Relationen eingeführt, welche nicht direkt aus der Tabelle hervorgehen. Sie dienen der zusätzlichen semantischen Trennung von Thema und Inhalt, die einer noch detailliertere Verknüpfung von Inhalten ermöglicht. 46 4.2. Datenanalyse Im Folgenden werden die Relationen R1 bis R6 definiert und beispielhaft beschrieben. Zu diesem Zweck werden Fragestellungen aus Abschnitt 4.1.1 aufgegriffen. Abbildung 4.6 bildet die Relationen anhand der zuvor definierten Meeting-Struktur ab. Ein Thema kann mehreren Meetings zugeordnet sein, das heißt es wird in diesem Fall im Projektverlauf über einen längeren Zeitraum besprochen. Frage: Was wurde zu einem Thema besprochen? (Anwendungsfall 1 und 2) Ist ein Inhalt mehreren Meetings zugeordnet, bedeutet das, dass er nicht innerhalb eines Meetings abgeschlossen wurde. Im Speziellen lässt sich diese Relation auf Aufgaben oder Ideen übertragen, welche noch „offen“ sind – das heißt, sie wurden in einem Meeting benannt, und in einem späteren Meeting aufgegriffen, ohne dass Veränderungen am Inhalt erkennbar sind. Frage: Welche Aufgaben wurden erledigt, welche nicht? Weshalb wurden Aufgaben noch nicht erledigt? Gibt es Ideen oder Lösungsvorschläge, die noch nicht umgesetzt wurden? (Anwendungsfall 3) Ein Inhalt gehört immer einem Thema an. Bei der Meeting-übergreifenden Darstellung wird der komplette Inhalt zu einem Thema auf einen Blick ersichtlich, und damit der gesuchte Inhalt möglicherweise schneller gefunden. ANFORDERUNGSANALYSE 47 Frage: Wie lautete ein Beschluss? (Anwendungsfall 1) Weshalb wurde ein Thema noch nicht abgeschlossen? Gibt es offene Aufgaben? (Anwendungsfall 3) Ein Inhalt kann weiterhin mit einem anderen Thema verknüpft werden. Ein Beispiel dafür ist das Ableiten eines eigenständigen Themas aus einer Idee oder einer Aufgabe, die innerhalb eines anderen Themas entstand. Frage: Was wurde aus Aufgabe „xy“? (Anwendungsfall 3) Inhalte der gleichen Kategorie oder verschiedener Kategorien können verknüpft sein. Wird beispielsweise eine Aufgabe aus einem vorherigen Meeting ausgewertet, entsteht neuer Inhalt (z. B. ein Gesprächspunkt). Eine Verknüpfung ist auch dann relevant, wenn die Gründe für eine getroffene Entscheidung gesucht werden. Frage: Weshalb wurde ein Beschluss getroffen? (Anwendungsfall 1) Weshalb wurde die Aufgabe noch nicht erledigt? (Anwendungsfall 3) Zwei Themen können zusammenhängen, wenn sie ähnliche Inhalte behandeln, jedoch verschiedene Schwerpunkte betrachten, oder wenn sie inhaltlich aufeinander aufbauen. Beispielsweise kann ein Thema, welches Probleme im Projekt behandelt, von möglichen Lösungsansätzen gefolgt werden. Dann heißen die Themen „Problem“ und „Lösung“, werden also vom System aufgrund der verschiedenen Namen getrennt voneinander behandelt, bauen jedoch aufeinander auf. Frage: Was wurde zu einem Thema besprochen? (Anwendungsfall 1) Wurde das Thema weitergeführt? (Anwendungsfall 2) Dokumente können einem Thema zugeordnet sein. Bei der Suche nach einem Dokument, welches in einem Meeting besprochen wurde, ist über einen längeren Zeitraum das Thema der markantere Anhaltspunkt. Deshalb profitiert auch folgende Fragestellung von der Verknüpfung von MeetingInhalten: Frage: Was sagte Dokument „xy“ dazu aus? (Anwendungsfall 1) Die verwandten Arbeiten aus Kapitel 3 werden in diesem Abschnitt im Hinblick auf ihre Visualisierungsansätze und vorhandenen Interaktionsmöglich17 R6 stellt im Sinne der Abgrenzung der Arbeit eine zusätzliche Relation dar. 48 4.3. Bewertung der verwandten Arbeiten keiten untersucht und bewertet. Den Betrachtungen liegen die Ergebnisse der zuvor erfolgten Datenanalyse (Abschnitt 4.2) zugrunde. Dieser Analyseteil stellt die Einsatzpotentiale der Arbeiten hinsichtlich der Zielstellung der vorliegenden Arbeit heraus und zeigt gleichzeitig Schwachpunkte auf, die mit dem eigenen Konzept (siehe Kapitel 1) auszugleichen sind. Die Meeting Browser, die in Abschnitt 3.1 vorgestellt wurden, bedienen sich hauptsächlich Listen und Tabs zur Darstellung der Informationen, wobei ARCHIVUS [Lisowska et al. 05] diese mit einer Buchmetapher kombiniert. TeamSpace [Richter et al. 01] liefert mit der Zeitachse darüber hinaus eine visuelle Zusammenfassung für jedes Meeting. Hier kommen die visuellen Variablen Farbe und Position zur Anwendung. Die gleichzeitige Betrachtung mehrerer Meetings ist möglich, Zusammenhänge werden dabei jedoch nicht explizit dargestellt. Beide Meeting Browser gehen nicht über die herkömmliche Suchfunktion über alle Aufzeichnungen hinaus (vgl. Abschnitt 4.1.2) und bieten keine Visualisierung Meeting-übergreifender Zusammenhänge. Eingehender untersucht werden an dieser Stelle die Visualisierungsansätze von EventRiver [Luo et al. 12] und Story Flow [Rose et al. 09]. Beide Systeme fokussieren sich auf die Repräsentation von Zusammenhängen textlicher Inhalte, womit sie eine ähnliche Zielstellung verfolgen wie die vorliegende Arbeit. Dazu werden Inhalte an eine Zeitachse projiziert und die Relationen zwischen ihnen visualisiert. Weitere visuelle Hilfsmittel werden eingesetzt, um die Leserichtung zu beeinflussen. Damit sollen sich Zusammenhänge schneller und einfacher erschließen, als es beim Lesen der Dokumente allein möglich wäre. Die Relationsvisualisierung beider Arbeiten trägt maßgeblich zur Beeinflussung der Leserichtung und damit zur Erschließung von Zusammenhängen bei, weshalb die Arbeiten in dieser Hinsicht bewertet werden. Zur Bewertung der Visualisierungsansätze im Hinblick auf die Zielstellung der vorliegenden Arbeit muss zunächst die eigene Datengrundlage auf EventRiver und Story Flow übertragen werden (siehe Tabelle 4.3), wobei einige Kompromisse notwendig sind. So wird bei beiden Arbeiten das Meeting sehr frei als Zeitraum ausgelegt. Diese Herleitung ergibt sich aus der Unterscheidung von Meetings anhand ihres Datums. Inhaltskategorien und die Agenda lassen sich nicht übersetzen, was zur Bewertung der Relationsvisualisierung allerdings ohnehin vernachlässigt werden kann. Dokumente im Sinne der beiden Arbeiten repräsentieren die visualisierten Inhalte, weshalb auch die Dokumente im Sinne der vorliegenden Arbeit vernachlässigt werden. ANFORDERUNGSANALYSE 49 Zeitpunkt, diskret Position Zeitraum, kontinuierlich Position Thema Position Thema – Gesamtheit der Ereignisse Farbe, Position Dokumenttitel Position, Linienstärke (Größe) Ereignisblase Form, Größe, Position Ereignisse werden bei EventRiver über einen Zeitraum hinweg visualisiert, bei Story Flow jedoch nur zu einem festen Zeitpunkt. Die diskrete Zeitachse bei Story Flow lässt sich besser auf die Meeting-Daten anwenden, als die kontinuierliche Zeitachse bei EventRiver, da Meeting-Inhalte den Stand zum Zeitpunkt des Meetings repräsentieren und zwischen Meetings nicht in diesem Kontext betrachtet werden. Das hat einen unmittelbaren Effekt auf die Visualisierung der Inhalte, welche bei EventRiver in Form der Ereignisblasen eine horizontale Ausdehnung besitzen, die nur in einem Zeitbereich, nicht aber auf einem Zeitpunkt abgebildet werden kann. Aus diesem Grund ist die Form keine geeignete visuelle Variable zur Repräsentation von Meeting-Inhalten. Die Größe spielt bei beiden Arbeiten eine Rolle zur Repräsentation der Inhalte und steht in Relation zu ihrem Umfang 18, der auch bei der Abbildung von Meeting-Inhalten relevant ist. So nehmen unter Umständen die Inhalte von Themen, die ausführlicher besprochen wurden, mehr Platz im Protokoll ein. Für eine Kategorisierung der Inhalte, wie sie die Datengrundlage der vorliegenden Arbeit vornimmt, bietet sich keine der beiden Darstellungsformen an. Tabelle 4.4 stellt gegenüber, welche der in Abschnitt 4.2.3 definierten Relationen die Visualisierungen darzustellen vermögen und mithilfe welcher visuellen Variablen dies geschieht. Position am Zeitstrahl Position am Zeitstrahl Farbe Linie - Richtung, Position am Zeitstrahl Farbe und Position der Ereignisblasen zeitliche Abfolge – Position Linienführung (Form), Position am Zeitstrahl 18 EventRiver übersetzt die Menge an Dokumenten in die horizontale Ausdehnung, Story Flow in die Linienstärke. Je mehr Dokumente es gibt, desto mehr Inhalte, desto größer die Blase / stärker die Linie 50 4.3. Bewertung der verwandten Arbeiten Story Flow unterscheidet Themen nur anhand ihrer Namen, weshalb auf den ersten Blick besonders bei der Anzeige eines längeren Zeitraums nicht erfasst werden kann, wo ein Thema anfängt und aufhört und wo sich ein neues Thema daraus entwickelt. Die Farbkodierung der Themen bei EventRiver ist visuell schneller erfassbar, und damit auch ihre Zuordnung zu (Meeting-) Zeiträumen (R1, vgl. Abbildung 4.8). Allerdings muss die Farbkodierung der Themen insofern kritisch betrachtet werden, dass es keine maximale Anzahl an Themen gibt, der Unterscheidbarkeit von Farben beim Auge jedoch eine Grenze gesetzt ist. Innerhalb der Themen sind die Inhalte bei EventRiver über ihre Position in zeitlichen Zusammenhang gesetzt. Jedoch lassen sich durch die alleinige Nutzung von Farbe und Position zur Relationsvisualisierung keine Zusammenhänge zwischen verschiedenen Themen oder Inhalten verschiedener Themen darstellen (R3, R4). Die Storyboard-Funktion (Ansicht der Detailfenster mehrerer Ereignisse in chronologischer Reihenfolge) bietet keine ausreichende Alternative, da die Inhalts-Details in separaten Fenstern angezeigt werden, wodurch der Zusammenhang zwischen ihnen verloren geht. Story Flow hingegen realisiert diese Zusammenhänge mithilfe von Linien. Ein Ziel der Story Flow Visualisierung ist es, Ursachen und Entwicklungen der „Geschichten“ darzustellen. Dazu werden Verknüpfungen zwischen verschiedenen Themen unterstützt, was der Relation R4 entspricht. Da die Linien sich jedoch nicht eindeutig zu den Inhalten zuordnen lassen, ist eine Relation verschiedener Inhalte nicht herauszulesen. Weiterhin überdecken die Linien den Text, wenn Inhalte verknüpft werden, zwischen denen ein oder mehr erfasste Zeitpunkte liegen (vgl. Abbildung 4.7). Die Interaktion der verwandten Arbeiten wird anhand von Suchstrategien erläutert und bewertet, da das Werkzeug hauptsächlich dem Informationsabruf dienen soll. Drei Suchstrategien sollten von einem Werkzeug zum Informationsabruf bereitgestellt werden (vgl. [Marchionini 06] und [Pallotta et al. 07]): browsing, querying und filtering – Browsen, Suchen und Filtern. Browsen: Bezeichnet einerseits das „Schauen ohne Intention“, andererseits das Interagieren mit und Navigieren durch eine Anwendung (vgl. [Jansen 02]). Dazu gehören das Auswählen von Elementen, Zoomfunktionen und Scrollen. Suchen: In diesem Zusammenhang speziell das Ausführen von Suchanfragen in Form (mehrerer) Schlüsselwörter. Liefert Ergebnisse, auf Basis derer wiederum Suchstrategien ausgeführt werden können. Filtern: Filterfunktionen bestehen in der Auswahl (und Abwahl) oder Eingrenzung von Werten vorgegebener Konzepte. Schränkt eine Menge an Elementen ein, auf der dann weitere Suchstrategien ausgeführt werden können. ANFORDERUNGSANALYSE 51 Während das Browsen dazu dient, sich einen Überblick zu verschaffen, und Inhalte aufzufinden, deren Kontext unklar oder unbekannt ist, dienen Filterfunktionen und Suchanfragen meist der gezielten Informationssuche. Der Nutzer weiß, was er sucht, jedoch nicht, wo es zu finden ist. Bei den beiden Meeting Browsern TeamSpace und ARCHIVUS findet das Browsen hauptsächlich anhand Listen und Tabs statt. TeamSpace bietet zusätzlich mit der Möglichkeit zur gleichzeitigen Anzeige mehrerer Meetings in separaten Fenstern einen Vorteil gegenüber ARCHIVUS, dessen Anwendungsoberfläche in feste Bereiche eingeteilt ist. Weiterhin stellt die Projektion der Meeting-Inhalte auf die Zeitleiste in Form von farblich unterschiedenen Indizes eine Navigationshilfe dar. Der Nutzer kann in den Aufzeichnungen schnell und gezielt zu Aufgaben, Dokumenten oder Themen der Agenda springen (Abbildung 4.9). EventRiver bietet mit der zeitlichen Zoomfunktion (Einschränkung oder Vergrößerung des angezeigten Zeitbereichs) eine Form des semantischen Zooms: die Ansicht wird dem neuen Ausschnitt angepasst, wobei Ereignisse beim Verkleinern des Zeitbereichs vergrößert und weitere Details angezeigt werden (Abbildung 4.10). Damit folgt EventRiver dem Interaktionsparadigma von SHNEIDERMAN: „Overview first, zoom and filter, then details on demand“ [Shneiderman 96] (Überblick, Zoom und Filter, Details auf Anfrage). Konkrete Suchanfragen unterstützen TeamSpace und ARCHIVUS sowohl auf der Meeting-Liste, als auch innerhalb der Aufzeichnungen zu einem Meeting. In beiden Fällen erfolgt die Eingabe eines Suchwortes über ein Textfeld. Bei ARCHIVUS besteht zusätzlich die Möglichkeit der Spracheingabe. Bei EventRiver kann der Nutzer neben der freien SchlüsselwortEingabe ein gesuchtes Wort auch aus einer vorgegebenen Liste auswählen. Außerdem bietet das System eine sogenannte Beispiel-Suche an, bei der ein Ereignis als Beispiel ausgewählt wird. Das Ergebnis ist eine Menge von Ereignissen, die dem Beispiel-Ereignis ähnlich sind. Während die Suchergebnisse bei den Meeting Browsern in Listenform präsentiert werden, entspricht das Ergebnis bei EventRiver einer semantischen Zoomfunktion 19: Ereignisse außerhalb des Ergebnisbereichs werden ausgeblendet, und die Ansicht wird auf verbleibenden Ereignisse angepasst, analog zur Einschränkung des Zeitbereichs. 19 Semantischer Zoom: Anpassen der Datenpräsentation abhängig von verschiedenen Skalierungsebenen (vgl. [Cockburn et al. 08], S. 8) 52 4.3. Bewertung der verwandten Arbeiten Die meisten Filterfunktionen bietet ARCHIVUS (siehe Abbildung 4.11). Neben dem Filtern der Meetings nach Datum, Ort und Teilnehmern unterstützt der Meeting Browser das Filtern nach Themen, Dokumenten, Ereignissen sowie den Dialogelementen (Schlussfolgerung, Frage, Entscheidung), was zu sehr detaillierten Ergebnissen führt. Das An- und Abwählen von Ereignissen bei EventRiver sowie die Möglichkeit, Themen nach ihrer Wichtigkeit anhand verschiedener Kriterien zu filtern, werden in Form eines semantischen Zooms ausgeführt. Die Gewichtung der Themen findet jedoch keine Anwendung in der vorliegenden Arbeit, weshalb Filter nach der Wichtigkeit für das Konzept unerheblich ist. Die Interaktionsmöglichkeiten von Story Flow werden bis auf mögliches Hineinzoomen nicht beschrieben. Besonders bei der Abbildung eines längeren Zeitraums lassen sich hier ohne Vergrößerung keine Details mehr erkennen (vergleiche Abschnitt 3.2.1, Abbildung 3.6), und Themen mit kurzfristiger Zeitspanne sowie Themen ohne Verbindungen treten in den Hintergrund. Aus einer Nutzerumfrage (vgl. [Rose et al. 09]) ging diesbezüglich auch der Wunsch nach Filtermechanismen, sowie nach einer möglichen Spezifizierung der Visualisierung in verschiedene Inhaltsbereiche, hervor. Die Interaktions- und Visualisierungsmethoden der verwandten Arbeiten wurden eingehend betrachtet. Die Relationsvisualisierung von Story Flow basiert auf der Linienführung, welche ein geeignetes Mittel zum Leiten der Leserichtung darstellt und außerdem Zusammenhänge zwischen Inhalten auch über einen längeren Zeitraum hinweg abbildet. Die einseitige Farbgebung und eingeschränkte visuelle Unterscheidung von Themen führt jedoch zu Unübersichtlichkeit. EventRiver wirkt dem mit der Nutzung der visuellen Variablen Form und Farbe entgegen. Themen können klar voneinander getrennt werden und die schnittlinienartige Formgebung der Inhalte sowie die horizontale Anordnung an der Zeitachse dienen ebenfalls der Führung des Leseflusses. EventRiver bietet außerdem vielfältige Suchstrategien, deren Ergebnisse mittels semantischem Zoom angezeigt werden, wodurch dem Nutzer der Kontext erhalten bleibt. Im Vergleich dazu ist die Listendarstellung bei TeamSpace und ARCHIVUS weniger geeignet, um Zusammenhängen darzustellen. TeamSpace bietet mit der Zeitleiste und den Indizes eine visuelle Zusammenfassung für jedes Meeting, hält jedoch kaum Filtermechanismen bereit, die nur ausgewählte Inhalte berücksichtigen. ARCHIVUS stellt hingegen zahlreiche Filterfunktionen zur Verfügung. Die Ergebnisse werden dabei allerdings nur für jedes Meeting einzeln im Detail ersichtlich. Tabelle 4.5 bewertet die verwandten Arbeiten abschließend. Die Punkteverteilung gibt eine Einschätzung der Autorin zur Eignung bezüglich der Zielstellung der vorliegenden Arbeit wieder. Punkte wurden von 0 (ungeeignet) bis ANFORDERUNGSANALYSE 53 5 (geeignet) vergeben. Die höchste Punktzahl bedeutet, dass keine Verbesserung hinsichtlich der bewerteten Kategorie notwendig ist. Diese Punktzahl wurde nicht vergeben. Bei der Punktevergabe zu den Suchstrategien wurde die Darstellung der Suchergebnisse berücksichtigt. Die Bewertung der Meeting Browser entspricht der in Abschnitt 4.1.2 beschriebenen Problemstellung, die die fehlende Unterstützung für Meetingübergreifenden Informationsabruf thematisiert. Meeting Browser sind derzeit kaum geeignet, Informationen Meeting-übergreifend abzurufen. Im Zusammenspiel von Visualisierung und Interaktion schneidet EventRiver am besten ab, zur Meeting-übergreifenden Relationsvisualisierung eignet sich jedoch der Ansatz von Story Flow besser. Allerdings muss ein Weg gefunden werden, Zusammenhänge auch in der Detailansicht darzustellen. EventRiver gelingt das mit der Storyboard-Funktion nicht vollständig. Keiner der beiden Visualisierungsansätze lässt sich ohne weiteres auf die vorliegende Datengrundlage übertragen. Allerdings ist zu erwarten, dass eine Kombination der Visualisierungsansätze einen geeigneten Ausgangspunkt für das Konzept der vorliegenden Arbeit bietet. Aus der vorangegangenen Analyse ergeben sich verschiedene Anforderungen an das Konzept. Sie werden im Folgenden im Hinblick auf die drei Bereiche Visualisierung, Interaktion und technische Umsetzung spezifiziert. Dabei wird zwischen Muss- und Kann-Kriterien unterschieden. KannKriterien dienen als Ausblick auf eine Erweiterung des Konzepts und ergeben sich aus der Abgrenzung der Arbeit (siehe Abschnitt 4.1.4). Sie werden mit einem Stern (*) gekennzeichnet. Der Schwerpunkt des Konzepts liegt auf der Visualisierung, die einen besonderen Stellenwert bei der Anforderungsspezifikation einnimmt. 54 4.4. Anforderungen an das Konzept Zur Visualisierung von Meeting-Aufzeichnungen muss eine geeignete visuelle Repräsentation der in der Datengrundlage spezifizierten Elemente erfolgen. Diese sind: A1.1 A1.2 A1.3 A1.4 Meeting-Datum Themen Inhalte Inhaltskategorien Weiterhin ergeben sich aus Fragestellungen zu Anwendungsfall 3 (Analyse / Erstellen der Agenda) die folgenden zu visualisierenden Daten: A1.5 A1.6 A1.7 Themenstatus Aufgabenstatus Ideenstatus Zur Darstellung von Zusammenhängen zwischen Meeting-Inhalten müssen die folgenden Meeting-übergreifenden Relationen visualisiert werden: A2.1a A2.1b A2.1c A2.1d A2.1e *A1.2f Thema – Meeting Inhalt – Meeting Thema – Inhalt Inhalt – Inhalt Thema – Thema Dokument – Thema Aufgrund des zunächst unbegrenzten Umfangs von MeetingAufzeichnungen innerhalb eines Projekts sind zwei oder mehr Abstraktionsstufen umzusetzen, die eine Darstellung der Inhalte im Überblick sowie die Darstellung von Details ermöglichen. Textprotokolle bedienen sich Listen und anderer Strukturierungsmethoden, welche als Anhaltspunkte beim Informationsabruf dienen. Diese MetaInformationen sind visuell auf die Daten abzubilden. Zur Erfassung von Zusammenhängen wird der Lesefluss des Nutzers in der Übersicht anhand der Relationsvisualisierung geleitet. Zur Steuerung des Leseflusses in der Detailansicht ist darüber hinaus eine Umsortierung der Inhalte anhand ihrer Beziehungen zu realisieren, um eine Darstellung der Zusammenhänge auch im Detail zu erhalten. ANFORDERUNGSANALYSE 55 Weiterhin bedarf es geeigneter Interaktionsmethoden, die eine Anpassung der Visualisierung zur Bearbeitung spezieller Anwendungsfälle ermöglichen. Insbesondere soll das Interaktionsparadigma „Overview first, zoom and filter, then details on demand“ [Shneiderman 96] berücksichtigt werden. Bei der Suche nach unbekanntem Inhalt (Anwendungsfall 2) oder dem Versuch, sich einen allgemeinen Überblick über die Inhalte zu verschaffen, müssen dem Nutzer freie Interaktionsmöglichkeiten geboten werden. Wie diese genau aussehen, ist abhängig von der Visualisierung. Wichtig ist die Bereitstellung folgender Funktionalitäten: B1.1 B1.2 Interaktion zum Ansichtswechsel zwischen Überblick und Detail für Themen und Inhalte Interaktion zur Einschränkung oder Erweiterung der Anzahl dargestellter Meetings Die Möglichkeit zur Eingabe von Suchworten muss bereitgestellt werden, wobei eine Abbildung der Suchergebnisse anhand der Visualisierung angestrebt wird. Dadurch soll der zeitliche und semantische Kontext der Ergebnisse erhalten bleiben. Zur Unterstützung der Suche sind folgende Filtermechanismen umzusetzen: B3.1 B3.2 B3.3 Inhaltskategorie Themen Zeitraum Zur Unterstützung der Analyse sind weitere Filterfunktionen nötig. B3.4 B3.5 B3.6 Aufgabenstatus Ideenstatus Themenstatus Der Wechsel zwischen den Abstraktionsstufen soll stets auf eine Weise erfolgen, die den Gesamtkontext zwischen Überblick und Detail wahrt. Diese Anforderung gilt bezüglich aller unterstützten Interaktionsmethoden. 56 4.4. Anforderungen an das Konzept Die Manipulation der Inhalte stellt insgesamt ein Kann-Kriterium dar, da sie über den Informationsabruf hinausgeht und die Informationssicherung und den Informationsaustausch betrifft. *B5.1 *B5.2 *B5.3 *B5.4 *B5.5 Einbindung der Inhalte neuer Meeting-Protokolle mithilfe von Eingabemasken Editieren der Themen, Aufgaben und Ideenstatus‘ Erstellung von Verknüpfungen Einbindung von Dokumenten Export von Inhalten wie Terminen, Aufgaben in andere Anwendungen (Kalender, E-Mail, Sonstige) Das Szenario schließt alle Phasen des Meeting-Zyklus mit ein. Die Unterstützung des Informationsabrufs muss damit sowohl zwischen Meetings, als auch im Meeting selbst gewährleistet werden. Aus diesem Anspruch lassen sich einige Anforderungen an die technische Umsetzung des Konzepts ableiten. Da im Meeting-Szenario nicht gewährleistet ist, dass Arbeitsplatzrechner oder Laptops vorhanden sind, und immer häufiger Tablets als Geräte zum Informationsabruf eingesetzt werden, ist die Wahl der Technologie zur Umsetzung der Anwendung so zu treffen, dass sie auf Tablets ausgeführt werden kann. Das schließt Smartphones mit ein, deren kleinere Bildschirmdiagonale die Abbildung großer Datenmengen allerdings erschwert. Eine Nutzung des Werkzeugs auf Smartphones wird daher nicht explizit unterstützt. Die Anwendung des Werkzeugs soll nicht auf Tablets eingeschränkt werden. Eine Umsetzung als Desktopanwendung und damit implizierte Anforderungen an das System und Interaktionskonzept, wie die zeigerbasierte Steuerung der Anwendung, sind bei der Implementierung zu berücksichtigen. Die Anwendung soll plattformunabhängig sein. Damit soll es allen MeetingTeilnehmern unabhängig von der Plattform, die sie verwenden, möglich sein, das Werkzeug zu nutzen. Basierend auf den zuvor aufgestellten Anforderungen stellt dieses Kapitel das Visualisierungs- und Interaktionskonzept vor. Erarbeitet wurde das Konzept zur Umsetzung der Anwendungsfälle im Hinblick auf die Zielstellung der vorliegenden Arbeit. Im Folgenden wird der Begriff „Meeting“ zur besseren Lesbarkeit verallgemeinert und gleichbedeutend mit „MeetingAufzeichnung“ oder „Meeting-Protokoll“ verwendet, da das Meeting im Rahmen des Konzepts durch seine Inhalte repräsentiert wird. Dieser Abschnitt beschreibt die visuelle Repräsentation der Datengrundlage, die in Abschnitt 4.2 definiert wurde. Zunächst wird die Abbildung der einzelnen Elemente der Datengrundlage erläutert. Abschließend setzt Abschnitt 5.1.5 diese Teilvisualisierungen anhand einer realen Datengrundlage beispielhaft zusammen. Die Inhalte der Meetings liegen im Allgemeinen in einzelnen Textdokumenten vor, die Teil einer Ordnerstruktur sind. Diese Trennung der Meetings durch die Dokumentgrenzen wird mit dem Visualisierungskonzept aufgehoben. Im übertragenen Sinne werden dazu die einzelnen Textdokumente in semantisch zusammengehörige Textblöcke (vgl. Abschnitt 2.3.1) zerlegt, die im Anschluss unter Beachtung der chronologischen Abfolge der Meetings neu zusammengesetzt werden. Bestehende Zusammenhänge zwischen den Textblöcken können dann losgelöst von den einzelnen Dokumenten Meeting-übergreifend dargestellt werden. Abbildung 5.1 schematisiert diesen Prozess. 60 5.1. Visualisierungskonzept Die Textblöcke stellen im Fall von Meeting-Aufzeichnungen Themen und ihre Inhalte dar, wobei Themen eine Überschrift und Inhalte in Form von Fließtext, Listen, oder sonstigen Textbausteinen als Zeilen vorliegen und durch ihre Anordnung unter einer Überschrift semantisch zugeordnet sind. Diese Anordnung entspricht der „Konzept und Detail“-Struktur (vgl. Abschnitt 2.3.2). Es ergibt sich eine hierarchische Gliederung der MeetingElemente. Ein Inhalt gehört zu einem Thema, welches wiederum einem Meeting zugeordnet ist. Einzelne Themen eines Meetings sind in Bezug zueinander gleichrangig, ebenso wie einzelne Inhalte eines Themas gleichrangig sind (siehe Abbildung 5.2). Eine Ausnahme bilden Inhalte in Listen mit mehreren Ebenen. Hier werden Inhalte einer niedrigeren Ebene Inhalten höherer Ebenen zugeordnet, wodurch auch zwischen Inhaltselementen eine Rangordnung existieren kann. Diese Hierarchie der Elemente hat Auswirkungen auf die Visualisierung, welche sich in der Positionierung der Elemente an zwei Zeitachsen äußert. Zur Neuanordnung der Meeting-Inhalte nach der Auftrennung der Dokumente wird einerseits die Tatsache beachtet, dass die Zeit in Form des MeetingDatums das wichtigste Kriterium zum Informationsabruf von MeetingInhalten ausmacht (vgl. Abschnitt 2.1.4). Aufgrund dessen und in Anlehnung an die Visualisierungsansätze von Story Flow [Rose et al. 09] und EventRiver [Luo et al. 12] wird das Meeting-Datum als Ausgangspunkt für die gesamte Visualisierung gewählt. Zur Abbildung wird eine horizontale Zeitachse gewählt, die sich über alle Meeting-Daten erstreckt. Sie wird als globale Zeitachse bezeichnet. Die lokale Zeitachse ergibt sich implizit aus der Reihenfolge der Themen innerhalb eines Meetings und wird nicht explizit dargestellt. Während bei den Visualisierungsansätzen von Story Flow und EventRiver die vertikale Anordnung der Themen ihre Relevanz widerspiegelt, bietet die Gewichtung der Themen und Inhalte für die beschriebenen Anwendungsfälle keinen Mehrwert. Die Positionierung der Themen und ihrer Inhalte repräsentiert die in Abschnitt 5.1.1 beschriebene Hierarchie und den Dokumentaufbau. Die Themen und Inhalte werden in chronologischer Reihenfolge ihrer Abhandlung im Meeting von oben nach unten unter dem entsprechenden Meeting-Datum positioniert, wobei die chronologische Ordnung erhalten bleibt (vgl. Abschnitt 2.3.2). Dabei folgen auf das Thema seine Inhalte und anschließend das nächste Thema mit dessen Inhalten, wobei Listenstrukturen mit Einrückung der jeweiligen Inhalte berücksichtigt werden (Abbildung 5.4). SYNTHESE UND KONZEPTION 61 Die zu visualisierenden Entitäten sind das Meeting sowie die Themen und Inhalte des Meetings. Zur grafischen Repräsentation der Datenobjekte werden die Attribute dieser Entitäten in visuelle Variablen transformiert (vgl. Abschnitt 2.2.1). Das Meeting selbst wird durch sein Attribut „MeetingDatum“ repräsentiert, welches auf die horizontale, globale Zeitachse projiziert wird. Diese ist linear, kontinuierlich und bildet die Meeting-Daten als diskrete Zeitpunkte ab. Der Wertebereich der Zeitachse beginnt mit dem Datum des ersten Projektmeetings und endet mit dem letzten. Anhand dieser Abbildung lassen sich Aussagen zu Regelmäßigkeit von und Zeitintervallen zwischen Meetings treffen (siehe Abbildung 5.5). Zu beachten ist dabei, dass der kleinste Zeitintervall, der zwischen zwei Meetings des Projekts vorkommt, als Ausgangsbasis für die Skalierung der Visualisierung herangezogen wird. Dieser Umstand beruht auf der Tatsache, dass jedem Meeting zur Darstellung seiner Themen und Inhalte die gleiche horizontale Ausdehnung auf dem Bildschirm zugewiesen wird und gleichzeitig ein Mindestabstand zwischen den Meeting-Inhalten einzuhalten ist, um Überdeckungen zu vermeiden. Das für das Konzept relevante Attribut der Entität Thema ist einzig sein „Name“, dessen Datentyp nominal ist. Da es eine unbegrenzte Anzahl an Themen innerhalb der Meetings zu einem Projekt geben kann, und somit eine unbegrenzte Anzahl an Namen, ist ihre Abbildung auf visuelle Variablen, die in der Anzahl ihrer Ausprägungsformen begrenzt sind, nicht sinnvoll (vgl. [Ware 04], S.183). Zur Unterscheidung von Themen werden aus diesem Grund ihre Namen in Textform abgebildet. Lineare Zeit ist die chronologische Anordnung ab festem Startzeitpunkt. Diskrete Zeitpunkte besitzen keine Dauer. Kontinuierliche Zeit lässt quantitative Aussagen zu Abständen zwischen Zeitpunkten zu. [Müller et al. 03] 62 5.1. Visualisierungskonzept Für die visuelle Repräsentation der Entität Inhalt wird in Anlehnung an die Dokumentstruktur eine rechteckige Fläche als Abstraktion der Zeile gewählt (vgl. Abschnitt 5.1.1). Diese Fläche soll die Inhalte so abbilden, dass Aussagen zum Umfang verschiedener Inhalte im Vergleich zueinander getroffen werden können. Der Umfang eines Inhalts, abgeleitet von seiner „Textlänge“ als quantitativer Datentyp, wird durch die Größe repräsentiert und somit über den Flächeninhalt des Rechtecks wahrgenommen (siehe Abbildung 5.6). Die Breite ist für alle Inhalte zunächst gleich, und entspricht der horizontalen Ausdehnung des Meetings, die durch den Minimalintervall der Meetings berechnet wird. Zur Variation des Flächeninhalts wird deshalb die Höhe entsprechend der Textlänge angepasst. Zur Abbildung des Attributs „Inhaltskategorie“ auf die Fläche wird die visuelle Variable Farbe eingesetzt (Abbildung 5.7). Die Inhaltskategorie kann fünf verschiedene Werte annehmen, die der nominalen Datenklasse angehören, und in der Datenanalyse (Abschnitt 4.2.2) definiert wurden. Aufgrund dessen eignet sich zur visuellen Repräsentation die Farbkodierung 20. Bei der Auswahl der Farben spielte hauptsächlich die Unterscheidbarkeit der Farben durch Luminanz und Farbton eine Rolle. Die Positionierung der rechteckigen Form in der Farbe der jeweiligen Inhaltskategorie definiert schließlich die Zugehörigkeit zu einem Thema und einem Meeting. Eine mögliche Verschachtelung der Inhalte durch Listenebenen, wie in Abschnitt 5.1.1 beschrieben, wird durch „Einrücken“ vermittelt. Abbildung 5.8 zeigt das Gesamtbild eines Meetings mit einem Thema, Inhalten der verschiedenen Kategorien und einem Gesprächspunkt zweiter Ebene. Neben der Darstellung hierarchischer und quantitativer Relationen durch die Abbildung an den beiden Zeitachsen ist die Visualisierung Meetingübergreifender Relationen Schwerpunkt des Konzepts. Story Flow [Rose et al. 09] verwendet zu diesem Zweck Linien. Jedoch ist nicht ohne Lesen der Texte zu erkennen, ob es sich um die Verbindung unterschiedlicher oder gleicher Themen und Inhalte handelt. Aus diesem Grund werden bei der Abbildung der Relationen mit dem eigenen Konzept zwei Arten von Relationen unterschieden. Zum einen beschreiben Relationen die Verknüpfung des gleichen Themas oder Inhalts, wenn Thema oder Inhalt Gegenstand mehrerer Meetings sind (R1 und R2). Diese Relation wird als Fortführung bezeichnet. Die Metapher, die bei der Visualisierung einer Fortführungsrelation zur Anwendung kommt, ist die eines Weges, den die Information „beschreitet“ 20 Farbkodierung oder -kennzeichnung: Kodierung nominaler Information über die Farbgebung des Objekts (vgl. [Ware 04], S.123) SYNTHESE UND KONZEPTION 63 – ein Pfad, der es von einem zum nächsten Meeting führt (siehe Abbildung 5.9). Die zweite Relationsart ist komplexer, da sie verschiedene Informationen verbindet (R3, R4, R5). Je nach Leserichtung lautet die Bezeichnung „führt zu“ (von rechts nach links, Ursache – Wirkung) oder „geht hervor aus“ (von links nach rechts, Wirkung – Ursache, siehe Abschnitt 2.3.2). Durch die chronologische Abfolge der Meetings ist eindeutig, welches der verbundenen Elemente die Quelle und welche das Ziel der Verbindung ist. Zur exakten visuellen Zuordnung der Relation zu den verbundenen Elementen Inhalt und Thema und bei eventuell auftretender Überlagerung von Linien werden zwei Relationsenden eingeführt (siehe Abbildung 5.10). Die vertikale Linie steht für die Verbindung eines Themas, der Punkt für Inhalt. Zusätzlich weist die Färbung des Relationsendes auf die Art des verknüpften Inhalts hin. Damit soll es möglich sein, die Art der Quelle oder des Ziels der Relation auch dann zu erkennen, wenn das verbundene Element sich nicht im Bildschirmausschnitt befindet. Dem Thema wird zu diesem Zweck die Farbe Grau zugewiesen. Abbildung 5.11 zeigt beispielhaft die Verbindung zweier Themen, eine Aufgabe, die zu einem Gesprächspunkt führt, sowie ein Thema, welches aus einer Idee hervorgeht. Eine zusätzliche Hervorhebung der Relation von Inhalten wird durch die Ausdehnung der Breite der Inhalte erwirkt (siehe Abbildung 5.12). Im Folgenden Abschnitt werden alle Aspekte des Visualisierungskonzepts im Zusammenspiel dargestellt. Abbildung 5.13 stellt das Visualisierungskonzept in der Gesamtansicht dar. Sie basiert auf Beispiel-Daten und dient allein der Veranschaulichung des Visualisierungskonzepts. Die Einordnung der Meeting-Daten auf der Zeitachse zeigt einerseits an, dass insgesamt fünf Meetings im Zeitraum vom 31. Mai bis 09. Oktober eines Jahres betrachtet werden. Andererseits verdeutlicht diese Darstellungsform die Zeitintervalle, die zwischen den Meetings liegen. Ersichtlich sind sowohl die Verbindung einzelner Themen über ein oder mehrere aufeinanderfolgende Meetings, als auch Verbindungen, die einige Meetings überspringen. Alle Relationen werden in Form geschwungener Linien gezeichnet, die im Vergleich zu geraden, eckigen Linien 64 5.1. Visualisierungskonzept leichter zu verfolgen sind21. Die Fortführungsrelationen werden weiterhin halbtransparent gezeichnet, um im Falle von Überschneidungen eine eindeutige Zuordnung der Relationen auch bei Überschneidungen zu gewährleisten. Eine Anwendung des Konzepts auf reale Meeting-Daten erfolgt in Abschnitt 5.4.1. Die Visualisierung greift die Prinzipien des Topic Evolution Mining (Abschnitt 2.2.2) auf. Das Entstehen neuer Themen (topic birth) findet oftmals ohne vorhergehende Ereignisse statt (vgl. Abbildung 5.13, zum Beispiel Thema J, Thema M). In diesem Fall bestehen keine Relationen des Themas zu vorangegangenen Meetings. Eine andere Variante ist das Entstehen eines Themas aus einem anderen Thema oder einem Inhalt eines anderen Themas (zum Beispiel Thema aus Beschluss zu Thema E). Die Entwicklung eines Themas im Laufe der Zeit lässt sich ebenfalls anhand der Relationen verfolgen. Die Abbildung der Fortführungsrelation spezifiziert das Weiterführen eines Themas über mehrere Meetings (zum Beispiel Thema E, Thema L) sowie eines Inhalts (zum Beispiel Aufgabe zu Thema E). Das Verschwinden von Themen (topic death) beziehungsweise ihr Abschluss innerhalb der Meetings ist durch das Fehlen ebendieser Relationen gekennzeichnet (Thema E wird nach dem 18. Juli nicht mehr besprochen). Das sukzessive Aufteilen eines Themas in verschiedene Themen (topic splitting) veranschaulicht in der Abbildung beispielsweise das Hervorgehen von Inhalten der Themen H, Q und R aus Inhalten zu Thema G. Ein Verschmelzen von 21 [Ware 04], S. 193: “It is much easier to perceive connections when contours occur smoothly” SYNTHESE UND KONZEPTION 65 Themen (topic merging) wird durch die Relation mehrerer verschiedener Themen dargestellt. Thema P entsteht zum Beispiel durch Thema O, welches bereits aus Teilen der Themen K hervorgeht, das wiederum aus Thema E abgeleitet wurde. Der Abbildung ist weiterhin zu entnehmen, dass im Juli zwei Meetings abgehalten wurden, während im September kein einziges stattfand. Der gewählte Ausschnitt deutet außerdem an, dass der erste Gesprächspunkt zu Thema F aus einem Termin hervorgeht. Thema K beinhaltet mehrere Gesprächspunkte, von denen einer größeren Umfangs ist als die übrigen. Überdies beschreibt die „Einrückung“ der Aufgaben in Thema K den Umstand, dass die Aufgaben zum darüber stehenden Gesprächspunkt gehören. Es lassen sich weitere Zusammenhänge und Fakten entnehmen – die getroffene Auswahl zur beispielhaften Erläuterung der zuvor definierten Visualisierungselemente und ihrer Bedeutung soll an dieser Stelle genügen. Einzelne Aspekte der Visualisierung lassen sich auf die in Abschnitt 2.2 erläuterten Visualisierungsformen zurückführen, deren Prinzipien die Erarbeitung des Visualisierungskonzepts beeinflusst haben. Dazu gehört der relative Umfang eines Themas, welcher sich von der Repräsentation der Inhalte entnehmen lässt. Je mehr Inhalte ein Thema umfasst, desto mehr farbige Flächen sind dem Thema zugordnet und desto mehr vertikale Ausdehnung besitzt es. Ein quantitativer Vergleich der Themen miteinander ist damit möglich22. In ihrer Gesamtheit bilden die Themen zu einem Meeting schließlich den Umfang des Meetings ab23, wodurch ebenfalls ein Vergleich der Meetings diesbezüglich möglich ist. Diese Darstellungsform lässt sich in ihrer Grundform auf das Histogramm zurückführen, welches sich mit dem Prinzip der Stacked Bar Charts vermischt (siehe Abschnitte 2.2.4 und 2.2.7). Weiterhin stellt die Abbildung der Relationen als Linien, die zusammengehörige Inhalte verbinden, eine Form von Konzeptgraphen dar (siehe Abschnitt 2.2.3). Im Speziellen wird hier ein gerichteter Konzeptgraph verwendet, da die Themen und Inhalte als Knoten des Graphen untereinander gleichgestellt sind, also keine Hierarchie vorliegt, und durch die chronologische Abfolge der Meetings ungerichtete, zyklische Relationen ausgeschlossen sind. Weiterhin fassen Themen die Inhalte eines Meetings in einem Begriff zusammen und bilden in ihrer Gesamtheit die Agenda des Meetings. Die Abbil22 Auf die semantische Relevanz der Themen und Inhalte lassen sich keine Rückschlüsse ziehen, was im Sinne der Zielstellung jedoch vernachlässigt werden kann 23 Der abgebildete Meeting-Umfang entspricht dabei den vorliegenden Inhalten der Protokolle. Auch hier ist keine Aussage zur semantischen Relevanz möglich, da verschiedene Faktoren wie der Schreibstil des Protokollanten bezüglich Detailliertheit und Ausdruck den Umfang der Inhalte maßgeblich beeinflussen. 66 5.2. Interaktionskonzept dung der Themen in ihrer textlichen Form kann damit als eine sehr einfache Variante der Tag Cloud (siehe Abschnitt 2.2.6) aufgefasst werden, die einen Überblick über die Meeting-Inhalte liefert. Neben den Anforderungen an die Interaktion selbst (siehe Abschnitt 4.4.2) ist zu beachten, dass das Werkzeug sowohl auf zeiger- als auch auf gestenbasierten Geräten ausführbar sein soll (siehe Abschnitt 4.4.3). Grundlegende Eigenschaften der Geräte sind dabei zu berücksichtigen. Unterschiede, die die Geräte bei der Interaktion aufweisen, erläutert der nächste Abschnitt. Anschließend wird das Interaktionskonzept anhand der Anwendungsoberfläche beschrieben. Die Mouseover-Interaktion bei Desktopanwendungen dient in der Regel der Einblendung zusätzlicher Informationen. Besteht diese aus Text, wird sie meist mithilfe von Tool Tips eingeblendet. Grafische Objekte werden bei Mouseover häufig anwendungsabhängig in verschiedenster Weise in den Fokus gerückt. Gestenbasierte Geräte unterstützen diese Form der Interaktion nicht. Ein weiterer Unterschied liegt darin, dass gestenbasierte Geräte Pan- und Zoom-Gesten bereitstellen, die das Scrollen sowie Hinein- und Hinauszoomen direkt auf der Oberfläche ermöglichen. Bei zeigerbasierten Geräten finden solche Navigationsarten mithilfe von Scrollleisten oder anderen Interaktionselementen24 statt, oder werden unter Verwendung von Shortcuts25 realisiert. Diese Unterschiede werden berücksichtigt, indem Zoomfunktionen bei zeigerbasierten Geräten mithilfe von zusätzlichen Navigationselementen bereitgestellt werden und auf eine explizite Belegung der Mouseover-Interaktion verzichtet wird. Weiterhin unterscheiden sich die Bezeichnungen für die Gesten. Die „Klick“-Interaktion zeigerbasierter Systeme entspricht dem „Tab“ bei gestenbasierten Systemen. Der Einfachheit halber wird diese Interaktionsform im Folgenden allgemein als „Auswahl“ bezeichnet. 24 Zum Beispiel Lupen-Werkzeug bei Grafikanwendungen, Buttons zum Hinein- und Hinauszoomen wie bei Google Maps (maps.google.com) 25 Beispielsweise gleichzeitiges Betätigen der Tasten „STRG“ und “+“ auf der Tastatur zum Hineinzoomen SYNTHESE UND KONZEPTION 67 Die Anwendungsoberfläche besteht aus drei getrennten Bereichen (Abbildung 5.14). Der größte Bereich (1) beinhaltet einerseits die Visualisierung selbst (siehe Abschnitt 5.1). Zusätzlich befindet sich oberhalb der Zeitachse ein grauer Balken (1a) zur Darstellung und Veränderung des angezeigten Zeitbereichs. Bei Bereich 2 handelt es sich um ein ausklappbares Menü, das Such- und Filterfunktionen bereitstellt. Bereich 3 ist immer sichtbar und hält Browser-Funktionen sowie einen Interaktionsverlauf bereit. Die Zeitachse bildet stets nur den gewählten Zeitbereich ab. Der Balken oberhalb der Zeitachse zeigt dem Nutzer deshalb, wo sich der Ausschnitt innerhalb der gesamten Projektlaufzeit befindet. Das dient der Orientierung in der Anwendung und vermittelt einen Eindruck über die Länge der Projektlaufzeit. Gleichzeitig hält er Zoom- und Scrollfunktionen zur Erweiterung, Einschränkung und Verschiebung des Bereichs bei der Desktopanwendung bereit. Beim Auseinanderziehen des Balkens wird der dargestellte Zeitbereich erweitert. Mehr Meetings werden angezeigt, was einem Herauszoomen aus der Visualisierung gleicht. Beim 68 5.2. Interaktionskonzept Zusammenschieben des Balkens verkleinert sich der gewählte Zeitausschnitt (Abbildung 5.15).Das Verschieben des Balkens nach rechts entspricht dem Verschieben des Zeitausschnittes zu neueren Daten hin. Beim Verschieben nach links werden ältere Daten angezeigt (Abbildung 5.16). Gestenbasierte Geräte erfüllen diese Funktionen durch die Bereitstellung nativer Pan- und Zoomgesten. Die Suche nach einem Schlüsselwort hat alle Inhalte und Themen zum Ergebnis, die dieses Schlüsselwort enthalten. Die entsprechenden Elemente werden „aufgeklappt“ und das Schlüsselwort hervorgehoben. Eine Besonderheit des vorliegenden Konzepts liegt darin, dass alle mit den Ergebnissen verknüpften Elemente ebenfalls angezeigt werden. Elemente, die weder das Schlüsselwort enthalten, noch mit den Suchergebnissen verknüpft sind, werden ausgeblendet. Der Zeitbereich wird entsprechend auf alle verbliebenen Elemente angepasst, ebenso der Themenfilter – ausgeblendete Themen werden ausgegraut. Abbildung 5.17 stellt die angepasste Visualisierung nach Ausführen der Suche für den Begriff „Beispiel“ dar. Inhalte können mithilfe des Inhaltsfilters nach ihren Kategorien gefiltert werden. Durch An- und Abwählen der farbigen Checkboxen kann der Nutzer die entsprechenden Inhalte ein- oder ausblenden. Die Visualisierung passt sich dem Filter an. Bestehende Relationen zu Inhalten nicht gewählter Kategorien werden weiterhin durch die Relationsenden verdeutlicht (Abbildung 5.18). SYNTHESE UND KONZEPTION 69 70 5.2. Interaktionskonzept Der Themenfilter listet alle Themen der Projektmeetings auf. Themen, die nicht in der aktuellen Ansicht der Visualisierung enthalten sind, werden dabei ausgegraut. Bei Auswahl eines Themas aus der Liste bleiben, ähnlich zur Suchfunktion, neben dem gewählten Thema alle mit ihm verbundenen Elemente sowie deren Verknüpfungen im Bild. Sonstige Elemente werden ausgeblendet. In der Liste ausgegraute Themen können ebenfalls ausgewählt werden. So ist eine Detailansicht oder ein Vergleich zu anderen Inhalten gezielt möglich, auch wenn diese nicht der bisher getroffenen Auswahl entsprechen. Weiterhin können mehrere Themen zugleich selektiert werden. Die Liste kann mithilfe der beiden Tabs „1-n“ und „a-z“ außerdem sowohl chronologisch nach Aufkommen der Themen in den Meetings, als auch alphabetisch, sortiert werden (siehe Abbildung 5.19). Die Browser-Leiste wird so bezeichnet, weil sie übliche Browserfunktionen bereitstellt. Der „Reset“-Button (Abbildung 5.20, 1) macht alle getroffenen Filter- und Sucheingaben rückgängig und setzt damit die Visualisierung in den Ausgangszustand zurück, analog zum Home-Button eines Browsers, der die Startseite lädt. Ebenfalls analog zu Standard-Browserfunktionen lassen sich über die beiden Pfeile, den Vor- und Zurück-Button (Abbildung 5.20, 2), einzelne Schritte rückgängig machen oder wiederholen. Die Verlaufsanzeige (Abbildung 5.21) listet alle getroffenen Filter- und Sucheingaben auf. Mithilfe der Browserfunktionen soll dem Nutzer die Orientierung in besonders großen Datenmengen erleichtert werden. Die Notwendigkeit dazu zeigt sich besonders in der direkten Interaktion mit den Elementen, die im nächsten Abschnitt beschrieben wird. Bei Auswahl der Visualisierungselemente wird die Detailansicht aufgerufen. Die Visualisierungselemente sind einerseits die Entitäten, andererseits die Relationen, die durch Verbindungslinien und die Relationsenden repräsentiert werden. Durch Auswahl eines Meeting-Datums werden alle entsprechenden Themen „aufgeklappt“, beim Thema werden alle Inhalte und beim Inhalt der dazugehörige Text eingeblendet. Analog zur Such- und Filterfunktion (siehe Abschnitt 5.2.3) bleiben alle Relationen und die zugehörigen Elemente erhalten. Der Zeitausschnitt passt sich der Darstellung an. Die Verlaufsanzeige in der Browser-Leiste am unteren Bildschirmrand bildet die einzelnen Interaktionsschritte ab. (siehe Abbildung 5.22) SYNTHESE UND KONZEPTION 71 Die Auswahl einer Relationslinie rückt die zugehörigen Elemente in den Fokus des Bildausschnitts. Die Bewegung wird animiert, wobei die Relationen selbst im Mittelpunkt der Interaktion stehen – die Entitäten ordnen sich um die Relation. Die Zeitachse passt sich dem Bildausschnitt wiederum so an, dass die Zuordnung der Inhalte zum Meeting-Datum bestehen bleibt. Details werden durch die Interaktion mit den Entitäten selbst angezeigt. Bei der Auswahl eines Relationsendes wird, analog zur animierten Bewegung bei der Auswahl einer Relation, das zugehörige Element „herangeholt“. Mittelpunkt dieser Interaktion ist dabei jedoch die Entität, der das Relationsende „anhängt“. Auch hier passt sich der Zeitausschnitt entsprechend an. Zur Erhöhung der Übersichtlichkeit werden bei Aufruf einer Detailansicht alle Elemente ausgeblendet, die nicht mit der Auswahl zusammenhängen. Falls das Ergebnis nicht die gesuchte Information enthält, oder der Nutzer von der vorherigen Ansicht aus weitere Detailinformationen abrufen möchte, kann die Auswahl mithilfe des „Zurück“-Buttons (siehe Abschnitt 5.2.3) rückgängig gemacht werden. Damit wird gewährleistet, dass der Nutzer seine Suche nicht vorn beginnen muss, sondern von einem Punkt aus verschiedene voneinander unabhängige Informationsstränge untersuchen kann. 72 5.3. Umsetzung der Anwendungsfälle In Abschnitt 2.1.4 wurde dargelegt, welche Anhaltspunkte die verschiedenen Formen von Meeting-Aufzeichnungen zur Unterstützung des Informationsabrufs bereitstellen. Abhängig von der Erinnerung des Nutzers kommen solche Anhaltspunkte zum Einsatz. Dieser Abschnitt legt dar, wie das zuvor beschriebene Visualisierungs- und Interaktionskonzept die in Abschnitt 4.1.1 aufgeführten Anwendungsfälle unterstützt, und welche Anhaltspunkte es dazu bereithält. Mögliche Vorgehensweisen, um ausgewählte Fragestellungen zu beantworten, werden vorgeschlagen. Dieser Anwendungsfall konzentriert sich auf die Suche nach Information, die zuvor bekannt war, jedoch im Laufe der Zeit vergessen oder verfälscht wurde. Wie der Nutzer bei der Informationssuche in diesem Fall vorgehen kann, hängt stark von seiner Erinnerung ab. Der Nutzer kennt den Kontext des gesuchten Inhalts. Er weiß beispielsweise, in welchen Zeitraum eine Aussage gefasst wurde, oder er kennt die Art des relevanten Inhalts. Bei der Umsetzung dieses Anwendungsfalls kommen hauptsächlich Such- und Filterinteraktionen zum Einsatz. Wie in Abschnitt 2.1.4 erläutert, stellt die Zeit das Hauptkriterium für die Suche dar. Aus diesem Grund wurde die globale Zeitachse zur Abbildung der Meeting-Daten im Projektzeitraum gewählt. Sie formt als grundlegender Visualisierungsbestandteil das Gesamtbild der Anwendung. Dem Nutzer stehen die in Abschnitt 5.2.3 beschriebenen Interaktionsfunktionen zur Verfügung. Mithilfe der Zeitleiste oder durch Pan- und Zoomgesten bei gestenbasierter Verwendung des Werkzeugs kann er den gewünschten Zeitbereich einstellen. Anschließend werden ihm nur die Meetings mit entsprechenden Themen und Inhalten angezeigt, die in diesem Zeitbereich liegen. Die Abstraktion der Inhalte hebt dabei die Themennamen hervor, welche als Text gegenüber den Flächen in den Vordergrund treten. Damit wird ein Überblick über die besprochenen Inhalte gewonnen. Fragestellungen, die sich so beantworten lassen, heißen beispielsweise „Wie lautete eine Aussage zum Thema?“ oder allgemein, „Was wurde besprochen?“. Sucht der Nutzer nach spezifischen Inhalten, wie einem bestimmten Termin, der in einem früheren Meeting festgehalten wurde, oder einer Aufgabe, die er erledigen musste, dient der Inhaltsfilter als Unterstützung. Inhalte nicht ausgewählter Kategorien werden ausgeblendet, womit die Abbildung übersichtlicher wird und das Gesuchte schneller entdeckt werden kann. Die Fragestellungen „Wie lautete eine Entscheidung genau?“ oder „Welche Aufgaben wurden deklariert?“ können auf diese Weise schnell beantwortet werden. SYNTHESE UND KONZEPTION 73 Die Beantwortung der Frage „Warum wurde eine bestimmte Entscheidung getroffen?“ ist mithilfe der Relationen möglich. Wurde die gesuchte Entscheidung aufgefunden, werden alle zugehörigen Relationen angezeigt, sowie der restliche Inhalt des Themas. Erinnert sich der Nutzer an Begriffe, die mit dem Gesuchten in Zusammenhang stehen, kann er diese Begriffe im Suchfeld eingeben (vgl. Abschnitt 5.2.3, Abbildung 5.17). Er erhält anschließend eine Übersicht der Themen, die diesen Begriff beinhalten. Die Visualisierung passt sich dementsprechend an: Themen, die weder in der Ergebnismenge liegen, noch mit einem der Ergebnisse über eine Relation verbunden sind, werden ausgeblendet. Die Menge an Inhalten, die der Nutzer weiter durchsuchen muss, wird somit eingeschränkt. Ein weiterer Anhaltspunkt ist der Umfang eines Themas. „Kleine“ Themen heben sich von „großen“ Themen durch die Anzahl an Inhalten ab. Sucht der Nutzer Information zu einem Thema, von dem er weiß, dass es ausgiebig oder nur sehr kurz behandelt wurde, stellt die histogrammartige Abbildung der Inhalte ebenfalls einen Anhaltspunkt zum Auffinden der Inhalte dar. Die einzelnen Schritte können in beliebiger Reihenfolge ausgeführt werden, wobei die Ergebnismenge immer weiter eingeschränkt wird. Die Suche könnte beispielsweise so ablaufen: 1. Einschränkung des Zeitbereichs 2. Filtern der Inhalte nach relevanter Kategorie 3. Eingabe eines Suchbegriffes, welcher im gesuchten Inhalt vermutet wird oder an das sich der Nutzer im Zusammenhang erinnert Anschließend werden Details zum gesuchten Inhalt, Thema oder Meeting mittels Auswahl der jeweiligen Entität abgerufen (vgl. Abschnitt 5.2.4, Abbildung 5.22). Dieser Anwendungsfall beschreibt ebenfalls die Suche nach Information. Er grenzt sich insofern von Anwendungsfall 1 ab, dass dem Nutzer der Kontext relevanter Inhalte nicht bekannt ist. Das Vorgehen bei diesem Anwendungsfall lässt sich als Browsen in Kombination mit Filterinteraktionen beschreiben. Der Abruf verpasster Informationen bezieht sich oftmals auf einen beschränkten Zeitraum, wie ein einzelnes, oder eine Reihe aufeinanderfolgender Meetings. In diesem Fall kann der Nutzer zunächst den relevanten Zeitraum auswählen. Die Detailansicht der besprochenen Meetings, Themen und Inhalte ist anschließend durch Auswahl der jeweiligen Visualisierungselemente möglich (vgl. Abschnitt 5.2.4, Abbildung 5.22). 74 5.3. Umsetzung der Anwendungsfälle Bei der Einschränkung des Zeitraums werden Relationen auch dann weiterhin angezeigt, wenn die zugehörigen Inhalte außerhalb des gewählten Ausschnittes liegen. Damit wird dem Nutzer signalisiert, welche weiteren Inhalte in Zusammenhang zu dem stehen, was er verpasst hat. Er kann durch Auswahl einer Relation den dazugehörigen Inhalt aufrufen und sich diesen im Detail ansehen. Mithilfe des Zurück-Buttons kehrt er danach zu seiner Ausgangsposition zurück, um weitere Informationen zu suchen. Auf diese Weise lassen sich Fragestellungen wie „Gab es Entscheidungen zu Diskussionen vorheriger Meetings?“ und „Was ist aus Aufgabe „xy“ geworden?“ beantworten. Handelt es sich um mehrere Meetings, an denen der Nutzer nicht teilgenommen hat und zu deren Inhalten er sich einen Überblick verschaffen möchte, wirkt die Abstraktion der Inhalte als visuelle Zusammenfassung, die durch die Anzeige der Themennamen semantisch belegt ist. In diesem Kontext nennt LISOWSKA das Hinzukommen eines neuen Mitarbeiters zum Projekt, der sich über den bisherigen Projektverlauf informieren möchte [Lisowska 03]. Das Konzept ermöglicht dem neuen Mitarbeiter, sowohl den chronologischen, als auch den semantischen Kontext der Meetings im Überblick zu erfassen. Die allgemeine Fragestellung „Was wurde besprochen?“ wird damit beantwortet. Zusätzlich kann sich der Nutzer mithilfe des Themenfilters einen Überblick über alle Themen, in chronologischer oder alphabetischer Reihenfolge, verschaffen (siehe Abschnitt 5.2.3, Abbildung 5.19). Gleichzeitig dient der Themenfilter der Auswahl eines Themas, zu dem der Nutzer Informationen abrufen möchte. Die Auswahl eines Themas in der Liste bewirkt, dass nur dieses Thema und die Inhalte, die über eine Relation damit verknüpft sind, angezeigt werden. Der Nutzer erfährt, welche Ereignisse dem Thema vorweg gingen oder was sich aus dem Thema entwickelt hat (vgl. Abschnitt 5.1.5). Fragestellungen, die sich so unter anderem beantworten lassen, sind: „Was wurde zu einem Thema besprochen?“ und „Wurde das Thema weitergeführt?“. Beim Aufstellen der Agenda wird üblicherweise das Protokoll des letzten Meetings betrachtet und anhand der Inhalte entschieden, welche Themen weiteren Gesprächsbedarf erfordern und welche abgeschlossen sind (vgl. [Mannering 11], S. 109). Eine These des Konzepts ist es, dass zur Entscheidung dieses Sachverhalts häufig das letzte Protokoll nicht ausreicht (vgl. [Lisowska 03]). Das Aufstellen der Agenda soll mit dem vorliegenden Konzept unterstützt werden, indem Zusammenhänge zu vorherigen Meetings visualisiert werden (siehe Abschnitt 5.1). Dabei wird nicht explizit abgebildet, SYNTHESE UND KONZEPTION 75 welche Themen oder Inhalte noch „offen“ sind. Allerdings stellt das Konzept dem Nutzer einen Zugang zu allen benötigten Informationen bereit. Anhand der Fortführungsrelation (vgl. Abschnitt 5.1.4) wird einerseits angezeigt, wie lange ein Thema schon besprochen wird. Falls ein Abschluss des Themas von Bedeutung ist, kann dieses Thema durch Auswahl genauer betrachtet werden. Auch seine Zusammenhänge zu weiteren Themen sind anhand der Relationsabbildung ersichtlich (vgl. Abschnitt 5.1.5, Abbildung 5.13). Außerdem erhält der Nutzer durch die Meeting-übergreifende Darstellung alle Informationen zu einem Thema, egal in wie vielen Meetings es bereits besprochen wurde. Damit wird der Zugang zu allen möglichen Gründen der Themenweiterführung gewährleistet. Es lassen sich die Fragestellungen „Wo besteht noch Gesprächsbedarf?“ und „Welche Themen wurden noch nicht abgeschlossen und warum?“ beantworten. Weitere Anhaltspunkte dafür, dass zu einem Thema Gesprächsbedarf besteht, sind offene Aufgaben und Ideen innerhalb des Themas. Hier kommen der Themen- und Inhaltsfilter zum Einsatz. Wie in Abschnitt 5.2.3 beschrieben, kann ein relevantes Thema mithilfe des Themenfilter oder auch durch direkte Auswahl des Themas in der Visualisierung selektiert werden. Anschließend ist es möglich, die Inhalte nach Aufgaben und / oder Ideen zu filtern (vgl. Abschnitt 5.2.3, Abbildung 5.18). Diese können im Detail betrachtet werden, während ihre Relationen zu weiteren Inhalten ebenfalls abgebildet werden. Es ist ersichtlich, welche Aufgaben oder Ideen weitere Gesprächspunkte oder sonstige Inhalte nach sich gezogen haben, und welche nicht. Aufgaben und Ideen ohne Verknüpfung zu einem nachfolgenden Element sind im Sinne des Konzepts noch offen und sollten damit in die Agenda übernommen werden. Speziell die Fragen „Welche Aufgaben wurden erledigt, welche nicht?“, „Weshalb wurden Aufgaben noch nicht erledigt?“ und „Gibt es Ideen oder Lösungsvorschläge, die noch nicht umgesetzt wurden?“ lassen sich so beantworten. Nachdem das Visualisierungs- und Interaktionskonzept umfassend erläutert wurde, und mögliche Vorgehensweisen zur Umsetzung der Anwendungsfälle dargelegt wurden, bewertet dieser Abschnitt das Konzept. Grundlage dazu sind die Anforderungen, die in Abschnitt 4.4 aufgestellt wurden. Zusätzlich wird die Anwendung des Visualisierungskonzepts auf reale Meetings aus dem Projekt Vizamp beschrieben. 76 5.4. Kritische Betrachtung Die Abbildung auf Seite 80 zeigt die Anwendung des beschriebenen Visualisierungskonzepts auf alle Vizamp Meeting-Protokolle im Zeitraum März 2012 bis September 2013. Insgesamt wurden in dieser Zeit 20 Meetings abgehalten und circa 100 Themen besprochen, von denen viele in Zusammenhang stehen. Zu beachten ist, dass die semantische Belegung der Inhalte mit den Relationen und Kategorien durch die Autorin ohne Anspruch auf absolute Korrektheit vorgenommen wurde. Positiv zu werten ist, dass das in der Analyse aufgestellte Datenschema fast vollständig mit den realen Meeting-Inhalten übereinstimmt. So traf die grundlegende hierarchische Struktur Meeting-Thema-Inhalt vollständig zu, und die zeitliche Abbildung der Meetings war ebenfalls ohne Einschränkung möglich. Eine Kategorisierung der Inhalte wurde durch die Autorin ohne Vorkenntnisse zu den Meeting-Inhalten vorgenommen. Dabei fanden sich alle Kategorien in den Protokollen wieder, wobei sich einige Inhalte nicht eindeutig nur einer Kategorie zuordnen ließen. Besonders die Unterscheidung von Gesprächspunkten und Beschlüssen gestaltete sich schwierig. Ein direkt an den Meetings beteiligter Nutzer könnte solch eine Zuordnung unter Umständen genauer treffen. Weiterhin war festzustellen, dass eine zusätzliche Kategorie „Offene Fragen“ zumindest im Falle der Vizamp-Meetings von großem Nutzen wäre. Strukturierungen innerhalb der Themen, wie die Einrückung von Zeilen, wurden ebenfalls übernommen, wobei Zugehörigkeiten verschiedener Kategorien, beispielsweise eines Beschlusses zu einem Gesprächspunkt, sichtbar wurden. Eine Problematik, die sich ergab, betrifft Themen ohne Inhalt. Die Protokolle umfassten einige Überschriften, also Themen, zu denen kein Fließtext vorhanden war. In diesem Fall besteht die Visualisierung des Themas nur in der Abbildung des Namens als Text, was das Zeichnen eventuell vorhandener Relationen mit dem beschriebenen Visualisierungskonzept nicht abdeckt, da die Relationen in ihrer visuellen Form unmittelbar den Inhalten zufließen. Bezüglich der Relationen wurde festgestellt, dass die häufigsten Vorkommnisse bei den „Führt zu“ / „Geht hervor aus“ – Relationen zu finden sind (siehe Abschnitt 5.1.4). Besonders die Inhalt-Inhalt-Relation taucht sehr oft auf, ebenso die Inhalt-Thema-Relation. Selten führte ein Thema zu einem neuen Inhalt. Themenfortführungen gibt es ebenfalls einige, die sich bis auf die Themen ohne zugehörige Inhalte ohne Probleme visualisieren ließen. Bei den Fortführungen von Inhalten existieren im Falle von Vizamp nur Aufgaben und Termine, die mehrfach erwähnt wurden. Weitere Inhaltskategorien wurden nicht mit der Fortführungsrelation belegt. Die Relation eines The- SYNTHESE UND KONZEPTION 77 mas mit einem neuen Thema existiert bei der Visualisierung der VizampMeetings nicht. Zusätzlich wurden Termine, die in den Meetings festgelegt wurden und ein Ereignis im Projektkalender darstellen, auf die Zeitachse projiziert. Sie werden in Form von Kreisen in der Farbe der Kategorie „Termin“ abgebildet. Das Visualisierungskonzept konnte erfolgreich anhand der realen Datengrundlage der Vizamp-Meetings getestet werden. Insbesondere die Informationsstruktur, als auch die Entitäten und in den meisten Fällen die Relationen, ließen sich eindeutig darstellen. Kann-Kriterien wurden mithilfe des beschriebenen Konzepts nicht umgesetzt und sind Teil des Ausblicks (Abschnitt 7.2). Einige Anforderungen wurden nicht explizit mit dem Konzept beschrieben. Auf diese wird im Folgenden näher eingegangen. Die Visualisierung des Themen-, Aufgaben- und Ideenstatus (A1.5 – A1.7) erfolgt nicht explizit. Implizit ist der Status jedoch anhand (nicht) vorhandener Relationen abzulesen (vgl. Abschnitt 5.3.3). Mehrere Anforderungen betreffen die Abbildung der Inhalte in Überblick und Detail bei gleichzeitiger Darstellung des Kontexts. Die Abbildung der Inhalte als farbige Flächen bildet zu diesem Zweck eine Abstraktionsstufe (A3). Zusammengefasst zu den jeweiligen Themen und verbunden durch die Relationen stellen die Inhalte eine visuelle Zusammenfassung der Meetings dar. Die globale Zeitachse gewährleistet zusammen mit dem Zeitbalken, dass der zeitliche Kontext stets ersichtlich ist. Beim zeitlich bedingten Hineinzoomen in die Visualisierung kann es vorkommen, dass Relationen über den gewählten Abschnitt hinaus verlaufen. In diesem Fall bilden die Relationsenden einen Hinweis auf die zugehörigen Inhalte (vgl. Abschnitt 5.1.4), und gewährleisten somit, dass der semantische Kontext auch im Detail ersichtlich ist. Sie bleiben auch dann erhalten, wenn Inhalte aufgeklappt und der zugehörige Text sichtbar wird. Die Einführung der Browser-Leiste ermöglicht es, einzelne Schritte jederzeit rückgängig zu machen oder nochmals auszuführen. Die Anzeige der ausgeführten Schritte stellt dabei einen weiteren Hinweis auf den Kontext dar. Das Konzept folgt damit ähnlich wie EventRiver [Luo et al. 12] dem Interaktionsparadigma nach [Shneiderman 96]. Auf diese Weise werden gleichzeitig die Anforderungen an Überblick und Detail (B4) sowie die Funktionen zum Browsen (B1) umgesetzt. Die globale Zeitachse ermöglicht es, Zusammenhänge über die Meetings hinweg nachzuverfolgen. Die Anordnung der Daten in chronologischer Reihenfolge führt dazu, dass kausale Zusammenhänge ohne weitere visuelle Hilfsmittel eindeutig erkennbar sind. Folgt man einer Relation entgegen der 78 5.5. Zusammenfassung Zeitachse von rechts nach links, gelangt man vom Ziel zur Quelle oder von der Auswirkung zur Ursache (vgl. Abschnitt 2.3.2). Eine Sortierung der Inhalte zur Steuerung des Leseflusses (A5) ist insofern initial vorhanden, dass die Informationen innerhalb eines Themas vertikal untereinander angeordnet werden, was durch die lokale Zeitachse erreicht wird. Die Interaktion (vgl. Abschnitte 5.2.3 und 5.2.4) führt zu verschiedenen Neusortierungen der Visualisierungselemente. Das Konzept stellt sicher, dass auch dabei der zeitliche und semantische Kontext erhalten bleibt. Anhand dessen wird der Lesefluss auch im Detail gesteuert. Die Muss-Kriterien, die in Abschnitt 4.4 spezifiziert wurden, wurden mithilfe des beschrieben Interaktions- und Visualisierungskonzepts umgesetzt. Eine Ausnahme stellen die Anforderungen B3.4 – B3.6 zum Filtern der Elemente nach Aufgaben-, Ideen- und Themenstatus dar. Wie bereits beschrieben erfolgt die Visualisierung des Status nur implizit, weshalb eine explizite Filterfunktion nicht möglich ist. Die Funktion zum Filtern nach Inhaltskategorie ist dennoch als erster Schritt dazu anzusehen. Die explizite Abbildung von Zusammenhängen anhand der Relationsvisualisierung bietet weiterhin eine visuelle Filtermöglichkeit. So lassen sich offene Aufgaben und Ideen anhand der Fortführungsrelation von abgeschlossenen Aufgaben und Ideen unterscheiden, denen durch die „Führt-zu“-Relation ein abschließender Inhalt zugeordnet ist. Kritisch zu betrachten ist die Überschneidung von Relationen und Text in der Detailansicht. Anhand der verwendeten Daten lässt sich schwer einschätzen, wie sehr die Textlesbarkeit unter Umständen beeinträchtigt werden kann. Eine mögliche Lösung für dieses Problem stellt die Einbindung einer halbtransparenten Fläche zwischen Text und Hintergrund dar. Eine andere Lösung könnte ebenfalls in der Umstrukturierung der Texte, oder aber in der manuellen Umsortierung der Elemente bestehen. Dieser Punkt wird im Ausblick thematisiert (siehe Abschnitt 7.2). In diesem Kapitel wurde das Visualisierungs- und Interaktionskonzept beschrieben. Ein Grundlegendes Element der Visualisierung ist die Abbildung der Informationsstruktur auf die globalen und lokalen Zeitachsen. Die Anordnung der Entitäten und Relationen, die zusammen die Datengrundlage bilden, baut darauf auf. Es folgte eine Einordnung der verwendeten Visualisierungsprinzipien. Das Interaktionskonzept wurde anschließend anhand der Anwendungsoberfläche und ihrer Funktionalitäten erläutert. Neben Funktionen zum Browsen, Filtern und Durchsuchen der Meetings wurde beschrieben, welche Auswirkungen die Auswahl der verschiedenen Visualisierungselemente hat. SYNTHESE UND KONZEPTION 79 Abschnitt 5.3 legte dar, wie das Konzept zur Umsetzung der Anwendungsfälle genutzt werden kann. Es lässt sich feststellen, dass sich die grundlegenden Fragestellungen der Anwendungsfälle beantworten lassen. Eine kritische Betrachtung des Konzepts umfasste zum einen die Anwendung der Visualisierung auf die Meeting-Daten des Vizamp-Projekts. Es konnte gezeigt werden, dass das Visualisierungskonzept umfassendes Potential zur Meeting-übergreifenden Darstellung von Inhalten birgt. Zum anderen erfolgte eine Bewertung des Konzepts anhand der in Kapitel 4 aufgestellten Anforderungen, die fast vollständig umgesetzt werden konnten. MÄRZ APRIL MAI JUNI JULI AUGUST 04 09 31 04 18 Inhalt und Ziele im Projekt Vizamp Vizamp Vizamp Vorstellung Dana Henkens Begriffsklärung und Abgrenzung Anforderungskatalog Status qou bei queo Zwischenbericht Aktueller Stand Web-Demonstrator Phaseneinteilung, siehe Termine Termine Vorstellung neuer Themen 04 18 JULI Anforderungskatalog Vorstellung/Diskussion bestehender Szenarien Verständigung auf ein Szenario Sonstiges Termin nächstes Treffen Besprechung Vizamp-Logo Termin nächstes Treffen Termine Arbeitspakete Abwesenheiten in nächster Zeit Begriffsklärung und Abgrenzung Termin nächstes Treffen Konflikte im Projektmanagement ToDos Termine Anwendungsszenario: Mailverkehr in Projektplanung Weiteres Vorgehen Wofür Visualisierung Todos Arbeitspakete Aufgaben Sonifikation Vorstellung der Prototypen Zwischenbericht Anwendungsszenario: Interaktive Protokollführung Vorstellung der ersten Konzepte von Mirko für die Planungssichten der Demonstratoren Vorstellung des Werkzeugkastens (AB) und Konzept zur Verwaltung von Ideen Arbeitspakete Termin nächstes Treffen JUNI ToDos Aufgaben sonstiges Arbeitspakete Interview Ergebnisse (RG) Thema Termine TODO Konflikte Pressetext Diskussion Konfliktdefinitionen Termin nächstes Treffen Termin nächstes Treffen Sonifikation Urlaub/Abwesenh. Konfliktbewertung (kritisch, ... , unkritisch) TODO Thema Termin nächstes Treffen Besprechung der View Konzepte Konfliktzyklus Folge Projekt Zwischenbericht Diverses Konfliktbeziehungen Agile Schätzmethoden Ansprechpartner WiWi aufsuchen Backend-Aufgabenverteilung 22 Website Eigenschaften von Aufgaben Konfliktarten Sonstiges Begriffsdefinitionen Diskussion Konfliktbeziehungen Artikel ERP-Systeme und Usability Agilität Definition Arbeitspakete Termin nächstes Treffen Termine Kontext Agilität Konfliktdefinition Projektplanung (details) Aufgabenverteilung Sonstiges Wofür Visualisierung Konfliktdefinitionen 16 Meetings Fragen zu Hauptszenarien 06 Aktueller Stand Einführung Severin ToDos Zwischenbericht AUGUST 25 31 Besprechung der Anwendungsszenarien unter Einbeziehung von Anregungen durch AP Aufgaben-BeziehungenAnwendungsszenarien Termin nächstes Treffen JULI 13 Arbeitspaket Besprechung Vizamp-Logo Besprechung Vizamp-Logo Besprechung Vizamp-Logo und Website JUNI 23 Arbeitspakete Phase 2 Anwendungsszenario: Interaktive Protokollführung MAI Status quo bei MG Situationsskizzen Arbeitspakete APRIL Termin nächstes Treffen Diskussion zum weiteren Vorgehen Verständigung auf ein Szenario MÄRZ 07 09 Besprechung Anwendungsszenarien Diskussion zum weiteren Vorgehen FEBRUAR 28 Vorstellung Dana Henkens Vorstellung/Diskussion bestehender Szenarien Arbeitspaket Arbeitspakete Phase 2 JANUAR Urlaub/Abwesenh. Anwendungsszenario: Mailverkehr in Projektplanung Nächste Termine Termine Bewertun der Ideen Zwischenpräsentation des Brainstormings DEZEMBER 26 Vizamp Konflikte im Projektmanagement Meetings 24 Szenarien Todos Todos NOVEMBER 09 Situationsskizzen Pressetext Website Termine Vorstellung aktueller Vorstellung aktueller Ansätze durch Axel Ansätze durch Mirko OKTOBER Todos Neue Anwendungen 06 Termine ToDos Neue Anwendungen SEPTEMBER 22 MAI 21 Neue Anwendungen 06 SYNTHESE UND KONZEPTION AUGUST Web-Demonstrator Arbeitspaket Anwendungsszenario: Interaktive Protokollführung Besprechung Vizamp-Logo Besprechung Vizamp-Logo Arbeitspakete Besprechung Vizamp-Logo und Website Phaseneinteilung, siehe Termine Fragen zu Hauptszenarien Aufgabenverteilung Aufgaben-BeziehungenAnwendungsszenarien Termin nächstes Treffen Ansprechpartner WiWi aufsuchen TODO Konfliktzyklus TODO Konfliktbewertung (kritisch, ... , unkritisch) Diskussion Konfliktdefinitionen Termine Konflikte Interview Ergebnisse (RG) ToDos Thema Aufgaben Vorstellung der ersten Konzepte von Mirko für die Planungssichten der Demonstratoren Aufgaben Vorstellung neuer Themen Vorstellung der Prototypen 07 FEBRUAR ToDos Termine Termin nächstes Treffen 28 Termine Zwischenbericht Abwesenheiten in nächster Zeit Status qou bei queo Termin nächstes Treffen Zwischenbericht Termine Aufgabenverteilung sonstiges Termin nächstes Treffen ToDos Agilität Definition Weiteres Vorgehen Status quo bei MG Arbeitspakete 2013 Todos Besprechung der View Konzepte Konfliktbeziehungen Agile Schätzmethoden Zwischenbericht Arbeitspakete Diverses Termine sonstiges Vorstellung des Werkzeugkastens (AB) und Konzept zur Verwaltung von Ideen 22 JANUAR Termin nächstes Treffen Termin nächstes Treffen Sonifikation Urlaub/Abwesenh. Artikel ERP-Systeme und Usability Begriffsdefinitionen Diskussion Konfliktbeziehungen Thema Zwischenbericht Konfliktarten Sonstiges Termine Kontext Agilität Konfliktdefinition Folge Projekt Backend-Aufgabenverteilung Arbeitspakete Termin nächstes Treffen Konfliktdefinitionen Projektplanung (details) Agilität Definition Eigenschaften von Aufgaben Sonstiges Wofür Visualisierung Zwischenbericht Aktueller Stand Einführung Severin 16 DEZEMBER Diskussion zum weiteren Vorgehen Situationsskizzen 06 26 Verständigung auf ein Szenario Besprechung Anwendungsszenarien Diskussion zum weiteren Vorgehen ToDos Status quo bei MG 81 Aktueller Stand NOVEMBER Zwischenbericht 24 Status qou bei queo 09 Besprechung der Anwendungsszenarien unter Einbeziehung von Anregungen durch AP 25 OKTOBER 13 Phaseneinteilung, siehe Termine Anwendungsszenario: Mailverkehr in Projektplanung Nächste Termine Arbeitspakete Phase 2 23 Zwischenbericht Vorstellung/Diskussion bestehender Szenarien Todos Termine 07 Szenarien Konflikte im Projektmanagement Meetings 28 AUGUST Todos Todos Bewertun der Ideen Zwischenpräsentation des Brainstormings 26 Situationsskizzen Pressetext Website Termine Vorstellung aktueller Vorstellung aktueller Ansätze durch Axel Ansätze durch Mirko 24 JULI Termine ToDos Neue Anwendungen Neue Anwendungen 06 Anforderungskatalog SEPTEMBER Begriffsklärung und Abgrenzung 22 Vorstellung Dana Henkens 09 JUNI Bewertun der Ideen Zwischenpräsentation des Brainstormings Vizamp Vorstellung aktueller Vorstellung aktueller Ansätze durch Axel Ansätze durch Mirko Vizamp 06 MAI Besprechung der Anwendungsszenarien unter Einbeziehung von Anregungen durch AP Vizamp 22 APRIL Situationsskizzen Inhalt und Ziele im Projekt Szenarien 18 MÄRZ Situationsskizzen 04 FEBRUAR Fragen zu Hauptszenarien 31 JANUAR Aufgaben-BeziehungenAnwendungsszenarien 09 DEZEMBER Backend-Aufgabenverteilung 04 NOVEMBER Arbeitspakete Termin nächstes Treffen 21 OKTOBER Vorstellung des Werkzeugkastens (AB) und Konzept zur Verwaltung von Ideen 06 SEPTEMBER Eigenschaften von Aufgaben AUGUST Konfliktarten JULI Zwischenbericht JUNI Weiteres Vorgehen MAI Abwesenheiten in nächster Zeit Termin nächstes Treffen 2013 2012 APRIL Besprechung Anwendungsszenarien Diskussion zum weiteren Vorgehen 81 Vizamp Meeting Protokolle MÄRZ Diskussion zum weiteren Vorgehen Besprechung Vizamp-Logo und Website Sonstiges Termin nächstes Treffen SYNTHESE UND KONZEPTION Besprechung Vizamp-Logo Arbeitspakete Termin nächstes Treffen 80 80 04 APRIL Vizamp Neue Anwendungen Todos 2013 2012 Vizamp Meeting Protokolle 21 2012 06 ToDos Termine Nächste Termine Vizamp Meeting Protokolle MÄRZ 81 Vizamp SYNTHESE UND KONZEPTION Inhalt und Ziele im Projekt 80 MÄRZ APRIL MAI 23 Aktueller Stand Projektplanung (details) Artikel ERP-Systeme und Usability Ansprechpartner WiWi aufsuchen Folge Projekt TODO JUNI 13 Web-Demonstrator Konfliktdefinition Agile Schätzmethoden TODO Termine JULI 25 06 AUGUST Aktueller Stand Einführung Severin Konfliktdefinitionen Diskussion Konfliktdefinitionen Thema Begriffsdefinitionen Diskussion Konfliktbeziehungen Konfliktzyklus Konfliktbewertung (kritisch, ... , unkritisch) Thema Aufgaben Vorstellung der ersten Konzepte von Mirko für die Planungssichten der Demonstratoren Aufgaben 16 Diverses 22 Besprechung der View Konzepte Konfliktbeziehungen Interview Ergebnisse (RG) Kontext Agilität Konflikte ToDos Termine Vorstellung neuer Themen Vorstellung der Prototypen ToDos Termine SYNTHESE UND KONZEPTION 81 2013 AUGUST 18 Anforderungskatalog SEPTEMBER 22 06 Vorstellung aktueller Vorstellung aktueller Ansätze durch Axel Ansätze durch Mirko OKTOBER 09 NOVEMBER 24 Bewertun der Ideen Zwischenpräsentation des Brainstormings DEZEMBER Verständigung auf ein Szenario Besprechung Vizamp-Logo Diskussion zum weiteren Vorgehen Besprechung Vizamp-Logo Situationsskizzen Arbeitspakete Besprechung Vizamp-Logo und Website JUNI JULI Besprechung der Anwendungsszenarien unter Einbeziehung von Anregungen durch AP Status qou bei queo Zwischenbericht Aktueller Stand Web-Demonstrator ToDos Status quo bei MG Fragen zu Hauptszenarien Zwischenbericht Aufgabenverteilung Aktueller Stand Einführung Severin Artikel ERP-Systeme und Usability Ansprechpartner WiWi aufsuchen Konfliktarten Arbeitspakete Weiteres Vorgehen Diverses Besprechung der View Konzepte Konfliktbeziehungen Agile Schätzmethoden Konfliktzyklus TODO Konfliktbewertung (kritisch, ... , unkritisch) Diskussion Konfliktdefinitionen Termine Konflikte Interview Ergebnisse (RG) ToDos Thema Aufgaben Vorstellung der ersten Konzepte von Mirko für die Planungssichten der Demonstratoren Zwischenbericht Todos 22 Termine sonstiges Vorstellung des Werkzeugkastens (AB) und Konzept zur Verwaltung von Ideen Kontext Begriffsdefinitionen Diskussion Konfliktbeziehungen Thema TODO 16 Agilität Konfliktdefinition Folge Projekt Backend-Aufgabenverteilung Zwischenbericht Termin nächstes Treffen 06 Konfliktdefinitionen Projektplanung (details) Termine AUGUST 25 Agilität Definition Eigenschaften von Aufgaben Arbeitspakete Termin nächstes Treffen MAI 13 Phaseneinteilung, siehe Termine Sonstiges Sonstiges APRIL 23 Aufgaben-BeziehungenAnwendungsszenarien Termin nächstes Treffen MÄRZ 07 Szenarien Besprechung Anwendungsszenarien Diskussion zum weiteren Vorgehen FEBRUAR 28 Situationsskizzen Vorstellung/Diskussion bestehender Szenarien JANUAR 26 Aufgaben Vorstellung neuer Themen Vorstellung der Prototypen ToDos Termine Termin nächstes Treffen Abwesenheiten in nächster Zeit Termin nächstes Treffen Termine Das zuvor beschriebene Konzept wurde im Rahmen dieser Arbeit prototypisch umgesetzt. Der Prototyp greift die wichtigsten konzeptionellen Aspekte auf, um die technische Realisierbarkeit des Visualisierungs- und Interaktionskonzepts zu demonstrieren. Im Anschluss an die Beschreibung der verwendeten Technologie erläutert dieses Kapitel den Aufbau und die Generierung der grafischen Benutzeroberfläche sowie die Umsetzung ausgewählter Interaktionsfunktionen. Schwerpunkt dabei liegt analog zur Konzeption (vgl. Kapitel 1) auf der Umsetzung der Visualisierung, die die Grundlage für die Interaktion bildet. Die Wahl der Technologie fand unter Berücksichtigung der Anforderungen an die technische Umsetzung (siehe Abschnitt 4.4.3) statt. Die Kombination der Anforderungen (C1) – Nutzung des Werkzeugs als Tablet-Anwendung – und (C2) – Nutzung des Werkzeugs als Desktopanwendung – resultiert in der Umsetzung des Prototyps als Webanwendung auf Basis gängiger und zukünftiger Webstandards (siehe [@W3C_standards]). Damit wird die Ausführbarkeit der Anwendung auf unterschiedlichsten Geräten und Plattformen gewährleistet. Eine Trennung von Struktur, Layout und Funktionalität der Anwendung erwirkt die Verwendung von Hypertext Markup Language Version 5 (HTML5), Cascading Style Sheets Version 3 (CSS3) und JavaScript. Die Einbindung der Inhalte erfolgt mittels JSON. Zur Erleichterung der Implementierung kam die JavaScript Bibliothek D3.js [@D3] zum Einsatz. Die Visualisierung basiert auf Scalable Vector Graphics (SVG), die im folgenden Abschnitt erläutert werden. Scalable Vector Graphics (SVG) dienen der Generierung zweidimensionaler vektorbasierter Grafiken. Ein großer Vorteil von SVG gegenüber anderen Bildformaten, wie JPEG oder GIF (vgl. [@W3schools_svg]), besteht in der unbegrenzten Skalierbarkeit innerhalb des zugrunde liegenden Koordinatensystems. Eine weitere Besonderheit ist, dass SVG vom World Wide Web 84 6.1. Technologie Consortium (W3C26) als gängiger Webstandard definiert wurde. (vgl. [Dailey et al. 12]) SVG unterstützt neben vektorbasierten Grafiken (sogenannte Shapes, siehe Abbildung 6.1) ebenfalls Bilder und Text als grafische Objekte. Grafische Objekte können gruppiert und transformiert und innerhalb von zuvor gerenderten Objekten, wie HTML DIV-Tags, angeordnet werden. Weiterhin besitzt SVG als Webstandard sein eigenes Document Object Model (DOM). Dieses ermöglicht es, direkt auf SVG-Elemente sowie deren Attribute und Eigenschaften zuzugreifen. Eventhandler wie können den Elementen zugewiesen werden. Dadurch wird eine Vielfalt an Interaktions- und Animationsmöglichkeiten zur Erstellung dynamischer Webanwendungen geschaffen. (vgl. [Dahlström et al. 11]) D3.js [@D3] ist eine JavaScript-Bibliothek, die seit 2011 entwickelt wird (vgl. [Teller 13], S. 7). Der Name D3 steht für Data Driven Documents – Datengetriebene Dokumente. Mithilfe dieser Bibliothek lassen sich Elemente einer Website in Abhängigkeit eines zugrundeliegenden Datensatzes anlegen, manipulieren und entfernen. Damit stellt D3 ein mächtiges Werkzeug zur Datenvisualisierung dar. Die Bibliothek erlaubt sowohl die Manipulation von HTML-, als auch von SVG- und CSS-Elementen. (vgl. [Dewar 12]) Mithilfe von Selektionen (engl. selections) stellt D3 vielfältige Möglichkeiten zur direkten Auswahl von Elementen des DOM zur Verfügung. Elemente können mittels Übergabe ihrer ID, ausgewählter Attributwerte oder des Element-Tags an die Funktion von D3 ausgewählt werden, ohne notwendigerweise über die gesamte Dokumentstruktur zu iterieren (vgl [Teller 13], S. 21). Beispiel einer solchen Selektion ist " " , die alle SVGRectElemente eines Dokuments zurückgibt. Die Ergebnisse der Selektion, die in Form eines Arrays vorliegen, können anschließend nach spezifischen Eigenschaften gefiltert, oder ihre Attribute manipuliert werden (vgl. [@D3]). Eigenschaften wie das Aussehen eines Elements, oder Positionskoordinaten, können als Funktionen spezifiziert werden. Damit wird die Möglichkeit einer dynamischen, datenabhängigen Belegung der Attribute bereitgestellt. (vgl. [@D3]) Ein Datensatz wird einer Selektion dazu als Array übergeben. Jeder Wert des Arrays wird dem Element der Selektion bei Ausführen einer Funktion nach dem Prinzip „join-by-index“ übergeben – das erste Element der Selektion erhält den Wert zum ersten Index des Arrays, und so weiter. Aufgerufen werden die Werte des Datensatzes über die anonyme Funktion 26 www.w3.org, aufgerufen am 12.02.2014 TECHNISCHE UMSETZUNG 85 Dabei beinhaltet den Wert und den Index der Selektion, dessen Übergabe optional ist – Die Funktion kann ebenfalls als ohne Übergabe des Indexes aufgerufen werden. Das dynamische Anlegen von Elementen erfolgt durch die Selektion. Falls eine Selektion weniger Elemente zurückgibt, als der angebundene Datensatz enthält, sorgt diese Selektion dafür, dass weitere Elemente generiert werden. (vgl. [@D3]) Die Anbindung der Daten erfolgt clientseitig mittels JSON (JavaScript Object Notation). Das erleichtert die Datenanbindung im Vergleich zu XML, da die JavaScript Engine des Browsers das Parsen von JSON übernimmt. Obwohl JSON der Objekt-Notation von JavaScript sehr stark ähnelt, ist es unabhängig von JavaScript und wird auch von anderen Programmiersprachen wie C#, PHP und Java unterstützt. Die Notation erfolgt in Schlüssel-WertePaaren (engl. key and value pairs), die jeweils von doppelten Anführungszeichen umschlossen werden und in der Form notiert. Der Wert eines Schlüssels kann sechs verschiedene Datentypen annehmen: Strings, Numbers, Booleans, Arrays, Objects und Null. (vgl. [Sriparasa 13], S.16) Dieser Abschnitt beschreibt zunächst das Datenschema sowie den Aufbau der Anwendung. Als zentraler Teil der Implementierung der grafischen Benutzeroberfläche (GUI) wird anschließend die Generierung der Zeitachse näher erläutert. Sie ist die Basis für die Positionsberechnung aller weiteren SVG-Elemente. Die Meeting-Inhalte liegen als JSON-Objekte in den Dateien und vor. Die Datei besteht aus einer Reihe von Objekten und Arrays und folgt der Datenhierarchie, die in Abschnitt 5.1.2 erläutert wurde. Die Datei js beinhaltet die Relationen zu den Entitäten. Quellcode 6.1 zeigt beispielhaft den Aufbau der Entitäten-Datenstruktur. Das abgebildete JSON-Objekt enthält ein Meeting mit dem Meeting-Datum . Der Array beinhaltet alle Themen zum Meeting, in diesem Falle nur „Thema A“. Dem Thema ist schließlich der Array zugeordnet, der zu jedem Inhalt die zugehörige Kategorie speichert. Bei den Kategorie-Werten handelt es sich um Daten eines Enum , wobei für Aufgabe, für Gesprächspunkt, für Beschluss, für Idee und für Termin steht. 86 6.2. Implementierung der GUI Mit dem Start der Anwendung erfolgt die Verarbeitung der Daten in . Dabei werden allen Elementen IDs zugewiesen, die neben der eindeutigen Identifikation der Entität auch einen Rückschluss auf das übergeordnete Element zulassen. Die Meeting-ID ist ein String der Länge drei, der die Nummer des Meetings im Projekt angibt. Die ThemenID besteht aus der , die mit einem weiteren dreistelligen String verknüpft wird. Der zweite Teil der bestimmt die Position des Themas im Meeting. Analog setzt sich die aus verknüpft mit und dem Index des Inhalts im Thema zusammen. So identifiziert beispielsweise den zwölften Inhaltspunkt des neunten Themas in Meeting Nummer 3. Diese Art und Weise, die IDs zu vergeben, kommt unter anderem beim Zeichnen der Relationen (siehe Abschnitt 6.2.6), sowie beim Aufruf der Detailansichten (siehe Abschnitt 0) zum Tragen. Die Unterscheidbarkeit der ID eines Themas von der eines Inhalts anhand der ID-Länge spielt außerdem beim Zeichnen der Relationsenden eine Rolle. Die Relationen werden in JSON als Objekt mit drei Attributen gespeichert. Zum einen definieren die Schlüssel und die beiden verbundenen Elemente durch die Übergabe der entsprechenden ID. Zusätzlich wird die Relationsart durch die Belegung des Schlüssels mit dem Wert oder old unterschieden. Der Wert repräsentiert eine „Führt zu“-, eine Fortführungsrelation. Bei der initialen Datenverarbeitung werden die Relationen anhand ihrer Arten in zwei getrennten Arrays gespeichert. Das erleichtert die Datenanbindung beim Zeichnen der Relationen als SVG-Elemente, die dem Visualisierungskonzept nach unterschiedlich aussehen und damit auf unterschiedliche Weise generiert werden müssen (siehe Abschnitt 6.2.6). Beispiel eines Relations-Objekts ist in Quellcode 6.2 dargestellt. Es handelt sich um die Relation eines Inhalts, der im nächsten Meeting zu einem Thema führt. TECHNISCHE UMSETZUNG 87 Die Anwendungsoberfläche enthält, ähnlich zur Beschreibung in Abschnitt 5.2.2, drei Bereiche. Auf eine Umsetzung der Browserleiste wurde im Rahmen der Arbeit verzichtet. Den dritten Bereich der Anwendungsoberfläche stellt die Zeitleiste dar (siehe Abschnitt 5.2.3), die damit von der eigentlichen Datenvisualisierung abgegrenzt wird. Abbildung 6.2 zeigt den Aufbau. Die DIV-Elemente sind mit „#“ gekennzeichnet. Das grundlegende SVGElement der Visualisierung stellt dar. Es umfasst die gesamte Datenvisualisierung und ist in die SVGGroupElements und unterteilt. Die Gruppierung beinhaltet die Zeitachse, die Darstellung der MeetingInhalte. Das Visualisierungskonzept sieht vor, dass Relationen in der Visualisierung unter den eigentlichen Meeting-Inhalten liegen, die Relationsenden von Inhalten jedoch darüber. Zu diesem Zweck werden , sowie als Untergruppen von angelegt. Alle Relationspfade sowie die Relationsenden von Themen liegen in . Das SVGGroupElement beinhaltet neben den Meeting-Daten (siehe Abbildung 6.4, Abschnitt 6.2.3) die Themennamen in Form von SVGTextElements, sowie die Inhalte als SVGRectElements. Die Gruppe umschließt die Relationsenden, die zu Inhalten gehören, und wird als letzte der Gruppen gerendert (vgl. [@W3C_render]). Innerhalb des SVGGroupElements befinden sich für jedes Meeting ein weiteres SVGGroupElement, dem die ID des zugehörigen Meetings übergeben wird. Zusätzlich fassen innerhalb eines Meeting weitere SVGGroupElements jedes Thema mit dessen Inhalten zusammen. Diese 88 6.2. Implementierung der GUI Gruppierungen ermöglichen eine erleichterte Implementierung der ZoomFunktionalität und Detail-Ansicht, die in Abschnitt 6.3 beschrieben werden. Zur Implementierung der globalen Zeitachse (siehe Abschnitt 5.1.2) wurde genutzt. Diese Funktion stellt eine Erweiterung der Linearen Achse dar [@D3_timescales]. Sie gibt eine Zeitachse zurück, deren Definitionsbereich ( beim vorliegenden Prototyp den gesamten Projektzeitraum abdeckt. Dazu werden bei der Initialisierung der Zeitachse die Daten des ersten und letzten Meetings übergeben. Die Reichweite der Zeitachse, bezeichnet als , definiert die horizontale Skalierung. Sie wird bei der Implementierung der Zoom-Funktionalität dynamisch verändert (siehe Abschnitt 6.3.1). Initial erhält sie den Wert zugewiesen, der für die Breite der Visualisierung unter Berücksichtigung des kleinsten Abstandes zwischen zwei Meetings berechnet wird. Quellcode 6.3 verdeutlicht die Implementierung der Zeitachse. Die sogenannten bezeichnen die Markierungen der Zeitbereiche. Dieser Code generiert eine Zeitachse, die zunächst nur den Wertebereich der Meeting-Daten abbildet. Durch Aufruf der Funktion mit Übergabe des Datums wird die Position an der Zeitachse berechnet. Dieses Prinzip findet Anwendung beim Zeichnen aller SVG-Elemente der Visualisierung, das in Abschnitt 6.2.5 erläutert wird. TECHNISCHE UMSETZUNG 89 Die Zeitleiste bildet den aktuellen Ausschnitt der sichtbaren Meetings bezüglich der gesamten Projektlaufzeit ab. Zur Berechnung werden die aktuelle Fensterbreite und die Gesamtbreite der Visualisierung benötigt (siehe Abbildung 6.3). Zunächst erfolgt die Berechnung des prozentualen Anteils, den der aktuelle Ausschnitt in der Gesamtvisualisierung einnimmt. Dieser wird anschließend wiederum mit der aktuellen Fensterbreite des Browsers multipliziert. Das Ergebnis stellt die Breite der dar. (vgl Abbildung 6.4). Entsprechend dem Entwurf des Visualisierungskonzepts (siehe Abschnitt 5.1) erfolgt Darstellung der Meeting-Daten auf der Zeitachse mittels SVGCircleElement und SVGTextElement, welches den Tag des MeetingDatums repräsentiert. Quellcode 6.4 zeigt die Implementierung der SVGCircleElements. Das cx-Attribut des Kreises wird durch Aufruf der Funktion berechnet, die beim Anlegen der Zeitachse definiert wurde (siehe Abschnitt 6.2.3). Dem SVGGroupElement , das die SVGCircleElements beinhaltet, wurden zuvor die Meeting-Daten als Array übergeben. Der Datensatz wird allen übergeben – in diesem Fall . Abbildung 6.4 veranschaulicht das Ergebnis, das diese Implementierung unter Anbindung der Vizamp Meeting-Daten generiert. Die horizontale Anordnung der Entitäten erfolgt analog zu den MeetingDaten durch Aufruf der Funktion (vgl. Abschnitt 6.2.3). Komplexer gestaltet sich die vertikale Positionierung. Die y-Position der Themen ist sowohl von der Anzahl der Inhalte des vorausgehenden Themas, als auch von deren einzelnen Längen abhängig (vgl. Abschnitt 5.1.3). Es wurde darauf verzichtet, diese im Vorfeld zu berechnen. Stattdessen werden die zuerst die Inhalte gezeichnet und im Prozess die y-Positionen für die Themen abhängig von der generierten Höhe der einzelnen Inhalte und ihrer Gesamtan- 90 6.2. Implementierung der GUI zahl berechnet. Aus diesem Grund erfolgte das Speichern der berechneten y-Position für die Themen in einem globalen Array , dessen Werte beim Zeichnen der SVGTextElemente für die Themen dynamisch abgerufen werden. Wie in Abschnitt 6.2.2 beschrieben, werden Inhalte und Themen einem SVGGroupElement zugeordnet, das als bezeichnet wird. Bei Initialisierung dieser Gruppe erfolgt die Anbindung der Meeting-Daten für jedes Thema einzeln. Auf die Daten kann durch Aufruf der anonymen Datenfunktion zugegriffen werden. Der Index wird dabei für jedes neue Thema auf 0 zurückgesetzt, was eine spezielle Handhabung der Positionsbestimmung nach sich zieht, die innerhalb eines Meetings von der Höhe und Position des vorhergehenden SVGRectElements abhängt. Da der Index der Iteration für jedes neue Thema zurückgesetzt wird, kann auf das vorhergehende SVGRectElement bei Beginn eines neuen Themas nicht dynamisch zugegriffen werden. Aus diesem Grund findet hier analog zur Berechnung der y-Position der Themen eine Speicherung der Werte im externen Array statt. Die globale Variable y_pos speichert weiterhin die y-Position eines jeden Inhalts als Ausgangsgrundlage für das nächste zu generierende Element. Hier genügt es, eine einzige Variable zu verwenden, die bei jeder Iteration neu gesetzt wird. Abbildung 6.5 schematisiert die beschriebenen Abhängigkeiten und die Ausführung der Berechnungen. In jedem Iterationsschritt wird geprüft, ob der Inhalt sich im selben Thema und Meeting befindet, wie der vorherige. Treffen diese Bedingungen zu, berechnet sich die y-Positon wie folgt: . Handelt es sich um das nächste Thema, jedoch nicht das nächste Meeting, wird der Abstand t_distance dazu addiert. Gleichzeitig wird der y-Wert des vorhergehenden Inhalts an übergeben. Für jedes neue Meeting wird auf den initialen Wert zurückgesetzt und dieser in gespeichert. Die Höhe des letzten Inhalts eines Meetings geht somit nicht in die Berechnung für das nächste Element ein. TECHNISCHE UMSETZUNG 91 Zum Zeichnen der Relationslinien und -Enden spielen folgende Attribute der entsprechenden Entitäten eine Rolle: x- und y-Position, Höhe und Breite Inhaltskategorie D3 erlaubt den direkten Zugriff auf die SVG-Elemente durch Selektion der jeweiligen ID, die beim Zeichnen den Entitäten übergeben wurden und sich in den und Werten der Relation wiederfinden. Beim Abruf der Attribute muss beachtet werden, dass diese von CSS als String zurückgegeben werden. Zur Berechnung der endgültigen Attribute der Relation anhand der Werte muss daher zunächst ausgeführt werden. Die Relationslinien werden durch kubische Bezierkurven repräsentiert. Bei Relationen des Typs handelt es sich um SVGPathElements, die aus zwei Bezierkurven bestehen, welche durch einfache Linienpfade verbunden werden. Sie werden für die Zeichnung der Fortführungsrelationen als Folge von neun Punkten repräsentiert. Jeder Punkt enthält eine Bezeichnung, die die Verbindungslinie zum nächsten Punkt beschreibt. Der Startpunkt wird mit dem Buchstaben M bezeichnet, was „Move To“ bedeutet und die Bewegung des Zeigers zu diesem Punkt hin verdeutlicht. Die nächsten drei Punkte sind Kontrollpunkte der Bezierkurve und werden mit C gekennzeichnet. Anschließend erfolgt das Zeichnen einer Linie anhand des Kennbuchstabens L. Zur Rückkehr zum Startpunkt und Abschließen der Fläche wird der Startpunkt als neunter Punkt nochmals übergeben. Abbildung 6.6 zeigt einen solchen Pfad und seine Punkte. (vgl. [@W3schools_bezier]) Die Enden einer Relation werden abhängig von der Art der Entität als Kreis (Inhalt) oder vertikale Linie (Thema) repräsentiert (vgl. Abschnitt 5.1.4). Die Art der Entität wird anhand der ID der und -Werte der Relation erkannt. Eine Filterfunktion entscheidet, ob das Zeichnen eines Kreises oder eines Rechtecks stattfindet. Quellcode 6.5 verdeutlicht die Anwendung der Filterfunktion beim Zeichnen eines Kreises als Relationsende für Inhalte. Falls die übergebene ID nicht die Länge 9 hat, und damit keinem Inhalt entspricht, bricht der Vorgang ab. Ein Problem, das sich bei der Implementierung der Relationen ergab, liegt in Themenelementen, die keine Inhalte umfassen (vgl. Abschnitt 5.4.1). Solche Themen existieren innerhalb der Datengrundlage und sind auch über Relationen mit anderen Themen verknüpft. Da zum Zeichnen der Relationselemente die Höhe der Inhalte des SVGGroupElements bestimmt wird, die bei 92 6.3. Implementierung der Interaktion einem alleinstehenden SVGTextElement nicht gegeben ist, wird als momentane Lösung ein Platzhalter-Inhalt eingefügt. Abbildung 6.7 zeigt abschließend einen Ausschnitt aus der Anwendungsoberfläche des beschriebenen Prototyps, ausgeführt im Google Chrome Browser. Der Anwendung liegen die Daten der Vizamp-Meetings zugrunde, die zuvor bereits zur Veranschaulichung des Visualisierungskonzepts verwendet wurden (siehe Abschnitt 5.4.1). Die am oberen Fensterrand zeigt das Verhältnis des abgebildeten Ausschnitts zur gesamten Projektlaufzeit an. Die grundlegenden Interaktionsfunktionalitäten stellen die zeitspezifische Zoomfunktion sowie die Auswahl der Visualisierungselemente zur Detailansicht dar. Weiterhin beschreibt dieser Abschnitt das Anpassen der Vsiualisierung bei Auswahl einer Relation. TECHNISCHE UMSETZUNG 93 Die Zoomfunktionalität, die in einer Stauchung oder Streckung der Zeitachse resultiert, wurde unter Verwendung von implementiert [@D3_drag]. Diese Funktion erlaubt den automatischen Abruf der Ausführung eines Drag-Events auf SVGElementen. Zu diesem Zweck erfolgt die Einführung der beiden SVGRectElements und , welche die Enden der repräsentieren. Ihnen wird mittels ein zuvor spezifiziertes Drag-Verhalten zugewiesen. Abhängig davon, ob der Nutzer den rechten oder linken Teil der bewegt, muss zur Neuberechnung der Reichweite der (vgl. Abschnitt 6.2.3) die Veränderung Zeigerposition von der aktuellen Reichweite subtrahiert oder dazu addiert werden. Der Aufruf von gibt diese Veränderung aus. Bei der Bewegung nach rechts entspricht einem positiven, bei der Bewegung nach links einem negativen Wert. Quellcode 6.6 zeigt einen Ausschnitt des als definierten Verhaltens, welches dem Element zugewiesen wurde. Abgebildet ist die Implementierung der Neuberechnung der Breite, die dem Attribut der übergeben wird. Neben der Stauchung oder Streckung der Zeitachse bewirkt die implementierte Zoomfunktion das Verschieben der Meeting-Elemente. Eine Iteration über alle Meeting-Daten beinhaltet die Selektion der zugehörigen SVGGroupElements . Die Zuweisung des Attributs zu jeder Gruppe löst eine Verschiebung aller zugehörigen Elemente um den Wert aus. Dieser berechnet sich aus der Differenz der aktuellen xPosition zur der x-Position des Meetings an der neuen (siehe Quellcode 6.7). 94 6.3. Implementierung der Interaktion Beim Verschieben der Elemente kommt es insbesondere dann zu Überlagerungen, wenn Meetings dicht zusammenliegen. Eine Skalierung der Elemente ist nur bedingt geeignet, da die Textlesbarkeit mit geringer werdender Schriftgröße darunter leidet. Bei Auswahl eines einzelnen SVGRectElements, welches einen zugehörigen Inhalt repräsentiert, wird das Rechteck eingeklappt. Der entsprechende Inhalt wird anschließend als SVGTextElement der jeweiligen SVGGroup angehangen (siehe Abbildung 6.8). Zu diesem Zweck erfolgt die Übergabe eines Eventhandlers wie folgt: Die Funktion erhält den konkreten Inhalt ( ) sowie dessen ID ( ) als Parameter. Mithilfe dieser Werte erfolgt die Positionsberechnung und Textzuweisung für das SVGTextElement (siehe Quellcode 6.9). TECHNISCHE UMSETZUNG 95 Die Auswahl eines Themas, ebenso wie die Auswahl eines Meetings, zeigt die Details aller zugehörigen Inhalte an (vgl. Abschnitt 5.2.4). Die Umsetzung dieser Funktionalität erfordert die Zuweisung weiterer Eventhandler an das SVGTextElement des Themas, sowie an das SVGCircleElement und das SVGTextElement des Meeting-Datums. Die Logik der Funktionen und ist die gleiche. Unterschied ist, dass bei alle SVGRectElements einer Gruppierung, beim alle SVGRectElements der Gruppe selektiert werden. Während D3 die Aktualisierung ausgewählter Attribute einer ganzen Selektion übernimmt, ist zum Aufruf von Eventhandlern der direkte Zugriff auf die SVGElements nötig. Diese liegen innerhalb der Selektion in einem zweidimensionalen Array vor (vgl. [@D3_selection]). Der Aufruf der Funktionen der einzelen SVGRectElements erfolgt aus diesem Grund mittels zweifacher Funktion (siehe Quellcode 6.10). Zunächst muss das auszuführende Event definiert werden, was mittels geschieht. Umgesetzt wurde die Anpassung der Visualisierung nur für die Auswahl einer Relation. Das Ausblenden nichtzugehöriger Themen, Inhalte und Meetings bei Auswahl einer Entität weist eine ähnliche Anwendungslogik auf, auf deren Implementierung im Rahmen dieser Arbeit verzichtet wurde. Im ersten Iterationsschritt, der auf die Auswahl einer Relation folgt, werden die und Werte der Relation ausgewertet. Dazu wird über die Relationsdaten iteriert und nach Relationen gesucht, die als oder Wert ebenfalls eine der beiden IDs besitzen (siehe Quellcode 6.11). 96 6.3. Implementierung der Interaktion Aus den Inhalts-IDs werden im Anschluss alle zugehörigen Themen-IDs generiert, die als Substring in den Inhalts-ID enthalten sind (vgl. Abschnitt 6.2.1). Dieser Schritt wird ausgeführt, da ein Inhalt dem Konzept nach nicht ohne sein zugehöriges Thema abgebildet wird. Damit soll der semantische Kontext jederzeit erhalten bleiben. Anhand der Themen-IDs werden im Folgenden Iterationsschritt die in verbliebenen Relationsobjekte auf Übereinstimmung mit der Liste der IDs überprüft. Dadurch werden Relationen entdeckt, die von Inhalten und Themen ausgehen, die im ersten Iterationsschritt nicht berücksichtigt wurden. Diese Iteration wird solange ausgeführt, bis keine neuen IDs mehr hinzukommen oder bis der Array mit den tmp_rels die Länge 0 hat. Das würde bedeuten, dass die Meeting-Inhalte ein Netz repräsentieren, bei dem alle Knoten über mehrere Kanten miteinander verbunden sind, und die Visualisierung würde sich bei Auswahl einer Relation nicht ändern. Dieser Fall ist unwahrscheinlich, nimmt man die VizampMeetings als Beispiel. Dennoch könnte eine manuelle Festlegung der Anzahl an Iterationsschritten, die das System beim Erkennen von Relationen ausführen soll, als zusätzliche Funktionalität für den Nutzer bereitgestellt werden. Zu den auf diese Weise extrahierten IDs werden im Anschluss an die Iteration die eigentlichen Datenobjekte aus den Datenarrays und ausgelesen. Sie stellen die neue Datengrundlage für das Update der Visualisierung dar. Letztendlich erfolgt das Update der Visualisierung mithilfe der und Funktionen, die D3 zur Verfügung stellt [@D3]. Während die Funktion Elemente generiert (vgl. Abschnitt 6.1.2), gibt die Funktion überschüssige Elemente frei, die anschließend mit entfernt werden. Im vorliegenden Anwendungsfall bedeutet das, dass alle Themen, die nicht in der Ergebnismenge der zuvor ausgeführten Iteration liegen, ausgeblendet werden. Dazu werden die vorhandenen SVGGroupElements und ihre childNodes mit den neuen Daten befüllt, und die restlichen Elemente aus der Visualisierung gelöscht (siehe . TECHNISCHE UMSETZUNG 97 Dieses Kapitel beschrieb die Implementierung des Visualisierungskonzepts, das auf Basis von SVG und D3.js als Webanwendung implementiert wurde. Weiterhin wurden ausgewählte Aspekte bei der Umsetzung der Interaktion unter Nutzung der vielfältigen Funktionen der D3.js-Bibliothek erläutert. Damit wurde ein Überblick über die Anwendungslogik des Prototyps gegeben. Die Such- und Filterfunktionen wurden im Rahmen dieser Arbeit nicht implementiert. Zur Umsetzung benötigte Grundlagen, wie das Anpassen der Visualisierung an eine Auswahl (vgl. Abschnitt 6.3.3) sind jedoch vorhanden und würden im Falle einer Weiterentwicklung die Implementierung dieser Funktionen stark erleichtern. Nicht umgesetzt wurden außerdem die Browserfunktionalitäten. Zu diesem Zweck müsste eine Zwischenspeicherung der Datensätze erfolgen, die als Stack im System abgelegt und bei Betätigen der Zurück- und Vor-Buttons aufgerufen werden. Ein anschließendes Update der Visualisierung ist ebenfalls bereits in Form der in Abschnitt 6.3.3 beschriebenen Anwendungslogik vorhanden. In der Detailansicht fehlt weiterhin ein Umschließen der Textelemente durch eine Textbox, die die Breite der SVGTextElements eingrenzt und längere Inhalte über mehrere Zeilen laufen lässt. SVG unterstützt zum Zeitpunkt der Implementierung keine Wrap-Funktionalität für SVGTextElements. Eine solche Funktionalität ist jedoch für SVG2 geplant (vgl. [@W3C_svg2] und [@W3C_text]). Die abhängig von der Textlänge berechnete Höhe der SVGRectElements (siehe Abschnitt 6.2.5) stellt bereits den nötigen Platz zur Verfügung, um Texte auch über mehrere Zeilen einzubinden. Nicht berücksichtigt wurden beim Anlegen der JSON-Daten die Strukturen zwischen den Inhalten. Vernachlässigt wurde daher das Einrücken von Inhalten, die anderen Inhalten zugeordnet sind. Ein Problem stellt die Überlagerung von Visualisierungselementen beim Stauchen der Zeitachse dar. Im Rahmen dieser Arbeit was es nicht möglich, 98 6.4. Zusammenfassung dieses Problem eingehender zu untersuchen und mögliche Lösungen vorzustellen. Abschnitt 7.2 greift diesen Umstand bei der Beschreibung wissenschaftlicher Fragestellungen, die sich aus der Arbeit ergeben haben, auf. Ein Test der Anwendung erfolgte mit den aktuell gängigen Browsern Google Chrome, Apple Safari, Mozilla Firefox, Opera und Microsoft Internet Explorer (vgl. [Lunn 13]). Weiterhin wurde die Anwendung auf einem iPad 3 Tablet getestet. Sowohl die Visualisierung, als auch die Interaktion funktionierten bei allen Testumgebungen korrekt. Damit sind die Anforderungen an die technische Umsetzung (siehe Abschnitt 4.4.3) als erfüllt zu betrachten. Dieses Kapitel beschreibt die Erkenntnisse der Arbeit und fasst die Ergebnisse abschließend zusammen. Eine mögliche Weiterentwicklung des Konzepts in verschiedene Richtungen wird näher betrachtet. Weiterhin werden Forschungsfragen genannt, die sich aus Problemstellungen bei der Konzeption und technischen Umsetzung ergaben und die sich im Rahmen dieser Arbeit nicht beantworten ließen. Die vorliegende Arbeit beschrieb die Konzeption eines grafischen Browsers für Protokolle mehrerer Meetings. Im weiteren Sinne stellt das Konzept eine Anwendung im Bereich der Informationsvisualisierung dar. Die MeetingInhalte waren dabei die zu visualisierende Information. Die Vorteile, die eine Datenvisualisierung bei der Informationsverarbeitung bietet (siehe Abschnitt 2.2.1), ließen sich auf das Konzept übertragen. Trotz der vielfältigen Ausprägung verschiedener Meeting-Eigenschaften, die in Abschnitt 2.1.2 bei der Klassifikation von Meeting-Arten beschrieben wurden, konnte im Rahmen der Datenanalyse ein Modell für allgemeine Meeting-Strukturen aufgestellt werden. Dieses Modell stellt die Grundlage für das Konzept dieser Arbeit, sowie für die prototypische Umsetzung dar. Die Eignung des Visualisierungskonzepts zur Abbildung reeller MeetingInhalte ließ sich durch die Anwendung auf die Vizamp-Protokolle feststellen (siehe Abschnitt 5.4.1). Der Test des Prototyps erfolgte ebenfalls auf Basis dieser Daten. Probleme stellten dabei nur Themen ohne Inhalte dar, die bereits bei der Bewertung des Visualisierungskonzepts kritisch zu betrachten waren. Eine mögliche und hier angewendete Lösung liegt im Hinzufügen eines leeren Inhaltselements als Platzhalter (vgl. Abschnitt 6.2.6). Die Realisierbarkeit des Visualisierungs- und Interaktionskonzepts konnte anhand der Implementierung ausgewählter Funktionalitäten als Webanwendung nachgewiesen werden. Im Speziellen wurde die technische Umsetzung des Visualisierungskonzepts demonstriert. Zum Einsatz kamen insbesondere SVG und JavaScript unter Nutzung der Bibliothek D3.js. Die zugrunde liegende Technologie folgt aktuellen Webstandards und wird von allen gängigen Browsers unterstützt. Die Anwendung ist somit plattformunabhängig. 102 Ausblick Grundlegendes Ziel dieser Arbeit bestand darin, den Informationsabruf von Meeting-Inhalten für eine Folge von Meetings zu unterstützen. Damit sollten konkrete Anwendungsfälle im Vergleich zur Verwendung einzelner MeetingAufzeichnungen erleichtert und effizienter gestaltet werden. Abschnitt 5.3 beschreibt die Anwendung des konzipierten Werkzeugs zur Umsetzung der Anwendungsfälle. Dabei wurden die Potentiale aufgezeigt, die das Konzept beim Szenario „Informationsabruf“ aufweist. Bei Betrachtung eines einzelnen Protokolls lässt sich ohne vertiefte Kenntnisse zu vorangegangenen Meetings und deren Protokollen nicht abschätzen, ob alle relevanten oder gesuchten Informationen vorliegen oder weitere Protokolle aufgerufen werden müssen. Das vorgestellte Visualisierungskonzept löst dieses Problem mithilfe einer detailreichen Visualisierung der Inhalte und bestehender Zusammenhänge, die gleichzeitig einen Überblick über die Inhalte zulässt. Weiterhin wird die zugrunde liegende Information mithilfe des beschriebenen Interaktionskonzepts zugänglich gemacht und der Wechsel zwischen Überblick und Detail ermöglicht. Bei der Erarbeitung des Konzepts ergaben sich zahlreiche Ideen zur Weiterentwicklung und -Nutzung des konzipierten Werkzeugs. Einige Probleme, die im Zuge der Konzeption und Entwicklung auftraten, ließen sich im Rahmen dieses Konzepts nicht beantworten. Sie werden als wissenschaftliche Fragestellungen vorgestellt, die sich an diese Arbeit anschließen. Einen kritischen Punkt des Konzepts stellte die Abbildung offener Themen und Inhalte dar, die mit der beschriebenen Visualisierung nicht explizit gegeben ist. Dieser Umstand beruht unter anderem auf der Tatsache, dass das Konzept keine Manipulation der Daten umfasst. Die Abgrenzung des Konzepts als reine Anwendung zum Informationsabruf und die damit einhergehende Konzentration auf die Informationssuche begründen das Fehlen dieser Funktionalität. Eine lückenlose Visualisierung offener Themen und Inhalte wäre nur dann möglich, wenn das Interaktionskonzept um die beschriebenen Manipulationsfunktionalitäten (siehe Abschnitt 4.3.2) erweitert würde. Die Nutzung der Anwendung beim Vorbereiten des nächsten Meetings könnte dann um die Funktion der expliziten Weiterführung von Themen und Inhalten ergänzt werden. Vorstellbar wäre eine Umsetzung als Drag and Drop Interaktion, bei der offene Themen und Inhalte des letzten Meetings in einem speziellen Bereich der Anwendung abgelegt würden. Bei Aufruf der Anwendung zum Erstellen der nächsten Agenda könnten diese Themen dann problemlos gesichtet und in die Agenda übernommen werden. In diesem Kontext wäre ebenfalls die direkte Eingabe der Meeting-Inhalte während oder im Anschluss an das Meeting denkbar. Neue Information könnte durch Auswahl vorliegender Inhalte gleichzeitig mit diesen verknüpft ZUSAMMENFASSUNG 103 werden. Eine Eingabemaske zur Erstellung wäre auf Basis des existierenden Prototyps bereits realisierbar. Die neuen Daten würden in diesem Fall in die JSON-Datei geschrieben werden. Die Idee einer solchen Eingabemaske setzt aktuell das Online-Werkzeug minutes.io27 um. Dabei werden, ähnlich zur hier beschriebenen Datenstruktur, Inhalte zu einem Thema als eine von vier vorgegebenen Kategorien getagged. Die zugrunde liegende Datenstruktur weist eine Allgemeingültigkeit für Projekt-Meetings auf. Eine mögliche Übertragung des vorliegenden auf andere Arten von Meeting-Aufzeichnungen als Protokolle wäre zu untersuchen. Dabei kämen insbesondere die unterschiedlichen Datenformate zum Tragen, die beispielsweise multimediale Aufzeichnungen bereitstellen. Interessant wäre ebenfalls die Anwendung des Konzepts bei der Verwaltung eigener Notizen. Liegen die Meeting-Inhalte in Form von Audio- oder Video-Aufzeichnungen vor, wäre in Zukunft eine Vollautomatisierung von der Informationssicherung hin zum Informationsabruf denkbar. Entsprechende Software zur inhaltlichen Zusammenfassung und Kategorisierung von Meeting-Aufzeichnungen wird bereits entwickelt28, ebenso wie die Verknüpfung von Inhalten mittels Schlüsselwortextraktion in Text Mining Systemen verwendet wird. Beispiele dafür stellen EventRiver und Story Flow dar (siehe Abschnitt 3.1). Ein anderer Gedanke ist die direkte Einbindung des Konzepts in bestehende Meeting-Prozesse in Form einer kollaborativen Anwendung. Themen könnten von allen Beteiligten angelegt und mit Inhalten aufgefüllt werden. Eine Nutzung der Anwendung zum Teilen von Notizen ist in diesem Sinne denkbar. Aufbauend auf der Visualisierung und Interaktion mit dem konzipierten Werkzeug könnten weiterhin Inhalte exportiert und importiert werden. Der Export von Aufgaben und Terminen sowie allgemeinen Informationen hin zu verwendeter Projektplanungssoftware wäre beispielsweise sinnvoll. Andere Exportfunktionen könnten eine Zusammenfassung des Projektstatus liefern. Termine, die sich in den Protokollen finden, könnten mit Kalenderanwendungen verlinkt werden. Die Einbindung externer Dokumente über eine Importfunktion wäre ebenfalls denkbar. So könnten inhaltlich relevante Dateien nach Einbinden mit einem Klick aus der Anwendung heraus aufgerufen und gesichtet werden. Die Einbeziehung weiterer Informationen, wie die Namen und Kontaktdaten der Teilnehmer eines Meetings, könnte umgesetzt werden. Ebenso stellt die Markierung persönlich relevanter Inhalte, wie beispielsweise zugewiesener Aufgaben, eine nützliche Erweiterung des Konzepts dar. Eine personalisierte Ansicht der Meeting-Daten könnte implementiert werden. 27 www.miutes.io (aufgerufen am 12.02.2014) 28 Literaturhinweis: [Gaussier et al. 12] 104 Ausblick Als Problemstellung bei der Implementierung besonders hervorzuheben ist die Überschneidung der Texte mit anderen Visualisierungselementen in der Detailansicht. Speziell beim Hineinzoomen mittels Stauchung der Zeitachse kam es zu Überlagerungen, die zu Unübersichtlichkeiten führten. Zu untersuchen wäre eine geeignete Anpassung der Visualisierung in einer Weise, die sowohl die Textlesbarkeit, als auch die Ersichtlichkeit semantischer Zusammenhänge erhält. Vorstellbar wäre die dynamische Anpassung der Zeitachse selbst durch Aufhebung der Kontiunierlichkeit. Im Zuge dessen könnte die Abbildung der Meeting-Daten in Abhängigkeit von den Elementen und ihrem Platzbedarf erfolgen, wobei eine Visualisierung der zeitlichen Zusammenhänge beziehungsweise der Verzerrung dieser weiterhin gewährleistet werden sollte. Die Erkenntnisse, die mit der vorliegenden Arbeit gewonnen wurden, lassen auf eine Eignung des konzipierten Werkzeugs bei der Anwendung in realen Projekten schließen. Zur Verifizierung dieser Aussage wäre jedoch eine Nutzerstudie nötig, die zuvor eine vollständige Implementierung des Konzepts erfordern würde. Interessant wäre außerdem die Beobachtung der Nutzung über einen längeren Zeitraum hinweg sowie die Untersuchung, ob die Anwendung einen Einfluss auf die Projektarbeit und insbesondere die ProjektMeetings hätte und wenn ja, wie sich dieser Einfluss äußern würde. 106 ANHANG 107 Abowd, G.D.: „Classroom 2000: An Experiment with the Instrumentation of a Living Educational Environment“. IBM systems journal, Vol. 38, Nr. 4, S.508–530. 1999. Aggarwal, C.C. & Zhai, C.: Mining Text Data, Springer. 2012. Aigner, W. et al.: Visualization of Time-Oriented Data, Springer Verlag London. 2011. Banerjee, S.; Rose, C. & Rudnicky, A.I.: „The Necessity of a Meeting Recording and Playback System , and the Benefit of Topic-Level Annotations to Meeting Browsing“. HumanComputer Interaction - INTERACT 2005, Vol. 3585, S.643–656. 2005. Berry, M.W. & Kogan, J.: Text Mining: Applications and Theory, John Wiley & Sons Ltd. 2010. Bertin, J.: Semiology of Graphics, University of Wisconsin Press, Madison. 1983. Brandl, P.; Richter, C. & Haller, M.: „NiCEBook – Supporting Natural Note Taking“. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. F. Editorone & F. Editor2 (Hrsg.), ACM, Atlanta, Georgia, USA, S. 599–608. 2010. Byron, L. & Wattenberg, M.: „Stacked graphs--geometry & aesthetics.“. IEEE transactions on visualization and computer graphics, Vol. 14, Nr. 6, S.1245–52. 2008. URL http://www.ncbi.nlm.nih.gov/pubmed/18988970. Cameron, S. & Craig, C.: Understanding Informational Text Features: Instruction, Practice, Assessment. M. Dieterich & S. M. Anderson (Hrsg.),, Marc Twain Media, Inc. 2013. Cockburn, A.; Karlson, A. & Bederson, B.B.: „A review of overview+detail, zooming, and focus+context interfaces“. ACM Computing Surveys, Vol. 41, Nr. 1, S.1–31. 2008. URL http://portal.acm.org/citation.cfm?doid=1456650.1456652 (Aufgerufen January 23, 2014). Cook, P. et al.: „Project Nick: Meetings Augmentation and Analysis“. ACM Transactions on Office Information Systems (TOIS), Vol. 5, Nr. 2, S.132–146. 1987. URL http://portal.acm.org/citation.cfm?doid=27636.27638. Cui, W. et al.: „TextFlow: towards better understanding of evolving topics in text.“. IEEE transactions on visualization and computer graphics, Vol. 17, Nr. 12, S.2412–2421. 2011. URL http://www.ncbi.nlm.nih.gov/pubmed/22034362. Dahlström, E. et al.: „Scalable Vector Graphics (SVG) 1.1 ( Second Edition )“. , Vol. 1, Nr. February 2007. 2011. 110 Dailey, D.; Frost, J. & Strazzullo, D.: Building Web Applications with SVG, Microsoft Press. 2012. Dewar, M.: Getting Started with D3, O’Reilly Media, Inc. 2012. Feldman, R. & Sanger, J.: The Text Mining Handbook: Advanced Approaches in Analyzing Unstructured Data, Cambridge University Press. 2007. Gaussier, E. & Yvon, F.: Textual Information Access: Statistical Models, Wiley-ISTE. 2012. URL http://slub.eblib.com/patron/FullRecord.aspx?p=1124642. Geyer, W. et al.: „A Team Collaboration Space Supporting Capture and Access of Virtual Meetings“. In Proceedings of the 2001 International ACM SIGGROUP Conference on Supporting Group Work. ACM, Boulder, Colorado, USA, S. 188–196. 2001. URL http://doi.acm.org/10.1145/500286.500315. Geyer, W.; Richter, H. & Abowd, G.D.: „Towards a Smarter Meeting Record—Capture and Access of Meetings Revisited“. Multimedia Tools and Applications, Vol. 27, Nr. 3, S.393– 410. 2005. Gruber, T.R.: A Translation Approach to Portable Ontology Specifications, 1993. Handford, M.: The Language of Business Meetings, Cambridge University Press. 2010. Havre, S.; Hetzler, B. & Nowell, L.: „ThemeRiver: visualizing theme changes over time“. IEEE Symposium on Information Visualization 2000. INFOVIS 2000. Proceedings, S.115–123. 2000. URL http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=885098. Henkel, S.L.: Successful Meetings: How to Plan, Prepare and Execute Top-Notch Business Meetings, Atlantic Publishing Company, Ocala, Florida. 2007. Ispas, A.; Signer, B. & Norrie, M.C.: „A Study of Incidental Notetaking to Inform Digital Pen and Paper Solutions“. In Proceedings of the 24th BCS Interaction Specialist Group Conference. British Computer Society, Dundee, United Kingdom, S. 374–383. 2010. Jaimes, A. & Miyazaki, J.: „Building a Smart Meeting Room: From Infrastructure To the Video Gap (Research and Open Issues)“. 21st International Conference on Data Engineering Workshops (ICDEW’05), S.1173–1173. 2005. URL http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=1647779. Jain, R.; Kim, P. & Li, Z.: „Experiential Meeting System“. In Proceedings of the 2003 ACM SIGMM workshop on Experiential telepresence - ETP ’03. ACM Press, New York, New York, USA, S. 1–12. 2003. URL http://portal.acm.org/citation.cfm?doid=982484.982486. Jansen, E.: NetLingo. The Internet Dictionary, NetLingo Inc., Ojai, California. 2002. Johnson, A.M.: Mobileessence: A Mobile Non-Invasive Platform for Meeting Notes Capture. Massachusetts Institute of Technology. 2007. LITERATURVERZEICHNIS 111 Johnson, E.R.: Academic Language! Academic Literacy! - A Guide for K-12 Educators, Corwin. 2009. Kalnikaitė, V.; Ehlen, P. & Whittaker, S.: „Markup As You Talk: Establishing Effective Memory Cues While Still Contributing to a Meeting“. In Proceedings of the ACM 2012 Conference on Computer Supported Cooperative Work. ACM, New York, NY, USA, S. 349–358. 2012. URL http://doi.acm.org/10.1145/2145204.2145260. Khan, F.: A Survey of Note-Taking Practices, Hewlett-Packard Laboratories. 1993. Klink, S.; Dengel, A. & Kieninger, T.: „Document Structure Analysis Based on Layout and Textual Features“. In Proc. of International Workshop on Document Analysis Systems, DAS2000. 2000. Lalanne, D. et al.: „The IM2 Multimodal Meeting Browser Family“. Interactive Multimodal Information Management Tech. Report, Margtiny, Switzerland. 2005. Lipford, H.R. & Abowd, G.D.: „Reviewing Meetings in TeamSpace“. Human-Computer Interaction, Vol. 23, Nr. 4, S.406–432. 2008. Lisowska, A.: „Multimodal Interface Design for the Multimodal Meeting Domain: Preliminary Indications from a Query Analysis Study“. Report IM2. MDM-11. 2003. Lisowska, A.; Popescu-belis, A. & Armstrong, S.: „User Query Analysis for the Specification and Evaluation of a Dialogue Processing and Retrieval System“. In Proceedings of the 4th International Conference on Language Resources and Evaluation. S. 993–996. 2004. Lisowska, A.; Rajman, M. & Bui, T.H.: „ARCHIVUS: A System for Accessing the Content of Recorded Multimodal Meetings“. In Machine Learning for Multimodal Interaction. S. Bengio & H. Bourlard (Hrsg.), Springer Berlin Heidelberg, S. 291–304. 2005. URL http://dx.doi.org/10.1007/978-3-540-30568-2_25. Luo, D. et al.: „EventRiver: visually exploring text collections with temporal references.“. IEEE transactions on visualization and computer graphics, Vol. 18, Nr. 1, S.93–105. 2012. URL http://www.ncbi.nlm.nih.gov/pubmed/22076487. Mann, M.: Assoziationsanalyse - eine Einführung, Grin Verlag. 2013. Mannering, K.: Make Meetings Work: Teach Yourself, Hodder Education. 2011. Marchand-Maillet, S.: Meeting Record Modelling for Enhanced Browsing, Genf. 2003. Marchionini, G.: „From finding to understanding“. Communications of the ACM, Vol. 49, Nr. 4, S.41–46. 2006. Medina, C.: Successful Strategies for Reading in the Content Areas 2nd ed., Shell Education. 2008. Moore, C.D.: „The IDIAP Smart Meeting Room“. 2002. 112 Müller, W. & Schumann, H.: „Visualization Methods for Time Dependent Data - An Overview“. In Proceedings of the 2003 Winter Simulation Conference. S. Chick et al. (Hrsg.), S. 737– 745. 2003. Pallotta, V.; Seretan, V. & Ailomaa, M.: „User Requirements Analysis for Meeting Information Retrieval Based on Query Elicitation“. In ANNUAL MEETING-ASSOCIATION FOR COMPUTATIONAL LINGUISTICS. S. 1008–1015. 2007. Perner, P.: Data Mining on Multimedia Data, Springer Verlag Berlin Heidelberg. 2002. Plaue, C.M.: Exploring and Visualizing the Impact of Multiple Shared Displays on Collocated Meeting Practices. Georgia Institute of Technology. 2009. Popescu-Belis, A.; Lalanne, D. & Bourlard, H.: „Finding Information in Multimedia Meeting Records“. Multimedia, IEEE, Vol. 19, Nr. 2, S.48–57. 2012. Post, W.M.; Cremers, A.H.M. & Henkemans, O.B.: „A research environment for meeting behavior“. In Proceedings of the 3rd workshop on social intelligence design. A. Nijholt & T. Nishida (Hrsg.), S. 159–165. 2004. Richter, H. et al.: „Integrating Meeting Capture within a Collaborative Team Environment“. In Ubicomp 2001: Ubiquitous Computing. Springer, S. 123–138. 2001. Riedl, A.: Grundlagen der Didaktik, Steiner (Franz). 2004. Risch, J. et al.: „Text Visualization for Visual Text Analytics“. In Visual Data Mining: Theory, Techniques and Tools for Visual Analytics. S. J. Simoff, M. H.Böhlen, & A. Mazeika (Hrsg.), Springer Verlag Berlin Heidelberg, S. 154–171. 2008. Romano, N.C. & Nunamaker, J.F.: „Meeting Analysis: Findings from Research and Practice“. In Proceedings of the 34th Annual Hawaii International Conference on System Sciences. IEEE. 2001. Rose, S. et al.: „Describing story evolution from dynamic information streams“. 2009 IEEE Symposium on Visual Analytics Science and Technology, S.99–106. 2009. URL http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=5333437. Shneiderman, B.: „The Eyes Have It: A Task by Data Type Taxonomy for Information Visualizations“. In Proceedings 1996 IEEE Symposium on Visual Languages. IEEE Comput. Soc. Press, S. 336–343. 1996. URL http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=545307. Sriparasa, S.S.: JavaScript and JSON Essentials, Packt Publishing. 2013. Teller, S.: Data Visualization with d3.js, Packt Publishing. 2013. Tinnirello, P.C.: New Directions in Project Management, CRC Press. 2002. LITERATURVERZEICHNIS 113 Tucker, S. & Whittaker, S.: „Reviewing Multimedia Meeting Records: Current Approaches“. In Proceedings of the 2005 (ICMI) International Workshop on Multimodal Multiparty Meeting Processing. S. 33–38. 2005. Viégas, F.B. & Smith, M.: „Newsgroup Crowds and Author Lines: Visualizing the Activity of Individuals in Conversational Cyberspaces“. In Proceedings of the 37th Hawaii International Conference on System Sciences. S. 1–10. 2004. Viégas, F.B. & Wattenberg, M.: „TIMELINES: Tag Clouds and the Case for Vernacular Visualization“. interactions, Vol. 15, Nr. 4, S.49–52. 2008. URL http://doi.acm.org/10.1145/1374489.1374501. Ware, C.: Information Visualization: Perception for Design 2nd ed., Elsevier Inc. 2004. Whittaker, S. et al.: „Design and evaluation of systems to support interaction capture and retrieval“. Personal and Ubiquitous Computing, Vol. 12, Nr. 3, S.197–221. 2007. URL http://link.springer.com/10.1007/s00779-007-0146-3 (Aufgerufen April 26, 2013). Whittaker, S.; Hyland, P. & Wiley, M.: „FILOCHAT: Handwritten Notes Provide Access to Recorded Conversations“. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems Celebrating Interdependence - CHI ’94. ACM Press, S. 271–277. 1994. Whittaker, S.; Laban, R. & Tucker, S.: „Analysing Meeting Records: An Ethnographic Study and Technological Implications“. In Machine Learning for Multimodal Interaction. S. Renals & S. Bengio (Hrsg.), Springer Verlag, Berlin, S. 103–113. 2006. Whittaker, S.; Tucker, S. & Lalanne, D.: „Meeting browsers and meeting assistants“. In Multimodal Signal Processing: Human Interactions in Meetings. S. Renals et al. (Hrsg.), Cambridge University Press, S. 204–217. 2012. Wilcox, L.D.; Schilit, B.N. & Sawhney, N.N.: „Dynomite: A Dynamically Organized Ink and Audio Notebook“. In Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems. ACM, Atlanta, Georgia, USA, S. 186–193. 1997. URL http://doi.acm.org/10.1145/258549.258700. Wytrzens, H.K.: Projektmanagement: Der erfolgreiche Einstieg 2nd ed., Facultas Verlags- und Buchhandels AG, Wien. 2010. Yu, S. & Selker, T.: „Who Said What When? Capturing the Important Moments of a Meeting“. In CHI ’10 Extended Abstracts on Human Factors in Computing Systems. ACM, Atlanta, Georgia, USA, S. 1–6. 2010. Yu, Z. & Nakamura, Y.: „Smart meeting systems: A Survey of the State-of-the-Art and Open Issues“. ACM Computing Surveys, Vol. 42, Nr. 2, S.1–20. 2010. URL http://portal.acm.org/citation.cfm?doid=1667062.1667065 (Aufgerufen April 4, 2013). [@D3] Bostock, M.: „D3 - Data-Driven Documents“. [@D3_drag] Bostock, M.: „Drag Behavior“. https://github.com/mbostock/d3/wiki/Drag-Behavior (Aufgerufen February 12, 2014). URL [@D3_selection] Bostock, M.: „Selections“. https://github.com/mbostock/d3/wiki/Selections (Aufgerufen February 12, 2014). URL [@D3_timescales] Bostock, M.: „Time Scales“. GitHub Wiki. https://github.com/mbostock/d3/wiki/Time-Scales (Aufgerufen February 12, 2014). URL [@Corum et al.] Corum, J. & Hossain, F.: „Naming Names“. The New York Times. URL http://www.nytimes.com/interactive/2007/12/15/us/politics/DEBATE.html (Aufgerufen January 29, 2014). [@Feinberg] January 29, 2014). Feinberg, J.: „Wordle“. 2013. URL http://www.wordle.net/ (Aufgerufen [@Vizamp] Vizamp: „Vizamp“. URL dresden.de/forschung/projekte/vizamp-0 (Aufgerufen November 22, 2013). [@W3C_text] W3C: „Chapter http://www.w3.org/TR/SVG2/text.html#TextLayoutAuto. 10: http://mg.inf.tu- Text.“. URL [@W3C_standards] W3C: „HTML Current Status“. 2014. http://www.w3.org/standards/techs/html#w3c_all (Aufgerufen February 12, 2014). URL [@W3C_svg2] W3C: „Scalable Vector Graphics (SVG) 2. W3C Working Draft 11 February 2014“. URL http://www.w3.org/TR/2014/WD-SVG2-20140211/. [@W3C_render] W3C: „SVG Rendering Order 1.0, Part 2: Language“. URL http://dev.w3.org/SVG/modules/renderorder/SVGRenderOrder.html (Aufgerufen February 12, 2014). [@W3schools_bezier] W3schools: „HTML canvas bezierCurveTo() Method“. URL http://www.w3schools.com/TAGs/canvas_beziercurveto.asp (Aufgerufen February 12, 2014). [@W3Schools_svg] W3Schools: „HTML5 Inline SVG“. Refsnes Data. http://www.w3schools.com/html/html5_svg.asp (Aufgerufen February 12, 1014). 2014. URL Abbildung 2.1: Klassifikation von Meetings und Meeting-Arten in der Übersicht ........................ 8 Abbildung 2.2: Aufbau eines Smart Meeting Systems, Quelle: [Z. Yu et al. 10] ........................ 10 Abbildung 2.3: Einordnung der verschiedenen Arten von Meeting-Aufzeichnungen ................. 10 Abbildung 2.4: Übersicht zum Informationsabruf mittels Meeting-Aufzeichnungen .................. 12 Abbildung 2.5: Phasen der Informationsverarbeitung im Meeting-Zyklus frei nach [Cook et al. 87] ................................................................................................................................................ 13 Abbildung 2.6: Komponenten eines Text Mining Systems mit Einordnung der Präsentationsschicht, Quelle: [Feldman et al. 07], S. 192 ........................................................... 14 Abbildung 2.7: Ausprägungen von Konzeptgraphen ................................................................... 16 Abbildung 2.8: Histogramm ......................................................................................................... 16 Abbildung 2.9: Liniendiagramm ................................................................................................... 16 Abbildung 2.10: Author Lines Visualisierung, Quelle: [Viégas et al. 04] ..................................... 17 Abbildung 2.11: Circle Graph ....................................................................................................... 17 Abbildung 2.12: Naming Names - Visualisierung der gegenseitigen Nennung von US-Politikern, Quelle: [@Corum et al.] ................................................................................................................ 18 Abbildung 2.13: Tag Cloud der vorliegenden Arbeit, erstellt mit wordle.net [@Feinberg] .......... 19 Abbildung 2.14: Tag Clouds zum Vergleich zweier Themen, Quelle: [Cui et al. 11] ................... 19 Abbildung 2.15: Stacked Bar Chart.............................................................................................. 20 Abbildung 2.16: Visualisierung zeitbasierter Daten mittels Stacked Graph (unten), ThemeRiver (Mitte) und Streamgraph (oben), Quelle: [Aigner et al. 11], S. 199 ............................................. 20 Abbildung 2.17: Modell der Dokumentstruktur ........................................................................... 21 Abbildung 3.1: TeamSpace Anwendungsoberfläche, Quelle: [Richter et al. 01] ........................ 26 Abbildung 3.2: MeetingViewer in Single-Meeting-Ansicht, Quelle: [Richter et al. 01] ................ 27 Abbildung 3.3: ARCHIVUS Anwendungsoberfläche, Quelle: [Lisowska et al. 05] ...................... 29 Abbildung 3.4: Repräsentation des Meeting-Inhalts in einem „Buch“, Quelle: [Lisowska et al. 05] ................................................................................................................................................ 30 Abbildung 3.5: Story Flow Visualisierung, Quelle: [Rose et al. 09] ............................................. 31 118 Abbildung 3.6: Story Flow Visualisierung über einen Zeitraum von zwei Wochen, Quelle: (Rose et al. 2009) ................................................................................................................................... 31 Abbildung 3.7: Ereignisblase, nach [Luo et al. 12] ....................................................................... 32 Abbildung 3.8: EventRiver einer Nachrichtensammlung, Quelle: [Luo et al. 12] ........................ 33 Abbildung 3.9: Ereignis-Beschriftungen, Quelle: [Luo et al. 12] .................................................. 33 Abbildung 3.10: Detailansicht der Inhalte .................................................................................... 34 Abbildung 4.1: Vorgehen Anwendungsfall 1 – einzelne Aufzeichnungen (li.) und Meetingübergreifende Darstellung (re.).................................................................................................... 39 Abbildung 4.2: Vorgehen Anwendungsfall 2 - einzelne Aufzeichnungen (li.) und Meetingübergreifende Darstellung (re.).................................................................................................... 40 Abbildung 4.3: Vorgehen Anwendungsfall 3 - einzelne Aufzeichnungen (li.) und Meetingübergreifende Darstellung (re.).................................................................................................... 40 Abbildung 4.4: Einordnung und Abgrenzung des Konzepts ........................................................ 42 Abbildung 4.5: Meeting-Struktur ................................................................................................. 45 Abbildung 4.6: Relationen zwischen Meeting-Inhalten ............................................................... 46 Abbildung 4.7: Ausschnitt Story Flow, Quelle: [Rose et al. 09] .................................................. 50 Abbildung 4.8: Ausschnitt EventRiver, Quelle: [Luo et al. 12] .................................................... 50 Abbildung 4.9: TeamSpace Zeitleiste, Quelle: [Richter et al. 01] ................................................ 51 Abbildung 4.10: EventRiver Zeit-Zoom, Quelle: [Luo et al. 12] ................................................... 51 Abbildung 4.11: ARCHIVUS Filterfunktionen .............................................................................. 52 Abbildung 5.1: Auflösen der Dokumentgrenzen ......................................................................... 59 Abbildung 5.2: Hierarchische Gliederung der Meeting-Elemente ............................................... 60 Abbildung 5.3: Globale und lokale Zeitachsen ............................................................................. 60 Abbildung 5.4: Beispielhafte Abbildung der Informationsstruktur .............................................. 60 Abbildung 5.5: Vergleich zeitlicher Abstände zwischen Meeting-Daten auf kontinuierlicher Zeitachse ..................................................................................................................................... 61 Abbildung 5.6: Abbildung der Entität Inhalt mit Vergleich der Textlänge .................................... 62 Abbildung 5.7: Farbkodierung der Inhaltskategorien ................................................................... 62 Abbildung 5.8: Datenrepräsentation im Überblick ....................................................................... 62 Abbildung 5.9: Visualisierung von R1 Thema – Meeting ............................................................. 62 Abbildung 5.10: Abbildung der Relationen R3, R4 und R5 .......................................................... 63 Abbildung 5.11: Färbung der Relationsenden ............................................................................. 63 Abbildung 5.12: Relation zwischen Aufgabe und Gesprächspunkt ............................................. 63 ABBILDUNGSVERZEICHNIS 119 Abbildung 5.13: Visualisierungskonzept in der Übersicht ........................................................... 64 Abbildung 5.14: Anwendungsoberfläche .................................................................................... 67 Abbildung 5.15: Herauszoomen durch Erweiterung des Zeitbereichs ........................................ 68 Abbildung 5.16: Verschieben des Zeitausschnitts hin zu älteren Daten ..................................... 68 Abbildung 5.17: Ansicht nach Ausführen der Suchfunktion mit dem Begriff „Beispiel“ ............ 69 Abbildung 5.18: Filterfunktion angewendet auf Aufgaben und Beschlüsse ............................... 69 Abbildung 5.19. Themenfilter ...................................................................................................... 70 Abbildung 5.20: Funktions-buttons der Browser-Leiste .............................................................. 70 Abbildung 5.21: Verlaufsanzeige ................................................................................................. 70 Abbildung 5.22: Detailansicht Meeting (1), Thema (2) und Inhalt (3) .......................................... 71 Abbildung 6.1: Grundlegende SVGShapes und Attribute: SVGCircle-, SVGRect- und SVGLineElement ......................................................................................................................... 84 Abbildung 6.2: Komponenten der Anwendung ........................................................................... 87 Abbildung 6.3: Berechnung der Breite der time_bar ................................................................... 89 Abbildung 6.4: Darstellung der Zeitleiste und der Zeitachse mit Meeting-Daten ....................... 89 Abbildung 6.5: Schema zur Berechnung der y-Positionen. Hervorgehobene y-Werte werden in t_yposs gespeichert. ................................................................................................................... 90 Abbildung 6.6: Zeichnen der Fortführungsrelation ...................................................................... 91 Abbildung 6.7: Implementierung der grafischen Benutzeroberfläche, Ausschnitt (Screenshot) 92 Abbildung 6.8: Detailansicht eines Inhalts zum Thema Vizamp, Screenshot.............................. 94 Abbildung A.7.1: Beispiel eines informellen Meeting-Protokolls, Quelle: [Mannering 11] ....... 105 Abbildung A.7.2: Beispiel eines formalen Meeting-Protokolls, Quelle: [Mannering 11] ........... 106 Abbildung A.7.3: Stanley Milgrams Mentale Karte der Sehenswürdigkeiten in Paris, Quelle: [Viégas et al. 08] ........................................................................................................................ 107 Tabelle 2.1: Meeting-Arten geordnet nach der Zeit/Ort-Dimension .............................................. 6 Tabelle 2.2: Eigenschaften strukturierter und unstrukturierter Meeting-Arten, nach [Mannering 11] .................................................................................................................................................. 8 Tabelle 4.1: Inhaltskategorien und ihr Vorkommen in den Studienergebnissen ......................... 44 Tabelle 4.2: Relationen zwischen Meeting-Elementen nach [Marchand-Maillet 03] und [Lisowska 03]............................................................................................................................... 45 Tabelle 4.3: Datenrepräsentation EventRiver und Story Flow .................................................... 49 Tabelle 4.4: Analyse der Relationsvisualisierung von EventRiver und Story Flow ..................... 49 Tabelle 4.5: Abschließende Bewertung der verwandten Arbeiten ............................................. 53 Quellcode 6.1: Datenstruktur der Entitäten in JSON-Format ...................................................... 86 Quellcode 6.2: Beispiel eines Relationsobjekts .......................................................................... 86 Quellcode 6.3: Generierung und Zeichnen der globalen Zeitachse mit d3.time.scale().............. 88 Quellcode 6.4: Zeichnen der SVGCircleElements zur Abbildung der Meeting-Daten auf der Zeitachse ..................................................................................................................................... 89 Quellcode 6.5: Filterfunktion zum Zeichnen der Relationsenden ............................................... 91 Quellcode 6.6: Neuberechnung der Zeitachse ............................................................................ 93 Quellcode 6.7: Verschieben der Visualisierungselemente abhängig von der Stauchung oder Streckung der Zeitachse .............................................................................................................. 93 Quellcode 6.8: Zuweisen des Eventhandlers .............................................................................. 94 Quellcode 6.9: Aufruf der Detailansicht ...................................................................................... 94 Quellcode 6.10: Implementierung der view_meeting() Funktion zur Detailansicht eines gesamten Meetings .................................................................................................................... 95 Quellcode 6.11: Auswerten der ausgewählten Relation, Schritt 1 ............................................. 96 Quellcode 6.12: Update der Visualisierung ................................................................................. 97