Semantische Suche für die Wissensentwicklung in
Transcription
Semantische Suche für die Wissensentwicklung in
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen – am Beispiel des Semantic Desktop in der Angebotsentwicklung bei Siemens IT Solutions und Services Vom Fachbereich Wirtschaftswissenschaften der Universität Kaiserslautern genehmigte Dissertation vorgelegt von Dipl.-Kfm.techn. Mark Siebert aus München D 386 (2010) 2 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 3 Vorwort des Autors Wissensmanagement hat die Phase des Dokumenten- und Contentmanagements überwunden. Mit dem Web 2.0 entstehen erneut Technologien für den Umgang mit Wissen und erinnern an die Communities of practice und Web-Communities der New-Economy-Zeit. Der kollaborative Umgang mit Wissen löst langsam das Paradigma der Verteilung von Wissensobjekten ab. Es bricht die Vorstellungen auf, Wissen als ein festgeschriebenes Produkt in verschiedenen Kontexten eins zu eins wiederverwenden zu können. Es berücksichtigt vielmehr den dynamischen und subjektiven Charakter von Wissen und überbrückt damit die künstliche Trennung zwischen Wissenstechnologien und Personalmanagement. Meine Arbeit entstammt einer längeren Auseinandersetzung mit dem Phänomen „Wissen“ − zunächst aus Sicht des betrieblichen Managements und der Innovationsforschung, dann aus philosophischer und psychologischer Sicht. Meine Praxiserfahrungen im Wissensmanagement der Siemens AG und in der Beratung anderer Unternehmen illustrierten die große Lücke zwischen Realität und Anspruch und motivierten ein vertieftes Hinterfragen. Zu wenig wissen wir noch über diese wohl wichtigste Ressource unseres 21. Jahrhunderts und über deren Voraussetzungen. Die Diskussion des Konstruktivismus zeigte neue Perspektiven und die Möglichkeit, Wissen aus sich heraus als dynamisch und entwickelnd zu untersuchen. Das Phänomen der Rekursivität und Selbstähnlichkeit auf unterschiedlichen Abstraktionsebenen waren schließlich Anlass, die Künstliche Intelligenz mit ihren Technologien auf die Probe zu stellen. Welche innovativen Technologien könnten einen solchen Gedankenansatz stützen und damit die Brücke zu einem neuen Umgang mit Wissen bauen ? Die Offenheit und Weitsicht von Prof. Dr. Dengel am DFKI (Deutschen Forschungszentrum für Künstliche Intelligenz) in Kaiserslautern war es, die einen solchen interdisziplinären Gedankenansatz und die unkomplizierte Projektbegleitung ermöglichte. Die Unterstützung meiner Vorgesetzten bei Siemens IT Solutions und Services (Hr. Kapfenberger, Hr. Dr. Wagner, Hr. Dr. Tripp, Hr. Dr. Matzke) und aus dem Wissensmanagement des Konzerns (insbesondere Hr. Ramhorst, Hr. Dr. Hofer-Alfeis) erlaubte es, diesen Dialog praxisnah und anhand von realen, anonymisierten Daten aus dem Angebotsprozess durchzuführen. Sie ermöglichte mir die Rahmenbedingungen und beruflichen Freiräume, mich dieser Diskussion neben der alltäglichen Arbeit zu widmen. Mit der Bereitschaft von Prof. Dr. Wendt, sich in diesen Dialog einzubringen und die Arbeit verantwortlich mitzutragen, ließen sich die ersten Erkenntnisse in das wissenschaftliche Spektrum der Wirtschaftsinformatik einflechten und mit dem Nachweis ihrer statistische Signifikanz festigen. Viele Freunde, Bekannte, Betreuer, Studenten, Diplomanden und Interessierte haben mich in den einzelnen Arbeitsphasen und auf Workshops und Konferenzen begleitet. Sie haben durch ihre Fragen, Anregungen, Kommentare, Korrekturen und Erfahrungen wesentliche Gedankenanstöße gegeben. Ganz besonders möchte ich mich hier bei Heiko Maus, DFKI, und Pierre Smits, asknet, bedanken. Heiko stand mir als DFKI-Betreuer jederzeit mit Rat und Tat zur Seite und erlaubte mir, Schritt für Schritt die Welt der semantischen Technologien zu entdecken. Mit Pierre gelang es, die technischen Tests im komplexen Systemrahmen eines Großkonzerns durchzuführen. Ich hoffe, dass unser Dialog über die Zeit der Dissertation hinausreichen wird. Begeistert hat mich das Interesse und der Einsatz der Studenten Oliver Schon, Thomas Ruegg, Jens Hauser und Maik Keppel von der Bundeswehr-Universität München. Sie haben sich in ihrem Praxisprogramm für das Thema Wissensentwicklung eingesetzt. Sie waren in der Findungs- und Recherchephase eine wertvolle Hilfe. Im Rückblick sehe ich mit Freude, dass sich der Aufwand des Zusammenspiels zwischen Universität und Wirtschaft sowie Technologie und Philosophie ausgezahlt hat. Auf diese Weise wurden nicht nur neue Erkenntnisse für die Domäne der Wissensentwicklumg gewonnen, sondern auch innovative Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 4 Technologien in der Praxis getestet und Anregungen für den dynamischen Umgang mit den sich transformierenden CRM-Prozessen im Siemens-Konzern gegeben. Die Arbeit zeigt damit, dass semantische Technologien die Möglichkeitsgrenze der Technologie zwar verschieben können, die Wissensentwicklung aber erst am Anfang ihres eigenen Erkenntnisprozesses steht. Mehr denn je und gerade in diesem Feld bin ich daher überzeugt, dass der interdisziplinäre Dialog uns hilft, voneinander zu lernen und neues Wissen zu entwickeln. Oft ist es nur die Semantik, die uns trennt. In diesem Sinne danke ich auch ganz herzlich meinen Eltern. Schon früh haben sie mich in meinen neugierigen Fragen unterstützt und Einblicke in die interdisziplinäre wissenschaftliche Diskussion ermöglicht. Das Andenken an meinen Vater hat mich in meinem Forschungsprozess begleitet. Vielen Dank ! München, Januar 2010 Mark Siebert Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 5 Abbildungsverzeichnis Abb. 1. Individuelle Wissensentwicklung im Angebotsprozess Abb. 2. Treibende Faktoren für die Diskussion der Wissensentwicklung Abb. 3. Forschungsvorgehen Abb. 4. Iterativer Ablauf und Werdegang der Arbeit Abb. 5. Grad der Datenstruktur in Bezug auf Datenhaltung Abb. 6. Wissenstreppe nach North Abb. 7. Komponenten des Wissensmanagements Abb. 8. Kreislauf der Wissensentwicklung Abb. 9. Boisot’s Social Learning Cycle (SLC) Abb. 10. Mapping der Modelle von Boisot und Nonaka Abb. 11. Wissensmodell der Siemens AG Abb. 12. Einflussfaktoren im Umgang mit Wissensprodukten Abb. 13. Konnektionistisches Modellsystem Abb. 14. CBR Kreislauf Abb. 15. Technologieintegration zur schrittweisen Abbildung von Wissen Abb. 16. Gnowsis Architektur Abb. 17. Indexierung unterschiedlicher Datenquellen und –formate Abb. 18. Zusammenspiel individueller und organisatorischer Wissensräume Abb. 19. Vergleich der Folderstrukturen von Sales und Proposal Manager bei SIS Abb. 20. Bausteine der Semantischen Suche Abb. 21. Schema und Abgrenzung der Qualität von Suchergebnissen Abb. 22. Testszenarien in Abhängigkeit von Rolle und Wissensobjekt Abb. 23. Ontologie - Informationsmodell Abb. 24. Ontologie - Kundenmodell Abb. 25. Ontologie - Organisationsmodell Abb. 26. Ontologie - Produktmodell Abb. 27. Ontologie - Rollenmodell Abb. 28. Ontologie - Prozessmodell Abb. 29. Screenshot (schematisch) Gnowsis für Szenario 1 Abb. 30. Screenshot (schematisch) Gnowsis für Szenario 2 Abb. 31. Screenshot (schematisch) Gnowsis für Szenario 3 Abb. 32. Screenshot (schematisch) Gnowsis für Szenario 4 Abb. 33. Verteilung Precisionwerte nach Suchbegriffen Abb. 34. Verteilung Recallwerte nach Suchbegriffen Abb. 35. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink Abb. 36. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink mit erweiterter Datenbasis Abb. 37. Verteilung F-Werte nach Suchbegriffen Abb. 38. Precision/ Recall Häufung LiveLink Abb. 39. Precision/ Recall Häufungen Gnowsis S1 Abb. 40. Modell der Wissensentwicklung (Knowledge Creation Framework) Abb. 41. Vernetzung von Wissenssystemen über Interaktionssysteme Abb. 42. Wissensentwicklung als Prozess des „perspective taking und making“ Abb. 43. Anwendung des KCF auf den Semantic Desktop zur Erstellung von Suchergebnissen Abb. 44. Inhalte im kommunikativen Dialog zwischen Abstraktionsebenen Abb. 45. Rolle als Hebel zum Paradigmenwechsel der Wissensentwicklung aus individueller Sicht Abb. 46. Informationstechnische Modellierung der Rolle in der Verknüpfung von Prozess und Architektur Abb. 47. Mögliche Integration der semantischen Suche in Standardsoftware SAP CRM Abb. 48. Weiterentwicklung des Semantic Desktop auf Basis des KCF Abb. 49. Beitrag des Semantic Desktop zur Produktivitätssteigerung des Wissensarbeiters 16 21 31 32 41 48 58 60 61 61 62 70 82 90 104 112 113 116 117 118 120 122 124 125 125 125 125 126 128 129 131 133 135 136 140 141 143 144 144 150 154 156 157 161 162 163 164 166 171 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 6 Tabellenverzeichnis Tabelle 1. Tabelle 2. Tabelle 3. Tabelle 4. Tabelle 5. Angewandtes Vorgehen der Grounded Theory Ansatz der Design Sciences auf bekannte Aktefakte Übersicht der Arten wissensintensiver Prozesse Übersicht Angebotsprozess und informationstechnische Unterstützung bei SIS Mögliche Entwicklung eines neuen Management Summaries (MS) aus bestehenden Management Summaries Tabelle 6. Rollen-Vergleich Sales und Proposal Manager Tabelle 7. Einordnung der Erstellung von Management Summaries in die Prozessarten Tabelle 8. Unterschiede zwischen Objektivismus und Konstruktivismus Tabelle 9. Lernarten nach Gagné Tabelle 10. Übersicht Systemtheorien als Basis der Künstlichen Intelligenz Tabelle 11. Übersicht über diskussionsrelevante Verfahren der Künstlichen Intelligenz Tabelle 12. Mögliche Verfahren zur Realisierung der technologischen Hebel Tabelle 13. Technologiebausteine des Semantic Desktops Tabelle 14. Einordnung beispielhafter semantischer Verfahren (hellgrau) als Weiterentwicklung bestehender KI-Verfahren (dunkelgrau) Tabelle 15. Beitrag der Technologien und der semantischen Suche in wissensintensiven Prozessen Tabelle 16. Wirkung verschiedener Optimierungsverfahren im Information Retrieval Tabelle 17. Optimierungsverfahren des Information Retrieval auf verschiedenen Abstraktionsebenen Tabelle 18. Entwicklungspfad von der Volltextsuche zur Semantischen Suche Tabelle 19. Beispielhafte Suchergebnisse für brainfiler und LiveLink Tabelle 20. Ordnerstruktur eines Proposal Managers Tabelle 21. Ordnerstruktur eines Sales Managers Tabelle 22. Systemvoraussetzungen Tabelle 23. Gesamtverbesserung gegenüber bisheriger LiveLink Suche (ohne Regeln) Tabelle 24. Gesamtverbesserung gegenüber bisheriger Livelink Suche (mit Regeln) Tabelle 25. Ergebnisse gegenüber Laborbedingungen Tabelle 26. Ergebnisse Szenario 2 gegenüber Szenario 1 Tabelle 27. Ergebnisse Szenario 3 gegenüber Szenario 1 Tabelle 28. Ergebnisse Szenario 4 gegenüber Szenario 1 und Livelink Tabelle 29. Ergebnisse Standardabweichung für Precision über die Szenarien Tabelle 30. Ergebnisse Standardabweichung für Recall über die Szenarien Tabelle 31. Übersicht möglicher Signifikanztest Tabelle 32. Wilcoxon-Test für Precision – Szenario 1 Tabelle 33. Wilcoxon-Test für Recall – Szenario 1 Tabelle 34. Aufbereitete LiveLink-Ergebnisse für ROC-Kurve Tabelle 35. Aufbereitete Gnowsis (S4)-Ergebnisse für ROC-Kurve Tabelle 36. Ergebnisse des Wilcoxon-Tests der ROC-Kurven Tabelle 38. Ergebnisse Standardabweichung für F-Werte über die Szenarien Tabelle 39. Wilcoxon-Test für F-Werte Tabelle 40. Zusammenfassung der Literaturdiskussion Tabelle 41. Vergleich der Charakteristika von qualitativer Sozialforschung und Wissensentwicklung Tabelle 42. Mapping von Dokumententyp auf Storyline und Value proposition 27 29 37 38 42 43 45 52 65 73 75 96 101 102 105 108 109 110 121 124 124 126 126 127 127 129 130 132 135 136 137 138 138 140 140 141 143 145 149 165 167 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 7 Abkürzungsverzeichnis ARIS BDI bzw. CBR CKAT CMS CRM DFKI d.h. DMS etc. engl. FIPA ggfs. KCF KI KNN LL MAS MS MIT NLP OWL PAT P2P PIMO PLM pp. PRS RAP RDF(S) S. S1, S2, S3, S4 SECI SIS SLC sog. v.a. W3C WM WMS z.B. Architecture integrierter Systeme Believe-Desire-Intention (Architekturen) beziehungsweise Case-based reasoning Coinstructive Knowledge Analysis of Tasks Content Management System Customer Relationship Management Deutsches Forschungszentrum für Künstliche Intelligenz, Kaiserslautern das heißt Dokumenten Management System et cetera Englisch/ english Foundations of Intelligent Physical Agents gegebenenfalls Knowledge Creation Framework Künstliche Intelligenz Künstliche Neuronale Netze LiveLink Multi-Agenten-Systeme Management Summary Massachusetts Institute of Technology Natural Language Processing Web Ontology Language Proposal Automation Tools peer-to-peer Personal Information Model Product Lifecycle Management pages Procedural Reasoning System Reactive Action Packages Resource Description Framework (Schema) Seite (Test-)Szenario 1, 2, 3, 4 Socialisation, Externalization, Combination, Internalisation (Nonaka) Siemens IT Solutions and Services Social Learning Cycle (Boisot) sogenannt vor allem World Wide Web Consortium Wissensmanagement Wissens Management System zum Beispiel Abkürzungen von Programmiersprachen werden im Text direkt erläutert Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 8 Inhaltsverzeichnis Vorwort des Autors 3 Abbildungsverzeichnis 5 Tabellenverzeichnis 6 Abkürzungsverzeichnis 7 Inhaltsverzeichnis 8 Zusammenfassung 12 Summary (engl.) 13 1 15 Motivation 1.1 1.2 1.3 1.4 1.5 1.6 Wissensverteilung ist nicht ausreichend für aktive Unterstützung wissensintensiver Prozesse Fehlende Prozesse und statische Tools erlauben keine aktive Prozessunterstützung Leistungsfähigkeit neuer, intelligenter und semantischer Technologien noch nicht hinreichend deutlich Repräsentation des subjektiven Charakters von Wissen derzeit nicht technologisch abgebildet Hoher Redaktionsaufwand für Einsatz von WissensmanagementTechnologie Monodisziplinäre Ansätze der Wissenstheorie blockieren das Verständnis der individuellen Wissensentwicklung 15 16 18 19 19 20 2 Ziel und Beitrag der Arbeit 21 3 Forschungsansatz und -methode 23 3.1 3.2 3.3 3.4 3.5 3.6 Wissenschaftstheorie – Forschungsansatz oder Wissensentwicklungsprozess Besonderheiten naturwissenschaftlicher Ansätze Besonderheiten sozialwissenschaftlicher Ansätze Besonderheiten betriebswirtschaftlicher Ansätze Besonderheiten kombinierter Ansätze 3.5.1 Action Research 3.5.2 Design Sciences 3.5.3 Grounded Theory Wahl der Forschungsmethode 23 24 24 25 25 26 26 27 28 4 Anwendung der Forschungsmethode als Forschungsvorgehen 31 5 Forschungsfragen und Aufbau der Arbeit 33 6 Wissensintensive Prozesse 37 6.1 6.2 6.3 Angebotsprozess der SIS Erstellung von Management Summaries Value selling und value proposition 38 40 41 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 6.4 6.5 7 9 Bedeutung der Rollen im Prozess 6.4.1 Rolle Sales Manager 6.4.2 Rolle Proposal Manager Zwischenfazit 43 44 44 44 Verständnis von Wissen 7.1 7.2 7.3 47 Wissen – Begriffliche Abgrenzung als wiederverwendbare Ressource Wissen − Wissensentwicklung und Konstruktion Exkurs − Konstruktivismus 7.3.1 Grundlagen und Vertreter des Konstruktivismus 7.3.2 Der Realismus als Abgrenzung des Konstruktivismus 7.3.3 Kernelemente des Konstruktivismus aus der Erkenntnistheorie 7.3.3.1 7.3.3.2 47 49 50 50 51 52 Realität und Wirklichkeit im neurobiologischen Konstruktivismus bei Maturana und Roth 52 Wissen als anwendbare Konstruktivismus 53 Wirklichkeit im Radikalen 7.3.3.3 7.4 8 Realität als Konsens individueller Wirklichkeiten im sozialen Konstruktivismus 7.3.4 Kernaussagen Kritik und Schlussfolgerung Zwischenfazit Wissensentwicklung – begriffliche Einordnung 8.1 8.2 8.3 8.4 8.5 8.6 9 Wissensentwicklung – im betriebswirtschaftlichen, organisationalen Rahmen des Wissensmanagements 8.1.1 Wissensentwicklung im Modell von Probst 8.1.2 Wissensentwicklung bei Nonaka und Takeuchi 8.1.3 Wissensentwicklung bei Boisot 8.1.4 Wissensentwicklung im Modell der Siemens AG 8.1.5 Zwischenfazit betriebswirtschaftlicher Diskussion Wissensentwicklung – eine Frage der Kommunikation Wissensentwicklung – lerntheoretische Grundlagen 8.3.1 Lernen als Wissenserwerb 8.3.2 Lernen als Verhaltensänderung 8.3.3 Lernen als (neuro-)biologische Veränderung Wissensentwicklung – psycho-linguistische Sprachproduktion Wissensentwicklung – psychologische Diskussion der Bewusstseinsbildung Zwischenfazit Relevante Methoden und Technologien der Künstlichen Intelligenz für die Wissensentwicklung 9.1 Repräsentation 9.1.1 Feature-Maps und Netze als symbolische Repräsentation auf Signalebene 9.1.2 Ontologien als symbolische Repräsentation auf Bedeutungsebene 53 54 55 57 57 59 59 60 62 62 63 63 64 66 67 67 69 69 73 75 77 77 9.1.2.1 Resource Description Framework (Schema) – RDF (S) 78 9.1.2.2 Web Ontology Language − OWL 79 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 10 9.2 9.3 9.4 10 9.1.3 Konnektionistische Netze als subsymbolische Repräsentation auf Konzeptebene Mustererkennung 9.2.1 Stochastik und überwachtes Lernen als symbolische Mustererkennung auf Signalebene 9.2.2 Ontology mapping und merging als Mustererkennung auf Bedeutungsebene 9.2.3 Holistische Ansätze als subsymbolische Mustererkennung auf Konzeptebene Problemlösung 9.3.1 Reasoning als allgemeines, symbolisches Problemlösen auf Signalebene 9.3.2 Multi-perspective und case-based reasoning als symbolisches Problemlösen auf Bedeutungsebene 9.3.3 Agent-based solving als subsymbolisches Problemlösen auf Konzeptebene Zwischenfazit Semantic Desktop im Applikationsumfeld 10.1 10.2 10.3 10.4 10.5 11 Wissensmanagementsysteme (WMS) und Portale Proposal Automation Tools Recommendersysteme Semantic Desktop Zwischenfazit Gnowsis − Semantische Suche im Semantic Desktop 11.1 11.2 11.3 11.4 11.5 11.6 11.7 11.8 Kontext des Information Retrievals Formen und Arten semantischer Suchen Besonderheiten von Gnowsis 11.3.1 Aufbau von Gnowsis 11.3.2 Klassifikation mit dem brainfiler 11.3.3 Ontology mapping und matching 11.3.4 Personal Information Model (PIMO) als Katalysator für Peer-to-Peer Gnowsis im Spektrum semantischer Suchen Testansatz 11.5.1 Testmethode 11.5.2 Testszenarien Testbasis 11.6.1 Datenbasis und Ordnerstrukturen 11.6.2 Organisatorische Ontologie 11.6.3 Systemvoraussetzungen Testergebnisse 11.7.1 Erfahrungsberichte werden bestätigt 11.7.2 In homogenen Gruppen wirkt die Rolle auf die Ergebnisschärfe 11.7.3 In heterogenen Gruppen wirkt die Rolle auf die Zugänglichkeit relevanter Objekte 11.7.4 In unstrukturierten Gruppen wirkt die Rolle eher ergebnisschärfend 11.7.5 Insgesamt wirkt die Rolle, aber gruppenspezifisch Testgüte 11.8.1 Signifikanzanalyse der Testergebnisse 79 83 85 86 87 88 89 89 91 94 99 99 100 100 100 103 107 107 110 112 112 113 114 115 118 119 120 121 123 123 124 126 126 127 128 130 132 133 134 134 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 11.8.1.1 Standardabweichung und Varianz 134 11.8.1.2 Wilcoxon-Test für paarweise Stichproben 11.8.2 Relevanzanalyse der Testergebnisse 137 139 11.8.2.1 ROC-Kurve mit Signifikanz- und Einflußanalyse 11.9 12 12.3 12.4 12.5 13 Erkenntnisse aus der Literatur und dem Technologietest Knowledge Creation Framework (KCF) 12.2.1 Sammeln und Inkubation 12.2.2 Einsehen und selektieren 12.2.3 Verifizieren 12.2.4 Formen 12.2.5 Vergessen und speichern 12.2.6 Fragen und zerlegen Beitrag und Einordnung des KCF Anwendung des bewussten, symbolischen KCF Zwischenfazit Auswirkungen und Ausblick 13.1 13.2 13.3 13.4 14 11.8.2.2 F-Maß und Cost-benefit Kennzahl Zwischenfazit Modell der Wissensentwicklung 12.1 12.2 11 Auswirkungen auf die Wissensentwicklung Auswirkungen auf organisationale wissensintensive Prozesse Auswirkungen auf den Semantic Desktop 13.3.1 Optimierung bestehender Funktionalitäten für höhere Abstraktionen 13.3.2 Ergänzung und Weiterentwicklung neuer Funktionen zu einer agentenbasierten Architektur Auswirkungen auf das Semantic Web Zusammenfassung und Fazit 139 142 146 149 149 150 151 151 152 152 152 153 153 155 157 159 159 162 165 166 168 170 173 Literaturverzeichnis 179 Anhang: Einzelne Testergebnisse 193 Suche mit Livelink Konzeptsuche mit Ontologien Semantische Suche Referenztabelle Wilcoxon-Test (Grenzwerte) Refernztabelle Wilcoxon-Test (explizite Signifikanzniveaus) Screenshots 193 197 202 206 207 208 12 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Zusammenfassung Die Arbeit erweitert mit dem Modell der Wissensentwicklung (Knowledge Creation Framework) bestehende Ansätze der Wissensverteilung im betriebswirtschaftlichen Wissensmanagement. Es beschreibt den Entwicklungsprozess von Wissen. Die optimale Nutzung der Ressource Wissen beruht damit auf der Unterstützung ihrer ständigen kontextspezifischen Entwicklung und situationsspezifischen Bereitstellung von Informationen. Die Arbeit fordert, Wissen nicht mehr nur als Zustand und Objekt zu verstehen, sondern als Prozess und Perspektive auf eine Situation. Die Diskussion berücksichtigt den subjektiven Charakter von Wissen. Sie ergänzt bestehende organisatorische Ansätze des Wissensmanagements um die Perspektive und Intention des Individuums. Sie ermöglicht und fordert damit die Weiterentwicklung von Modellen im Hinblick auf expliziten Umgang mit heute noch implizitem Wissen als Basis zielgerichteten Einsatzes von Technologien. Die Bedeutung der semantischen Suche (Gnowsis) des Semantic Desktop für die Wissensentwicklung liegt in der Fähigkeit, individuelle Kontextinformationen nutzbar zu machen. In Form von Prozessrollen wird die Intention und Perspektive einer Person repräsentiert. Die subjektive Sicht wird technologisch nutzbar gemacht. Die Arbeit bestätigt die Wirkung der am DFKI in Kaiserslautern entwickelten Prototyps Gnowsis im Semantic Desktop, als Vertreter semantischer Suchen, diesem Anspruch unter betrieblichen Bedingungen gerecht zu werden. Die Technologie eignet sich, explorative, wissensintensive Prozesse und die Charakteristika von Wissen zu unterstützen. Diese Erkenntnisse werden im iterativen Vorgehen der Grounded Theory mit der Theorie der Wissensentwicklung verknüpft. Sie zeigen Prozessschritte auf, die sich technologisch unterstützen und ersetzen lassen. Die Wahl der Grounded Theory entsteht aus einem Diskurs verschiedener beschreibender Forschungsansätze, wie Action research oder Design Sciences. Wissen ist nicht nur Forschungsgegenstand der betriebswirtschaftlichen und technischen Disziplinen. Andere Disziplinen geben Anleihen, um als Kontrainduktion zu prüfen, inwieweit ein Verständnis der individuellen Wissensentwicklung einen Beitrag zur aktiven Prozessbegleitung und Produktivitätssteigerung wissensintensiver Prozesse leisten kann. Operativ erspart die automatische Ermittlung der individuellen Perspektive einer Rolle aus den nativen Strukturen den manuellen Verschlagwortungsaufwand. Sie erzielt bei gleichem Redaktionsaufwand deutlich bessere Ergebnisse. Der Wissensarbeiter erspart sich langfristig den Prozess der Suchanfrage. Die Semantik ermöglicht bessere Ergebisse im bestehenden induktiven Suchvorgehen. In Kombination mit dem Peer-to-peer-Ansatz des Semantic Desktops ermöglicht sie durch einen Perspektivenwechsel eine Annäherung an eine automatisierte, deduktive Wissensentwicklung. Sie leistet ihren Beitrag zur Produktivitätssteigerung und unterstützt den Paradigmenwechsel von der Wissensverteilung zu einer Wissensentwicklung. Sie dient als Grundlage für weitere Entwicklungen im Rahmen agenten-orientierter Architekturen hin zu einer aktiveren Prozessunterstützung. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 13 Summary (engl.) The thesis expands with the Knowledge Creation Framework existing approaches of knowledge re-use and distribution in the knowledge management practice. It describes the development processes of knowledge. With this the impact of knowledge grounds on the support of its contextspecific development and situation-specific provision of information. The thesis demands to view knowledge not only as a status and object, but as a process and perspective on a situation. The discussion aknowledges the subjective character of knowledge. It adds to existing organisational approaches of knowledge management a perspective and intention of the individual. With this it enables and fosters the development of models for an explicit handling of still implicit knowledge as a base for technology application. The impact of semantic search (Gnowsis) for knowledge creation is the capability to harness individual context information. Intention and perspective of a person is represented in form of process roles. The subjective view becomes technologically usable. The thesis examines how the DFKI-developed prototyp Gnowsis within the Semantic Desktop embraces as representative of semantic search technologies these expectations within operational environments at SIS. The results will be linked with theory of knowledge creation based on a Grounded Theory research approach. These insights are iteratively linked with the theory of knowledge development applying the reasearch principles of the Grounded Theory. It illustrates process steps, suitable for technological support. The selection of the Grounded Theory as research method results from a discussion on different prescriptive reaserach approaches, like Action research and Design Sciences. Knowledge is not only research object of business administrative and technical disciplines. Other disciplines give hints to proof by counter-induction how this understanding of individual knowledge creation adds value for active process support and productivity increase in knowledge-intensive processes. Operationally, the automatic retrieval of individual perspectives of a role from native structures reduces the manual tagging efforts. It achieves higher result quality with the same editorial efforts. In the long run the knowledge worker spares the active search and retrieval process. Semantic concepts allow better results in inductive search processes. In combination with the peer-to-peer approach of the Semantic Desktop they allow an approximisation to automated deductive knowledge creation based on perspective taking and making. They thus contribute to the increase of productivity and support the paradigm shift in knowledge distribution and re-use to knowledge development and creation. This research is base for further developments on agent-oriented architectures towards a more active and automated process support. 14 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 15 1 Motivation Im Vergleich zum verarbeitenden Gewerbe sind individuelle oder kollaborative Wissensarbeit und wissensintensive Prozesse in Dienstleistungen Kernprozesse mit Wissensprodukten (Steward 2001). Bisheriges Wissensmanagement konzentrierte sich auf unternehmensweite Stützprozesse. Informationsverarbeitende Dienstleistungen (Engineering, Forschung, Beratung, SoftwareEntwicklung, etc.) gewinnen immer weiter an Bedeutung, um sich durch Innovation und Qualität im Wettbewerb zu differenzieren. Sie umfassen komplexe Zusammenhänge im Vergleich zur Abwicklung von Routineaufgaben. Eine Vielzahl an Fallbeispielen findet sich als Anwendungsfelder für aktive Prozessunterstützung durch intelligente Technologien in wissensintensiven Prozessen: • Buchung von Dienstleistungen, automatische Verfügbarkeiten • Automatisierte Call-Center und deren Unterstützung • Lösungsentwicklung in Service-Angeboten • Entscheidungsunterstützung in Professional Services (juristische, betriebswirtschaftliche, technologische, medizinische) • Szenarioentwicklung in Planungsprozessen • Papers und Abstracts im Forschungsprozess • Modelle in der Entwicklung • Programmcode in der Softwareentwicklung Einige sind Standard-Dienste mit klar definierten, wissensintensiven Produkten und bekanntem Kontext. Online-Reisebuchungen konnten durch ihre klare Definition bereits durch bestehende Technologien und Methoden des Wissensmanagements optimiert werden. Andere Innovationsprozesse arbeiten mit unbekannten, wissensintensiven Produkten und weitgehend unbekanntem Kontext. Sie sind zu unspezifisch, um eine technologische Weiterentwicklung zu erforschen. Im Vordergrund der Arbeit stehen daher die Angebotsentwicklung mit ihrem Bezug auf flexible Wissensobjekte und vagen oder komplexen Kontexten. Solche Prozesse sind derzeit personal- und wissensintensiv und wirken durch den fokussierten Einsatz hoch qualifizierter Mitarbeiter im Vergleich zum breiten Einsatz von geringer qualifizierten Arbeitskräften in Standardprozessen. Diese wissensintensiven Prozesse sollen durch aktive und intelligente Prozessunterstützung und Automatisierung produktiver werden. 1.1 Wissensverteilung ist nicht ausreichend für aktive Unterstützung wissensintensiver Prozesse Schnelle Reaktionszeiten und geringe Erstellungskosten sind Erfolgsfaktoren im IT Service Markt. Wesentlich sind diese bei der effizienten Angebotserstellung im zunehmenden Wettbewerb. Davenport (2005) fordert zur Steigerung der Produktivität von Wissensarbeitern die ergänzende Berücksichtigung ihrer Netzwerke und physischen Arbeitsumgebung in Ergänzung zu ihren Prozessen und Fähigkeiten. Bestehende und etablierte Ansätze des Wissensmanagements sind Nonaka und Takeuchi (1995), Boisot (1999) oder Probst (1997). Sie erklären die Bereitstellung von Wissen durch Verteilung und Nutzung organisationalen Wissens. Sie stellen Methoden, Infrastruktur und Gedankenmodelle für die kontinuierliche Prozessverbesserung und das Unternehmensverständnis aus der Wissensperspektive zur Verfügung. Sie erreichen damit zwar eine Transparenz über die organisationale Wissensbasis, aber keine ausreichende aktive technologische Unterstützung des Individuums und seiner Arbeitsumgebung. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 16 Sie konzentrieren sich nur auf die Verteilung von vorhandenem organisationalen Wissen, in der Praxis unterstützt durch meist zentrale Wissensmanagementsysteme. Das Management von Wissen hatte daher zunächst die Aufgabe, die konkurrierenden Sichtweisen zu koordinieren, zu balancieren und situationsgerecht einzusetzen. Die sprachliche Verwirrung beginnt schon bei der Definition von Wissen selbst. Es gibt verschiedene Definitionen, die in der Praxis dazu führen, dass zunächst das gemeinsame Verständnis zu definieren ist, bevor eigentliches Wissen transferiert oder entwickelt werden kann. Verarbeitendes Gewerbe (Industrie) Informationsverarbeitendes Gewerbe (Medien) Ebene Dienstleistungen Individuum Innovationsprozess (Wissensverteilung) Angebotsprozess Wartungsprozess Produktion Gruppe Projektmanagement Bisher Unternehmen Jetzt (Wissensentwicklung) arbeitsintensiv wissensintensiv WissensIntensität Abb. 1. Individuelle Wissensentwicklung im Angebotsprozess Wissensmanagement (WM) etablierte sich in der betrieblichen Praxis, wie die eigene Darstellung in Abbildung 1 zeigt, mit dem Fokus auf die Wiederverwendung und -verteilung vorhandenen Wissens auf Unternehmensebene. Best practice sharing ist ein etablierter Ansatz, erfolgreiches Wissen auf ähnliche Situationen zu übertragen. Es gelingt damit, Erfolgsansätze statt Probleme im Unternehmen zu verbreiten, ggfs. Methoden zu übernehmen und Ansprechpartner zu identifizieren, die weiterhelfen können. Hierfür wurden unternehmensweite Wissensportale aufgebaut und Wissen kodifiziert. Wissensmanagement wurde als Stützprozess im Unternehmen betrachtet. Aus technologischer Sicht wurde WM als erweitertes Informationsmanagement und aus personalpolitischer Sicht als Erfahrungsaustausch verstanden. Alle Perspektiven greifen ineinander und bilden ein sozio-technisches System. Nicht genutzte Wissensbausteine stellen hohe Opportunitätskosten dar. Der Schatz des verfügbaren Potentials an Bausteinen wird im Unternehmen nicht gehoben. Die entgangenen Möglichkeiten werden unter Investitionsgesichtspunkten als rechnerische Kosten betrachtet. In jüngster Zeit wurden die etablierten Ansätze der Wissensverteilung durch Ansätze einer organisatorischen Wissensentwicklung ergänzt, wie van Krogh (2000) mit „enabling knowledge creation“. Sie beschränken sich aber auf die organisatorische Ebene. Sie sind damit in ihrer Komplexität technologisch schwer abbildbar. Als Dokumentenmanagementsysteme leisten sie nur passive Prozessunterstützung. 1.2 Fehlende Prozesse und statische Tools erlauben keine aktive Prozessunterstützung Die servicebezogene, wissensintensive Wertschöpfung ist in sich komplex und bringt Wissen selbst als verkaufsfähige Leistung in Form von Beratung, Softwareentwicklung, Reisedienstleistungen, Forschung oder Entwicklung hervor (Horster 1993, S.5). Kennzeichnend für wissensintensive Prozesse sind schwach strukturierte Probleme. Ihre dezentrale Entstehung machen sie komplex und erfor- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 17 dern häufig kreative Leistungen zur Lösung. Ihre Ergebnisse im Sinne von Wissensobjekten sind flexibel. Dienstleistungen, verstanden als knowledge service, sind personengebunden und schlecht skalierbar. Je spezifischer und individueller, desto teurer wird die Leistung. Entscheidend im Wettbewerb ist aber zunehmend die Fähigkeit, kundenspezifische Anforderungen mit günstigen Konditionen intelligent zu kombinieren. Allen Beispielen ist gemeinsam, dass Wissen nicht nur ein unterstützender Faktor ist, sondern die Kernressource darstellt. In einer Produktion kann es unterstützend zur Reduzierung der Fehlerquote dienen, während es in der Angebotsentwicklung Kern des Wissensproduktes Angebot ist (Hofer-Alfeis 2003, Ofek 2002). In der Beratung können Projekterfahrungen zwar in Wissensportalen für den Austausch dokumentiert werden, sie stiften aber nur bedingt Nutzen, da Lösungen kundenspezifisch entwickelt werden. In der Beratungspraxis bedarf es personenbezogener, aber zeitaufwendiger Best Practice- oder Debriefing-Foren, um die Erkenntnisse weiterzugeben. Zur Optimierung dieser Prozesse stellt sich die Frage nach Ersatz teurer Wissensarbeiter durch intelligente Technologien. In der Praxis sind Prozesse zwar weitestgehend über Prozessarchitekturen beschrieben, allerdings mangelt es dabei an relevanten Informationen und Informationsmodellen. Ohne diese Verknüpfung zwischen Prozess und Systemen lässt sich der Informations- und Wissensprozess nur schwer systemgestützt verbessern. Nach Maier (2005) können wissensintensive Prozesse beim Inhalt, den Personen oder dem Prozess selbst ansetzen. Für die inhaltsbezogenen Prozesse gibt es Methoden wie lessons learned. Für personenbezogene Prozesse werden kommunikationsorientiere Formen, wie communities, eingesetzt. Für die Prozesskomponente an sich existieren erst wenige etablierte Ansätze. Bestehende Workflow-, Wissensmanagement- oder Proposal-Automation-Systeme behandeln Wissen als Informationsobjekte und nicht als Wissensprozess. Dieser würde Informationen aus einem in den Workflow integrierten Kommunikationsprozess kontinuierlich bereitstellen (Wilson 2001). Die Unterstützung von Arbeitsprozessen wäre leichter, wenn es starre Workflows gäbe. Sie eignen sich in der Praxis aber nur für statische Prozesse. Lebende und dynamische Prozesse, die individuelle Kundenbedürfnisse adressieren, bedürfen einer Assistenz und aktiven Unterstützung. Heutige Entscheidungsunterstützungssysteme stellen lediglich entscheidungsrelevante Daten nach vordefinierten Kriterien bereit und versuchen, Informationen zugänglich zu machen. Sie stellen nur einen passiven Support durch Retrieval-Technologien oder Abruf von Wissen aus Datenbanken. Im Anwendungsbeispiel der Angebotserstellung bei Siemens IT Solutions (SIS) suchen Sales Manager beim Beantworten von Kundenanfragen nach ähnlichen und erfolgreichen Angeboten. Wenn sie selbst nicht schnell fündig werden, beauftragen sie meist einen Vertriebsassistenten, einen Entwurfsvorschlag zu machen. Das Entstehen eines solchen Angebots ist zwar in seiner Vorgehensweise, nicht aber in seiner inhaltlichen Entstehung prozessual beschrieben. Bestehende Proposal Automation Tools können daher nur statische Inhaltskomponenten zusammensetzen (Dokumentenhandhabung und Erzeugung mit Textbausteinen), aber nicht in dynamischer Abhängigkeit zu den Kundenanforderungen. SAP (www.sap.com) bietet in seinem neuen CRM-Rahmen einen „Sales Assistant“, der den Nutzer schrittweise durch den Angebotsprozess führt. Dieser stellt ihm individualisierte Informationen bereit. Auch wenn er eine bessere Prozessintegration anbietet, müssen die Informationen vorher nutzerspezifisch definiert und designed werden. Es wäre daher hilfreich, diese automatisch aus dem Nutzerverhalten oder der Rolle dynamisch und anlassbedingt ableiten zu können. In der Praxis müssen Berichte und Abfragen in Abhängigkeit des Kunden oder seiner hypothetischen Anforderungen aufwendig vordefiniert werden. Nach wie vor bedarf es einer Umformulierung des Informationsbedarfs in Suchanfragen und Schlagworte. 18 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Interviews mit SIS Vertriebsmitarbeitern konkretisieren die Problemstellung in der Praxis und damit die Anforderungen an einen dynamischen Informationsassistenten: • Heterogene Ablagestrukturen und -systeme zwischen Mitarbeitern sowie zu starre Inhaltsstrukturen in Vertriebscommunities auf zentralen Systemen. • Begriffsdifferenzen in der Verschlagwortung und Bezeichnung (Call-Center vs. Help-Desk) • Fehlende, qualitätsgesicherte Wissensobjekte in zentralen Systemen ohne Verschlagwortung. Informationen werden häufig lokal gehalten und wegen hohem Redaktionsaufwand nicht veröffentlicht. • Gefundene Information ist meist allgemein (Templates) und zu unspezifisch, um ihren Wert einzuschätzen („wurde das alte Angebot gewonnen oder verloren ?“, „sind die Preise noch aktuell ?“, „war dies eine Standard- oder Individuallösung ?“). Ihre Qualität ergibt sich aus der Anwendbarkeit und dem stiftbaren Nutzen in den Anwendungssituationen. Ihre Einschätzung bedarf nach Smith einer realistischen Validierungszeit (Smith 2000, S. 26). • Geringer Dialog zwischen beteiligten Rollen (Proposal Manager und Sales Manager) führt zu Missverständnissen und Informationsdifferenzen. Ergebnisse von Kundengesprächen werden zu spät weitergegeben, da sie vom Sales Manager als nicht relevant erachtet, für den Proposal Manager aber vielleicht eine wichtige Kontextinformation sind. • In den Rollen werden nur ihre Aufgaben modelliert und berücksichtigt, aber nicht ihr Intentionen und Erfahrungslevel (Experte oder Junior). Fraglich ist also, warum eine aktive Prozessunterstützung derzeit nicht möglich ist. 1.3 Leistungsfähigkeit neuer, intelligenter und semantischer Technologien noch nicht hinreichend deutlich Die Entwicklungen des Semantic Web und Web 2.0 zeigen neue technologische Möglichkeiten, wie semantische Suche, Vernetzung von Mitarbeitern und durch die Bereitschaft der Nutzer, mehr Daten von sich bereitzustellen, weitere virtuelle Formen der Zusammenarbeit (O’Reilly 2005). Intelligente Technologien versprechen einen flexiblen Umgang mit komplexen und wissensintensiven Prozessen, in denen Agenten Preise vergleichen oder Informationen suchen. Das Semantic Web nach Berners-Lee verfolgt technologische Ansätze, um die Bedeutung von Informationen mit geringerem Redaktionsaufwand zugänglich zu machen (Berners-Lee 2005). Diese Möglichkeiten der Technologien verleiten, Visionen als Zielrichtungen zu artikulieren. „Technologien entwickeln Wissen situationsspezifisch aus vernetzten Wissensquellen“ oder „Technologien betten sich automatisch in die individuelle Arbeitsumgebung ein“ sind vielleicht zu hoch gegriffen, aber dennoch Ansporn, ihnen einen Schritt näher zu kommen. Der Wettbewerb um die Schach-Weltmeisterschaft zwischen Mensch und Maschine erneuert daher die Frage, ob das Ziel von Maschinen ist, den Menschen zu ersetzen oder ob sich nicht unterschiedliche Fähigkeiten besser ergänzen. Für manche Situationen eignet eine sequentielle Logik, für andere bietet die Parallelität der Rechnerlogik Vorteile. Es ist deshalb in jedem Prozess zu unterscheiden, ob personenabhängige, wissensintensive Prozesse durch Automatisierung von Teilprozessen unterstützt werden oder als ganzer Prozess ersetzt werden sollen (Lang 1999). Es ist ein Unterschied, ob ich einen Prozess durch verbesserte Suchen unterstütze oder den Reiseberater beim Preisvergleich von Reiseangeboten ganz ersetze. Aus der Summe der unterstützten Teilprozesse ergibt sich der „Grad der Ersetzbarkeit“. Je arbeitsund wissensintensiver ein Prozess, desto bedeutender die Schnittstelle zwischen Mensch und Maschine (Siemens 2002, S.55). Die Rolle der Technologie ist abhängig vom Mehrwert durch den Mitarbeiter, der sich aus der Wissensstrategie ergibt. So kann ich zwar automatisch ein Angebot erstellen, der Auftragserfolg hängt aber von der persönlichen Beziehung ab. Hierüber lassen sich Wettbewerbsvorteile herausarbeiten. Die Automatisierung ermöglicht Wettbewerbsvorteile nur durch Optimierung von Standardprozessen. Je wissensintensiver die Prozesse, desto höher der Nutzen durch eine technologische Abbildung, desto geringer aber das aktuelle Verständnis. Die Kreativität in Innovationsprozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 19 ist technologisch schwerer zu fassen als standardisierte Versicherungsangebote im Internet. Der betriebswirtschaftliche Nutzen der Technologie liegt damit in seiner Abbildbarkeit und Fähigkeit der Wertschöpfung. Die mangelnde Einbindung von Wissensplattformen in den Arbeitskontext und die fehlende Beobachtungsfähigkeit und Abbildung von Intentionen von Systemen könnten Gründe sein, warum derzeit noch händische Pflege von Metadaten nötig ist. Trotz Forschung auf den Gebieten des ubiquitous und pervasive computing, der location-based services und der Ontologien besteht noch keine hinreichende Einigung über die Parameter von Kontexten und Situationen in Dokumenten. Zur Berücksichtigung von Kontexten ist ein Gesamtkonzept nötig, das die Stärken der Einzeltechnologien zielgerichtet kombiniert. Es könnte für Standards sorgen, die die Kommunikation zwischen dezentralen Einheiten erlaubt. Damit verbunden ist die Frage, ob sich solche Standards nur in zentralen Systemen etablieren lassen oder ob dies auch oder gerade in dezentralen Systemen möglich ist (Eberl und Theis 2002, S.11). Die Rolle des Menschen verlagert sich zunehmend in die Rolle der Koordination und Balancierung unterschiedlicher Technologien. Offen ist, bis zu welchem Grad (in welchen Situationen und Prozessen) künstliche Intelligenz und intelligente Technologien ein geeigneter Einsatz sind, und wo und wann der Mensch seine Stärken einsetzen kann. 1.4 Repräsentation des subjektiven Charakters von Wissen derzeit nicht technologisch abgebildet Der Versuch, die Erfahrungen und zugrundeliegenden Rahmenbedingungen zu dokumentieren und über Wissensplattformen allgemein verfügbar zu machen, wird durch die Kontextabhängigkeit von Wissen erschwert. Die Erfahrungen mit organisationaler Wissensentwicklung zeigen, dass Wissen einen subjektiven Charakter besitzt. Nach North (2005) erlangen Informationen erst durch ihre Anwendung Relevanz und werden zu Wissen. Technologisch müsste damit zur Unterstützung der Wissensentwicklung weniger der organisationale Rahmen mit seiner Vielzahl an Kontexten als vielmehr der einzelne Wissensarbeiter mit einem dynamischen und individuellen Umfeld im Vordergrund stehen. Die Steigerung der Relevanz von Informationen sollte als kontextspezifische Wissensentwicklung verstanden werden. Der Versuch, Situationen und Erfahrungen sprachlich zu explizieren, um sie weitergeben zu können, unterliegt dem Trugschluss, dass alle unter den sprachlichen Begriffen das Gleiche verstehen und nach einmaliger Explikation eine 1:1-Übertragung stattfinden kann. Sprache ist eine Repräsentationsform. 1.5 Hoher Redaktionsaufwand für Einsatz von Wissensmanagement-Technologie Der Nutzung der Wissensressourcen steht damit, operativ gesehen, ein hoher Redaktionsaufwand zur Pflege und Qualitätssicherung gegenüber. Die Verschlagwortung von Textbausteinen in Proposal Automation Tools als Explizierung des Kontextes erfordert viel Aufwand und deckt letztlich den Bedarf der neuen Situation nur bedingt ab. Allein der Dialog ermöglicht den Austausch und die Einbettung der Erfahrungen in den neuen Sachverhalt. Oft ist die Herkunft von Wissen unbekannt und nur zeitintensiv zugänglich (Einholen unterschiedlicher Perspektiven, Expertengespräch, Anwendung von Methoden, Selbstreflexion, Explikation, Kapazitätsgrenzen von Systemen (Abdecker et al. 2000)). In seiner expliziten Form bedarf die Bereitstellung dieser Art von Wissen eines hohen Pflegeaufwandes, um dem stetigen Verfallsprozess entgegenzuwirken. Systemen fällt es noch schwer, den Kontext selbst zu erfassen. Dieser muss über aufwendiges Design der Meta-Daten bereitgestellt werden. Grund hierfür ist eine aufwändige Standardisierung und Qualifizierung von Wissensbausteinen außerhalb des Anwendungsprozesses. Dies gelingt für grundlegende Arbeitsmittel, wie Vorlagen oder wenig dynamische Inhalte. Die detailliertere Modellierung von Prozesssituationen und deren Unterstützung von situationsgerechten Informationen erzielt zwar in (teil-)standardisierbaren Prozessen Fortschritte, bedarf aber zur 20 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Steigerung der Informationsrelevanz einer individuellen Perspektive des Nutzers. Sie wird heute nicht berücksichtigt. 1.6 Monodisziplinäre Ansätze der Wissenstheorie blockieren das Verständnis der individuellen Wissensentwicklung Das Verständnis von Wissen, Intelligenz und Erkenntnis sowie deren technologische, künstliche Abbildung und Nutzung beschäftigt seit Jahrhunderten verschiedene wissenschaftliche Disziplinen, wie Neurobiologie, Soziologie, Psychologie, Philosophie, Betriebswirtschaft und Technologie. Philosophen und die theoretische Physik haben schon frühzeitig versucht, das „Weltwissen“ zu erklären. Pädagogen suchen nach Wegen, die Aufnahme und Vermittlung von Wissen in Lern- und Bildungsprozessen zu verbessern. Mediziner und Neurobiologen sind der Frage auf der Spur, wo und wie das Wissen im Gehirn gespeichert wird. Psychologen versuchen hinter die Geheimnisse des Bewusstseins zu kommen und Kognitionsprozesse zu verstehen. Hinzu kommt in jüngster Zeit das Interesse der Betriebswirte für komplexe Organisationsformen und Netzwerke. Der Versuch, „Wissen“ aus einer Disziplin heraus zu erklären und zugänglich zu machen, ist bisher nicht oder nur unter der Perspektive der eigenen Disziplin gelungen. Letztlich befasst sich die Wissenschaftstheorie als Meta-Wissenschaft und Teilgebiet der Philosophie damit zu untersuchen, mit welchen Methoden der Bildung, Bewährung und Anwendung wissenschaftlicher Theorien und Begriffe größte Erfolge zu erzielen seien (Lamnek 1988, Bochenski 1993, Schnapp 2004). Sie ist damit fast selbst eine Erkenntnistheorie (Epistemologie). Im vorliegenden Forschungsvorgehen bietet sie wertvolle Anregungen und Vorgehensweisen für die Wissensentwicklung. Für den Erkenntnisgewinn bedient sich die Wissenschaftstheorie Methoden, wie Beobachtung, Aufzeichnung, Dokumentation, Versuch und Irrtum, Experiment, Messung, Vergleich, Befragung oder Interview (Maturana und Varela 1987). Diese Methoden finden sich als deduktive, logische Ableitung des Besonderen vom Allgemeinen und als induktive Ableitung des Allgemeinen vom Besonderen (Meyer et al. 1969, S. 1449). Als deduktiv wird die menschliche Heuristik betrachtet. Heuristik ist das Prinzip auf methodischem Wege, Neues zu finden (Schischkoff 1991, S. 277). Sie basiert auf Hypothesen und Modelldarstellungen als Hilfsmittel und findet in der Mathematik Anwendung. So unterschiedlich die Disziplinen und Blickwinkel sind, so ist ihnen doch allen gemein, dass erst die Verknüpfung der Erkenntnisse und Zusammenschau der Perspektiven eine erweiterte Erkenntnis von „Wissen“ und seinen Prozessen ermöglicht (Wilson 1998). All dies können Ansätze sein, Wissen und seine Kontextabhängigkeit handhabbarer zu machen. Offen ist, wie diese Erkenntnisse in einem Zusammenhang stehen und miteinander wirken. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 21 2 Ziel und Beitrag der Arbeit Mit Hilfe der Wissensentwicklung soll die Arbeit eine Balance zwischen treibenden und fordernden Herausforderungen finden. Wie die eigene Darstellung in Abbildung 2 zeigt, lassen sich hieraus neue Dimensionen der betrieblichen Erfolgsfaktoren „Beherrschung von Komplexität“ und „fokussierter Personaleinsatz“ erzielen. Push • Möglichkeiten intelligenter Technologien • Neurologische Erkenntnisse über Kognitionsprozesse Beherrschung von Komplexität Wissensentwicklung Fokussierter Personaleinsatz Pull • Optimierungsbedarf wissensintensiver Prozesse, v.a. bei Dienstleistungen • Grenzen des Wissensmanagements, mit der Fokussierung auf Wissensaustausch Abb. 2. Treibende Faktoren für die Diskussion der Wissensentwicklung Die Arbeit legt dabei ein konstruktivistisches Verständnis von Wissen zugrunde. Sie leitet daraus das Verständnis von Wissensentwicklung als situations- und intentionsgebundene, aktive Prozessunterstützung auf individueller Ebene ab. Zugleich beschreibt die Wissensentwicklung im Sinne der Selbstähnlichkeit auf organisatorischer Ebene die Entwicklung von Wissensprodukten und -services als Ergebnis wissensintensiver Prozesse. Damit will die Arbeit bisherige Ansätze des organisatorischen Wissensmanagements unter Nutzung neuer interdisziplinärer Erkenntnisse und technologischer Möglichkeiten weiterentwickeln. Die Arbeit zeigt im Praxisrahmen am Beispiel der Angebotsentwicklung bei Siemens IT Solutions (SIS) einen Ansatz auf, sich dem subjektiven Charakter von Wissen technologisch mit Hilfe des Semantic Desktop zu nähern. Dafür werden insbesondere die Auswirkungen von Rollen in homogenen und heterogenen Arbeitsumgebungen getestet. Die Erkenntnisse sollen zusammen mit Auswertungen der Literatur einen Rahmen der individuellen Wissensentwicklung (Knowledge Creation Framework) bilden. Es ordnet die Erkenntnisse und Erklärungen in die Diskussion über Wissensentwicklung ein und stellt sie strukturiert einer weiteren wissenschaftlichen Diskussion und Forschung zur Verfügung. Es fasst damit den Ansatz der Wissensentwicklung zusammen und grenzt ihn zur organisationellen Wissensverteilung ab. Die Arbeit leistet mit der Erweiterung bestehender Ansätze der Wissensverteilung um Szenarien der Wissensentwicklung einen Beitrag zum betriebswirtschaftlichen Wissensmanagement. Die optimale Nutzung der Ressource Wissen beruht damit nicht mehr nur auf ihrer Verteilung und Wiederverwendung, sondern vor allem auf der Unterstützung ihrer ständigen kontextspezifischen Entwicklung. Die Arbeit fordert, Wissen nicht mehr nur als Zustand und Objekt zu verstehen, sondern als Prozess und Perspektive auf eine Situation. Die Diskussion ergänzt bestehende organisatorische Ansätze des Wissensmanagements um Aspekte des Individuums. Sie ermöglicht und fordert damit die Weiterentwicklung von Modellen im Hinblick auf expliziten Umgang mit heute noch implizitem Wissen als Basis zielgerichteten Einsatzes von Technologien. Im Forschungsrahmen der Informatik trägt die Arbeit dazu bei, semantische Technologien, am Beispiel des Semantic Desktop, durch Praxistests auszureifen. Ein iterativer Dialog zwischen Entwicklung und Praxis prägt die Forschungsarbeit. Sie stellt die nicht repräsentativen Erfahrungsberichte aus der Entwicklungsumgebung mit Hilfe eines Recall/ Precision-Tests im Praxisumfeld auf ein nachweisbares und wiederholbares Fundament. Darüber hinaus erweitert sie die Ergebnisse um die Konkretisierung, in welchen Anwendungsfällen sie welche Verbesserung erfahren. 22 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Der Bezug zu praxisnahen Anwendungsfeldern und betrieblichen Prozessmodellen verankert aus Sicht der Wirtschaftsinformatik die strukturierte Darstellung der Zusammenhänge beider Erkenntnisfelder im Modell der Wissensentwicklung. Auf dieser Basis lassen sich semantische Technologien auf die Erstellung von Forschungsarbeiten oder das Projektmanagement übertragen. Das Modell bietet eine Leitlinie für die Weiterentwicklung prozessunterstützender Technologien und ihrer Integration in Applikationen und Architekturen. Als integrierendes und verbindendes Element wird die Rolle um informationstechnische Definitionen in ihren heute sehr aktivitäts- und verantwortungsorientierten Definitionen erweitert. Sie ermöglicht die Modellierung von Informations- und Wissensflüssen entlang der Aufgaben im Prozess. Die Arbeit erweitert bekannte situationsspezifische Kontextinformationen um intentionsspezifische Aspekte aus der Perspektive des Wissensarbeiters. Dies vermeidet für den Wissensarbeiter den Sprung aus dem Prozess der Angebotsentwicklung in einen Suchprozess unter Reformulierung der Anfragen. Er kann im Gegensatz dazu dann aus Vorschlägen wählen, statt sich diese erst suchen zu müssen. Wissen ist ein interdisziplinäres Forschungsfeld mit Beiträgen aus den Bereichen philosophischer Erkenntnistheorie, bio-medizinischer Neurologie, individueller Psychologie, betrieblichen Managements und technologischer Repräsentation. Die Ergebnisse können reziprok auf die Erkenntnisbereiche zurückwirken und diese anregen. Die Arbeit stellt keinen Anspruch auf wissenschaftliche Erkenntnisse in diesen Bereichen. Ihr Fokus liegt auf der Rolle der Semantik. Tests im betrieblichen und praxisnahen Umfeld sind mit umfangreichen Datenschutzauflagen und Dateninkonsistenzen zwischen wissensintensiven Prozessen verbunden. Es wurde für den Test daher mit der Angebotserstellung bei SIS ein homogener Untersuchungsbereich herausgegriffen. Innerhalb dessen erfolgt der Vergleich und Test zwischen differenzierenden Situationsausprägungen und Szenarien. Die Arbeit erhebt keinen Anspruch auf eine Allgemeingültigkeit des Modells über wissensintensive Prozesse hinweg (Modell der Wissensentwicklung). Sie postuliert für weitere Forschungen, dass eine Anwendung des Modells und der Technologie zu ähnlichen Test-Ergebnissen führt und als Modellierungs- und Planungshilfe für ähnliche Prozesse dient. Trotz der praxisnahen Untersuchung leitet sich aus der Arbeit keine finale Empfehlung für den Einsatz im untersuchten Praxisrahmen bei Siemens IT Solutions and Services ab. Eine derartige Entscheidung wäre im Spiegel betrieblicher Rahmenbedingungen von Applikationsstrategie, Systemlandschaft und -strategie sowie der Kosten oder Sicherheitskonzepte zu bewerten. Sie ist nicht Untersuchungsgegenstand der Arbeit. Die Testergebnisse ermuntern jedoch zu dieser Prüfung. Inhaltlich konzentriert sich die Arbeit auf Dokumente als derzeit technologisch fassbare Abstraktionsebene von Dokumenten. Auch wenn es für die Unterstützung der Angebotsentwicklung sehr hilfreich wäre, berücksichtigt die Arbeit keine Strukturanalysen von Dokumenten, um Storylines oder andere Abstraktionsebenen von Informationen miteinander zu vergleichen. Zur späteren Untersuchung dieser Ebenen kann dann auf das zu entwickelnde Modell der Wissensentwicklung zurückgegriffen werden. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 23 3 Forschungsansatz und -methode Nach Becker et al. (Becker et al. 2003) wirkt „die Forschung in der Wirtschaftsinformatik (...) im Spannungsfeld der sich unterscheidenden Forschungsansätze der Mutterdisziplinen“ Wirtschaftswissenschaften und Informatik. Hinzu kommt die Herausforderung in der Wahl des Forschungsansatzes, Ansatz und Objekt zu trennen. Zum einen sind Wissen und seine Entwicklung in dieser Arbeit Erkenntnisobjekt per se, zum anderen streben alle Ansätze, ob natur- oder sozialwissenschaftlich, danach, Wissen zu schaffen. Fraglich ist also, aus welcher dieser Perspektiven sich die Arbeit dem Erkenntnisobjekt Wissen am besten nähern kann. Die Autoren empfehlen eine „weitreichende Offenlegung der wissenschaftlichen Grundannahmen und Vorgehensweisen“. Im Folgenden sollen daher mögliche Forschungsansätze für die Forschung der Wissensentwicklung diskutiert werden. Sowohl der theoretische Diskurs als auch die Einzelergebnisse der technologischen Evaluationen werden offengelegt und systematisch miteinander in Beziehung gesetzt. 3.1 Wissenschaftstheorie – Forschungsansatz oder Wissensentwicklungsprozess Die Wissenschaftstheorie verallgemeinert und beschreibt die Wesen dieser Ansätze aus erkenntnistheoretischem Streben. Nach Lamnek bestimmt sie, „wie wissenschaftliche Erkenntnis zu gewinnen ist“ (Lamnek 1988, S. 50). Sie versucht zu erklären, wie Erkenntnis überhaupt entsteht. Ihre Kernfrage ist, welche Methoden zu anerkannten wissenschaftlichen Erkenntnissen führt. Nach Bochenski ist Wissenschaft das Wissensgebiet und besteht aus einem subjektiven und einem objektiven Teil (Bochenski 1993): Subjektiv ist Wissenschaft, wenn sie systematisch ist, wenn also der Mensch das Gebiet methodisch durchforstet und neben Sachverhalten auch die Zusammenhänge erkennt. Objektiv ist Wissenschaft, wenn es nicht um das Wissen per se, sondern um seine Repräsentation („in Zeichen dargestellt“) geht, um sie anderen Menschen zugänglich zu machen. Novy und Jäger bezeichnen, stellvertretend für viele weitere Autoren, den subjektiven Teil als verstehend-induktiv und den objektiven Teil als erklärend-deduktiv (Novy und Jäger 2003). Diese Unterteilung gilt für verschiedene Wissensgebiete. Der Erkenntnisprozess unterscheidet sich dabei in quantitative und qualitative Methoden und einer Annäherung von innen (Soziologie) oder von außen (Naturwissenschaft). Eine Annäherung aus wissenschaftstheoretischer Sicht wäre damit eine philosophische Auseinandersetzung. Für die Untersuchung des Beitrags einer Technologie in betrieblichem Prozessumfeld erscheint dies nur bedingt geeignet und erkenntnisstiftend. Nichtsdestotrotz bietet die Wissenschaftstheorie interessante Aspekte für die Wissensentwicklung, ihre Prozessen und Methoden. Die Erkenntnisse aus dem Praxisfall und Technologietest sollen in der Diskussion von Wissensentwicklung hierzu in Bezug gebracht werden. Alle Forschungsansätze verfolgen das Ziel, Ansätze zu entwickeln und kontextspezifische Informationen bereitzustellen. Klassische, quantitative Forschungsansätze, wie sie aus den Naturwissenschaften bekannt sind, sind qualitativen Ansätzen, wie sie in den Sozialwissenschaften angewandt werden, in ihrem Ziel, Gesetzmäßigkeiten zu finden und mit Hilfe dieser Phänomene zu erklären, ähnlich. Sie unterscheiden sich im Verständnisansatz ihrer Untersuchungsobjekte. Sozialwissenschaftliche Ansätze sind intentional, das heißt, sie basieren auf mit Absichten handelnden Subjekten. Naturwissenschaftliche Ansätze bemühen sich um subjekt- und intentionsunabhängige Gesetzmäßigkeiten. Fraglich bleibt also, welcher Forschungsansatz für den vorliegenden Erkenntnisrahmen an der Schnittstelle naturwissenschaftlicher (technischer) und soziologisch-betriebswirtschaftlicher Diszipli- 24 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen nen geeignet erscheint. Hars (2002, S. 42) gibt einen guten Überblick über verschiedene Ansätze der Informationssystemforschung. Im Folgenden sollen mögliche Ansätze als Entscheidungsbasis kurz diskutiert werden. 3.2 Besonderheiten naturwissenschaftlicher Ansätze Charakteristisch für die naturwissenschaftliche Tradition ist die Isolation, Mathematisierung und Reproduzierbarkeit der Ergebnisse. Sie versucht durch Experiment, Gesetzmäßigkeiten in der Natur zu identifizieren. Sie löst damit Problemstellungen aus dem Zusammenhang, abstrahiert die gewonnenen Erfahrungen und prüft sie durch Wiederholung in einer objektiven und vom Forscher getrennten Welt. Die Zielsetzung allgemeingültiger Gesetzmäßigkeiten und eines einzelnen Sachverhalts greift bei der Erklärung sozialer Phänomene zu kurz (Lamnek 1988, S. 7 und Teich 1996, S. 5-7). Sie unterrepräsentiert mit der deterministischen Wahrnehmung der Wirklichkeit Zusammenhänge, wie den Charakter von Wissen als soziales Phänomen, repräsentiert durch die Interpretationen einer Gruppe. Je nach Situation ist der Bedeutungsinhalt anders und in Abhängigkeit des Beobachters zu deuten. Die experimentelle Bestätigung komplexer Modelle setzt, wie beschrieben, eine Bekanntheit und Isolierbarkeit stabiler Einzelaspekte voraus. Wissen als soziales Phänomen birgt in seinem konstruktivistischen Verständnis eine Konnektivität mit dem Prozess, die derzeit schlecht experimentell isoliert fassbar ist. Sie beschreibt den Komplex weniger von außen unter verschiedenen Bedingungen, als vielmehr aus einer Innensicht auf Basis selbstorganisierender Prozesse. Einzelne Prozessstufen der Wissensentwicklung innerhalb eines Individuums wären nur psychologisch-neurobiologisch fassbar. Diese Erkenntnisse sollen zwar genutzt, aber nicht psychologisch-neurobiologisch entwickelt werden. Fassbar sind jeweils nur seine Repräsentationsformen in Form von Dokumenten, deren Wert aber nicht in der Isolation, sondern im Zusammenspiel entsteht. 3.3 Besonderheiten sozialwissenschaftlicher Ansätze Die Untersuchungsobjekte der Sozialwissenschaften sind vielmehr intentional, das heißt mit Absichten handelnde Einheiten. Der sozialwissenschaftliche Ansatz versucht also, aus subjektivem Wissen objektive, systematisch geordnete Sätze zu machen (Teich 1996). Eine quantitative Sozialforschung trifft Aussagen über Häufigkeiten, Lage- und Verteilungsparameter und entwickelt Maße für Sicherheit und Stärke, um Zusammenhänge (Korrelationen) und theoretische Modelle zu überprüfen (Lamnek 1988, S.4). Eine qualitative Sozialforschung bemüht sich das "Wie" von Zusammenhängen, vor allem aus der Sicht des Betroffenen, zu erforschen (Lamnek 1988). Damit differenziert sie sich von der quantitativen Sozialforschung durch den Anspruch, „Prozesse zu rekonstruieren, durch die soziale Wirklichkeit in ihrer sinnhaften Strukturierung hergestellt wird“, anstatt existente Zusammenhänge zu überprüfen (Lamnek 1988, S.41 und S21ff.). Sie ist durch zentrale Prinzipien wie Offenheit, Prozessbezug, Reflexivität und Explikation geprägt. Diese Prinzipien legen nahe, ihnen für die Verarbeitung der Erkenntnisse zu folgen. Der Ansatz ist bemüht, den Wahrnehmungstrichter gegenüber Person, Situation und Methode so offen wie möglich zu halten und nicht durch Kategorien und Standards einzuengen. Nach Teich entsteht eine Explorationsfunktion mit Verzicht auf eine Hypothesenbildung ex ante (Teich 1996). Das bestehende Vorwissen hat nach Glaser und Strauss lediglich Orientierungscharakter (Glaser und Strauss 1998). Qualitative Sozialforschung soll den Konstitutionsprozess von Wirklichkeit dokumentieren, analytisch rekonstruieren und schließlich nachvollziehbar erklären können. Die Explikation der Einzelschritte des Untersuchungsprozesses und Regeln der erhobenen "Daten" (hier Testergebnisse) sichert die Nachvollziehbarkeit der Interpretation, nicht die Nachbildbarkeit im Sinne einer quantitativen Untersuchung. Im Gegensatz zu quantitativen Analyse ergibt sich nach Lamnek daraus ein positiver Zirkel von Sinnzuweisung und Sinnverstehen (Lamnek 1988). Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 25 Sollte ein rein sozialwissenschaftlicher Ansatz in Frage kommen, könnte die individuelle Wissensentwicklung im Vordergrund stehen und anhand von Befragungen im Unternehmen belegt werden. Befragungen zur Technologienutzung würden wieder nur die Interaktion mit der Technologie herausarbeiten. Sie gäben keine Aufschlüsse auf die Funktionsweise der Technologie. Die rein empirische Konzentration auf auf die individuelle Wissensentwicklung würde zu einer psychologischen Sicht führen. Hier soll bewusst eine Sichtweise an der Schnittstelle von Technik und Wirtschaft beleuchtet werden, um die Bedeutung und das Potenzial der Technologie im betrieblichen Rahmen abschätzen zu können. 3.4 Besonderheiten betriebswirtschaftlicher Ansätze Neben den beschriebenen Ansätzen wäre alternativ ein in der betriebswirtschaftlichen Forschung üblicher fall-basierter Forschungsansatz denkbar (Yin 2003). Er könnte sich zum Vergleich von betrieblichen Anwendungsfällen eignen. Er würde aber nicht in die Tiefe der individuellen Wissensentwicklung vordringen und auf dieser Tiefe wenig vergleichbare Szenarien zur Verfügung haben. Außerdem lägen keine mehrfachen Implementierungen des verwendeten Semantic Desktop Prototypen vor. Sie wären aus Gründen der Zugänglichkeit zu vergleichbaren Datenbeständen und Systemumgebungen nicht mit vertretbarem Aufwand installierbar. Die betrieblichen Rahmenbedingungen und der subjektive Charakter von Wissen sowie der Entwicklungszustand und -prozess des Semantic Desktops stellen den Forschungsansatz vor Herausforderungen. Nachdem sich keiner der Ansätze in seiner Reinform für diese interdisziplinäre Diskussion zu eignen scheint, ist fraglich, ob nicht eine geeignete Kombination der Ansätze möglich wäre, um der Komplexität und Interdisziplinarität von Wissen gerecht zu werden. 3.5 Besonderheiten kombinierter Ansätze Die meisten Ansätze verstehen Wissen als eine objektivierte Wirklichkeit und als einen Zustand. Sie setzen ausreichende Praxisfälle (cases) oder Datenbasis voraus. Im vorliegenden Fall geht es nicht um das Überprüfen der besten Form der Wissensverteilung im Sinne von präzisen Hypothesen. Genauso wie soziale Phänomene nicht außerhalb des Individuums existieren, kann Wissen nicht losgelöst vom Individuum betrachtet werden. Es bedarf der Berücksichtigung der sozialen Gruppe. Mangels gegebenem Forschungsrahmen könnten top-down-Anleihen in anderen Disziplinen gemacht und bottom-up explorativ aus technologischen Möglichkeiten hergeleitet werden. Zur Zusammenführung beider Erkenntnisstränge in den Themenfeldern Technologie und Wissen böte sich ein kombinierter Ansatz auf Basis qualitativer Methoden an. Er könnte Ansätze der Wissensentwicklung untersuchen, die dem subjektiven Charakter von Wissen gerecht werden, um damit verstehen zu wollen, wie sich personenabhängiges Wissen in allgemein verfügbares Wissen verwandeln lässt. Für Wilson (1998) vermitteln Geistes- und Sozialwissenschaften nur Kunst und Kultur und addressieren die Gefühlsebene des Betrachters. Naturwissenschaften dagegen seien in der Lage, unsere Sinnessysteme so zu studieren, um neue Erkenntnisse und Informationen zu gewinnen (Wilson 1998, S. 158). Kultur bedient sich der Sprache, um Informationen auszutauschen (Wilson 1998, S. 176). Sie kann sich selbst weiterentwickeln und neue Repräsentationen der Wirklichkeit hervorbringen. Die Sozialwissenschaften haben es nicht geschafft, ein „Kausalnetz (...) von der Gesellschaft bis zum Verstand“ zu ziehen (Wilson 1998, S. 253). Sie bedienen sich vielmehr der Hermeneutik im Sinne der Textauslegung aus Sicht von Beziehungen und Kulturen. Beide Aspekte erscheinen Wilson in seiner Suche nach der Einheit des Wissens notwendig. Die Ökonomie betrachtet er als beste Brücke zwischen den Disziplinen, da sie bereits den Dialog mathematischer Modelle mit den Komplexitäten menschlichen Verhaltens aufgenommen hat (Wilson 1998, S.261). Er fordert aber ein neues psychobiologisches Verständnis für die Weiterentwicklung der in der Ökonomie etablierten rationalen Entscheidungstheorie. Sie ist ihm zufolge keine „adäquate Wiedergabe der menschlichen Denkungsart“ und vernachlässigt Heuristiken (Wilson 1998, S.275). 26 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Es wird bestätigt, dass sich die Frage nach einer der beiden Forschungsrichtungen hinsichtlich des Erkenntnisobjekts Wissen nicht eindeutig beantworten lässt, wenn dem interdisziplinären Charakter von Wissen Rechnung getragen werden soll. Ein rein betriebswirtschaftlicher Ansatz dürfte mangels vergleichbarer oder empirisch belegbarer Anwendungsfälle schwerfallen. Bei Glaser und Strauss (1998, S. 8 und Teich 1996) finden sich mit der Grounded Theory, bei Wadsworth (1998) mit der Action Research und bei March und Smith (1995) mit den Design Sciences drei kombinierte Forschungsansätze. Sie machen sich für die Erklärung der Erkenntnisse und zur Entwicklung eines Modells der Wissensentwicklung die Erfahrungen der Sozialwissenschaften nutzbar und kombinieren sie mit den quantitativen Testmethoden für Technologien als Datenbasis. Im Folgenden werden die Ansätze kurz umrissen und gegeneinander abgewogen. 3.5.1 Action Research Aufgrund der Intention, Ansätze des Wissensmanagements zu verändern und weiterzuentwickeln, bietet die Action Research einen ähnlichen Ansatz (Wadsworth 1998). Sie stellt eine hohe Reaktionsfreudigkeit („responsiveness“) und Beteiligung in den Vordergrund. Sie versteht den Forschungsprozess als Lernzyklus, um durch systematische Reflektion direkt in der Praxis des Forschungsgebiets zu lernen (Schön 1983 und 1987 oder Kolb 1984). Wie auch die Grounded Theory versucht sie mit nicht-standardisierbaren, quantitativ erfass- und vergleichbaren Situationen umzugehen. Auch sie braucht nicht wie klassische, quantitative Methoden fest definierte Hypothesen, die zu belegen oder zu widerrufen sind. Es reichen vage Vermutungen, die sich über einen iterativen Prozess und Dialog konkretisieren. Es handelt sich um exploratives Forschen. Action Research entstand nach Krause (2005) zu Anfang des 20. Jahrhunderts aus der Erkenntnis, dass „statistische Auswertungen nur eine Scheingenauigkeit“ sind. Sie beruht nach Wadsworth (1998) auf verschiedenen Vorarbeiten und Methoden: der Bewertungsansatz von Patton (1990) oder Checklands (1981) soft systems analysis, Argyris’ (1985) action science, und Kemmis’ critical action research (Carr and Kemmis, 1986). Action Research verspricht einen praxisnahen, dialektischiterativen Ansatz mit Hilfe unterschiedlicher Quellen. Dennoch erscheinen die Kernanforderungen − Beteiligung und Reaktionsfreudigkeit − im vorliegenden Testfall des Semantic Desktop weniger bedeutend als der Ansatz der Grounded Theory, aus den Testdaten und Literaturerkenntnissen ein Modell abzuleiten. 3.5.2 Design Sciences Design Sciences ist ein junger Forschungsansatz aus den 90er Jahren. Er hat seine Wurzeln bei March und Smith (1995). Er entstammt dem Engineering und konzentriert sich auf Problemlösungen und Artefakte. Er will die Schwächen bestehender Forschung im Bereich der IT beheben und dem Design-Aspekt in der Forschung Rechnung tragen. Für die Anwendung auf IT-Systeme kombinieren ihn Hevner et al. (2004) mit einem klassischen, verhaltensbasierten Forschungsansatz, der sich aus den Naturwissenschaften ableitet. Aus dem Dialog beider Ansätze entfaltet sich nach Havner et al. (2004, S. 2) das Potential für die Forschung der Informationstechnologie. Die naturwissenschaftliche Verhaltensforschung ist bestrebt, Systeme im oganisationellen Rahmen und seine Wirkung im Hinblick auf ein definiertes Geschäftsproblem hin zu rechtfertigen und zu erklären. Hierfür werden unterschiedliche Artefakte betrachtet: Konstrukte, Modelle, Methoden und Systeme (Instantiations). Mit Hilfe der Feldforschung soll auf empirischer Datenbasis die Wahrheit ihrer Wirkung aufgezeigt werden. Design Sciences dagegen erstellt Artefakte zur Problemlösung und testet sie auf ihre Nützlichkeit mit Hilfe von mathematischen Methoden, wie Recall und Precision (Kapitel 11). Die Autoren unterscheiden Design, ähnlich wie Wissen in dieser Arbeit, in Prozess und Produkt. Sie verstehen den Design-Prozess als Aktivitätenfolge zur Erstellung von Artefakten. Dies ähnelt dem Verständnis wissensintensiver Prozesse aus Kapitel 6. Artefakte werden erstellt, bewertet, verallgemeinert und gerechtfertigt und bewiesen. Nach Hevner et al. (2004, S. 3) gibt es in der Literatur einige Forschung zu Instantiations (Systemen), Constructs und Methoden. Die Forschung an Modellen war ihnen zufolge der Managementforschung überlassen. Hevner et al. (2004) geben einen Überblick (Hever et al. 2004, Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 27 S.18) über Design Evaluierungsmethoden. Hieraus erscheint für die Diskussion des Semantic Desktop der Test als Simulation und durch Szenarien hilfreich. Carlsson (2006) unterstützt diese Haltung und Forderung nach einer Kombination verhaltensund designbasierter Ansätze für Information Sciences aus einer Perspektive des kritischen Realismus. Er fordert Designwissen und „grounded technological rules“ als Ergebnisse der Designforschung. Von Aken (2004) überträgt diese Forderung auf die Managementforschung. Diese beruhte ihm zufolge mit den Organisationstheorien auch lange Zeit auf erklärenden Ansätzen. Mit Hilfe von beschreibenden Ansätzen möchte er dem Relevanzproblem der Managementtheorien begegnen. 3.5.3 Grounded Theory Der Begriff bezeichnet nach Glaser und Strauss (1998) den Prozess einer gegenstandsverankerten, realitätsnahen Theoriebildung. Hiernach stellt sie „keine einzelne Methode dar, sondern eine Reihe von ineinandergreifenden Verfahren“. Sie entstammt qualitativen Methoden der Chicagoer Schule. Sie betrachtet Wandel als konstantes Merkmal sozialen Lebens und erfasst den Standpunkt des Handelnden ausreichend. Nach Glaser und Strauss (1998, S. 15) ist herausstechendes Merkmal der Grounded Theory, dass Hypothesen und Konzepte im Laufe der Forschung systematisch „mit Bezug auf die Daten ausgearbeitet“ und in Beziehung gebracht werden. Sie folgt einem induktiven Prozess mit dem existenzphilosophischen Ziel, das Wesen der interessierenden Phänomene zu erkunden“ (Teich 1996, S. 6). Sie kann nicht mehr von dem Prozess ihrer Entstehung getrennt werden, weil alle Interpretationsversuche an das gesammelte Datenmaterial herangetragen und präzisiert werden. Die Grounded Theory beansprucht daher Plausibilität und nicht die Wahrheit allgemeingültiger Gesetze. Dies spiegelt das typische Vorgehen der Grounded Theory nach Strauss und Corbin (1990) in Tabelle 1 wider: Tabelle 1. Angewandtes Vorgehen der Grounded Theory Vorgehen Datensammlung Sampling und Vergleichen Beispielhafte Methoden Sammlung, Atomisierung, Kontrainduktion Hermeneutische Betrachtung aus Perspektiven anderer Disziplinen Komparative Analyse Theoriebildung Iteratives Hypothesenbilden Kodierung und Kategorisierung Anwendung in der Arbeit Test des Semantic Desktop, Literaturanalyse Wissensentwicklung im Diskurs Testszenarien, Diskussion im Projektteam und Forschungscommunity Knowledge Creation Framework Die Zielsetzung verschiebt sich von der naturwissenschaftlichen Verifikation von Fakten hin zu einer sozialwissenschaftlichen Erklärung von Fakten. Durch Kontrainduktion kann die Grounded Theory ein Durchbrechen der bisherigen Analysen (Paradigma der Wissensverteilung) erreichen, indem erst einmal das Gegenteil (Wissensentwicklung) angenommen wird (Teich 1996, S. 8). Die Atomisierung (Teich 1998) und Reduktion von abstrakten Begriffen auf messbare Ebenen versucht Komplexitäten zu reduzieren. Der Begriff Wissen muss auf ein fassbares Dokument oder eine beschreibbare Rolle reduziert werden. Durch die hermeneutische Betrachtung unterschiedlicher Perspektiven anderer Disziplinen, wie der Linguistik mit der Sprachentwicklung, gelingt es mit der Grounded Theory, ein Netz von Kategorien (Bortz und Döring 2002) als Basis für ein Modell zu knüpfen. Dies dient als Basis, um die aus den Daten hergeleiteten Erkenntnisse auf andere Situationen zu übertragen und damit dem Risiko subjektiver Deutungen zu begegnen (Bortz und Döring 2002, S. 225). Dabei wird der erste Eindruck durch komparative Analyse in Form unterschiedlicher Testszenarien (theoretisches Sampling) mit der semantischen Suche des Semantic Desktops (Gnowsis) überprüft. Dabei steht in der Fallauswahl nach Glaser und Strauss (1998) weniger die Repräsentativität im Vordergrund, sondern ihr Potential neuer Erkenntnisse. Ein interpersoneller Konsens kann 28 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen im Projektteam und in der internationalen Forschungsgemeinschaft durch Workshops hergestellt werden (Glaser und Strauss 1998, S. 31ff.). Die Grounded Theory beruht unter anderem auf der Logik der Abduktion nach Peirce (1976). Sie ist ein Erkenntnisverfahren in der sequentiellen Kombination aus zufälliger Ideenfindung aus überraschenden Ereignissen, deduktiver Hypothesenbildung und induktiver Verifizierung. Dabei wird eine Regel konstruiert, die das überraschende Ereignis zu erklären sucht. Gäbe es diese schon und wäre sie nur zu entdecken, wäre das Ereignis nicht überraschend gewesen. Abduktion führt die Entstehung neuer Ideen formalistisch in den Wissensentwicklungsprozess ein. 3.6 Wahl der Forschungsmethode Aus dem Spannungsfeld um die Wahreheit streitender traditioneller Forschungsansätzen wurden mit den Design Sciences, Action Reserach und der Grounded Theory junge Mischformen und disziplinübergreifende Ansätze vorgestellt. Sie sind in ihrem allgemeinen Charakter ähnlich, unterscheiden sich jedoch in ihrer Herkunft und damit in einzelnen Aussagen. Gemeinsam sind ihnen der iterative Prozesscharakter und die beteiligte Rolle des Forschers am Wissensentstehungsprozess. So wirkt sich in der vorliegenden Arbeit die Entwicklung des Modells der Wissensentwicklung und die zugrundeliegende Literaturanalyse iterativ auf die Teststellung (Szenarien) aus. Zu Beginn der Forschung sind die zu untersuchenden Einflussfaktoren (Rolle, Dokumente) nur teilweise bekannt. Da sich die Definition der Testszenarien nicht direkt auf die Suchergebnisse auswirkt und die Auswahl der Daten davon unberührt blieb, kann der Einwand einer sich selbsterfüllenden Prophezeihung durch die Anpassung der Testdaten an ein intendiertes Ergebnis negiert werden. Nichtsdestotrotz bringt es ein iterativer Prozess mit sich, die Auswahl der Testszenarien den Vermutungen aus der theoretischen Erarbeitung des Modells so lange ohne Veränderung der Testdaten anzupassen, wie sich Ergebnisse erzielen lassen, die die Vermutungen stützen. Mit diesem Vorgehen und Ansatz leidet zwar die in klassischen Ansätzen geforderte Replizierbarkeit auf andere wissensintensive Prozesse, nicht aber die Replizierbarkeit des Tests in den definierten Szenarien innerhalb eines wissensintensiven Prozesses. Aufgrund der spezifischen Datenbasis aus dem Anwendungs- und Praxisrahmen und der hohen Hürden, eine vergleichbare Datenbasis aus anderen wissensintensiven Prozessen im gleichen Charakter nachzustellen, ist eine Verallgemeinerung schwierig. Für die Untersuchung der Subjektivität und Kontextspezifität des Forschungsgegenstandes Wissen ist der Ansatz allerdings besonders geeignet. Für die Forschung von spezifischen Fällen könnte sich insbesondere Action Research und Design Sciences eignen, da die Forderung nach Generalisierbarkeit einer starken Einschränkung und Reduktion der Situation bedürfte. Tabelle 2 wendet in Anlehnung an March und Smith (1995) hierfür die Vorgehensweise der Design Sciences auf die bekannten Artefakte an und zeigt diese als Kombinationsmöglichkeiten der Forschung mit dem Versuch, die Aspekte der vorliegenden Arbeit darin einzuordnen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 29 Tabelle 2. Ansatz der Design Sciences auf bekannte Aktefakte B u ild E v a lu a te T h e o r iz e C o n s tru c ts EPOS E n t w ic k lu n g SD Test D is k u s s io n d e r W ir k u n g v o n R o lle n M odel ( V e r s t ä n d n is v o n W is s e n ) ( W is s e n s in t e n s iv e P ro z e s s e ) ( W is s e n s e n t w ic k lu n g ) M e th o d ( K n o w le d g e C r e a t io n F ra m e w o rk ) J u s tif y In s ta n tia tio n Deutlich wird dabei, dass es sich für den technischen Teil sehr gut anwenden lässt. Die Arbeit leistet mit dem Praxistest des Semantic Desktop eine Evaluierung des im EPOS-Projekt hergestellten Artefakts. Die Ergebnisse werden in Beziehung zum betrieblichen Anwendungsrahmen theoretisiert und in Bezug gestellt. Beim Versuch, die wissenstheoretischen Aspekte und das Knowledge Creation Framework in die Matrix einzubringen, zeigen sich Schwierigkeiten, da es sich nicht um technische Artefakte handelt, deren Nützlichkeit es zu testen gilt. So erscheint es schwierig die Diskussion um wissensintensive Prozesse als Evaluation der Eigenschaften von Wissen zu betrachten. Es sind vielmehr erklärende Ansätze, um im Dialog mit den Testergebnissen die Nützlichkeit der Artefakte einzuordnen. Da sich Information Sciences an der Schnittstelle zwischen Organisation, Menschen und Technologie bewegt, fordern Hevener et al. (2004) die Kombination von verhaltensbasierter und designbasierter Forschung. In ihrer Balance beheben sie die jeweiligen Schwächen. Verhaltensbasierte Ansätze erscheinen passiv in Bezug auf Technologien und tendieren dazu, Kontexttheorien überzubetonen. Designbasierte Ansätze erscheinen aktiv in Bezug auf Technologie und tendieren dazu, zwar gut designed, aber im Anwendungsfall nutzlos zu sein. Action Research ist nach van Aken (2004, S. 233) nicht unbedingt an der Entwicklung von übertragbarem Wissen interessiert. Nach Järvinen (2007, S. 51) ist Action Research Design Sciences im Charakter sehr ähnlich. Besonders hervorzuheben sind die Übereinstimmungen in der teilnehmenden und initierenden Rolle des Forschers und der Produktion von nützlichem Wissen aus dem laufenden, iterativen Prozess. Beide Aspekte finden sich auch in der Grounded Theory wieder. In der vorliegenden Arbeit sollen die Erkenntnisse und Daten aus dem Technologie-Test als beschreibende Basis für theoretische, erklärende Überlegungen der betrieblichen, wissensintensiven Prozesse und der Wissenstheorien genutzt werden. Die von Hevner et al. (2004) geforderte Kombination soll mit der Grounded Theory gelingen. Für die Evaluation der Technologie werden Aspekte aus der Designforschung aufgegriffen und als Szenarien und Simulation angewandt. Die Erkenntnisse und Erfahrungen werden jedoch stärker als bei Design und Action Research in einen erklärenden Theorierahmen eingebettet. Die vorliegende Arbeit greift auch die Fundierung der Diskussion in philosophischen Theorien von Carlsson (2006) auf. Durch den stärkeren Bezug zu Wissenstheorien statt reiner Informationstheorie wird aber ein gemäßigtes Verständnis des Konstruktivismus als Grundlage gewählt. Es liegt wissenschaftstheoretisch sehr nah an den Vorstellungen des kritischen Realismus. Die Bezugnahme zum Konstruktivismus wird von Carlsson (2006, S. 194) als „increased and fruitful use of alternative philosophies, for example, the use of constructivism“ bezeichnet. Durch Anwendung der Grounded Theory kommt die Arbeit auch seiner Forderung nach „grounded technological rules“ (Carlsson 2006) nach. 30 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Auch Carlsson (2006, S. 209) wendet sein Framework in CRM-Systemen an. Dies ist zwar kein Beweis, aber ein Indikator, dass der gewählte Forschungsansatz für dieses Anwendungsfeld geeignet ist, auch wenn er auf Basis der Grounded Theory und des Konstruktivismus leicht an die Herausforderungen der Wissenstheorien angepasst ist. Zusammenfassend lässt sich festhalten, dass ein Forschungsvorgehen im Sinne der qualitativen Sozialforschung auf Basis der Grounded Theory als geeigneter Ansatz erscheint. Er berücksichtigt die meisten Forschungsherausforderungen, trägt dem Charakter von Wissen als soziales Phänomen Rechnung, berücksichtigt den abduktiven, explorativen Charakter und greift für die Erhebung der Testdaten auf bekannte statistische, quantitative Testverfahren für Suchmaschinen (Precision und Recall) zurück: • Die notwendige Datenbasis im vorliegenden Forschungsrahmen ergibt sich aus spezifischen Praxisszenarien bei Siemens IT Solutions und Services. • Charakteristika von Wissen und Wissensentwicklung gleichen den Ansprüchen und Merkmalen des Forschungsansatzes. • Modellentwicklung steht im Vordergrund der Grounded Theory und passt gut zum Forschungsziel: Erklärung des Beitrags des Semantic Desktop für die Wissensentwicklung in wissensintensiven Prozessen. • Der Ansatz stellt zugleich einen Anwendungsfall (Forschung als wissensintensiver Prozess) im Sinne der Wissensentwicklung (Theoriebildung) dar. Für den vorliegenden Fall zeigen sich zwei Ebenen der Untersuchung: Ein Vergleich wissensintensiver Prozesse oder Untersuchung verschiedener Szenarien innerhalb eines Prozesses. Fraglich ist, ob ein Vergleich der Angebotsentwicklung mit dem Projektmanagement gelingen kann oder ob verschiedene strukturierte Varianten des Angebotsprozesses nicht greifbarere Ergebnisse versprechen. Für eine hinreichend genaue, technologisch fassbar und pragmatisch zugängliche Teststellung erweisen sich Varianten innerhalb der Angebotsentwicklung als geeignet. Sie erlauben eine methodische Vergleichbarkeit auf dem aktuellen Stand der Technik und unter Berücksichtigug der Datensicherheit beim Praxistest. Sie werden im Folgenden näher ausgeführt. Eine weitere, verallgemeinerndere Forschung im Sinne der klassischen Forschungsansätze könnte sich in weiteren Arbeiten zur tieferen Beweisführung anschließen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 31 4 Anwendung der Forschungsmethode als Forschungsvorgehen Die Grounded Theory lässt sich nach Krause (2005) als modellbildende Methode auf theoretische Konzepte der Wissensentwicklung anwenden. Es entsteht, wie in Abbildung 3 illustriert, ein Dialog zwischen hermeneutischen Erkenntnissen aus der Literatur und Ergebnissen aus Tests und Daten. Er entwickelt und prüft iterativ, Forschungsfragen, Hypothesen und Gedanken im Hinblick auf die Datenbasis. Er synthetisiert die Erkenntnisse in einem Modell, dem Knowledge Creation Framework. Aus den Tests und Daten Rolle hat Einfluss auf Ergebnisrelevanz Knowledge Creation Framework Grounded Theory Wissensentwicklung kann als ein Prozess von perspective taking und making verstanden werden Wissen ist konstruktivistisch und hat subjektiven Charakter Aus der Literatur Abb. 3. Forschungsvorgehen Die Arbeit fordert mit Hilfe der Kontrainduktion, als ein Hilfsmittel der Grounded Theory, die Praxiserfahrungen und Theorien des Wissensmanagement der letzten Jahre aus Sicht einer konstruktivistischen Wissensentwicklung heraus. Für den Dialog zwischen Daten und Theorien werden Ausschnitte der Wissensentwicklung betrachtet. Sie werden auf ihre einzelnen Sinnbausteine zurückgeführt und atomisiert. Ihre Voraussetzungen und Rahmenbedingungen werden expliziert. Im vorliegenden Fall wird der subjektive Charakter von Wissen auf die Repräsentationsform der Rolle reduziert. Dieser Aspekt lässt sich experimentell mit der zur Verfügung stehenden Technologie testen. Es ist es nicht Ziel der Arbeit, das Modell der Wissensentwicklung als Ganzes zu testen. Eine isolierte, experimentelle Verifikation eines Modells der Wissensentwicklung erscheint aufgrund seiner Komplexität nicht möglich. Das Modell soll vielmehr aus der Diskussion und Tests im Diskurs der Grounded Theory vorgeschlagen werden. Es dient der Verknüpfung und Illustration der identifizierten Zusammenhänge. Es postuliert keine zu verifizierende Theorie. Für die weitere, verfeinernde und verifizierende Forschung wären hier statt des Experiments, analog der Linguistik (Alber 2000), Simulationen einsetzbar. Vorteilhaft dabei wäre die Berücksichtigung von Lernprozessen, bei denen selbst Daten für die Simulation erzeugt werden. Dies trüge dem potenziell rekursiven Charakter von Wissen Rechnung. Der Erkenntnisgewinn resultiert aus dem iterativen Dialog zwischen Theorie und Technologietest vor dem Hintergrund von real-betrieblichen Daten und Erfahrungen. Konkret sind dies: • Einbindung in das Forschungsprojekt EPOS (http://www3.dfki.uni-kl.de/epos) für die technologische Basis • Einbindung in die betriebliche Praxis bei Siemens IT Solutions and Services für die Diskussion mit Vertriebsmitarbeitern und Zugang einer realen Datenbasis • Veröffentlichung von Teilergebnissen auf internationalen Konferenzen für die Validierung und Herausforderung der Ansätze in der internationalen Forschungscommunity: o „Knowledge Creation Framework“ auf der WM 2005 (Siebert 2005) o „Increasing Search Quality with the Semantic Desktop in Proposal Management“ (Siebert et al. 2006) auf PAKM in Wien, Österreich Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 32 o Personalized document retrieval in multi-party environments (Siebert et al. 2006a) Nachfolgende Grafik skizziert den Diskussionsverlauf zwischen Möglichkeiten der Künstlichen Intelligenz und Modellen der Wissenentwicklung hin zu einem Modell der Wissensentwicklung. Organisational (Situation) SIS Angebotsprozess Wissensentwicklung 6 Zusammenfassung 2 1 Wissensintensive Prozesse 8 Andere Prozesse (Intention) 4 10 Grounded Theory Forschungsmethode und Aufbau der Arbeit 5 Dokumente 9 Künstliche Intelligenz Individuell (P2P) 11 Test und Dissertation 2009 12 Ausblick Multi-Agenten Systeme 7 x Knowledge Creation Framework Organisational (KM-System) EPOS Projekt am DFKI Angebotsprozess Rolle Individuell Motivation und Ziel 3 der Arbeit Veröffentlichung KCF, 2005 Aufgaben Semantic Desktop Semantische Technologien PIM Veröffentlichung Test Sem. Desktop, 2006 ...Kapitel Abb. 4. Iterativer Ablauf und Werdegang der Arbeit Exemplarisch wird darin der Dialog anhand von wissensintensiven Prozessen und semantischen Technologien geführt. Die Erkenntnisse münden in einem Modell der Wissensentwicklung (Knowledge Creation Framework). In ihrer chonologischen Verbindung von links nach rechts wird der Dialog als „Gespräch“ zwischen Wissenstheorie und technologischer Praxis vom Allgemeinen ins Konkrete und zurück deutlich. Damit wird im Sinne der Grounded Theory deduktives und induktives Vorgehen kombiniert und eine Modellentwicklung mit Verbindung zur Datenbasis erreicht. Deduktiv werden Hypothesen und Testszenarien aus der allgemeinen Literaturdiskussion für einen Paradigmenwechsel zur subjektiven Wissensentwicklung erarbeitet. Induktiv werden diese aus der Datenbasis bestätigt und verfeinert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 33 5 Forschungsfragen und Aufbau der Arbeit Die Arbeit orientiert sich an Ausgangsfragen. Sie werden über den Dialog in den Zwischenfazits der Kapitel immer wieder verfeinert, justiert oder beantwortet. Sie bleiben aber in ihrem Kerninteresse und der anwendungsnahen Ergebniszielsetzung beständig. Mit dem Fazit der Arbeit werden die Ergebnisse der Diskussion in Bezug zu den Ausgangsfragen gestellt und damit der Beitrag der Arbeit illustriert. Zur durchgängigen Identifikation und Zuordnung der Diskussionsbeiträge werden die Fragen und ihre Verfeinerungen mit F-1 bzw. F-1.1. gekennzeichnet und ihre schlussfolgernden Antworten mit A-1 bzw. A-1.1. Die Fragen entstammen der betrieblichen Praxis und der aktuellen Forschungsdiskussion in den beteiligten Disziplinen. (F-1) Wie kann die semantische Suche die Produktivität in der Wissensentwicklung von wissensintensiven Prozessen steigern ? Der direkte Nutzen des Wissens (auch aus organisatorischer Sicht) entsteht bei der Nutzung des Wissens beim Individuum. Bisherige Prozessunterstützung erfolgt passiv auf Anfrage des Nutzers. Fraglich ist daher, inwieweit der Wissensarbeiter bei der Wissensentwicklung am besten aktiv unterstützt werden kann. Abzuwägen wären dazu die Potentiale der zu untersuchenden Technologien auf ihre Fähigkeit, eine aktive Prozessunterstützung bereitzustellen (F-1.1). Bekannt ist dies in Ansätzen bei durchstrukturierten Prozessen und Workflows. Inwieweit dies für wissensintensive, dynamische und unstrukturierte Prozesse gelingt, wäre abzugrenzen (F-1.2). Schlussfolgernd wäre zu prüfen, welchen Beitrag die Diskussion der grundlegenden Prozesse der Wissensentwicklung auf die Theorien des Wissensmanagements im betrieblichen und betriebswirtschaftlichen Rahmen haben (F-1.3). Die gewonnen Erkenntnisse rühren aus dem skizzierten Forschungsvorgehen der Grounded Theory her. Welchen Einfluss und Beitrag dieser Ansatz für die Erkenntnisse hat, wäre im Rückblick im Sinne einer Methodenkritik zu besprechen (F-1.4) Kapitel 1 hat die betrieblichen und technologischen Problemstellungen als Motivation in wissensintensiven Prozessen aufgezeigt. Kapitel 2 hat mit der Zielsetzung und dem Fokus der Arbeit auf die semantische Suche in der Wissensentwicklung die zu untersuchenden Ansatzpunkte verdeutlicht. Kapitel 14 wird die Schlussfolgerungen und Ergebnisse der Diskussion wieder in den betrieblichen Handlungsrahmen einbetten. Es leitet hieraus Empfehlungen und Ausblicke für die Organisation, Technologie und den Semantic Desktop ab. Es gibt Anregungen, welche Aspekte die weitere Forschungsarbeit vertiefen könnten, und fasst die Gesamtdiskussion überlicksartig zusammen. (F-2) Was sind wissensintensive Prozesse und ihre Besonderheiten ? Aus der Vielzahl an betrieblichen Prozessen werden die wissensintensiven Prozesse betrachtet. Wissen stellt in diesem Umfeld die Kernressource dar. Wissen ist zugleich auch das Produkt und Ergebnis des Prozesses. Offen ist damit, ob ein wissensintensiver Prozess nicht selbst als organisationale Wissensentwicklung verstanden werden kann (F-2.1). Zu klären wäre dabei, was wissensintensive Prozesse von anderen betrieblichen Prozesstypen unterscheidet (F-2.2) und warum dies für bestehende Lösungen und Technologien eine Herausforderung darstellt (F-2.3). Kapitel 6 arbeitet für eine Prozessoptimierung und -unterstützung die Besonderheiten wissensintensiver Prozesse heraus. Dies wird am Beispiel des Angebotsprozesses bei Siemens IT Solutions and Services illustriert und diskutiert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 34 (F-3) Was sind die Charakteristika von Wissen ? Falls wissensintensive Prozesse selbst Wissen entwickeln, sollte zunächst erklärt und definiert werden, was Wissen ist. In allen wissenschaftlichen Disziplinen wird Wissen entwickelt. Eine synoptische und einheitliche Sicht ist derzeit nicht bekannt. Übergreifende Beschreibungen dürften sich in der Wissenschaftstheorie und anhand unterschiedlicher Forschungsmethoden finden lassen. Die Herausforderung dabei besteht in einer Fassung, die dem betrieblich-technologischen Anwendungskontext gerecht wird, jedoch die Perspektiven anderer Wissenschaftsdisziplinen respektiert und einbezieht (F-3.1). Darauf aufbauend wäre zu spezifizieren, mit welchen Besonderheiten von Wissen umzugehen ist (F-3.2). Kapitel 7 gibt daher eine Übersicht zu bekannten Definitionen und Besonderheiten des Wissensbegriffs. Dabei wird besprochen, inwieweit Wissen als Substantiv oder Verb bzw. als Objekt oder Prozess verstanden werden kann. (F-4) Was ist Wissensentwicklung ? Zur Diskussion einer technologischen Unterstützung der Wissensentwicklung müssen dieser Prozess und seine Einflussfaktoren verstanden werden (F-4.1). Dabei wäre zu klären, ob sich bestehende Ansätze der organisationellen Wissensentwicklung und Lerntheorie auf die individuelle Wissensentwicklung übertragen und anwenden lassen (F-4.2). In Summe bleibt fraglich, welchen Beitrag das Verständnis der Wissensentwicklung leisten kann, um den heute hohen Redaktionsaufwand im Umgang mit Wissen zu reduzieren (F-4.3) und mit ihm einen größeren Mehrwert zu erzielen. In Bezug auf die Eigenschaften von Wissen wäre fraglich, wie sich die Vergänglichkeit von Wissen berücksichtigen (F-4.4) lässt und inwieweit ein konstruktivistisches Verständnis von Wissen für die Wissensentwicklung hilfreich ist (F-4.5). Dabei wäre zu untersuchen, inwieweit Wissensentwicklung zur Lösung des Kontextproblems beitragen kann (F-4.6). Kapitel 8 disktutiert und vergleicht dazu Ansätze verschiedener Disziplinen. Im Rahmen der betriebswirtschaftlichen Sicht werden verschiedene Modelle als Basis für ein Modell der Wissensentwicklung untersucht. Es soll im Diskurs mit anderen Disziplinen um deren Aspekte erweitert werden. Die Kernelemente stehen für die Forschung zu intelligenten Technologien zur Unterstützung und Abbildung zur Verfügung. (F-5) Welche intelligenten Technologien können den Redaktionsaufwand reduzieren und mit welchen Herausforderungen ist dies verbunden ? Die inhaltliche Pflege von technologischen Systemen wird immer Aufwand erfordern. Eine kontinuierliche Produktivitätssteigerung kann erzielt werden, wenn dieser einen höheren Mehrwert stiftet oder für die gleichen Aufgaben sinkt. Der Redaktionsaufwand, ausgedrückt in operativen Kosten, ist damit ein Maßstab für den betrieblichen Nutzen von Technologien. Herauszuarbeiten wäre, welche technologischen Ansätzen und Verfahren mit den Charakteristika von Wissen am besten umgehen können (F-5.1.1-5.1.3). Sie sollten Antwort geben auf die Frage, warum hierdurch eine Verbesserung zu bestehenden Ansätzen, wie Metadaten, erzielt werden soll (F-5.2) und warum bisherige Ansätze dies nicht schon eingesetzt haben (F-5.3). Nachdem bereits Applikationen bestehen, um den Nutzer in wissensintensiven Prozessen zu unterstützen, wäre zu klären, wie sich der Semantic Desktop hier einfügt und was ihn von diesen unterscheidet (F-5.4). Kapitel 9 strukturiert Verfahren der Künstlichen Intelligenz nach den wesentlichen Einflussfaktoren aus der Diskussion von Wissen und Wissensentwicklung. Es beschreibt examplarisch Verfahren, um deren Wirkungsweise zu verdeutlichen und zu verstehen. Kapitel 10 bietet mit drei wesentlichen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 35 Applikationen einen betrieblichen Rahmen für die Einordnung semantischer Technologien, die in dieser Arbeit explizit betrachtet werden. (F-6) Ist die semantische Suche des Semantic Desktops leistungsfähiger und intelligent er als bestehende Suchen im Spektrum des Information Retrievals ? Im Fokus der Diskussion steht der Beitrag von semantischen Suchtechnologien für die Fragestellungen. Bestehende Suchverfahren weisen Probleme in der Bestimmung und Verbesserung der Ergebnisrelevanz auf. Ursächlich ist Unkenntnis oder Nicht-Verfügbarkeit des Informationsbedürfnisses eines Nutzers. Unklar sind auch seine subjektive Einschätzung der Relevanz und das fehlende Allgemein- und Hintergrundverständnis. Zu diskutieren wäre, welche dieser spezifischen Probleme durch eine semantische Suche verbessert werden können (F-6.1). Der Semantic Desktop kombiniert einige Technologien für den Praxiseinsatz. Darzustellen wäre, welche Kombination er verwendet (F-6.2) und inwieweit mögliche Erfolge aus der reinen Technologie oder aus der Vernetzung bestehender Technologien resultieren (F-6.3). Zu untersuchen wäre, inwieweit diese nicht nur unter Laborbedingungen, sondern auch unter Praxisbedingungen erfolgreich ist (F-6.4). Kapitel 11 stellt dazu das Konzept des Semantic Desktops vor und ordnet es in die strukturierte Landschaft der KI-Technologien ein. Anhand von Praxisdaten und in der Systemumgebung von Siemens IT Solutions and Services werden die Suchergebnisse mit den Beobachtungen aus dem Entwicklungslabor verglichen. Mit Hilfe von Szenarien auf Basis unterschiedlicher semantischer Konzepte und Datenbasis werden Praxissituationen simuliert, um den Einfluss der Rolle nachzuweisen. Mit Hilfe statistischer Signifikanzanalysen wird die Datenbasis auf ihre Aussagekraft hin geprüft. (F-7) Welchen Beitrag leistet die semantische Suche im Rahmen der Wissensentwicklung und wo liegen die Grenzen bzw. Entwicklungsmöglichkeiten der Technologie ? Die semantische Suche deckt ein bestimmtes Wirkungs- und Leistungsspektrum ab. Sollte sie sich als performant und einsatzfähig erweisen, wäre der Beitrag dieser Technologie im Spektrum der Wissensentwicklung abzustecken. Es stellt sich die Frage, welche Teilprozesse sich mit ihr automatisieren lassen (F-7.1) und wie sich dies auf die Diskussionsbereiche (Wissensentwicklung, wissensintensive Prozesse, Semantic Desktop und Semantic Web) auswirkt. Interessant wären dabei die Aspekte • des Redaktionsaufwands in induktiven und deduktiven Vorgehen (F-7.2), • der Übertragbarkeit auf andere wissensintensive Prozesse (F-7.3), • der spezifischen Weiterentwicklungsmöglichkeiten aus dem Spektrum der Künstlichen Intelligenz (F-7.4), • der generellen Entwicklungsoptionen im Rahmen der aktuellen Technologieentwicklungen im Semantic Web und Web 2.0 (F-7.5). In Summe wäre zu klären, wie sich semantische Technologien und die Theorie der Wissensentwicklung in Bezug auf wissensintensive Prozesse verknüpfen lassen (F-7.6). Jede Technologie bringt Grenzen der Einsatzmöglichkeiten mit sich. Aufzuzeigen wären die technischen und sozialen Voraussetzungen für einen effizienten Einsatz (F-7.7). Kapitel 12 greift die Erkenntnisse und Anforderungen der Wissensentwicklung aus den Kapiteln 7 und 8 auf und fügt diese zu einem Vorgehensmodell zusammen. Anhand dessen kann der Beitrag der semantischen Suche in Kapitel 13 aufgezeigt werden. 36 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 37 6 Wissensintensive Prozesse Im praxisnahen Verständnis von Wissen als Begriff für Wissensobjekte (Knowledge-assets) werden zwei Arten der Wissensentwicklung unterschieden: Unterstützung wissensintensiver Prozesse und der eigentliche wissensintensive Prozess zur Entwicklung von Knowledge-assets oder Wissensprodukten selbst. Letztere bezeichnet Allweyer (1998) auch als Wissenprozesse. Sie unterteilen sich wiederum in operative, klassische Geschäftsprozesse wie Kundenakquisition und in Prozesse, deren Hauptzweck die Verarbeitung von Wissen selbst ist, wie die Aufbereitung von in Projekten angefallenem Wissen. Unterstützung im ersten Fall bedeutet Anwendung von Knowledge-assets, wie Templates, als Supportprozess im Unternehmen. Als Knowledge-assets gelten Angebote, Theorien oder Modelle. Ihre Entwicklung ist ein Kernprozess, wie er bei Professional Service Firms, Consulting und Rechtsanwälten zu finden ist. Technologie ist im ersten Fall als Unterstützung verstanden, während sie im zweiten Fall Teile des Kernprozesses ersetzt und selbst übernimmt. Grundsätzlich lassen sich Prozesse als verbundene Aktivitäten oder regel-basierte Zustände begreifen. Je einzigartiger Prozesse sind, um so schwieriger lassen sie sich im Vorhinein modellieren. Prozesse lassen sich nach Debenham (2000) zum einen nach ihrem Level in der Organisation als „production“ und „emergent“ Prozesse unterscheiden, zum anderen nach ihren technischen Eigenschaften als aktivitäts-, ziel- und wissensorientierte Prozesse unterscheiden. Produktionsworkflows sind vordefinierte Routineprozesse, meist am operativen Ende der Organisation. Emergente workflows sind opportunistisch, einmalige Prozesse, meist auf Managementebene (Debenham 2000). Sie unterscheiden sich nach ihren technischen Eigenschaften in der Festlegung der Zielerreichung und Form der Zerlegung in Teilprozesse und Aktivitäten. Nach Debenham (2000) ist für einen aktivitätsorientierten Prozess das nächste Unter-Ziel bekannt und die nächste Aktivität dient zur Erreichung dieses Ziels. Ein zielorientierter Prozess besitzt eine Wahl in der Tiefengliederung des Prozesses, so dass die nächste Aktivität nicht zwangsweise das Ziel erfüllt. Ggfs. macht diese Unsicherheit einen Planungsagenten nötig, der schon frühzeitig erkennt, um was für einen Prozess es sich handelt. Ein wissensorientierter Prozess kann darüber hinaus die Terminierung mindestens eines Teil-Prozesses nicht gewährleisten, da die Prozessziele selbst vage und veränderlich sind. Er kann mit einer vagen Aussage, wie „zusammen mit ein paar Leuten Alternativen für das Marketing von Zahnbürsten aufzeigen“ umgehen. Solche Prozesse fordern eine Technologie, die mit Unschärfe und Fehlern umgehen kann und fähig ist, die besten nächsten Schritte derart auszuwählen, dass der Wert zwischen Prozesserfolg und Prozesskosten positiv ist. Wissensorientierte Prozesse definieren sich damit über das für die Ausführung der Aktivität notwendige Wissen, wie Planungs- und Entscheidungskomponenten. Wissensintensive Prozesse dagegen beschreiben Prozesse, deren Ergebnis ein Wissensprodukt ist. Damit liegen beide diskriminant zueinander. Wissensintensive Prozesse können, wie in Tabelle 3 in der Struktur nach Debenham (2000) dargestellt, sowohl aktivitäts- als auch wissensorientiert sein. Tabelle 3. Übersicht der Arten wissensintensiver Prozesse Prozessart gering wissensintensiv Wissensintensiv Aktivitätsorientiert RohstoffVerarbeitung Formular ausfüllen Zielorientiert Systemproduktion Entwurf Angebot/ Informationssammlung Wissensorientiert High-Tech Produktion Erstellung einer Value proposition Nach Gronau et al. (2005) zeichnen sich wissensintensive Prozesse durch folgende Eigenschaften aus: Quellen- und Medienvielfalt, Varianz und dynamische Entwicklung der Prozessorganisation, viele Prozessbeteiligte, unterschiedliche Expertise, Einsatz von Kreativität, hoher Innovationsgrad und verfügbarer Entscheidungsspielraum. Für Goesmann (2002) ist ein wissensintensiver Prozesse ein Prozess, „der ein oder mehrere wissensintensive Aktivität(en) enthält“. Im Gegensatz zu Gronau et al. (2005) betrachtet diese im Hinblick auf Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 38 seine geplante workflow-Unterstützung als Routineprozesse mit unterschiedlicher Ausführung. Die Unterschiede in der Ausführung resultieren ihm zufolge aus einem hohen Wissenstransfer zwischen Geschäftsfällen. Für Elst et al. (2003) sind wissensintensive Aktivitäten ihrer Natur nach explorativ, nicht wiederholbar im Detail und zuvor unbekannt und damit keine Routine. Vor diesem Hintergrund haben sie die klassische, statische Workflow-Unterstützung, wie unter anderem von Goesmann untersucht und vorgeschlagen, als weak-workflows weiterentwickelt. Die Angebotserstellung dürfte in die Kategorie der wissensintensiven Prozesse fallen, da sie vom Inhalt her kundenindividuell ist, seine Anforderungen die Ausführung des Prozesses im Wie beeinflussen und von einer Vielzahl unstrukturierter Informationen abhängig ist. Wissensintensive Aktivitäten sind weiterhin schwer zu standardisieren (Preise, Commitment, Aktualität, lokale Formatierung und Formulierung, Landessprache, etc.) (Ekström 2000). Im Gegensatz zu bisherigen Bestellangeboten sind mehr Faktoren variabel als nur Menge, Preis und Konditionen. Heute spielen im Lösungsgeschäft Präferenzen, Liefer- und Informationszeit eine wichtige Rolle (Parunak 1998). Dies macht Lösungs- und Serviceangebote komplex. Sie haben Alternativen abzuwägen, Probleme zu klassifizieren und sind in ihrer Abstraktionshierarchie (Detaillierungslevel) flexibel, ggfs. sogar rekursiv verknüpft. Sie beziehen sich auf sich selbst auf einem anderen Abstraktionslevel. Im Hinblick auf ihre technologische Unterstützung unterscheiden sich aktive und passive Prozessunterstützungen. Heutige Prozessunterstützung ist passiv. Dies führt dazu, dass vorhandene Information nicht gefunden und genutzt wird (Abecker 1999). Aktive Prozessunterstützung beinhaltet, dass ähnliche und verbundene Handlungen oder Content vorgeschlagen werden. Für die Handlung ist eine Planung nötig, die ein Verständnis des vorhandenen Workflows und des nötigen Workflows oder der nächsten Schritte beinhaltet. Dies erhöht die Komplexität und verlangt informationstechnische Spezifikationen im Workflow. Zielorientierte Prozesse lassen sich über weak-workflows (Elst 2003) unterstützen, da diese zwar in ihrer Zielsetzung stabil, aber in der Form der Zielerreichung variabel sind. 6.1 Angebotsprozess der SIS SIS steht vor der Herausforderung, die Erstellung von Angeboten, vor allem von aufwendigen Standardangeboten, zu optimieren. Hierdurch sollen langfristig Angebotsanfragen schneller, aber in gleicher Qualität beantwortet werden und die Angebotserstellung dahingehend unterstützt werden, dass späte Änderungen und Anpassungen im Angebot ohne großen Aufwand durchzuführen sind. Wie Tabelle 4 am Beispiel der SIS zeigt, werden Prozesse meist über dokumentenbasierte zentrale Wissenssysteme (Referenzen, Debriefings, Knowledge-assets) unterstützt. Es wird ergänzt durch ein einheitliches, aktuelles und konsistentes Datenmanagement über CRM-systeme. Das Intranet bietet aktuelle Kontakte und allgemeine Informationen. Die Angebotserstellung selbst wird durch standardisierte Portfolio- und Vertragsbausteine unterstützt. Tabelle 4. Übersicht Angebotsprozess und informationstechnische Unterstützung bei SIS Prozeß Angebotsprojekt aufsetzen Entwicklung der Angebotskomponenten Lieferumfang und Lösungsmodell Information Projektplan, Templates Kundenanforderungen Finanzmodell Lösungsmodelle, Architekturmodelle, Datenblätter zu Lösungsbausteinen Kosten Rechtliche Komponenten Lieferablauf Demos, Prototypen, Referenzen Vertragskomponenten Ablaufpläne Referenzen Tool CRM-Tool Zentrale knowledgebase, lokale Desktops Zentrale knowledgebase, Sales Service (Intranet) Lokale Desktops, Zentrale knowledgebase Angebotskonfigurator Zentrale knowledgebase Sales Service Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen aufbereiten Risiko analysieren Angebot erstellen Angebot verifizieren Freigabe einholen Bewertungskriterien Draft-Angebot Angebot Freigegebenes Angebot 39 Assessment-Tool (XLS) Die Prozesse liegen modelliert in ARIS vor. Jeder Prozessschritt lässt sich als eine Kombination aus Aktivität, Information und Rolle verstehen. Angebotserstellung ist ein komplexer Prozess mit häufiger Interaktion der Beteiligten. Technologische Unterstützung eignet sich daher bei der Zusammenstellung eines ersten Drafts auf Basis verfügbarer und relevanter Informationen im Hinblick auf Kundenanfragen oder Ausschreibungen. Begriffsbasierte, algorithmische und nutzerinduzierte Suchfunktionalitäten sind heute Standard. Untersucht werden soll die Auswirkungen semantischer Suche. Aufgezeigt wird der Prozess und die Potenziale intelligenter Technologien zur Erstellung des ersten Drafts und der Verwendung der Suchergebnisse. Die meisten dieser Schritte können bereits heute auf top-down strukturierte Experten-Datenbanken zurückgreifen, die ihnen allgemein unterstützende Informationen als Methoden, Templates, Kalkulationstools oder Argumentationshilfen zur Verfügung stellen. Meist fehlen relevante Inhalte und Texte, die wiederverwendet werden können (ähnliche Angebote, Preisinformationen, etc.). Diese finden sich über persönliche Netzwerke oder müssen jedes Mal aufs Neue hergeleitet und entwickelt werden. Hierzu werden meist Angebots-Teams eingesetzt. Vertriebler und Proposal Manager sollen daher unterstützt werden, die Ergebnisqualität ihrer Erstanfragen zu steigern, die sie heute über ein Back-office oder Research Center zusammentragen lassen. Dies soll noch einmal an folgendem Beispiel illustriert werden: Kollege Fischer ist Account Manager. Zu seinen Aufgaben gehört die Pflege der Kundenbeziehung, Beantwortung von Anfragen und die Entwicklung von neuen Themen mit dem Kunden. Hr. Fischer war selbst früher bei seinem Kunden beschäftigt und verfügt über ausgezeichnete Kenntnisse der Kundensituation. Er erhält eine Anfrage, inwieweit sein heutiger Arbeitgeber für ein internes Projekt zur IT-Konsolidierung beitragen könnte, und wird um ein Angebot gebeten. Gewöhnlich bittet er ein Angebotsteam, dies zu erarbeiten. Er benötigt im Vorfeld einen ersten Entwurf, um sich hierfür die Ressourcen genehmigen zu lassen. Er möchte sehen, was zu seiner Anfrage (Kunde, Branche, Thema, Größenordnung) existiert und welche Referenzen die Firma in diesem Thema schon vorzuweisen hat. Da die Suchergebnisse im Intranet nur Bruchstücke zu Tage fördern, wenige Anhaltspunkte für weitere Kontakte beinhalten und seine eigenen Dokumente auf seinem Desktop unzureichend für diese Anfrage sind, beauftragt er einen Assistenten mit der Recherche und Erstellung des Entwurfs. Am liebsten würde er auf der Basis eines ähnlichen Dokuments die neuesten Technologien und Preisentwicklungen einarbeiten, um für das nächste Kundengespräch gerüstet zu sein. Das finale Angebot wird im weiteren Verlauf aus der gemeinsamen Diskussion verfeinert und ausgearbeitet. Für die reine Beantwortung und Gesprächsvorbereitung bedarf es nicht nur eines Research-Centers als Assistenten oder mühevoller Eigenrecherche, sondern auch eines dedizierten Angebots-Teams zur Erstellung des Angebots. Der Ersatz des Assistenten oder die bessere Unterstützung in der Erstellung des ersten Entwurfs würden Kosteneinsparungen und eine Fokussierung der Ressourcen (Acc. Mgr. auf den Kunden und Research-Center auf schwierige Fragestellungen) ermöglichen. Neben der Verfügbarkeit und den Lieferkonditionen können im Produktverkauf direkt vorgefertigte Textbausteine zusammengesetzt werden. Im value und solution selling bedarf es einer individuellen Lösung durch Experten im Hinblick auf die Kundenanforderungen und Rahmenbedingungen. Im SIS Angebotsprozesses stellt sich also die Frage, welche Aktivitäten sich realistisch unterstützen oder ersetzen lassen. Im Hinblick auf den zu untersuchenden Semantic Desktop wären folgende Aktivitäten und Leistungen denkbar: 40 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen a) Push-Unterstützung des Verfassens von E-Mails durch aktive Text-, Dokumenten- und Themenvorschläge in Abhängigkeit des Adressaten, Betreffs und Texts. b) Rezeptive Unterstützung beim Erhalten von E-Mails durch Klassifizierung und Sortierung der E-Mails in aktuelle Arbeitsumgebungen und Themen. c) Erstellung von Angebotsbausteinen, wie der Kalkulationen durch Anwendung bestehender Formen auf die aktuellen Daten. d) Ausfüllen des Templates eines Management Summaries durch relevante Informationen aus der Wissensbasis durch ähnliche Angebote, Prozesshilfen oder Marktinformationen. Optionen a) und b) sind technologische Möglichkeiten als Support für einen Kernprozess. Die Optionen c) beschreibt ein Szenario, wo Technologie wissensintensive Prozessschritte auf Content-Ebene ersetzt. Option d) bezieht sich auf die Dokumentenebene. Es repräsentiert das Angebot in Kurzform und kann über ein Template vorstrukturiert werden, um die Storyline grob vorzugeben. d) adressiert über die Relevanzfrage die Subjektivität von Wissen. Technologien erscheinen selbst noch nicht in der Lage, eine solche zu entwickeln. Dies würde ein Textverständnis voraussetzen. 6.2 Erstellung von Management Summaries Management Summaries repräsentieren die Argumentationsstruktur im Sinne einer Story. Sie umfasst das Verständnis der Kundensituation und den dazugehörigen Lösungsvorschlag. Ihre Darstellung und Struktur kann über Vorlagen bis zu einem gewissen Grad vorgegeben werden. Die Inhalte sind spezifisch auf der Basis der Lösungselemente und Informationen einzupassen. Die Argumentationsstruktur repräsentiert damit das Wissen eines Angebots im Sinne einer Perspektive. Die beste Lösung am Markt oder das überzeugendstes Kosten-Nutzen-Verhältnis bezieht sich auf die Anfrage, Kundenund Verkaufssituation oder den Hintergrund der Value proposition. In der praktischen Erstellung finden sich induktive, deduktive und eine Kombination beider (intuitiv) Vorgehensweisen wieder. 1) Asset-basiert (induktiv) Der Asset-basierte Ansatz entwickelt aus vorhandenen, ähnlichen Ergebnissen, wie Management Summaries, Modifikationen. Dabei fügt er Informationsbausteine hinzu und verändert leicht die Argumentationsstruktur im Hinblick auf die Anforderungen. Templates dienen als Qualitätscheck. Dieser Ansatz eignet sich für wiederverwendbare Standardlösungen und wird gern als Startpunkt für komplexe Entwicklungen genommen. Aufgrund vager Zielvorgaben und Strukturen sind große Informationsmengen zu verarbeiten und oft manuell vorzuselektieren. 2) Vorlagen-basiert (deduktiv) Der Vorlagen-basierte Ansatz folgt einem deduktivem Vorgehen, indem er einen vorgegebenen Rahmen und eine Struktur mit Informationen füllt. Dieser Ansatz eignet sich vor allem für neue Themen, zu denen nur eine kleine oder keine Wissensbasis vorliegt. Mit dem Template bietet er eine Entwicklungsrichtung und Darstellungsstruktur. Inhaltliche Einflüsse auf die Argumentationslinie werden wenig unterstützt. 3) Methoden-basiert (intuitiv) Der Methoden-basierte Ansatz unterstützt und fördert ein intuitives Vorgehen, indem er die Kreativität des Wissensarbeiters stärker nutzt und einfließen lässt. Er eignet sich damit vor allem für neue und komplexe Themen. Er bedarf der Transferleistung von Wissen und Anwendung von Methoden aus anderen Zusammenhängen. Im Folgenden wird der Vorlagen-basierte Ansatz verwendet, der ein hinreichendes Maß an organisationaler Struktur vorgibt. Er muss mit einer geringeren Wissensbasis auskommen. Im konstruktivistischen Sinne auf organisationaler Basis hingegen wäre der Asset-basierte Ansatz zu bevorzugen. Dieser bedarf, wie auch der Methoden-basierte Ansatz, eines besseren technologischen Verständnisses Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 41 und technisch höherer Problemlösungsfähigkeiten als der aktuelle Forschungsstand der Künstlichen Intelligenz (vgl. Kap. 9) zu bewältigen angenommen wird. Diese sollen daher zurückgestellt werden. Im Vordergrund des Vorlagen-basierten Ansatzes steht die Frage nach der Informationsrelevanz für die Vorlage. Wenige Informationen liegen im Unternehmen strukturiert vor. Vielmehr finden sich viele Informationen auf lokalen Desktops in individueller Strukturierung. Zentrale Daten sind aus ihrem Anwendungskontext entkoppelt worden, indem sie für die allgemeine Verwendung als Templates abstrahiert wurden oder in unterschiedlichen Rollen entstanden sind. Für strukturierte Informationen liegt die Intelligenz schon in der Struktur, so dass effiziente Systeme ausreichen. Für unstrukturierte Informationen, wenn traditionelle Redaktionssysteme und -prozesse zu aufwendig sind, eignen sind nach Dreyfus und Dreyfus (1986) intelligente Systeme. Folgende Grafik fasst diesen Zusammenhang in eigener Darstellung zusammen: Grad der Informationsstruktur Nutzen Dezentrale Daten/Themen Top-down Zentrale Daten/Themen Bottom-up Intelligente Systeme Effiziente Systeme Time Anfang des Projektes Ende des Projektes Abb. 5. Grad der Datenstruktur in Bezug auf Datenhaltung Fraglich ist also, inwieweit sich unstrukturierte, verfügbare, aber nicht zugängliche Information nutzbar machen lässt und inwieweit diese eine höhere Relevanz für den Anwendungskontext bietet. Für den Umgang mit unstrukturierten Daten und Informationen auf betrieblicher Prozessebene gibt es bereits erste Ansätze. Im Rahmen von Überlegungen zum Organizational Memories (Dengel et al. 2002, Aschoff und van Elst 2001) wird ein Framework for Distributed Organizational Memories und die daraus folgende Unterstützung wissensintensiver, schwach-strukturierter Prozesse erstellt. Hierfür werden Ansätze des Knowledge Engineering, Human Computer Interaction, Information Retrieval und Software development angewendet. Das Projekt FRODO (www.dfki.uni-kl.de/frodo) untersuchte den technologischen Umgang mit nicht immer klar definierten weak-workflows (van Elst et al. 2003) von betriebswirtschaftlichen und administrativen Prozessen. Als Ergebnis beschreibt FRODO eine verteilte Architektur zur Informationsunterstützung in wissensintensiven Prozessen, wie Consulting, Projektdurchführung oder Forschung. Im Folgenden werden Management Summaries stellvertretend für die Erstellung von Angeboten verwendet. Sie repräsentieren die Kernaussagen und Argumentationsstruktur (Storyline) im Sinne des im Angebot gebundenen Wissens. 6.3 Value selling und value proposition Im Produktgeschäft wird meist über den Preis, Leistungsfähigkeit und Rabatte im Sinne einer Bestellung oder technischen Spezifikation verkauft. Die vertriebliche Leistung konzentriert sich auf die Preisverhandlungen (Rabatte, Konditionen, etc.). Mangels Replizierbarkeit von Qualität und Leistung verkaufen sich Dienstleistungen im Unterschied dazu über die Fähigkeit, Probleme des Kunden zu lösen. Diese Lösungskompetenz muss im Verkauf/ Vertrieb über Referenzen, erprobte Vorgehensweisen 42 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen und die Darlegung eines grundlegenden Verständnisses des Kundenproblems bewiesen werden, um das Vertrauen in den Dienstleistungs-Partner aufzubauen und zu entwickeln. Im Vordergrund steht der Mehrwert (value) für den Kunden aus der Partnerschaft. Sie geht über den reinen Mehrwert der technischen Lösung hinaus. Zum Beispiel soll mit dem Verkauf einer Customer-Relationship-Lösung die Reaktionszeit zur Beantwortung von Endkunden-Fragen (value) reduziert werden und nicht nur eine neue Suchfunktionalität (Produktnutzen) verkauft werden. "Value-based selling" bezeichnet diese Verkaufs-Methode (Reilly 2002). Das Angebot entwickelt sich dabei von einer dokumentierten, vertraglichen technischen Spezifikation zu einem eigenständigen Verkaufselement und damit zu einem Kostenblock (Ekström und Björnsson 2000). Es beschreibt den Mehrwert der Dienstleistungs-Partnerschaft auf Basis der Vertriebsstrategie in einer Value proposition, um sich gegenüber dem Wettbewerb mit dem Gesamtangebot zu differenzieren. Aus preislicher Sicht ist dabei das Ziel, die Gesamtkosten über den Produktlebenszyklus zu optimieren und nicht nur die Kosten für die Lösung selbst. Das Management Summary fasst hierin nicht mehr nur die Kernfunktionalitäten der Lösung zusammen, sondern verdeutlicht die eigene Argumentationslinie im Sinne der Value proposition in einer kurzen Übersicht. Eine Value Proposition ist damit, im Sinne einer Perspektive auf die Problemlösung beim Kunden, Ausdruck des Wissens im Angebot. Sie beschreibt die Wettbewerbssituation und Lösungsvorteile im Markt in Abhängigkeit der jeweiligen Kundenbeziehung und Vertriebssituation. Eine Preisstrategie benötigt eine andere Argumentationslinie als eine Qualitäts- und Differenzierungsstrategie. Folgende Tabelle zeigt abstrahiert und annonymisiert in Anlehnung an SIS exemplarisch verschiedene Elemente der Storylines von Management Summaries. Tabelle 5. Mögliche Entwicklung eines neuen Management Summaries (MS) aus bestehenden Management Summaries Klassen Rahmendaten Kunde Branche Kundengröße Opportunity-Größe Kundentyp Strategisch Operativ Sales-Strategie Sales-Taktik Customer situation Trends and issues Gewichtung der Opportunity Treiber Kostenreduzierung Qualitätsverbesserung Kostentransparenz sonstiges (e.g. flex.) Kundenanforderungen Compelling event Business topic/ scenario Cost driver Fields of action Neues MS MS 1 MS2 MS3 Test Banking Großkonzern Groß XXX Industry Großkonzern Groß XXX Utilities Großkonzern Groß XXX Banking Großkonzern Groß A Neukunde Preis Full value chain A Bestandskunde Preis Installed base A Bestandskunde Solution Full value chain A Neukunde Solution Commercial models Price pressure Price pressure Price pressure Price pressure 0,8 0,7 0,1 0,2 0,6 0,2 0,1 0,1 0,1 0,1 Security compliance Keep standard level of qual- Single service provider Flexibility in service pro- ity Harmonize solution vision Global technical standard model Global technical standard Local competitive prices Smooth transition Flexibility in service provision 0,5 0,1 0,1 0,3 Smooth transition Cost reduction Maintaining service levels Compliance with security standards KostenoptimierungsProgramm IT Outsourcing KostenoptimierungsProgramm IT Outsourcing Concentration on core business IT Outsourcing KostenoptimierungsProgramm IT Outsourcing, Outtasking Personalkosten Personalkosten Dezentralität Transition, staff transfer, Transition, Transformation, Service Desk asset management, WAN/ staff transfer, assets, hosting Desktop Support WAN/ LAN LAN of non-SAP Unix support Asset management Lotus Personalkosten Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 43 Poject planning Voice and Video Solution Solution Server consolidation Global Help-Desk Standard workstations Central data center Governance model Pricing Benefits of SBS (in Abhängigkeit der Anforderungs-Gewichtung) Server consolidation Global Help-Desk Standard workstations Central data center operations Governance model (contract management, service delivery, contract commercials, escalation procedures, change control) 10% Savings with initial asset take-over Solution toolset Global Help-Desk Consolidation of operations Standardize technical infrastructure Organisational governance model SIS purchasing power Access to leading edge technologies Individual regional so- Forward pricing lution in terms of as- Benchmarking sets Service measurement Asset transfer Existing relationship Part of Siemens ITIL framework Global solution Whole value chain ISO 9001 Proven expertise and referISO 17799 ences Security, privacy and Similar processes and culquality management tural fit system Guaranteed cost savings HR Practice manageGeographical coverage ment Die graue Markierung zeigt, welche Inhaltselemente sich im Ziel MS wiederfinden sollten, um dem new case und den Kundenanforderungen gerecht zu werden. Dabei sind zwei Szenarien denkbar: 1) Gleiche Kundensituation, unterschiedliche Lösungen Hier sollte MS 3 die höchste Ähnlichkeit aufweisen und durch Elemente aus MS1 (Solution und Portfolio) ergänzt werden. 2) Ungleiche Kundensituationen, gleiches Thema Hier sollte MS 1 die höchste Ähnlichkeit aufweisen und durch Elemente aus MS2 (single service provider with full value chain) und MS3 (bankenspezifische Security issues) ergänzt werden. Die Informationen werden in der Praxis während des Angebotsprozesses im Team zwischen Sales und Proposal Manager ermittelt und zusammengefügt. Für die automatische Abbildung der Szenarien wäre entweder eine aufwendige Explizierung der Meta-Daten in Bezug auf die Kundenanforderung notwendig oder eine ausreichend intelligente Technologie auf Textebene. Im Folgenden soll untersucht werden, welche Bedeutung die unterschiedlichen Rollen in diesem Prozess spielen, um mögliche Ansatzpunkte für die technologische Unterstützung zu finden. 6.4 Bedeutung der Rollen im Prozess Die Erstellung eines Management Summaries ist Teil des SIS Sales Prozesses. Der Vertriebs- oder Customer-Relationship-Prozess gehört neben dem Product-Life-Cycle- und dem Supply-ChainProzess zu den Kernprozessen bei SIS. Das Management Summary ist Ergebnis der Zusammenarbeit zwischen Sales Manager und Proposal Manager. Beide Rollen unterscheiden sich in ihrem Arbeitsstil und Charakter, wie folgende eigene Darstellung in Tabelle 6 zusammenfasst: Tabelle 6. Rollen-Vergleich Sales und Proposal Manager Sales Manager Individueller Arbeitsstil Event-getrieben Auftragseingang-getrieben Wechselnde Rahmenbedingungen Unstrukturierte Ablage Proposal Manager Kollaborativer Arbeitstil Systematisch, organisatorisch Kosten-getrieben („Angebots-Fabrik“) Klarer Auftrag, Arbeitsrahmen Strukturierte Ablage Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 44 Im Folgenden werden die zu betrachtenden Rollen beispielhaft, wie in der Praxis, über ihre Verantwortungen und Aufgaben beschrieben. Erfahrungs- und Kompetenzlevel würden die Relevanz von Informationen einer Rolle noch weiter konkretisieren (Johnson und Johnson 1992). 6.4.1 Rolle Sales Manager Der Sales Manager übersetzt die Kundenbedürfnisse in Serviceangebote unter Berücksichtigung der unternehmerischen Ziele und Strategie. Im Sales-Prozess ist der Sales Manager für Verkaufsstrategie und Marketing verantwortlich. Seine Verantwortlichkeiten sind Definition, Erstellung und Pflege der Angebote, Berücksichtigung der Kundenbedürfnisse sowie organisatorischen Möglichkeiten und Vorgaben. Zu seinen Aufgaben zählen, Kunden Services anzubieten und verkaufen, Kundenbedürfnissen darstellen und vertreten, Möglichkeiten entwickeln und priorisieren, Definition des Angebotswertes, der Verkaufsstrategie und -taktik sowie der Unterscheidungsmerkmale zu Wettbewerbern, Management des Budgets, Pflege der Beziehung, des Kontakts und der Kommunikation mit dem Kunden, Management des Sales-Prozesses entsprechend den Unternehmensrichtlinien. 6.4.2 Rolle Proposal Manager Der Proposal Manager leitet das Angebotsteam und führt das Angebotsprojekt zum erfolgreichen Abschluss. Er koordiniert den Prozess, damit Informationen aus unterschiedlichen Quellen, in geeigneter Form Eingang ins Angebot finden. Seine Verantwortlichkeiten sind Erstellung eines Angebots, mit einer Win-Win-Situation für den Kunden und SIS, Management von Zeit, Budget und Qualität des Angebotsprojekts. Zu seinen Aufgaben zählen Koordination, Führung, Planung und Steuerung des Angebotsprojekts, Erfassung und Validierung von Kundenbedürfnissen, Entwicklung von Angebotsstrategie und Lösungskonzepten, Möglichkeit und Fähigkeit zur Auslieferung und Risiken, Management, Planung, Report, Prognose und Überwachung von Kosten, Ressourcen, Aufgaben und Arbeitspaketen des Angebotsprojekts, Ausarbeitung vertraglicher Vereinbarungen und Verpflichtungen mit allen beteiligten Parteien für das Gesamtprojekt. Dies mündet in unterschiedlichen Arbeitsstilen und Umgang mit Informationen. Es spiegelt sich in ihren Ablagestrukturen wider. Ablagestrukturen sind eine Überlagerung unterschiedlicher Einflussfaktoren, darunter persönliche Präferenzen, Arbeitsstile, etc. Die Untersuchungen vernachlässigen die Persönlichkeit des Mitarbeiters, um zunächst die Wirkung der Rollen zu untersuchen. 6.5 Zwischenfazit Das Kapitel hat den Angebotsprozess bei Siemens IT Solutions and Services am Beispiel zweier Rollen mit der Erstellung eines Management Summaries dargestellt. Es illustriert damit die Besonderheiten wissensintensiver Prozesse. Sie wurden zuvor in ihrer Abgrenzung und Besonderheit eingeführt. In Bezug auf die Forschungsfrage (F-2) ergeben sich Antworten (A-2.1 – A-2.3): Ein wissensintensiver Prozess kann als Wissensentwicklung auf organisationaler (A-2.1) Ebene verstanden werden. Wissensintensive Prozesse können aktivitäts-, ziel- oder wissensorientiert sein. Wissensintensive Prozesse liefern als Ergebnis ein Wissensprodukt. Die Literaturdiskussion bestätigt damit die Vermutungen, dass wissensintensive Prozesse hierüber definiert und selbst als organisationale Wissensentwicklung betrachtet werden können. Sie differenzieren sich in Abhängigkeit ihrer a priori Festlegung von Zielen und Prozesschritten in aktivitäts-, ziel- oder wissensorientierte Typen. Die weiteren Erkenntnisse lassen sich damit auf die Prozesse anwenden. (A-2.2) Wissensintensive Prozesse sind explorativ, nicht im Detail wiederholbar und zuvor unbekannt. Wissensintensive Prozesse unterscheiden sich in ihrer Dynamik und mangelnden Planbarkeit. Sie stellen damit neue Herausforderungen an unterstützende Technologien. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen (A-2.3) 45 Die Herausforderung für unterstützende Technologien liegt in der notwendigen Fähigkeit, Pläne zu erstellen und Entscheidungen im dynamischen Umfeld zu treffen. Die Beschreibung des Angebotsprozesses und die Auseinandersetzung mit Management Summaries illustrieren die unterschiedlichen Herangehensweisen in der Erstellung eines Angebots. Tabelle 7. Einordnung der Erstellung von Management Summaries in die Prozessarten Prozessart Charakteristikum Wissensintensiv Erstellung eines Management Summaries Redaktionsaufwand AktivitätsorienZielorientiert tiert Folgeaktivitäten und Gesamtziel definiert, Ziele sind definiert. Aktivitäts-ziele nur vage erkennbar, Folgeaktivitäten sind offen. Formular Terminplanung ausfüllen Deduktiv Induktiv Detaillierung der Vorlagen (z.B. Template) und Ziele auf verarbeitbare Größen Wissensorientiert Offene Ziele und Aktivitäten Erstellung einer Value proposition Intuitiv Festlegung und Defi- Erfassung und Explinition von Konzepten zierung versteckter und Regeln zur Ziel- Konzepte erreichung Spigelt man die Herangehensweisen an den Prozessarten, lassen sich diese idealtypisch den Prozessarten zuordnen. In ihrer weitesten Ausprägung sind wissensintensiver Prozesse wissensorientiert. In dieser kommen die Eigenschaften wissensintensiver Prozesse (A-2.2) besonders deutlich zum Ausdruck. Technologisch gesehen spezifiziert sich damit die Frage (F-2.3): Inwieweit beeinflusst eine semantische Suche aktivitätsorientierte, deduktive Prozesse und zielorientierte, induktive Prozesse (F2.3.1) ? Deduktive Prozesse dergestalt, dass weniger Informationen über die Zielstruktur vorgegeben werden müssen und damit der Redaktionsaufwand a priori sinkt. Induktiv dergestalt, dass eine höhere Informationsqualität erzielt werden kann, ohne die Regeln zur Zielerreichung detaillierter zu spezifizieren, so dass mit gleichem Redaktionsaufwand mehr erreicht werden kann. Mit Hilfe der ersten beiden ergibt sich auch eine verbesserte Unterstützung wissensorientierter Prozesse. Die Erstellung von value propositions erscheint jedoch nicht ohne zusätzlichen Redaktionsaufwand möglich. Dieser müsste im Vorfeld weitergehende Konzepte, wie Akquisestrategien und Kundenanforderungen, explizieren oder zugänglich machen. Das Mehr an Aufwand bringt zwar auch mehr Wert, jedoch kann hierbei nicht von einer Produktivitätssteigerung ausgegangen werden. Sollte sich der Nutzen für erste beide Prozesse bestätigen, könnte überlegt werden, welche Schritte für die weitere Forschung notwendig wären, um sich intuitiven, wissensorientierten Prozessen zu nähern (F-2.3.2). Welche Technologien sich hier konkret eignen, wird in Kapitel 9 zu (F-5) diskutiert. Eine finale Antwort auf diese Frage wird Kapitel 10 mit der Antwort auf (F-6) vor dem Hintergrund der Leistungsfähigkeit des Semantic Desktop geben. 46 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 47 7 Verständnis von Wissen Ziel des Kapitels ist es, einen Überblick über den aktuellen Stand der Forschung zu den Themen Wissen, Wissensmanagement und Wissensentwicklung zu geben. Auf dieser Basis wird eine für die Arbeit nutzbare Arbeitsdefinition der Begriffe festgelegt. Sie wird im Spiegel bestehender Modelle und im Dialog mit Erklärungsansätzen anderer Disziplinen abgegrenzt und ihre Einflussgrößen, Annahmen, Rahmenbedingungen, Forschungsperspektiven herausgearbeitet. Ein besonderes Augenmerk wird auf die Unterscheidung von individuellem und organisatorischem Wissen gelegt. Es existieren bereits unzählige festsetzende Definitionen von Wissen aus unterschiedlichen Disziplinen. Eine gute Übersicht hierzu geben Kakabadse (2001) und Romhard (1995). Im Sinne von Möhrle und Kellerhals (1992) soll in diesem Kapitel weniger eine neue festsetzende Definition gegeben werden, um einen neuen Begriff einzuführen. Vielmehr soll nach einer kurzen Übersicht eine feststellende Definition als Forschungsgrundlage herausgearbeitet werden, um den Begriff einfacher verständlich zu machen. Auf dieser Basis soll er aus unterschiedlichen Perspektiven als regulierende Definition präzisiert werden (Möhrle und Kellerhals 1992, S. 78). Ein besonderes Augenmerk liegt dabei auf der Untersuchung und Detaillierung der individuellen Perspektive in der Wissensentwicklung. 7.1 Wissen – Begriffliche Abgrenzung als wiederverwendbare Ressource Entwicklungsbedingt sind nach Teich (1996, S. 10) wirtschaftswissenschaftliche Definitionen meist Anleihen in anderen Wissenschaften (Dispositionsbegriffe), und damit meist unvollständig bestimmt. Im Sinne einer intentionalen Definition lässt sich Wissen grob in eine theoretische, weit gefasste und eine angewandte, eng gefasste Definition unterscheiden (Möhrle und Kellerhals 1992, S. 81). Die theoretische Definition orientiert sich an Platons Grundverständnis von Wissen als „justified true belief“ und ihren folgenden philosophischen Interpretationen und Ausprägungen (van der Spek und Spijkervet, 1997, Wiig 1993, Plato 1953). Sie integriert Gefühle als wahrheits- und wertstiftendes Element. In der Betriebswirtschaft wird dieses Verständnis vor allem im personalorientierten Wissensmanagement zugrunde gelegt. Die angewandte Definition orientiert sich an der praktischen Anwendbarkeit und versteht Wissen als anwendbare, organisierte Information und als Handlungspotenzial (Turban 1992, Myers 1996, Woolf 1990, Herbst 2000, S. 11, Boisot 1999). Auch Maturana und Varela bezeichnen Wissen eines kognitiven Systems als die im System gespeicherte Information, um eine bestimmte Handlungsweise zu ermöglichen (Maturana und Varela 1987, S. 29). Eine solche Definition konzentriert sich auf den Umgang und die Handhabung von Informationen. Nonakas (1995) Unterscheidung in implizites und explizites Wissen hat in der Praxis viel Erfolg und hat sich weitestgehend etabliert. Explizites Wissen bezeichnet die Kodifizierung von implizitem Wissen aus Sicht des Wissensgebers. Information bezeichnet diese Kodifizierung aus Sicht des „Wissens“nehmers. Ein Beispiel kann diesen Sachverhalt verdeutlichen: A bittet B, eine reife Tomate zu kaufen. A weiß, was er unter einer reifen Tomate versteht und beschreibt dies B durch Farbe, Form oder Festigkeit und expliziert damit sein Wissen über den Reifegrad einer Tomate. Für B sind die Aussagen Informationen, die er mit seinen Erfahrungen verknüpfen muss, um die passende Tomate auszuwählen. Wissen im Sinne einer Wissensrepräsentation nach Scholl (explizites Wissen) kann in deskriptiv (Was; Know-what) oder prozedural (Wie; Know-how) unterteilt werden (Scholl 1990, S. 109). Diese Unterscheidung vereinfacht das Verständnis zwischen Content und Deployment und im technischen Sinne zwischen Contentmanagement und Wissensmanagement. Für Computer ist damit Wissensrepräsentation im Rechner die Abbildung der Abbildung mit Hilfe von Symbolen, Zeichen, Frames, Scripten, etc. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 48 Jede Repräsentation ist eine gewisse Abstraktion. Damit entsteht für die zu repräsentierende Wirklichkeit eine Komplexität und inhaltliche Reduktion. Deutlich wird dies in der Schwierigkeit einer wirtschaftlichen Bewertung von Wissensobjekten. Missverständnisse treten durch fehlende Differenzierung nach dem Grundverständnis auf (theoretische oder angewandte Definition). Manch einer verwendet „Wissen“ nur für die allgemeine Definition. Im angewandten Fall spricht er von „Information“. Für andere hingegen ist die allgemeine Definition für den betrieblichen Alltag nicht anwendungsnah. Sie unterscheiden zwischen Wissen und Information innerhalb der angewandten Definition je nach Perspektive oder verwenden beide Begriffe weitestgehend synonym. Al-Laham (2003, S. 25) gibt einen guten Überblick über die Vielfalt der Wissensdefinitionen und fasst diese als drei „Zugangswege“ zu Wissen zusammen: a) Wissen als Problemlösungspotential, b) als Verarbeitung von Informationen und als c) Ergebnis von Lernprozessen. Er entspricht mit a) dem theoretischen Ansatz, mit b) dem angewandten Ansatz und weist mit c) auf den Zusammenhang von Wissen als Prozess im Sinne einer Wissensentwicklung hin. Letzteres wird im folgenden Kapitel erörtert. Der Dialog zwischen explizitem und implizitem Wissen konzentriert sich auf die Verfügbarmachung von orts- und zeitunabhängigen Informationen. Dabei entsteht Wissen aus organisatorischer Sicht durch Kommunikation der Wissensarbeiter. Direkt wird dabei nur der Kommunikationsprozess, nicht aber der Prozess der Wissensentwicklung unterstützt. Die Wissensentwicklung im engen Sinne würde erst durch die Aufnahme und Einordnung der kommunizierten Information im Individuum geschehen. Dies kann im Sinne des personalzentrierten Wissensmanagements nur durch die Gestaltung des Umfelds angeregt, aber nicht direkt beeinflusst werden. Im technikorientierten Wissensmanagement wird aus Machbarkeitsgründen gerne auf die explizite Form des Wissens als angewandte Form und damit quasi als qualitative Information verwiesen, da dies technologisch in Form von Dokumenten fassbar ist. Als hilfreiche Strukturierung hat sich dazu in der Praxis die Wissenstreppe, basierend auf North (2005), durchgesetzt, die die Begriffe einfach und verständlich miteinander in Beziehung stellt (North 2005 und Bradford 1999) W e ttb e w e rb s fä h ig k e it K o m p e te n z + E in z ig a rtig k e it H a n d e ln Können W is s e n In fo rm a tio n D a te n Z e ic h e n + ric h tig h a n d e ln + W o lle n +Anw endung + K o n te x t + B e d e u tu n g + S y n ta x Abb. 6. Wissenstreppe nach North Sie verdeutlicht die Kontext- und Situationsabhängkeit als Kerneigenschaft von Wissen im Vergleich zur Information. Als Beispiel: Daten: 100; Information: 100 m Laufstrecke; Wissen: 100 m Laufstrecke sind nicht ausreichend für die gegebene Beschleunigung. Kontext und Situation sind nach der extensionalen Definition von Ziemke (2000) Erfahrungen, Erwartungen, wechselnde Gefühle, Bedenken oder Selbstverständnis. Dabei wird der Begriff über eine Reihe ähnlicher Beispiele abgegrenzt, ohne ihn intensional in eine Begriffshierarchie einzuordnen oder über Eigenschaften zu beschrieben. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 49 Die Künstliche Intelligenz spricht in diesem Zusammenhang von „Situatedness“ oder „Situated Action“ (Ziemke 2000, S. 2 und S. 15). Die Treppe zeigt die zwei Denkrichtungen bottom-up und top-down zur Abgrenzung von Wissen auf: Wissensrepräsentation und Wissenskonstruktion. Die technologische Abbildung und Repräsentation von Wissen versteht damit Wissen, historisch gewachsen, auf Basis der Informationstheorie unter Anreicherung neuerer Erkenntnisse der Neurobiologie, als stabilen Zustand und Informationsobjekt, das sich speichern und benennen lässt. Informationstheoretische Modelle und Technologien setzen auf einem rationalistischen, naturwissenschaftlichen Verständnis auf (Ziemke 2000). Ziel ist es, durch Wissen die Wirklichkeit zu repräsentieren und technologisch abbildbar zu machen. Es ist das aus der Betriebswirtschaft und Technologie bekannte Bild von Wissen. Es eignet sich, um mit dem betrieblichen Prozess aus organisatorischer Sicht der Wissensentwicklung umzugehen. Weniger die Unterscheidung der Wissensprodukte dürfte für die Abgrenzung helfen als vielmehr die Frage nach dem Wert von Wissensprodukten. Wissensprodukte und Wissensdienste unterscheiden sich in ihrer Art der Vermarktung. Der Wert eines solchen lässt sich mangels objektivierbarer Kriterien im Vergleich zu physischen Produkten erst nach Konsum des Produkts oder Nutzung des Services aus dem Bedeutungsgehalt für den Nutzer festlegen. Auch wenn dies nicht direkt der Definition des Begriffes dient, so führt ihre Gemeinsamkeit, der sie hervorbringende wissensintensive Prozess, auf die Frage, ob Wissen per se nicht schon Wissensentwicklung ist. Nachdem neue Erkenntnisse für einen technologisch-betrieblichen Rahmen gefunden werden sollen, ist fraglich, ob Anleihen aus anderen Disziplinen den Verständnisprozess nicht anregen könnten. Damit verbunden ist die Frage, welchen Beitrag ein konstruktivistisches Verständnis von Wissen für die Forschungsfragen leisten kann. Der Wert von Wissen besteht in seiner Wiederverwendung. Wissensobjekte wie Methoden, Analysen oder Prozesse werden in der Praxis als Knowledge-assets oder Wissensbausteine bezeichnet (Ramhorst 2001, Kikawada 2001). Sie werden über einen dedizierten organisatorischen Explizierungsund Reifeprozess erstellt (Lessons learned, Methodenentwicklung, etc.). 7.2 Wissen − Wissensentwicklung und Konstruktion Entsteht Wissen situationsspezifisch und ist Information mit Bedeutung, dann ergibt sich die Bedeutung aus einem Prozess der Interpretation von Informationen. Dabei stellt sich die Frage, woher dieses Wissen kommt und wie es zu Wissen wird. Die Frage ist also die nach dem Speicher und Bewusstsein. Im Speicher werden Wissen oder Informationsbausteine aufbewahrt, um kontextgerecht zusammengesetzt zu werden. Das Bewusstsein verleiht Informationen über den Entwicklungsprozess Bedeutung (Edelmann und Tononi 2002). Nach Edelmann und Tononi ergibt sich Bewusstsein aus einer hinreichenden Unterscheidung einer Vielzahl von Bewusstseinszuständen durch subjektive Entscheidung. Sie bezeichnen die assoziative Verknüpfung dieser Vielzahl von parallelen Bewusstseinszuständen als „re-entry“ (Edelmann und Tononi 2002, S. 117), eine Art Bereitschaftspotenzial. Medizinisch-biologisch ist die Frage nach dem Bewusstsein noch nicht eindeutig zu beantworten (Birbaumer 1997, S. 157). Birbaumer beschreibt Teilaspekte verschiedener Autoren, die es an der Schnittstelle zur linken Hemisphäre des Gehirns oder an bestimmten Synapsentypen dingfest machen und den Geist als physikalische Eigenschaft erscheinen lassen. Sie gehen von Mikrotubulie, dem Interdendritenwasser oder den dendrischen Spins der Neuronen aus. Allerdings lässt sich keine wissenschaftliche Einigung oder abschließende Aussage erkennen. So müssen sich auch die Naturwissenschaften nach Grochowiak (2001) der Diskussion des Konstruktivismus stellen. Sogar die Existenz von realen Gegenständen werden ihm zufolge durch radikale Konstruktivisten in Frage gestellt. Denn spätestens seitdem der Physiker Heisenberg entdeckte, dass die Position von Beobachtern und die Art ihrer Fragen darüber entscheidet, ob es sich bei dem Beo- 50 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen bachteten um ein Teilchen oder eine Welle handelt (Heisenberg’sche Unschärferelation), setzte sich die Erkenntnis durch, dass auch die physische Welt ein Konstrukt ist: „Die Welt ist ein Prozess. Sie ist nicht, sie geschieht!“ Der konstruktive Ansatz versteht Wissen nicht als Ergebnis, sondern damit als (Wissensentwicklungs-)Prozess. Er geht im Radikalen Konstruktivismus sogar so weit, dass die Existenz von Wissen per se in Frage gestellt wird. Wissen entsteht dann immer situationsspezifisch und wird nicht nur als objektives Abbild der Realität wahrgenommen (Pörksen 2001), sondern leitet sich aus der Handlung ab (Ziemke 2001, S. 12 und S. 20). Auch wenn vielleicht die radikalen Ausprägungen sehr weit reichen, mag eine allgemeine, theoretische Grundlage dennoch für die Weiterentwicklung dieser Ansätze, vor allem im Verständnis der Wissensentwicklung auf individueller Ebene hilfreich sein. Mit einem Exkurs in die Grundlagen des Konstruktivismus soll der Hintergrund für eine solche Erörterung vertieft werden. 7.3 Exkurs − Konstruktivismus Ein konstruktivistisches Wissensverständnis hinterfragt das bestehende Paradigma der Wissensverteilung. Ziel des Exkurses ist es, den Konstruktivismus in seinen Ausprägungen abzugrenzen und seine Kern-Charakteristika herauszuarbeiten. Sie sollen Anstöße für das Modell der Wissensentwicklung geben und helfen, den Prozess der Wissensentwicklung auf individueller Ebene abzubilden. Die klassischen Naturwissenschaften beruhen auf dem Gedankenmodell des Realismus. Er steht zunächst im direkten Gegensatz zum Konstruktivismus. Während der Realismus „entdeckt“, „gestaltet“ der Konstruktivismus. Die Rolle des Beobachters differenziert beide Strömungen in eine konstruktivistische Subjektivität und realistische Objektivität (Vierecke 2007). Beide Denkrichtungen lassen sich in verschiedene Teiltheorien unterteilen, die jede für sich versuchen, Schwachstellen in den Grundlagen zu nivellieren (naiver, hypothetischer Realismus; gemäßigter und radikaler Konstruktivismus, etc.). Hierdurch ergeben sich Annäherungen und Überlappungen. Sie können durch die Anwendung auf spezifische Forschungsfragen weiterentwickelt und abgewandelt werden (Empirismus, Positivismus, etc.). Diese werden hier nicht weiter betrachtet. Im Folgenden werden beide Pole des Spektrums in ihren Kernaussagen kurz umrissen und die für die Arbeit relevanten Kernaspekte des Konstruktivismus herausgearbeitet. 7.3.1 Grundlagen und Vertreter des Konstruktivismus Allgemein gesprochen ist der Konstruktivismus ein philosophisch-psychologisches Gedankenmodell und zählt zu den Systemtheorien (Schamanek 1998). Sie untersuchen komplexe dynamische Systeme. Ihre Theorielandschaft entwickelt sich nach wie vor auf neueren Erkenntnissen physiologischer Entdeckungen der Hirnforschung der letzten Jahre und die Vernetzung unterschiedlicher Disziplinen wie Neurobiologie, Kognitionspsychologie, Linguistik und Informatik. Das Modell beruht auf Vorstellungen u.a. von Ernst von Glasersfeld (Entwicklungspsychologe), Heinz von Foerster (Kybernetiker), Humberto R. Maturana (Neurobiologe, Erkenntnistheoretiker), Gerhard Roth (Neurobiologe) und anderen wie Jean Piaget, Francisco J. Varela, Paul Watzlawick, Vico, Immanuel Kant und Maria Montessori (Honegger 2007). Gemäß den philosophischen Grundlagen der Antike (Platon, Sokrates, etc.) in den Themen Wahrheit, Wissen und Wirklichkeit unterschied Vico Anfang des 18. Jahrhunderts zwischen Wahrheit, Wissen und Handeln: „Wissen ist Machen, wahr ist das Gemachte (verum quia factum)“ (Ratzinger 1968). Demnach zählt nur, was die Menschen machen. Von Glasersfeld ersetzt dabei die Wahrheit als Ziel der Überlegungen durch Viabilität oder Anwendbarkeit („funktional fitness“) (Schmidt 1998, v. Glasersfeld 1984, 1991 und 1995). Verwandte Erklärungsmodelle wie der Existenzialismus von Kierkegaard gehen vom Wesen des Menschen als einer anderen Erklärungsperspektive aus (Grochowiak 2001). Im Sinne des Idealismus entsteht beim Konstruktivismus die Wirklichkeit zwar aus den individuellen Ideen und Gedanken, aber die Welt ist mit den Sinnen erfahrbar, was der erkenntnistheoretische Idealismus bestreitet. Für Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 51 ihn kann wahres Wissen nur aus dem Geist und der Vernunft selber kommen. Sie unterscheiden sich demnach in ihren Variationen der zugelassenen Wahrnehmungsform (Roth 1994). Sie bleiben vor dem Forschungshintergrund des Wissens dieser Arbeit unberücksichtigt. Der Konstruktivismus findet sich insgesamt in einer agnostischen Tradition, die entgegen der materialistischen eine Erkenntnis des Wesens der objektiven Wirklichkeit prinzipiell ausschließt (SchmidtSalomon 1997). Über die Zeit entstanden aus diesem philosophisch-theologischen Dialog unterschiedliche Ausprägungen des Konstruktivismus (Steffe und Gale 1995, Prawat 1996 und Heylighen 1993). Sie reichen vom dogmatischen, skeptischen über das relativierende bis hin zum reflexiven Erklärungsmodell in unterschiedlichen Disziplinen. 7.3.2 Der Realismus als Abgrenzung des Konstruktivismus Allen Strömungen des Realismus ist die Akzeptanz einer Wirklichkeit außerhalb des Bewusstseins gemeinsam. Der Realismus hält die Erfahrung der Dinge der Außenwelt für die einzige Quelle gesicherten Wissens (Roth 1994). Der naive Realismus geht von einer realen Welt aus. Sie ist so beschaffen, wie sie wahrgenommen wird (Vollmer 2002). Leicht einschränkend hält der erkenntnistheoretische Realismus objektives Wissen nur für möglich und geht davon aus, dass die Sachverhalte der bewusstseinsunabhängigen Welt zumindest teilweise so zu erkennen sind, wie sie tatsächlich sind (Roth 1994). Der kritische Realismus akzeptiert zwar die Existenz der realen Welt, gesteht aber zu, dass sie nicht in allen Zügen so beschaffen ist, wie sie uns erscheint (Vollmer 2002). Im hypothetischen Realismus wird die reale Welt nur noch als zu prüfende Hypothese mit der Forderung nach einer Ähnlichkeit unserer Interpretation mit der außersubjektiven Wirklichkeit angenommen (Riedl 2000, S. 36). In der Frage nach der Erkenntnis postuliert der Empirismus, dass alle Erkenntnis der Erfahrung entstammt (Vollmer 2002). Für den Rationalismus und Positivismus existiert ein apriorisches Wissen, das nicht durch Sinneswahrnehmungen erklärt werden muss. Die absolute Wahrheit und Erkenntnis wird mit Hilfe der exakten Naturwissenschaften ohne Theologie oder Metaphysik, aber durch logisches Denken erschlossen, das auf Axiomen beruht. Das klassische Beispiel für diese Art von Denken ist die Logik und Mathematik als spezielle sprachliche Strukturen (Nonaka 1997 und Piaget 1973, S. 15). Nach Müller (2000), der ebenso eine erfahrungsbasierte Auffassung vertrat, können Menschen nur das wissen, was sie für sich selbst erstellt haben, etwa Mathematik, aber nicht Natur. Die vier Grundmerkmale des Positivismus sind: 1. Es existiert nur eine einzige Art von Wirklichkeit 2. Die einzige Erkenntnisquelle ist die sinnliche Erfahrung 3. Das Postulat von der „Einheit der Wissenschaft“ (Es müssen nicht unbedingt verschiedene Methoden der Wissenschaft existieren). 4. Die Ablehnung aller nicht-deskriptiven Aussagen Der Neopositivismus fügte nun zwei Aspekte hinzu 1. Die mathematische Logik als Ordnungsprinzip und als Instrument zur Analyse (weshalb auch vom logischen Positivismus oder logischen Empirismus gesprochen wird). 2. Die Sprachkritik Positivismus wird oft als logischer Empirismus oder logischer Positivismus bezeichnet und damit zu einer Spielart des Rationalismus und Objektivismus (Jonassen 1991). Im Objektivismus haben Objekte eine eigene Bedeutung, Wissen ist eine Reflexion ihrer Beziehung zur Realität. Littlejohn und Foss (1996) bieten in Tabelle 8 eine zusammenfassende Übersicht der Unterschiede beider Denkmodelle: 52 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Tabelle 8. Unterschiede zwischen Objektivismus und Konstruktivismus objektivistische Sicht konstruktivistische Sicht Reality is outside of and independent of human beings Human beings construct what is for them reality, they apply meaning and interpretations Reality can be known as rationally (logically) and Reality is known through a culture's sign, empirically (through senses) stories, conceptual frames Reality exists independently of contexts What constitutes or passes for reality is dependent on context Humans are essentially re-active Humans are pro-active (they adapt and respond to the environment) (they build their own reality) There are structures of knowledge "hard-wired" in the Meaning is a matter of convention, usage human mind and cultural signs One can know "the truth" The "truth" is variable, contextual, constructed Theory can be value-free Theory always reflects the values, imagination and structures of its social context Theory can assist but does not demand social action It necessarily entils social responsibility Die Kernelemente der konstruktivistischen Sicht werden nachfolgend näher betrachtet. 7.3.3 Kernelemente des Konstruktivismus aus der Erkenntnistheorie Im Hinblick auf die Wissens-Forschung kann der Konstruktivismus als Erkenntnistheorie (Epistemologie) bezeichnet werden. Die Erkenntnistheorie setzt sich mit den Voraussetzungen, Prinzipien und Grenzen des Erkennens auseinander. Sie untersucht dabei insbesondere die Verschiebung vom Erkenntnisobjekt zum Erkenntnisprozess (Schmidt 1995 und Glasersfeld 1987). Der Konstruktivismus stellt keinen ontologischen Absolutheitsanspruch, sondern hilft zu differenzieren (Lamnek 1988, S. 77). Ontologie erklärt die Beschaffenheit der Welt, doch wer ontologisch argumentiert, bedient nach Maresch (1998) den Glauben an die Unterscheidung von Denken und Sein und an die Zweiwertigkeit der Logik. Dies wird vom Konstruktivismus relativiert. Epistemologie erklärt die Beschaffenheit unserer Erfahrung von dieser Welt oder nach v. Förster (1993, S.102) ausgedrückt: „Erfahrung ist die Ursache, die Welt ist die Folge, Epistemologie ist die Transformationsregel“. Sie beschreibt nach v. Glasersfeld (1984), wie Menschen Kenntnis von der Wahrheit erlangen und ob diese Kenntnis verlässlich und „wahr“ ist. Er bevorzugt dabei, von Wissenstheorie zu sprechen, um vom Begriff der Erkenntnis zu differenzieren, der eine außerhalb des Individuums liegende, zu erkennende Wirklichkeit suggeriert (Glasersfeld 1996, S. 34). Dass für ein Phänomen unterschiedliche theoretische Erklärungen vorliegen, ist eine bekannte Tatsache (Peschl 2001). Beobachten (Wahrnehmen und Erkennen) ist eine Konstruktion des Beobachters, die uns eher widerfährt, als dass sie bewusst vollzogen wird. Dies geschieht bis zu unserer Beobachtung, wie beobachtet wird. Nach Schmidt (1995) sollte der Konstruktivismus daher als „Theorie der Beobachtung“ (2.Ordnung) bezeichnet werden. Beobachtung lebt von der Unterscheidung und Benennung von Differenzen. Besonders dabei ist, dass das jeweils benutzte Unterscheidungsmerkmal im Beobachtungsprozess nicht zugleich mit der beobachteten Differenz wahrgenommen werden kann. Hieraus könnte sich ein rekursiver Prozess des Bewusstseins erklären lassen (Schmidt 1995). Aus den unterschiedlichen Strömungen ergeben sich hilfreiche Ansatzpunkte für ein Verständnis der Wissensentwicklung, die kurz illustriert werden sollen. 7.3.3.1 Realität und Wirklichkeit im neurobiologischen Konstruktivismus bei Maturana und Roth Aus der neurobiologischen Tradition betrachtet, begründet Roth (1994) den Konstruktivismus, ähnlich wie Maturana (1987), als Erkenntnis eines neuronalen Konstruktionsprozesses. Die dabei erkannte Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 53 Welt ist das Produkt dieser Konstruktionen, also ein Konstrukt des Gehirns. Dem Vorwurf, die Theorie leugne damit ihre eigene Gültigkeit, begegnet Roth mit zwei gedanklichen Brücken. Zum einen ist er nicht bestrebt, ein „absolutes Sein (...), was in der Philosophie als Ontologie gezeichnet wird“ zu erkennen, zum anderen differenziert er zwischen Realität und Wirklichkeit. Wirklichkeit ist für Roth dabei die phänomenale Welt, die Welt der Erscheinungen, die von uns konstruiert ist. Auf sie allein kann sich Wissenschaft beziehen. Realität ist die transphänomenale Welt. Sie ist unerfahrbar und eine rein gedankliche Setzung. Damit grenzt sich Roth, als Neurobiologe, etwas von der Philosophie, als objektivistische, rationale und logisch fundierte Wissenschaft ab. Diese Trennung von Wirklichkeit und Realität wird von verschiedenen Autoren aufgegriffen und aus ihrem Anliegen heraus interpretiert. Bei Watzlawick (1985) ist sie eine hinreichende Erklärung für ein vertiefendes Verständnis von Kommunikation. Für Kant könnte Wirklichkeit das „Ding an sich“ (Gabriel 1993, S. 122f.) sein, welches die Realität hervorbringt, wenn sie sich, wie bei Schopenhauer, als Wille und Vorstellung verhalten. Auch Hegel bedient sich der Unterscheidung von Wirklichkeit und Realität. Er ergänzt das Bewusstsein, welches die Wirklichkeit durch die Gedanken beeinflussen kann (Opielka 2006, S. 373). Es zeigt sich dabei eine Eignung, der rationalen Sicht des per se existent oder nicht existent, die Differenzierungsstufe des Geistes und Bewusstseins hinzuzufügen. Dies könnte Ansatzpunkt für eine Diskussion des subjektiven Charakters auf Basis des individuellen Bewusstseins sein. Es würde kontextspezifische Aussagen wie „unter diesen Umständen“ oder „mit diesem Ziel“ erlauben. 7.3.3.2 Wissen als anwendbare Wirklichkeit im Radikalen Konstruktivismus Wissen wird im Konstruktivismus situationsbezogen konstruiert und nicht nur als objektives Abbild der Realität wahrgenommen (Pörksen 2001). Der Radikale Konstruktivismus bemüht sich in seiner Weiterentwicklung des Konstruktivismus nach Ernst von Glasersfeld (1987 und 1995), den Begriff des Wissens von seiner traditionellen Verknüpfung mit der objektiven Wahrheit zu befreien. Er beschreibt die Entstehung und Konstruktion der Wirklichkeit als ein „Passen“. Sie richtet sich nach der Brauchbarkeit und Anwendbarkeit im „weiteren Fluss unserer Erlebnisse“. Er betont damit eine Kernaussagen des Konstruktivismus, die „Viabilität“, die er nach Ziemke (2000) auf Basis der Arbeiten von Piaget wie folgt zusammenfasst: 1) Knowledge is not passively received 2) Knowledge is actively build up by the cognizing subject 3) Function of cognition is adaptive; tending towards fit or viability 4) Cognition serves the subject's organization of the experimental world, not the discovery of an objective ontological reality Das Radikale an dieser Form ist die Konsequenz und die Betonung, mit der das Verständnis einer konstruierten Welt vertreten wird. Der Radikale Konstruktivismus geht so weit zu sagen, dass Menschen die Welt nie verstehen oder wissen können, da die Welt "konstruiert" wird und dies nur auf der Basis eines eigenen, individuellen Bedeutungsrahmens geschieht (Kenny 1990). 7.3.3.3 Realität als Konsens individueller Wirklichkeiten im sozialen Konstruktivismus Der Konzentration des Radikalen und neurobiologischen Konstruktivismus auf das Individuum und die Negierung einer abschließenden Erfassbarkeit der Realität versucht der soziale Konstruktivismus nach Heylighen (1993, S. 2) zu begegnen. Er postuliert, dass die Realität erklärbar werden kann, wenn durch Kommunikation Subjekte in sozialen Gemeinschaften kommunikativ interagieren und hierüber eine Multi-Welten-Sicht schaffen. Bei Konsens entsteht eine für alle akzeptable Realität, auch wenn diese im Sinne des Radikalen Konstruktivismus nach wie vor nicht objektiv nachgewiesen werden kann, aber so doch in gemeinsamer Abstimmung als solche akzeptiert werden kann. Dieser Ansatz ließe sich auf Wissen übertragen, wenn von organisationalem und verbreitetem Wissen gesprechen wird. Wissen würde dabei, im Sinne einer geteilten, für wahr gehaltenen, Realität durch Konsensbildung immer wieder neu erfunden werden. Maturana und Varela (1987) bezeichnen diese Konsensbildung als koordinierte Verhaltensweisen zwischen den Systemen oder Ko-Evolution. Ihnen nach koppelt 54 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen sich der autopoietische Organismus strukturell an die Umwelt, um die „zirkuläre Produktion seiner Komponenten“ fortzusetzen (Maturana und Varela 1987, S. 210). Deutlich wird der konstruktivistische Charakter von Wissen bei Gochowiak (2001) am Beispiel einer Klient-Therapeut Beziehung. Wissen wird dabei im Sinne einer Problemlösung als gemeinsame Neu-Konstruktion des Problems verstanden. Wichtig ist, dass die Lösung zum gemeinsam geschaffenen neuen Problemverständnis das Ursprungsproblem des Klienten löst. Gemeinsam ist diesen Betrachtungsweisen, dass sie von geschlossenen Systemen ausgehen, die nur durch Kommunikation, nicht aber direkt in Beziehung treten (Schmidt 1995). Weil Menschen, durch Sozialisation, gemeinsame Begriffsbildung und Wahrnehmungsmodelle, offensichtlich sehr ähnlich wahrnehmen, erkennen und ständig miteinander umgehen, ähneln sich die behandelten Gegenstände so hinreichend, dass deren Produziertheit und deren Gebundenheit an selbstständige kognitive Systeme nicht in den Blick gerät. Menschen schaffen es ihm zufolge, als kommunizierende, sprachbegabte Wesen, die „Weltentrennung“ durch „Medien im gemeinsamen Rückgriff auf symbolische Ordnungen der Kultur miteinander zu vermitteln“. Für diese gemeinsamen Ordnungen bedürfte es nach wie vor eines top-down Meta-Rahmens, wie im betrieblichen Umfeld einer Unternehmens-Ontologie. 7.3.4 Kernaussagen Kritik und Schlussfolgerung Die Einordnung des Wissensbegriffs und der Wissensentwicklung vor dem Hintergrund der Erfahrungen in betrieblicher Praxis und Technologie führen zu einer konstruktivistischen Sicht des Begriffs. In Abwägung der unterschiedlichen Modelle finden sich einige interessante Eigenschaften und Ansätze als Arbeits- und Verständnisgrundlage, um sich dem subjektiven Charakter von Wissen zu nähern. 1) Erweiterung der Realität um die subjektive Wirklichkeit Im Sinne eines gemäßigten Konstruktivismus sollen die Ausprägungen des Radikalen Konstruktivismus nur Leitgedanke, aber nicht Verständnisgrundlage sein. Damit wird für die Arbeit eine physikalische Realität, vor allem für die Makro-Ebene einer Organisation anerkannt. Für Betrachtungen der Mikro-Ebene und des Individuums dürfte das Verständnis einer subjektiven Wirklichkeit erkenntnisbringend sein. 2) Viabilität statt ontologischer Realität In diesem Hinblick wird der Anspruch des Konstruktivismus nach einem Anwendungsbezug, und weniger einer ontologischen Realität, als geeignet zugrunde gelegt. 3) Erkenntnis ist ein Einordnen Wieder aus individueller Sicht dürfte das Verständnis des Erkenntnisprozesses für die Wissensentwicklung weniger ein Entdecken der Realität (im Sinne Maturanas und Roths) als vielmehr die Entdeckung ihres Platzes in der Ordnung des Geistes sein (Schnapp 2004). Durch das Einordnen entsteht individuelle Bedeutung in Abhängigkeit der Rolle des Beobachters. Sprache dient uns als Benennung der Differenzen. 4) Sprache als Abbild der Wahrnehmung Nach Wittgenstein sind für Kenny (1989) Denken und Sprache untrennbar miteinander verbunden. Das heißt, wer philosophiert, muss zwangsläufig über Sprache sprechen. Philosophische Probleme zu verstehen, heißt wesentlich, die Funktionsweise der Sprache zu verstehen. Der Kern von Wittgensteins Frühphilosophie besteht in einer Abbildtheorie der Erkenntnis. Sie besagt, dass die Bedeutung eines Wortes in seinem Bezugsgegenstand besteht. Sprache wird benötigt, um die Konzepte und Ideen der Wirklichkeit darzustellen und auszudrücken. Sie dürfen nicht als die Dinge an sich verstanden werden (Gochowiak 2001). Die Repräsentation der Wirklichkeitsmodelle dient zum Austausch im Sinne der Erzeugung eines gemeinsamen Zustandes und Verständnisses. Fraglich ist, ob damit Sprache nicht erst das Abbild der Abbildung ist, sprich die als gemeinsam verstandene Symbolik und Repräsentation der Wirklichkeit als Abbild der Realität. Ontologien sind die sprachliche Struktur für die Beschreibung der Welt und Realität. Für einen konstruktivistischen Umgang wären sie selbst Teil der Wirklichkeit und ständiger Erneuerung ausgesetzt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 55 Auf organisatorischer Makro-Ebene dürfte die Veränderung langsam genug sein, um sie als zeitweise statisch anzunehmen. Auf individueller Mikroebene hingegen unterliegen sie einer hohen Dynamik, die sich nicht a priori festlegen lässt. 5) Nicht nur der Geist darf Erkenntnisquelle sein Die Berücksichtigung der Tatsache, dass die Karte nicht die Gegend ist, von der sie eine Karte ist, kommt leider häufig zu kurz (Gochowiak 2001). Es ist daher wichtig, herauszustellen, dass die Gedanken der Abbildung und Wirklichkeit wiederum Teil der Wirklichkeit sind und sich hieraus ein rekursiver Prozess ergeben kann. Er liefert keine finale Aussage, sondern nur Annäherungen. Dazu ist wichtig, nicht nur den Geist als Erkenntnisquelle zu nutzen, sondern den ganzen Körper und mit ihm seine Wahrnehmungs- und Handlungsmöglichkeiten. 7.4 Zwischenfazit Das Kapitel hat den Wissensbegriff aus unterschiedlichen Disziplinen beleuchtet und die überlappende Eigenschaft der Subjektivität mit Hilfe des Konstruktivismus näher untersucht. Die Diskussion führte zu folgender feststellender Definition als Arbeitsdefinition für diese Arbeit: (A-3.1) Wissen ist ein Zustand subjektiver Wirklichkeit. Wissen lässt sich aus einer theoretischen oder angewandten Sicht definieren. Das theoretische Verständnis von Wissen ist bemüht, alle Perspektiven (philosophische und technische; rationale und emotionale, etc.) zu integrieren. Das angewandte Verständnis ist bemüht, eine einfache und pragmatische Definition im Sinne von kontextspezifischer Information zu nutzen. Gemeinsamkeiten zwischen theoretischem und angewandtem Verständnis zeigen sich aus dem Diskurs über festsetzende Definitionen des Begriffs „Wissen“ in den Punkten Subjektivität (Kontextbezug) und Handlungsbezug (Viabilität und Potenzial zum Handeln). Zu unterscheiden ist die Konstruktion eines Zustands und der andauernden Verfügbarkeit und Festhalten des Zustands. Hilfreich dabei ist die konstruktivistische Differenzierung zwischen Wirklichkeit und Realität. Sie ermöglicht mit Hilfe der maturanischen Ko-evolution (vgl. auch KlientTherapeut-Beispiel) ein vertieftes Verständnis der Entwicklung einer organisationalen Wissensbasis und einer Viabilität aus dem Dialog zwischen Individuen. Wissen als Zustand bedeutet, dass Wissen nicht gleich dem Prozess der Wissensentwicklung sein kann. Je nach Dauer des Zustands kann dieser dem Zustand sehr ähnlich werden. Wissen im angewandten Sinne heißt Wissen als Wissensobjekt oder Knowledge asset zu verstehen. Dabei kann von einer längeren Haltbarkeit ausgegangen werden, jedoch unter Verfall des Nutzens. Die Kontexte des Wissensobjekts verändern sich und es verliert an Wert. Da für den technologischen Umgang mit Wissen bestimmte Zustände festgehalten werden müssen, liegt es nahe, von Wissen als Objekt mit geringer Haltbarkeit und nicht nicht von Wissen als reinem Prozess auszugehen. Der Prozess der Zustandsentstehung wird jedoch verallgemeinert als Wissensentwicklung bezeichnet und genutzt, um ihn immer wieder neu technologisch anzuwenden. Er beschreibt den Prozess zum Aufbau und Festhalten dieses Zustands im Sinne eines wiederkehrenden, explizierbaren Einzelfalls, als rekursive Konstruktion. Der Exkurs des Konstruktivismus konnte dafür wichtige Elemente eines konstruktivistischen Verständnisses herausarbeiten, wenn auch der radikale Konstruktivismus als zu dogmatisch für den aktuellen Anwendungsfall erscheint. Der Exkurs zeigt einige Ansatzpunkte, sich dem subjektiven Charakter von Wissen zu nähern. Der Konstruktivismus stellt der bisherigen organisationellen Makro-Sicht im Sinne einer gegebenen Realität Zugang zu einer individuellen Mikro-Sicht im Sinne einer eigenen und dynamischen Wirklichkeit zur Verfügung. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 56 (A-3.2) Die Eigenschaften von Wissen sind Viabilität, Subjektivität, Vergänglichkeit und rekursive Konstruktion. Obiges Verständnis und feststellende Definition berücksichtigt folgende Charakteristika aus der Diskussion: • Vergänglichkeit und Konstruktion im Sinne eines Verblassens des Wahrheitsgehalts und der Notwendigkeit eines ständigen Wiederaufbaus des Zustands. • Viabilität, im Sinne eines Anwendungsbezugs oder Situationskontexts. • Subjektivität, im Sinne einer individuelle Perspektive mit Intention. Ein Zustand ist vergänglich. Er verblasst. Erst seine Repräsentation und sein Anwendungsbezug (Viabilität) frieren die Zusammenhänge in Sprache ein und verleihen ihm durch die Einordnung in bestehende Wirklichkeitsgebäude Bedeutung. Wissen ist die ständige Re-konstruktion des Zustandes subjektiver Wirklichkeit. Nach außen hin erscheint es als ein festes Gebilde oder Objekt. Mit seiner Vergänglichkeit ist es jedoch in einer ständigen Veränderungen begriffen. Betrachtet man es nur als Objekt, so ist es der leblose Panzer, mit dem umgegangen wird. Der Zustand, das Wissen selbst, hat sich verändert und weiterentwickelt. Die Viabilität kennzeichnet den in der Definition enthaltenen Anwendungsbezug. Als Kontext werden heute schon Situationsbedingungen expliziert und in Workflow-Umgebungen genutzt. Als technologisch neue Herausforderung gilt die Ergänzung dieses Kontexts um die Intention und individuelle Perspektive. Die Subjektivität von Wissen konzentriert das Verständnis der Wissensentwicklung weniger auf die Kommunikation und Informationsübermittlung zwischen Subjekten, sondern vielmehr auf die Einordnung übermittelter Informationen in den subjektiven Erfahrungsrahmen. Wissensentwicklung im vorliegenden Sinne entspricht damit einer individuellen Bedeutungsentwicklung mit eigener Intention. Mit Hilfe der Kommunikation entsteht aber erst eine über das Individuum hinausgehede, gemeinsame Wirklichkeit. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 57 8 Wissensentwicklung – begriffliche Einordnung Der Prozess des ständigen Aufbaus von individuellen Zuständen ist die Wissensentwicklung. Sie wird in diesem Kapitel gegenüber ähnlichen Modellen und Prozessen abgegrenzt und eingeordnet. Fraglich dabei ist, inwieweit ähnliche Begrifflichkeiten nicht besser für die Bezeichnung geeignet wären und inwiefern dieser Begriff für die Arbeit als feststellende Definition genutzt wird. Wissenserwerb: Im Sinne von Probst et al. (1997) soll hierunter der Bezug von meist explizitem Wissen und Informationen wie Marktstudien, Konkurrenzanalysen oder Methoden verstanden werden. Als englische Übersetzung soll der Begriff der „Knowledge creation“ verwendet werden. Aufgrund der praxisorientierten Handhabung und des Verständnisses von Wissensmanagement wird der Begriff in der englischsprachigen Literatur meist schon in einem technologischen Zusammenhang betrachtet (Nonaka und Takeuchi 1995). Der Begriff Wissensgenerierung eignet sich weniger für einen allgemeinen Entstehungsprozesses von Wissen als vielmehr für eine betonte Darstellung von Neuheiten und neuen Wissensobjekten aus innovatorischer, betrieblicher Sicht. Mit Wissensentstehung wird der gleiche Sachverhalt wie mit Wissensentwicklung aus passiver Sicht ausgedrückt. Entstehung geht im Gegensatz zur Entwicklung von einen schlecht beeinflussbaren Prozess aus. Die Übertragung konstruktivistischer Ansätze führte zu technologischen Ansätzen, wie Knowledge Construction von Ostwald (1996) oder Coinstructive Knowledge Analysis of Tasks (CKAT) von Liaw et al. (2007, Liaw und Geeng-Neng 2003). Knowledge construction basiert auf den Schritten Aktivierung, d.h. Explizierung des impliziten Wissens, Kommunikation, d.h. Bildung eines gemeinsamen Verständnisses und Envisioning, d.h. Entwicklung einer Veränderungsvorstellung. Nach Stahl (1993) ist die Explizierung dabei eine temporäre Interpretation. CKAT formuliert die Wissensentwicklung als: knowledge objective; knowledge gathering; knowledge analysis; knowledge construction. Gemeinsam ist ihnen das Grundverständnis von Wissen als Knowledge-asset oder Informationsobjekt. Nach Aschoff und van Elst (2001) ist Knowledge Acquisition der Prozess der Wissensakquisition für Expertensysteme. Fünf Problembereiche zeigen die Schwierigkeiten dieses Ansatzes: Verfügbarkeit von Experten, Bedarf eines „gold standards“ für Wissen, Frage nach der Anzahl der relevanten Wissensdomänen, Isolierung des Mehrwertes einer bestimmten Methode und Quantifizierung des Aufbereitungsaufwands (Shadbolt et al. 1999). Wissensgewinnung suggeriert die Existenz von Wissen per se, das nur geborgen werden muss (im Sinne von Rohstoffen). Dies mag für Knowledge-assets zutreffen, berücksichtigt aber nicht ausreichend die beschriebenen Charakteristika von Wissen im Sinne einer Konstruktion. Wissensentwicklung bezeichnet einen aktiven, technologie-unabhängigen Prozess, der nicht zu einseitig auf den Neuigkeitscharakter abstellt und offen ist für eine individuelle Perspektive. 8.1 Wissensentwicklung – im betriebswirtschaftlichen, organisationalen Rahmen des Wissensmanagements Im Hinblick auf ein tragfähiges Modell für die Wissensentwicklung ist die Frage, inwieweit bestehende und oben beschriebene Modelle als Basis dienen können. Nach Teich (1996, S. 8f.) dient ein Modell grundsätzlich dazu, die Theorie in ein Bild zu bringen, das mit der Wirklichkeit verglichen werden kann. Es fasst den Sachverhalt allgemeingültig zusammen und bildet ein Strukturierungsgerüst. 58 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Die heutige Struktur und das Verständnis von Wissensmanagement (WM) wurde wesentlich durch die Ansätze von Nonaka und Takeuchi (1995 und 1997) und Probst (1997) geprägt. Nonaka und Takeuchi führten das Verständnis von Wissen als implizit und explizit ein. Probst beschrieb die Module des Wissensmanagements. Andere WM-Konzepte wie Rehäuser und Krcmar (1996), Bullinger et al. (1998), Pawlowsky (1994) ergänzen Gedankenelemente, haben sich als Modell aber nicht nachhaltig durchgesetzt. Sie haben nach Rothmann-Reimann (2001) keine weite Verbreitung oder Praxisakzeptanz. Nach Mandel (2001) lässt sich WM in Abbildung 7 vereinfacht als Schnittmenge unterschiedlicher betrieblicher Systeme umreißen. Wissensentwicklung ist ein wesentlicher Bestandteil darin. T e c h n ik O r g a n is a tio n W is s e n s m anagem ent M ensch G e s e lls c h a ft Abb. 7. Komponenten des Wissensmanagements Al-Laham (2003) stellt die verschiedenen Ansätze als einen wissensbasierten Ansatz für das strategische Wissensmanagement in Beziehung. Er erweitert damit die bekannten Strategieansätze des resource-based und market-based views zu einem knowledge-based view. Diesen belegt er durch Anwendung auf Praxisszenarien, wie Akquisitions-, Markteintritts- oder Desinvestitionsstrategien. Der Ansatz „präzisiert (…) die Kausalzusammenhänge zwischen der Ressourcenausstattung einer Unternehmung und entstehenden Wettbewerbsvorteilen“ (Al-Laham 2003, S. 173). Das in Kapitel 7 vorgestellte Wissensverständnis der Arbeit folgt damit seiner Forderung nach einer stärkere Verbindung von Content- und Process-Forschung im strategischen Management. Er charakterisiert Wissen (Al-Laham 2003, S. 172) aus organisatorischer Sicht als nicht-limitierbare, nicht-handelbare und nichtsubstituierbare Ressource. Er bricht mit dem organisationalen Verständnis von Wissen als Objekt und entwickelt es hin zu einem prozessualen Verständnis von Wissen. Zur Umsetzung der Strategien beschreibt er Wege der Wissensakquisition, -ausschöpfung, -transfers und -sicherung und skizziert Auswirkungen auf eine wissens- und lernfördernde Organisationsstruktur. Kakabadse (2001) beschreibt drei grundlegende Modelle des WM, deren Fokus sich im Laufe der Zeit von Wissensbewahrung (Cognitive model of KM) über Wissenserwerb (Network model of KM) zu Wissensentwicklung und -nutzung (Community Model of KM) entwickelte. Nachdem Communities in der Praxis bereits eine etablierte Form des WM sind, ist die Frage, wie sich die technologische Unterstützung dieser otpimieren lässt. Das uneinheitliche Verständnis von Wissen im Alltag beeinflusst das Wissensmanagement negativ im Aufbau einer systematischen Wissensentwicklung. Das Management von Wissen hat daher zunächst die Aufgabe, die konkurrierenden Sichtweisen zu koordinieren, zu balancieren und situationsgerecht einzusetzen. Die Wahrnehmung der Organisation als Organismus im Sinne einer Lernenden Organisation (Herbst 2000) und eines ganzheitlichen, sozio-technischen Systems vereinfachen den Umgang mit zunächst paradoxen und sich scheinbar widersprechenden Zusammenhängen. Im Folgenden werden einzelne Modelle in ihren Kernelementen kurz beschrieben, um die jeweiligen Ansätze und Grundlagen für die Wissensentwicklung zu extrahieren. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 8.1.1 59 Wissensentwicklung im Modell von Probst Das Modell von Probst (1997) überträgt fallstudien-basiert und praxisnah Managementansätze auf die Ressource Wissen. Es gliedert das Management von Wissen in Prozesse wie Wissensdokumentation, Wissensverteilung, Wissensbewahrung und Wissensentwicklung. Diese lassen sich technologisch und soziologisch unterstützen und abbilden. Als Beispiele gelten best-practices-Datenbanken, Bewahrung von Expertenwissen durch Interviews, verteilter Zugriff auf Wissensbanken, abteilungsübergreifende Communities. Wissensverteilung erleichtert das Auffinden des richtigen Wissens und dessen individuelle Anpassung und wirkt primär effizienzsteigernd und damit Kosten senkend. Wissensentwicklung oder -aufbau bezeichnet die Vertiefung des Verständnisses von Prozessen, Produkten, Kunden, etc. In Industrieunternehmen wird die Wissensentwicklung institutionalisiert in speziellen Prozessen wie Softwareentwicklung, Engineeringprozessen und allgemeiner Forschung und Entwicklung betrieben. Handelt es sich um strategisch wichtige und wettbewerbskritische Wissensbereiche, so sollte eigenes Wissen aufgebaut werden, um es zu Kernkompetenzen auszubauen. Organisationales Lernen und Netzwerkprozesse bergen mit ihren virtuellen und flexiblen Strukturen und wegen ihrer Flexibilität und überdurchschnittlichen organisationalen Lernfähigkeit großes Potenzial, Wettbewerbsvorteile zu erzielen (Mueller 1988, S. 58). Die Lernfähigkeit hängt nach Nelson und Winter (1982, S. 171f., 247ff.) entscheidend von den Erfahrungen der Unternehmung, ihren Such- und Problemlösungsverfahren und ihrer Zugänglichkeit zu Wissensquellen ab. Durch Vergleich zwischen Anforderung und Ist-Situation kommt der Wissensbedarf zum Vorschein. Wissen kann intern entwickelt oder extern aus Datenbanken von Universitäten oder Beratern erworben werden. Als Schlüsselqualifikation steht hier das Scanning des Unternehmensumfeldes im Vordergrund, um rechtzeitig auf Entwicklungen aufmerksam zu werden und geeignete Informationen aufnehmen zu können. Es können dafür spezielle Stellen eingerichtet werden oder über Selektionsmaschinen eine Auswahl aufbereitet werden. Personengebundenes Wissen, wie bei hochqualifizierten Spezialisten kann über Personalberater oder Headhunter vermittelt werden. Explizites Wissen, wie Patente, Lizenzen oder Studien, lässt sich in Unternehmen über Aufkäufe akquirieren. Bei der gezielten strategischen Einbindung von Strategischen Geschäftseinheiten in das Netzwerk ist besonders auf die Integrationsfähigkeit zu achten (Hinterhuber 1992, S. 96). Cohen und Levinthal (1990) bezeichnen diese als absorptive capacity. Erfolgreich ist die Wissensaufnahme nach Scholl (1990, S. 109), je mehr Wissen assimiliert werden kann und je weniger akkomodiert werden muss. Dabei geht es letztlich um die Differenzierung und Integration kognitiver Elemente und mentaler Modelle. Das Modell von Probst vernachlässigt den subjektiven Charakter von Wissen. Verfahren, Strukturen, Informationsquellen, Integrationsformen, Rechte und Rollen spielen eine wichtige Rolle für die Wissensentwicklung. In den meisten Fällen geht es um ein qualifiziertes Informationsmanagement. Information wird aufgrund seiner strategischen Bedeutung im Unternehmen zu Wissen. 8.1.2 Wissensentwicklung bei Nonaka und Takeuchi Für Nonaka und Takeuchi (1995 und 1997) ist, nach ihrem SECI-Modell, die Entwicklung von Wissen ein kontinuierlicher Prozess aus Explikation und Sozialisation. Der Zuwachs an Wissen erzeugt darin eine Spiralbewegung. Sie unterscheiden den Zustand von Wissen als explizit und implizit. Das Modell beschreibt die organisationale Wissensentwicklung als Interaktion zwischen explizitem und implizitem Wissen. Es unterscheidet zwischen rationalem (Kombination) und emotionalem (Sozialisation) Umgang zwischen Individuen. 60 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Abbildung 8 veranschaulicht die Phasen ihres Modells. Dabei gehen sie davon aus, dass implizites Wissen vorliegt, das der Gruppe zugänglich gemacht werden muss, um in der Diskussion geprüft und expliziert zu werden. Durch Verteilung und Kombination an andere Mitarbeiter entsteht ein Wissensnetzwerk, das zur Wissensentwicklung beiträgt (Nonaka und Takeuchi 1995, S. 61f.). Die Entwicklung von explizitem Wissen wird dabei vor allem als Explikation im Sinne eines Diskussionsprozess verstanden. Die Entwicklung von implizitem Wissen kann mit Lernen als Wissensaufnahme beschrieben werden. Implizit Sozialisation Artikulation Explizit Von Nach Internalisierung Kombination Implizit Explizit Abb. 8. Kreislauf der Wissensentwicklung Die Strukturierung von Nonaka und Takeuchi eignet sich in der Praxis besonders für die Bestimmung geeigneter Unterstützungsformen, je nach Form des Wissens. Methoden wie Debriefing für Leaving experts als Artikulation ließen sich technologisch oder personalpolitisch einordnen. Die Strukturierung ist eine erste und gute Basis dafür, Wissensentwicklung auf organisationaler Ebene als zwei Phasen im Sinne einer Explikation und des Lernens zu verstehen. 8.1.3 Wissensentwicklung bei Boisot Das Modell von Boisot (1999) erweiterte zum einen den Prozess der Wissensentwicklung von Nonaka und verankert zum anderen Wissen als betriebliche Ressource im mikroökonomischen Verständnis. Boisot versteht Wissen als „set of expectations“ im Hinblick auf die Handlung des Subjekts. Wissen ist für ihn ein Produktionsfaktor auf der Basis von Daten und Informationen. Damit greift er das Verständnis von Wissen als Ressource im Unternehmen auf und lässt es, mikroökonomisch betrachtet, physischen Faktoren substituieren. Dies ergibt eine Isoquante, eine Produktionsfunktion. Daten und Informationen können zu einer Bewegung auf dieser führen und physische Faktoren ersetzen. Echter Erkenntnisgewinn führt zu einem Isoquantensprung in Richtung des Ursprungs (Boisot 1999, S. 30ff.) und damit zu anderen Substitutionsverhältnissen zu physischen Faktoren. Dieser Sprung lässt sich mit Nonakas Spiralbewegung im SECI-Modell vergleichen. Das Verständnis von Wissen als Ressource führt somit zu einer Wertigkeit von Informationsobjekten im Vergleich zu anderen Faktoren. Es sagt zunächst nichts über die Entwicklung höherwertiger Ressourcen oder Objekte an sich aus. Es ist vielmehr eine Ex-post-Betrachtung. Die Form von Wissen qualifiziert Boisot als Element eines Informationswürfels mit den Eigenschaften Codification, Diffusion und Abstraction. Ähnlich wie bei Nonaka und Takeuchi beschreibt Boisot (1999, S. 60) in Abbildung 9 die Wissensentwicklung als einen Datenfluss in diesem Informationsraum, den Social Learning Cycle (SLC): Scanning, Problem-solving, Abstraction, Diffusion, Absorption und Impacting. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 61 4 5 codified 3 1 Scanning 2 Problem-solving ab st ra 2 ct uncodified 6 co nc re t e 1 undiffused 3 Abstracion 4 Diffusion 5 Absorption 6 Impacting diffused Abb. 9. Boisot’s Social Learning Cycle (SLC) Der SLC beinhaltet mit Scanning und Diffusion Nonakas Elemente Internalisierung und Externalisierung. Beim Versuch, beide Prozesse zur Deckung zu bringen, fällt auf, dass Boisot für die Bereiche Sozialisierung und Kombination zwei Schritte der Verallgemeinerung und Konkretisierung in Form von Abstraktion und Impacting ergänzt. Eine mögliche Erklärung wäre, dass hierin der Übergang und Systemgrenze explizit implizit 4 Externalisierung 5 6 Sozialisierung Kombination 3 bewusst 2 unbewusst Internalisierung explizit 1 implizit 1= Scanning 2= Problem-Solving 3= Abstraction 4= Diffusion 5= Absorption 6= Impacting Boisot: Social Learning Process das Zusammenspiel von bewussten und unbewussten Prozessschritten zum Tragen kommt, wie in eigener Darstellung mit Abbildung 10 verdeutlicht. Abb. 10. Mapping der Modelle von Boisot und Nonaka Aus organisationaler Sicht besteht in keinem der Modelle die Notwendigkeit, diese Unterscheidung näher zu untersuchen. Aus dem Wissensverständnis eines subjektiven Zustandes liegen hierin Ansatzpunkte, die subjektive Wirklichkeit als einen Bewusstseinszustand zu verstehen, der aus bewussten 62 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen (expliziten) und unbewussten (impliziten) Prozessen (Zusammenhänge, Abstraktionen etc) situationsspezifisch entsteht. 8.1.4 Wissensentwicklung im Modell der Siemens AG Die Siemens AG baut ihr Verständnis für den Umgang mit Wissen in Anlehnung an Boisot (1999) und seinem Wissensraum mit den drei Dimensionen Proficiency (Expertise und Leistungsfähigkeit), Diffusion (Verbreitungsgrad) und Codification (Dokumentation) auf. Es umfasst alle systematischen Aktivitäten zur Wissensentwicklung und -verteilung und beschreibt in Abbildung 11 damit die systematische Anpassung von Proficiency, Codification und Diffusion an die Unternehmensziele (HoferAlfeis 2003). World-class expert Collaborative teams Loosly coupled units on Communities of practice Di ffu si Skilled& trained Proficiency Expert Beginner Codification Thinking, mental models, etc. Discussions, reports, notes Structured objects (guidelines, models, etc.) Best practice Abb. 11. Wissensmodell der Siemens AG Bei der Optimierung der Ressource Wissen im Unternehmen erleichtert die Wissensverteilung das Auffinden des richtigen Wissens und dessen individuelle Anpassung. Sie wirkt primär effizienzsteigernd und damit kostensenkend. Wissensentwicklung oder -aufbau bezeichnen die Vertiefung des Verständnisses von Prozessen, Produkten, Kunden, etc. in Form von Proficiency (implizites Wissen) und Codification (explizites Wissen). Letztere zwei decken sich mit den von Hansen et al. (1999) unterschiedenen WM-Strategien: computer-based codification und personalization. Bei Ersterem wird versucht, möglichst viel implizites Wissen zu explizieren und systemtechnisch zugänglich zu machen. Bei Letzterer muss implizites Wissen durch persönlichen Kontakt genutzt werden. Wissensentwicklung wird in Industrieunternehmen als Innovationsprozess verstanden und institutionalisiert in speziellen Prozessen wie Softwareentwicklung, Engineeringprozessen und allgemeiner Forschung und Entwicklung betrieben. Innovation ist der Einsatz von Wissen für neue, noch unbekannte Lösungen und damit viele kleine Prozesse der individuellen Wissensentwicklung (Herbst 2000). Kakabadse (2001, S. 143) beschreibt Innovation als komplexen Design- und Entscheidungsprozess durch Kreation, Verteilung, Anwendung und Nutzung neuer Ideen von Mitarbeitern in einem institutionalisierten Kontext. Dieser Kontext wird im Sinne wissensintensiver Prozesse in Kapitel 0 vertieft. Proficiency (Reifegrad) kann nach wie vor nur über Training und individuelles Lernen abgedeckt werden. Außer der methodischen Unterstützung von Kreativprozessen wird die Wissensentwicklung derzeit nur unzureichend unterstützt. 8.1.5 Zwischenfazit betriebswirtschaftlicher Diskussion Betriebswirtschaftlich betrachtet fällt auf, dass Informationen als anwendbare Ressource ex post an ihrer Bedeutung für das Unternehmen als Wissen qualifiziert werden. Sie können nach Al-Laham (2003) im Sinne eines knowledge-based views Grundlage für ein Strategisches Wissensmanagement Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 63 sein. Aufgrund der Ex-post-Betrachtung lassen sich jedoch für die Wissensentwicklung nur Ansatzpunkte aus der Kommunikation ableiten. Dies soll im Folgenden noch einmal vertieft betrachtet werden. Betriebswirtschaftliche Diskussionen enden mit der Institutionalisierung von unterstützenden Maßnahmen oder Prozessen, lassen aber die Rolle des Individuums bei der Wissensentwicklung sträflich außer Acht. Sie behandeln es eher als eine black box unter dem Label „implizit“ oder personal knowledge und proficiency. Da sich dies meist nicht weiter technologisch unterstützen lässt, enden hier viele Ansätze und verweisen auf personalpolitische, motivatorische Maßnahmen des lebenslangen Lernens und Wissenteilens. Die Untersuchung lerntheoretischer Grundlagen im nächsten Kapitel soll versuchen, hieraus weitere Aspekte zu gewinnen. Für eine aktive technologische Unterstützung wissensintensiver Prozesse scheint sich die Notwendigkeit einer Betrachtung von Wissen a priori aus individueller Perspektive zu bestätigen. 8.2 Wissensentwicklung – eine Frage der Kommunikation Die bisherige Analyse hat die Bedeutung der Kommunikation in der Wissensentwicklung aus organisatorischer Sicht aufgezeigt. Fraglich ist, inwieweit die Kommunikationstheorie Ansätze und Erklärungen zur Vertiefung bereithält. Für Luhmann (1995) können Menschen (psychische Systeme) nicht kommunizieren, nicht einmal ihre Gehirne können kommunizieren, nicht einmal das Bewusstsein kann kommunizieren. Das Bewusstseinssystem operiert autopoietisch, weil es immer wieder Gedanken aus Gedanken erzeugt (selbstreferenziell) und so die Einheit des Systems aufrechterhält, indem es sich selbst aus den ihm inhärenten Komponenten erzeugt (Schmidt 1995, Kneer und Nassehi 1997). Nur die Kommunikation kann kommunizieren (Luhmann 1995). Kommunikation ,,[...] entsteht durch eine Synthese von drei verschiedenen Selektionen − nämlich Selektion einer Information, Selektion der Mitteilung dieser Information und selektives Verstehen oder Missverstehen dieser Mitteilung und ihrer Information (Luhmann 1995). Kognitive Erwartungen und Unterstellungen von bestimmten Verhaltens- und Handlungsmustern bilden nach Schmidt und Feilke (1995, S. 279) die Grundlage von Kommunikation. Für sie wird die Kommunikation von Individuen organisiert. Sie sehen deshalb im Gegensatz zu Luhmann die Kommunikation selbst nicht als ein selbstreferentiell geschlossenes System an. Kommunikation existiert und operiert daher nur auf der materialen Grundlage von Kommunikatoren, Texten und Medien (Schmidt 1996, S. 74). Infolge dieser Interpretationen und der operationalen Geschlossenheit des Gehirns dürfte Kommunikation nach Kneer und Nassehi (1997, S. 81) nicht mehr im Sinne der Übertragung einer Botschaft vom Sender zum Empfänger verstanden werden. Es würden reine Signale, keine Bedeutungen übertragen. Bedeutungen entstünden erst wieder beim Empfänger (Pitasi 2002). Unabhängig davon, ob Kommunikation seinerseits ein System darstellt und ob Systeme offen oder geschlossen sind, weisen alle Autoren darauf hin, dass Kommunikation nicht Teil des Primärsystems ist, sondern einer Fixierung, Explikation von Daten bedarf, die übertragen werden können. Inwieweit hierin bereits Informationen, Mitteilungen und Botschaften enthalten sind, dürfte eine Frage der Radikalität der Systemabgrenzung und damit des Abstraktionsgrades der Datensprache sein. Deutlich wird, dass die Daten beim Empfänger entschlüsselt, verstanden und eingeordnet werden müssen. Dies kann wiederum Anstoß für die Weiterentwicklung des eigenen Systems und damit der Wissensentwicklung, im Sinne eines neuen Zustandes, sein. Wichtig herauszustreichen ist, dass Kommunikation nicht die Wissensentwicklung selbst ist, sondern ggfs. zu ihr beiträgt. 8.3 Wissensentwicklung – lerntheoretische Grundlagen Im Gegensatz zur betriebswirtschaftlichen Auseinandersetzung mit der Wissensentwicklung beschäftigen sich Pädagogik, Medizin und Psychologie schon seit geraumer Zeit mit den Fragestellungen des Lernens aus Sicht des Individuums und aus Sicht des Lehrenden sowie den dabei zugrundeliegenden Gehirnfunktionen. Entsprechend umfangreich ist die Literatur. Im Folgenden sollen die wesentlichen Ausschnitte für die Diskussion der Wissensentwicklung hervorgehoben werden. 64 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen „Lernen ist wie Rudern gegen den Strom. Sobald man aufhört, treibt man zurück“ (Benjamin Britten, Komponist, 1913-1976). Dieser Spruch beschreibt sehr treffend den dynamischen Charakter des Lernens und der Wissensentwicklung. Nach Piaget (1967) wird Entwicklung und Lernen ausgelöst durch das Streben des Individuums, seine Sinneseindrücke auf Grundlage von Schemata zu ordnen, ihnen Bedeutung zu verleihen und ein mentales Gleichgewicht zwischen seiner wahrgenommen Umwelt und seinen kognitiven Strukturen herzustellen. Das Individuum erreicht hierdurch eine Komplexitätsreduktion, die ggfs. im Sinne von Boisot zu einem Erkenntnisgewinn und damit zu einem Isoquantensprung führen kann. Ordnung bezeichnet einen Sachverhalt, in dem Objekte miteinander in Beziehung stehen. Gemachte Ordnung (bewusstes Handeln und Wissensentwicklung) lässt sich von gewachsener Ordnung (spontanes, unbewusstes Handeln und Wissensentwicklung) unterscheiden. Komplexität entsteht durch Verschiedenartigkeit von Systemelementen und ihrer Beziehungen (Kompliziertheit) mit einer Veränderung über die Zeit (Dynamik). Lernen wird vielfach synonym mit der Wissensentwicklung verwendet. Im Folgenden soll untersucht werden, inwieweit eine synonyme Begrifflichkeit gerechtfertigt ist und welche Anleihen aus diesen Disziplinen für die diskutierten Forschungsfragen hilfreich erscheinen. Pädagogisch gesehen, ist nach Hilgard und Bower (1970, S. 16) Lernen der „Vorgang, durch den eine Aktivität im Gefolge von Reaktionen des Organismus auf eine Umweltsituation entsteht oder verändert wird“. Philosophisch betrachtet, ist Lernen die Akquisition von „true belief“ oder Fähigkeiten durch Erfahrung (Routledge Encyclopedia 1998). Biologisch gesehen, ist Lernen und Gedächtnis die Fähigkeit eines Organismus, von früheren Erfahrungen zu profitieren (Goshen-Gottstein 2003). Medizinisch betrachtet, ist Lernen die „Aufnahme von Informationen zum Zweck der Reproduzierbarkeit, Stiften bedingter Reflexe mit dem Ziel einer besseren Einpassung in die materielle und soziale Welt“ (Roche Lexikon Medizin 2003). Birbaumer spezifiziert dies mit den Aussagen, dass neben der genetisch gesteuerten Reifung synaptischer Verbindungen die Ausbildung spezifischer synaptischer Verbindungen unter dem Einfluss früherer Umweltauseinandersetzungen unabdingare Voraussetzung für Lernvorgänge aller Art ist (Birbaumer 1997, S.154). Dem Lernen liegen elektrochemische Vorgänge der Dendriten zugrunde. Auf zelluärer Ebene kommt es zu verstärkter Ausschüttung der Transmitter in den am Lernen beteiligten Neuronen. Übergreifend lassen sich zwei Arten und Ebenen von Lernen in der Literatur erkennen: 1) Lernen als Wissenserwerb und Verständnisbildung 2) Lernen als Verhaltensänderung 8.3.1 Lernen als Wissenserwerb Lernen als Wissenserwerb zielt auf die Speicherung von Informationen und deren Verarbeitung zu Wissen. Es kann nach Birbaumer (1997, S. 157) als der Aufbau und die fortlaufende Modifikation von Wissensrepräsentationen als eine Suche nach Bedeutung definiert werden. Nach Herbst (2000, S. 98) wird es als Erwerb, Änderung oder Bestätigung von kognitiven Strukturen verstanden. Lernen berücksichtigt nach Herbst zum einen das bereits gespeicherte Wissen einer Person; zum anderen Prozesse, die zu Erkenntnissen führen wie Wahrnehmen, Schlussfolgern, Erinnern, Denken, Problemlösen, Entscheiden, etc. (Herbst 2000, S. 98f.) Dabei werden Informationen in bestehende Strukturen integriert oder kognitive Strukturen geändert und zu Gunsten von Neuem aufgegeben. Aebli (1981) unterscheidet drei Prozessschritte beim Lernen als Wissenserwerb: 1. Verknüpfen und wieder Zerlegen 2. Verdichten und wieder Auseinanderfalten 3. Strukturieren und Restrukturieren Dabei sind zwei wichtige Prozesse zu berücksichtigen. Zur Aktivierung von Vorwissen durch Erregungsausbreitung werden vorhandene Wissensstrukturen zugänglich gemacht, Knoten werden geöffnet und das darin enthaltene Wissen aktiviert. Zum anderen erfolgt eine Auseinandersetzung mit neuen Informationen, die Schritt für Schritt mit altem Wissen verknüpft werden und dabei zu neuen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 65 Verknüpfungen entstehen (kausale, temporale, modale, finale Relationen). Nach Birbaumer (1997, S. 154ff.) wird in der Gedächtnisforschung bewusstes deklaratives von nichtbewussten prozeduralem Gedächtnis (Lernen von Fertigkeiten) unterschieden. Beiden Gedächtnisformen liegen unterscheidbare Hirnsysteme zugrunde. Für das Lernen heißt dies, dass es kein passives Aufnehmen und Abspeichern von Informationen und Wahrnehmungen ist, sondern ein aktiver Prozess der Wissenskonstruktion (Herbst 2000, S. 98). Er besteht aus den Bestandteilen Verstehen, Speichern und Abrufen (Birbaumer 1997, S. 157). In letzter Konsequenz bedeutet dies, dass die Vermittlung von Lernstoff oder Wissen im Sinne einer Übertragung nicht möglich ist. Damit referenziert es auf die Erkenntnisse aus der kommunikationswissenschaftlichen Sicht (Kapitel 8.2). Zur Verdeutlichung der Komplexität des Lernprozesses soll folgende Übersicht von Gagné (vgl. in Stangl 1997) dienen. Sie zeigt acht verschiedene Lernprozesse in hierarchischer Form und dem Problemlösen als komplexesten Prozess. Sie macht insbesondere die begrifflichen Abstraktionslevel (Signal vs. Regel) deutlich. Die Diskussion bei Boisot zeigte, sowohl den Schritt der Abstraktion als einen wichtigen Baustein weiterzuverfolgen als auch die Diskussion über Kommunikation, Signale und Daten von Botschaften und Bedeutungen getrennt zu untersuchen. Tabelle 9. Lernarten nach Gagné Lernprozess Beschreibung Vertreter Signallernen Einfaches Pawlow’sches Konditionieren Pawlow, Watson Reiz-Reaktions-Lernen Bildung einer einzelnen Verbindung zwischen Skinner, Thorndike, einem Reiz und einer Reaktion. Hull, Spence Lernen motorischer Ketten Die Verbindung einer Abfolge motorischer Guthrie, Reiz-Reaktions-Verhaltensweisen Skinner Lernen sprachlicher Assoziationen Die Verbindung einer Abfolge verbaler Reiz- Hebb, Bruner Reaktions-Verhaltensweisen. Beispiel: eins, zwei, drei, vier, fünf Lernen multipler Diskrimination Lernen, zwischen hochgradig ähnlichen Reizin- Bruner, puts zu unterscheiden. Das Lemen von Diskri- Hebb minationen ist im Wesentlichen eine Sache der Bildung einer Reihe verschiedener Ketten Begriffslernen Begriffslernen ist das Gegenteil von Diskrimi- Hebb, Bruner, Skinner nationslernen. Es umfasst das Ordnen von Din- und Piaget. gen zu Klassen und das Reagieren auf Klassen als Ganze. Regellernen Erwerb von Wissen, Erwerb von Regeln. Thorndike, Skinner und Bruner, Piaget Regeln sind Begriffsketten oder Kombinationen von Begriffen, die sich aufgrund ihrer Komplexität unterscheiden. Sie sind eine erschlossene Fähigkeit, die das Individuum befähigt, auf eine Klasse von Reizsituationen mit einer Klasse von Leistungen zu reagieren Problemlösen Die Anwendung von Regeln bringt Regeln hö- Bruner, Piaget herer Ordnung hervor. Das ist das unausweichliche Ergebnis der Anwendung von Regeln auf Probleme. Problemlösen als Lernart könnte als Wissensentwicklung verstanden werden und nicht nur als ein Teilprozess, wie bei Boisot beschrieben („Problem-solving“), denn Höhn (1979, S. 93ff.) beschreibt den kreativen, wissensschaffenden Prozess zur Lösung eines Problems als vierstufig: Vorbereitung, Inkubation, Illumination, Verifikation. Er betont dabei den Unterschied zwischen wirklicher Problemlösung durch Kreativität und Beseitigung von Schwierigkeiten durch Anwendung bekannter Prob- 66 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen lemlösung. Die Lösung liegt fest, nur die Nachvollziehbarkeit und Anwendbarkeit fehlen. Das Vorgehen beschreibt das Handwerk des Wissensarbeiters. Kreativität durchbricht diese Regeln und kann zu Innovationen führen. Weitere Autoren stimmen darin überein, dass ein Problem immer in einem bestimmten sozialen und inhaltlichen Kontext gelöst wird (Koriche 1998 oder Maier 2002). Das dabei entstehende Wissen wird damit assoziiert. Um die Problemlösungsstrategie dieser „alten“ Aufgabe auf eine neue mit unterschiedlichem Kontext anzuwenden, müssen die Bedingungen für die Anwendbarkeit und ihre Anwendungsgrenzen bewusst gemacht werden. Der Lernende übernimmt dabei Steuerungs- und Kontrollprozesse (Reinmann-Rothmeier und Mandl 1996). Lernen als Wissenserwerb scheint eine Verknüpfung von Kommunikation und Informationsverarbeitung im System zu sein. Individuelle Wissensentwicklung wäre damit als systemimmanenter Vorgang Teil des Lernprozesses. Die Übersicht der Lernprozesse könnte, unter Trennung der systemimmanenten von den kommunikativen Aspekten, hilfreich sein, die technologischen Möglichkeiten zu testen. Zwar ist die Handhabung und Konditionierung von Computern auf Signalebene inzwischen möglich, aber schon das Begriffslernen ist derzeit nicht hinreichend ausgereift, geschweige denn das selbständige Problemlösen, im Sinne von Entwicklung neuer Regeln aus der Problemlösung. 8.3.2 Lernen als Verhaltensänderung Nach Birnbaumer (1997, S. 157) ist Lernen aus medizinischer Sicht der Erwerb neuer Verhaltensweisen und wird von der Reifung, bei der genetisch programmierte Wachstumsprozesse zu Veränderungen des zentralen Nervensystems führen, unterschieden. Michael und Nowak (1975, S. 200) heben die Differenzierung von der Reifung in ihrer Definition noch einmal hervor: „Mit dem psychologischen Begriff ‚Lernen’ wird jede Verhaltensänderung bezeichnet, die nicht durch Reifung sondern Erfahrung bewirkt wird und länger andauert.“ Lernen ist nach Bergius (1971, S. 9f.) der „Sammelname für Vorgänge, Prozesse oder nicht unmittelbar beobachtbare Veränderungen im Organismus, die durch ‚Erfahrungen’ entstehen und zu Veränderungen des Verhaltens führen“. Vom Lernen abgegrenzt werden biologische und physiologische Vorgänge wie Wachstum, Ermüdung, Altern, Einwirkung von Pharmaka oder Verletzungen, die ebenfalls latente Verhaltensänderungen bewirken. Beide lassen sich auf der Ebene des a) Individuellen oder des b) Organisationalen Lernens diskutieren. Den Prozess des Individuellen Lernens versteht Kim (1993) im Sinne eines single-loop learnings als Kreislauf von Bewerten, Entwerfen, Umsetzen, Beobachten. Den Prozess des organisationalen Lernens versteht Fischer (1991) als Auftauen (verfestigter Denkschemata), Bewegen (mentaler „Realitätskonstruktionen“) und Festigen (neuer geteilter mentaler Modelle). Als eine der Formen, Verhaltensänderungen zu erforschen, gilt der Behaviorismus (Lefrancois 1994). Er untersucht, Kontrolle und Voraussage von Verhalten. Er wurde vom amerikanischen Psychologen John Broadus Watson begründet und entsprechend weiterentwickelt. Er basiert auf der genauen Nachweisbarkeit des Verhaltens, um Verstärkungsmechanismen festlegen zu können. Didaktische Gestaltung und Anreize wie Verstärkung, Strafen oder Feedback sind bekannte Mittel hierfür. Verhalten beruht nach Birbaumer (1997, S.157) dabei schwerpunktmäßig auf prozeduralem, implizitem Wissen und lässt sich über nicht assoziatives Lernen (Habituation und Sensitivierung) beeinflussen. Habituation ist die Form der Anpassung an einen wiederholten, für den Organismus aber als unwichtig erkannten Reiz. Durch Habituation lernen Menschen, Reize zu ignorieren, die keinen Neuigkeitswert oder keine Bedeutung mehr haben, so dass sie ihre Aufmerksamkeit wichtigeren Ereignissen zuwenden können. Habituation ist ungleich der Adaption. Diese bezeichnet die Erhöhung der Reizschwelle eines Sinnesorgans bei kontinuierlicher Reizung. Sensitivierung ist der Lernvorgang, bei der eine Zunahme einer physiologischen Reaktion oder eines Verhaltens auf Reize nach Darbietung eines besonders intensiven Reizes zu beobachten ist. Im Hinblick auf die Wissensentwicklung ist festzuhalten, dass implizites Wissen (das Verhalten) durch die Erfahrung ohne Mitwirkung des Bewusstseins und ohne bewussten Zugriff auf einen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 67 bestimmten Gedächtnisinhalt verändert werden kann. Aus Sicht der Verhaltensänderung lässt sich erkennen, dass ein Aufbrechen, ein Bewegen für eine Änderung notwendig ist. Vermutlich dürfte dies nur ein Teilaspekt der Wissensentwicklung sein, da nicht jede Entwicklung aufbrechen muss, manche kann auch ergänzen oder kombinieren. Darüber hinaus zeigt sich der Aspekt der Längerfristigkeit. Da aber Wissen als Basis für eine Verhaltensänderung gilt, dürfte dieser Aspekt für die weitere Diskussion nicht ins Gewicht fallen. 8.3.3 Lernen als (neuro-)biologische Veränderung Neurobiologische Forschung geht nach Dilger (2006) von der Charakterisierung von Gehirnprozessen aus, dringt aber bei dem Versuch ihrer funktionellen Beschreibung kaum bis zur Erklärung kognitiver Leistungen vor. Danach können Wissensentwicklung und Lernen (im Sinne von Wissensentwicklung und Kommunikation) mit den Veränderungen durch Immunreaktionen assoziiert und beschrieben werden. Wissen entsteht dabei durch Veränderungen des Organismus in Form von Leiterbahnen, Konzentrationen, Rezeptoren oder anderen physischen Merkmalen. Lernen im Immunsystem bedeutet, die Anzahl und die Affinität derjenigen Lymphozyten zu erhöhen, die sich bei einer antigenen Reaktion als nützlich erwiesen haben. Das Immunsystem als Ganzes ist also nicht statisch, es hat vielmehr eine Tendenz, sich von einem zufälligen Anfangszustand aus sich zu einem Repertoire an Mechanismen, die an die aktuelle antigene Umgebung angepasst sind, zu entwickeln. Da aber die Gesamtzahl der Lymphozyten im Körper reguliert ist und nicht beliebig wachsen kann, hat das Anwachsen der Größe eines Klons (als Menge von Lymphozyten verstanden) die Reduzierung eines anderen Klons zur Folge. Die Gesamtzahl der Lymphozyten ist allerdings nicht konstant, sie kann in gewissen Grenzen schwanken. Wenn das Immunsystem nur lernt, indem es die Population spezifischer Lymphozyten vergrößert, dann hat es drei Möglichkeiten zum Ausgleich: Es kann früher gelernte Antigene „vergessen“, es kann wachsen, oder es kann den Teil seines Repertoires gleichmäßig verringern, der zufällig erzeugt wird und für das Erkennen neuer Antigene zuständig ist. Lernen im biologischen Sinne bedeutet eine Veränderung des Mischungsverhältnisses, Anwachsen einer spezifischen Population oder Affinitätssteigerung des antigenen Rezeptors. Diese Erfahrungen werden über lange Zeit in ruhenden Lymphozyten gespeichert oder das System bedient sich einer Auffrischung durch sog. low-grade chronische Infektion, einem Ausgesetztsein ohne akute Infektion. Auch durch Punktmutationen, Löschung kurzer Abschnitte oder Vertauschung der Sequenz als Folge einer Genkonversion verändert sich das System. Wichtig ist, dass es immer zwei gegenläufige Mutations- und Optimierungsprozesse gibt, um ein Steckenbleiben in lokalen Optima zu vermeiden und eine ausreichende Vielfalt zu gewährleisten. Charakteristika für das Lernen und den Umgang mit Wissen, wie Erkennung von Eindringlingen, im Immunsystems sind die Begrenztheit der verfügbaren Objekte (hier Lymphozyten) und die Gesamtbalance zur Vermeidung lokaler Optima. Aus der Übertragung der dargestellten Funktionsweise bei der Erkennung von Eindringlingen auf die Wissensentwicklung wächst die Erkenntnis, dass Wissen durch Mischverhältnisse, also Zustände, repräsentiert werden. Für eine Beschleunigung des Denkens müssten sich Problemlösungen multiplizieren lassen. Wissen entstünde, wo sich die Anzahl ähnlicher Problemlösungen erhöht. 8.4 Wissensentwicklung – psycho-linguistische Sprachproduktion Nachdem Sprache Explikation eines Systems ist und damit Basis für die Kommunikation, soll in diesem Kapitel die Besonderheiten des bewussten Lernens zum Wissenserwerb aus linguistischer Sicht vertieft werden. Der Entstehungsprozess von Sprache könnte Modelle für die Entstehung von Wissen beisteuern, indem er Erkenntnisse der Bedeutungsentwicklung auf die Wissensentwicklung überträgt und Bedeutung als ein Wissensprodukt auf einer anderen Abstraktionsebene begreift. 68 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Die Explikation wird von Linguistikern als wissensbasierter Planungsprozess im Sinne einer Überführung von vorsprachlichen konzeptuellen Repräsentationen in grammatische Repräsentationen mit einer abschließenden lautsprachlichen Realisierung verstanden (Herweg 1992). Der elaborierteste Modellentwurf, der die Resultate einer Vielzahl dieser psycholinguistischen Untersuchungen zu einem Gesamtbild zusammenführt, wurde von Levelt (1989) vorgelegt. Er beschreibt einen dreistufigen Prozess mit einer Konzeptualisierungs-, Formulierungs- und Artikulationskomponente. Sprachproduktionsmodelle unterscheiden für gewöhnlich drei Hauptbereiche der Verarbeitung: einen pragmatischkonzeptuellen, einen syntaktisch-semantisch formulativen und einen sensomotorisch artikulatorischen. Fraglich bei der Sprachproduktion ist, wie die hohe Erzeugungsgeschwindigkeit realisiert wird. In Levels Modell bearbeiten die Komponenten nicht vollständige Strukturen, sondern bearbeiten fragmentarische Eingaben sequentiell, während die Komponenten selbst parallel arbeiten. Sie trennen dabei die semantische Information vom Konzept in eine eigenständige Komponente ab und erlauben einen geringeren Informationsgehalt in der Konzeptualisierungsphase. Dies bewirkt eine Beschleunigung, da nicht alle Informationen in jeder Komponente zur Verfügung stehen müssen. Linguistiker unterscheiden die vorsprachliche Konzeptionsphase (lemma) von der Artikulation (lexeme). Alber (2000) reicht für die Erklärung Wissensentwicklung die sequentielle regelgeleitete Manipulation von Symbolen nicht mehr aus. Auf Basis distributierter subsymbolischer Repräsentationen lassen sich am Beispiel der Adjektivkonstruktion kognitive Prozesse aus einem inneren Konstruktionsprozess ableiten. Die Besonderheit der subsymbolischen Repräsentation besteht darin, dass dasselbe Sprachprodukt in seiner Erscheinung von zwei vollkommen verschiedenen kognitiven Fähigkeiten entwickelt worden sein kann. Dabei können verschiedene Produkte auf dem gleichen Prinzip beruhen. Alber lehnt die Annahme einer Universalgrammatik als „minimalist program“ ab, da sie von einfachen Grundeinheiten der Sprache ausgeht und diese von der symbolischen Theorie ausgeht. Sie orientiert sich an den Erscheinungen und Produkten (Chomsky 1996). Für die technologische Modellbildung ist daher zu überlegen, ob und wie subsymbolische Strukturen abgebildet werden können. Alber nutzt simulative Manipulationen als Mittel zur Hypothesenbildung, was experimentell nicht möglich ist. Das Modell basiert auf der Methode der BindingvektorRepräsentation und nutzt als Interpretationsmethode das Conjunctive-Coding (McClelland und Kawamoto 1986, Fodor und Pylyshyn, 1988). Dabei wird die Rolle von Konzepten anhand von ihren Mikrofeatures bestimmt. Im Gegensatz zu konnektionistischen Modellen ist dies in der Lage, Beziehungen zwischen Konzepten in Form von Strukturen eindeutig darzustellen, und könnte Anregung für semantische Technologien sein. Eine wichtige Rolle für die spätere Kommunikation spielt der „Zustand oder Status“ von Informationsbausteinen (Alber 2000, S. 157). Der Status beruht auf dem (Langzeit-)gedächtnis und modelliert die Dynamik der Informationsverarbeitung im Sprecher (vgl. Bewertung von Information aufgrund der Quelle, Aktualität, damaligem Kontext, etc.). Der temporäre Aufbau von Status und damit einem Verständnis von Zusammenhängen bedarf einer (temporären) Speicherung. Nach Hermann und Grabowski (1994) können die temporären Konzeptualisierungen der psychologischen Theoriebildung als Bewusstsein bezeichnet werden. Demnach wird Wissen nicht in festen Konzeptgedächtnissen gespeichert, sondern als Bedingungen und Regeln zur Wissensentwicklung. Induktiv betrachtet entstehen aus den Bedingungen erste vage Begriffe, Prototypen oder Anker, um die Wissen im Sinne von Konzepten entstehen kann. Deduktiv betrachtet bilden theoretische Vorgaben oder Templates die Anker. Ein Anker ist die Fixierung einer Merkmalsausprägung oder eines -pfades innerhalb eines konzeptuellen Rahmens. Er ist der Übergang von paralleler Informationsverarbeitung in Sequenzen im Hinblick auf die Perspektive. Anker sind damit Konzeptualisierungspunkte. Der um den Anker entstehende Prototyp stellt die Basis dar für die Regulierung des Spezifitätslevels. Auch wenn an dieser Stelle nur die wesentlichen Aspekte herausgegriffen werden konnten, wird deutlich, dass eine weitere Unterteilung der Sprachproduktion bis hin zu subsymbolischen Elementen die Entstehung von Sprache als Artikulation von Konzepten und Informationszuständen ermöglichen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 69 Auch sie gehen von einer konstruktivistischen Form aus und kombinieren sequentielle und parallel Verarbeitungen. Induktiv betrachtet wirken Anker als Kristallisationspunkte für Konzepte. Neue Begriffe entstehen als Hypothesen durch die Verwendung von Begriffen als Anker in leicht veränderte Zusammenhänge und Ähnlichkeiten mit späterer Bestätigung. 8.5 Wissensentwicklung – psychologische Diskussion der Bewusstseinsbildung Für die Eigenschaft des Zustandes von Wissen könnten psychologische Betrachtungen des Bewusstseins Anleihe sein. Eine finale Definition von Bewusstsein scheint es nicht zu geben. Lexikalisch ist damit nach Müller-Koch (2007) die Fähigkeit gemeint, über mentale Zustände, also etwa Gedanken, Emotionen, Wahrnehmungen oder Erinnerungen, zu verfügen und sich deren gewahr zu sein. Die Rolle des Bewusstseins findet sich ebenso in der philosophischen Diskussion des Konstruktivismus. Die biologische Diskussion wird im folgenden Kapitel in stark reduzierter Form geführt. Sie zeigt lediglich die Perspektive auf. Oft wird Bewusstsein als Selbstbewusstsein verstanden und damit als die Fähigkeit, sich seiner selbst gewahr zu werden. Grundlage ist eine gewisse Selbstähnlichkeit der Systeme, eine Redundanz von Informationen und eine selbst-referentielle, zirkuläre Entwicklung (Primio 1998, S. 24ff.). Das heißt nicht nur eine Lösung bereitzustellen, sondern auch die Werkzeuge und Anleitung, diese herzustellen und zu verstehen. Die Forschung unterscheidet zwei Problemstellungen: das Qualiaproblem und das Intentionalitätsproblem. Das Qualiaproblem beschreibt den subjektiven Erlebnisgehalt (Qualia) eines mentalen Zustandes und damit die unklare Verbindung zwischen objektiv messbaren, naturwissenschaftlichen Erkenntnissen des Gehirns und dem Erleben (Peirce 1966 und Lewis 1991). Das Intentionalitätsproblem beschreibt den Bezug des Erlebten und Erlebbaren auf ein Handlungsziel unter einer Intention oder Absicht. Als weiterer Aspekt im Zugang der Erklärung des Bewusstseins wird herausgestellt, dass das Bewusstsein nur durch die eigene Erfahrung und damit durch eine subsymbolische Form zugänglich wird. Diese Zugänge wurden von Spinoza als Intuition und Intellekt differenziert. Fraglich bleibt in diesem Zusammenhang also, inwieweit eine symbolischer Herangehensweise Zugang zur subsymbolischen Ebene erlangt. In einem rationalistisch-naturwissenschaftlichen Gedankengebäude müsste Bewusstsein reduktionistisch erklärbar sein. Auch wenn folgendes Kapitel den Stand der Forschung hierzu kurz darlegen soll, ist dies bisher nicht abschließend möglich. Für die Entwicklung von Wissen auf der Verständnisbasis von Wissen als Zustand können also das Qualiaproblem und sein subsymbolischer, unbewusster Charakter nicht außer Acht gelassen werden. 8.6 Zwischenfazit Das Kapitel hat die Wissensentwicklung und seine Modelle in verschiedenen Disziplinen untersucht und dargestellt. Insbesondere die lerntheoretische Perspektive wurde dabei vertieft, da sie die höchste Ähnlichkeit zum Konzept der kontinuierlichen Zustandsbildung aufwies. (A-4.1) Wissensentwicklung ist ein Prozess der individuellen Bedeutungsbildung im Rahmen eines Lernprozesses. In Anlehnung an die Kommunikationstheorie von Luhmann (1995) wird Wissen beim Empfänger in seinen Erfahrungskontext gestellt. Dieser Vorgang kann im Sinne eines Lernprozesses mit Hilfe der Kommunikation wiederholt werden. Er ist Teil des Lernens, jedoch nicht der Gesamtprozess selbst. Die Wissensentwicklung und der Umgang mit Wissensprodukten wird durch die drei in Abbildung 11 dargestellten Faktoren bestimmt. 70 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Governance Wissensprodukt Schlussrichtung Abstraktionslevel Abb. 12. Einflussfaktoren im Umgang mit Wissensprodukten Die Governance beschreibt den Grad der möglichen Vielfalt an Semantik. Organisatorische Vorgaben schränken diesen auf ein Minimum ein und lassen sich manuell vorgeben. Die Schlussrichtung beschreibt die Art der Wissensentwicklung. Ein Proposal Manager arbeitet deduktiv in vorgegebenen Folderstrukturen. Ein Sales Manager arbeitet induktiv basierend auf vorhandenen Informationen. Ein Dialog zwischen den beiden ist abhängig vom Abstraktionslevel. Abstraktion ist allgemein gesprochen das Weglassen von Einzelheiten. Sie dient der Ordnung durch Klassifizierung. Durch Abstraktion entstehen Gattungen und Klassen. Bei der Suche wirkt Abstraktion auf die Ergebnisrelevanz. Für eine subjektiv hohe Relevanz braucht es ein Mehr an Details. Diese widersprechen aber der Vereinfachung durch Abstraktion. Die Herausforderung der KI ist damit, den aufwendigen Umgang mit Informationsdetails dem Nutzer abzunehmen und sie ihm nur situationsgerecht bereitzustellen. Organisationelle Modelle der Wissensentwicklung beziehen sich ex post auf den (A-4.2) Gebrauchswert von Wissen. Sie können nicht direkt, aber über Abstraktionsebenen auf die individuelle Sicht übertragen werden. Bisherige Modelle der organisationellen Wissensentwicklung grenzen Wissen als relevante Information im Sinne einer Unternehmensressource ab und verstehen Wissen als Objekt im organisationellen Rahmen. Sie beschreiben zwar die Bedeutung des Kontextes, erklären diese jedoch nur unzureichend. Sie gehen auf die Viabilität, den Anwendungsbezug, ein, lassen jedoch seine Vergänglichkeit und Subjektivität weitgehend unberücksichtigt. Ausgehend von den Grundlagen des Learning Cycle von Boisot (siehe Kapitel 8.1.3) und linguistisch-konstruktiven Aspekten aus der Konzeptbildung bei Individuen lassen sich die Besonderheiten des zugrunde gelegten Wissensverständnisses in ein Modell der individuellen Wissensentwicklung (Kapitel 11) integrieren. Individuelle und organisationelle Perspektive können über verschiedene Abstraktionsstufen in einen Dialog oder ein „kommunikatives Spiel“ treten. Dazu werden Wissensobjekte in der Praxis in fünf Abstraktionsebenen gegliedert. Im klassischen Ansatz der Wissensverteilung kodifizieren Dokumente Wissen und repräsentieren auf der Wissenstreppe die Wissensebene. Aus organisationeller Sicht besteht auf Folderebene eine geringe Begriffs-Varianz mit hoher Governance. Folderstrukturen werden zentral vorgegeben und Nomenklaturen für die Bezeichnung von Dokumenten aufgestellt. Erst die darin enthaltenen Informationen und Daten repräsentieren die Vielfalt der Mitarbeiter und Meinungen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 71 Sub-symbolik Organisationelle Perspektive Folder ded ukt iv Semantik Statistik iv ukt ind Gliederung Abstraktionsebenen Dokument Wissensprodukt Inhalt und Text (Information) Daten Individuelle Perspektive Abb. 13. Induktive und deduktive Wissensentwicklung als „Dialog“ zwischen organisationeller und individueller Perspektive Wissensentwicklung erfolgt, wie die eigene Darstellung in Abbildung 12 zeigt, induktiv (bottomup) oder deduktiv (top-down) als Dialog zwischen den Perspektiven. Die meisten schließen naturwissenschaftlich, induktiv aus einer (empirischen) Datenbasis über begriffliche und symbolische Methoden. Deduktives Schließen ist stark durch manuelle, organisatorische Vorgaben geprägt und schließt vom Allgemeinen ins Spezielle. Fraglich ist, ob semantische Verfahren die manuellen Vorgaben dynamisieren können und damit einen neuen Zugang zur Wissensebene ermöglichen. Der Aufwand für manuelle Vorgaben ist in dynamischen Umgebungen immer weniger vertretbar. (A-4.3) Wissensentwicklung zeigt Teilprozesse auf, die mit Hilfe intelligenter Technologien ersetzt oder besser unterstützt werden können. Der Redaktionsaufwand entsteht bei induktiver Wissensentwicklung aus dem Explizierungsbedarf an Konzepten, um die aus Daten abgeleiteten Informationen zusammenzuführen. Bei der deduktiven Wissensentwicklung erwächst der Bedarf zur Explizierung und Detaillierung der Vorgaben und Ziele, um Daten spezifisch und genauer auszuwählen und zu identifizieren. Zur Senkung des Redaktionsaufwands in der induktiven Wissensentwicklung wäre eine aufwandsarme Erhebung von Situationsbedingungen hilfreich, in der deduktiven Wissensentwicklung eine Paketierung und Standardisierung von Zielen und Vorgaben. Kapitel 10 wird mit Hilfe nativer Informationsstrukturen und peer-to-peer-Strukturen im Rahmen des Semantic Desktop Ansätze dazu aufzeigen. Als Lernprozess begegnet Wissensentwicklung der Vergänglichkeit und den explo(A-4.4) rativen Eigenschaften wissensintensiver Prozesse durch ein rekursives Verhalten (Vergänglichkeit). Wissensentwicklung ist als rekursive (basierend auf den Erfahrungen und Zielen) Entwicklung die ständige Konstruktion des individuellen Zustandes. In der induktiven Wissensentwicklung ist dies der Weg zu höheren Abstraktionsebenen. In der deduktiven Wissensentwicklung sind die Zustände explizit und top-down vorgegeben, bedürfen aber einer kontinuierlichen Erneuerung. Zuvor unbekannte, explorative und nicht im Detail wiederholbare Prozesse erfordern jedes Mal eine neue Lösung. Wissen entsteht dabei als Lösung aus dem Prozess. Der Konstruktivismus versteht Wis- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 72 sen per se schon als einen sich ständig neu konstruierenden Zustand. Er bietet damit eine sehr gute philosophische und theoretische Basis zur Untersuchung der Einzelaspekte im Hinblick auf ihre technologische Unterstützung. (A-4.5) Die Psychologie addressiert mit der Bewusstseinsbildung im Rahmen der Bedeutungsbildung die Intention des Subjekts (Subjektivität). Disziplinen, die Lern- und Wissensprozesse beim Individuum untersuchen, wie Psychologie, Linguistik oder Kommunikationstheorie, respektieren die Subjektivität und die Beteiligung des Individuums mit seiner Intention am Prozess. Sie ist Teil der individuellen Bedeutungsbildung und müsste in einer technologischen Abbildung Niederschlag finden. Der subjektive Charakter von Wissen unterteilt sich weiter in einen bewussten, symbolischen Teil des Wissenserwerbs und einen subsymbolischen, unbewussten Teil der Verhaltensänderung, da es sich nicht rein reduktionistisch erklären lässt. Betrieblich herausfordernd ist der Umgang mit implizitem, unbewußtem und subsymbolischem Wissen. (A-4.6) Wissensentwicklung stellt eine Lösung des Kontextproblems durch Umgang mit Subsymbolik in Aussicht (Viabilität). Grundsätzlich mangelt es der Technologie nach Dreyfus (1986) an einem common-senseVerständnis. Es wird über semantische Technologien nur in dem Maße adressiert, wie ihre zugrundeliegenden Ontologien verfügbar sind. Würde es gelingen, dem System eine direkte subsymbolische, system-immanente Kommunikation zu ermöglichen, könnten Teilprozesse nicht nur unterstützt, sondern vollständig abgebildet werden. Der induktive Umgang mit Konzepten wird derzeit auf der Basis von manuell vergebenen MetaDaten genutzt. Die Internet-Gemeinschaft versucht, dem großen manuellen Aufwand durch sog. Crowdsourcing (Howe 2006) zu begegnen. Dabei trägt jeder Teilnehmer einen kleinen Teil zur manuellen Beschreibung bei. In Summe ergibt sich eine wichtige Beschreibungsbasis. Aus betriebswirtschaftlicher Sicht ist dies eine effiziente Methode. Fraglich ist, inwieweit dies auf die Dauer kostentechnisch tragfähig ist. Hierin liegt gleichzeitig der Anreiz, technologische Abhilfe zu schaffen. Eine automatische Erfassung des Kontextes ist ein Beitrag zur Reduktion dieses Redaktionsaufwands. Ein technologischer Umgang mit Subsymbolik würde eine direkte Kommunikation auf Konzeptebene ermöglichen (F-4.4.1). Kapitel 9 wird auf die Diskussion eingehen, wie wie sich subsymbolische Konzepte erfassen und verarbeiten lassen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 73 9 Relevante Methoden und Technologien der Künstlichen Intelligenz für die Wissensentwicklung Im Vordergrund der Überlegungen dieses Kapitels steht die Frage, wie weit sich wissensintensive Prozesse und -schritte automatisieren lassen und wie sich der Redaktionsaufwand für das Information-Retrieval senken lässt. Bei wissensintensiven Prozessen liegt das Wissen im Prozess, während bei einer rein technologischen Unterstützung das Wissen in den Tools und Methoden zu finden ist. Begrifflich lassen sich nach Chroust (1992) folgende Aspekte unterscheiden: Methoden werden dabei als eine systematische Handlungsvorschrift (Vorgehensweise) verstanden, um Aufgaben einer bestimmten Klasse zu lösen. Verfahren sind darauf aufbauend Wege zur Lösung bestimmter Probleme oder Problemklassen im Sinne von ausführbaren Vorschriften oder Anweisungen zum gezielten Einsatz von Methoden. Eine Methode kann durch mehrere Verfahren unterstützt werden. Technologien sind Verfahren im Anwendungskontext und die Anwendung von Technik. Diese operationalisieren Prinzipien, um vorgegebene Ziele leichter, schneller, sicherer, präziser oder in sonstiger Hinsicht günstiger erreichen zu können. Das Arbeitsfeld der Künstlichen Intelligenz (KI) stellt seit Jahrzehnten Technologien zur Verfügung mit dem Versuch, menschliche Intelligenz als Fähigkeit durch „Mechanisierung von Denkprozessen“ (Knauf 2004) künstlich zu simulieren und nachzubilden (König 2003, S. 175, Karagiannis 2001). 1956 prägte J. McCarthy den Begriff „artificial intelligence“. Nach Dreyfus und Dreyfus (1986, S. 79) krankt sie am Problem des Allgemeinwissens und sich ständig verändernder Relevanz. Intelligenz im Allgemeinen beschreibt in Abgrenzung zu Wissen eine rationale (im Sinne der Emotionalen Intelligenz auch emotionale) Fähigkeit, Wissen und damit den Zustand der subjektiven Wirklichkeit, zu entwickeln. Diese basiert nach Karagiannis (2001, S. 14) auf der Fähigkeit zur Zerlegung komplexer Probleme, Erkennen von Zusammenhängen, Verstehen von mehrdeutigen Sachverhalten, Fähigkeit zur Vorhersage, Bewerten von Alternativen, Fähigkeit zur Selbstreflexion, Fähigkeit zur Abstraktion, Fähigkeit zur Wissensaufnahme und Kommunikation. Luhmann (1995) und Wilke (2001, S. 52) ergänzen hierzu die Entscheidungsfähigkeit als das eigentliche Kriterium effektiver Systeme und nicht die Rationalität per se. Nach Eraßme (2002) ist daher Verhalten dann intelligent, wenn es in dynamischen, komplexen und intransparenten Zuständen brauchbare Orientierung vermittelt. Struktur und Verhalten dynamischer Systeme untersucht bereits die Kybernetik, die der KI als Basis dient und in in Tabelle 10 nach Schamanek (1998) dargestellt ist. Tabelle 10. Übersicht Systemtheorien als Basis der Künstlichen Intelligenz SystemTheorien Kybernetik Kybernetik 2. Ordnung Systemtheorie Chaostheorie Fraktale Geometrie Synergetik Systeme Vertreter Einfache Systeme, L.v. Bertalanffy, F. Vernetzte Systeme Vester, G. Bateson Verwandtschaft Zugehörigkeit Allgemeine Systemtheo- Logik, Mathematik, rie Informationstheorie Anwendungsbereiche Ökologie, Systemanalyse, Nachrichtentechnik Selbstorganisie- H.v. Foerster, S.A. Kybernetik, Konstrukti- Grundlagenforschung, Management, Ökolorende und beoUmpleby, J. Casti, R. vismus, Systemische An- Kommunikations- und gie, Soziologie, Polibachtende Systeme Ashby, P. Pangaro, G. sätze Komplexitätstheorie, tologie, FamilienthePask, u.v.m. Philosophie rapie Selbstorganisie- H. Maturana, F. Theorie der Autopoiese Soziologie, Biologie Soziologie, Jurisprurende und funktio- Varela, N. Luhmann denz nal geschlossene Systeme Strukturell einfa- E. Lorenz, R.M. May, Theorie dissipativer Sys- Physik, Mathematik Populationsdynamiche, determinierte A. Goldberger, P. teme, Katastrophentheoken, Hydro- und Systeme Schuster, W. Ebeling, rie Thermodynamik, P. Crutchfield Zeitreihenanalyse, Medizin Chaotische Syste- B. Mandelbrot, Fei- Chaostheorie Physik, Geometrie, Geometrie, Zeitreime und Iterierte genbaum, H.O. PeitBildbearbeitung henanalyse, BildFunktionen- Sys- gen, G. Julia komprimierung teme (IFS) Komplexe Systeme H. Haken, I. Chaostheorie, Theorie Physik, Chemie Physik (Laser), Mus- 74 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen mit globalem Ver- Prigogine, I. Stengers selbstorganisierender halten Systeme, Theorie dissipativer Systeme KonstruktiErkenntnis- theore- E.v. Glasersfeld, H.v. Skeptizismus, (Amerika- Philosophie, Grundlavismus tische Systeme Foerster, P. Watzla- nischer) Pragmatismus, genforschung wick, F. Wallner Konstruktiver Realismus Artificial Neu- Komplexe und P. Maes, C. Langton, Cognitive Science, Zellu- Informatik, Kognitiral Nets and stark vernetzte J.J. Hopfield, M. läre Automaten, Multi- ons- Wissenschaften, Artificial Life Systeme Minsky, S. Papert, Agenten- Systeme Biologie u.v.m. tererkennung, Wahrnehmungspsychologie, Soziologie Psychotherapie, Pädagogik, Wissenschaftstheorie Künstliche Intelligenz, Mustererkennung, Computersimulationen Nach Schamanek (1998) ist die Kybernetik eine Theoriebais für einfache Systeme. Er illustriert in seiner Übersicht die Zusammenhänge zwischen der Systemtheorie und den abgeleiteten Systemen, je nach Diziplinzugehörigkeit. Er vertieft damit die Einleitung zum Konstruktivismus und ordnet diesen in die Systemtheorie für erkenntnistheoretische System ein. Hierauf aufbauend, lässt sich die Entwicklung der KI nach Karagiannis (2001 S. 26ff.) grob in sieben Phasen gliedern: 1. Phase (1943-1956): Erste Schritte mit der Entwicklung eines künstlichen Neurons. Anwendung und Weiterentwicklung der Hebb’schen Regel. 2. Phase (1952-1969): Aufbruch und Begeisterung durch Programmiersprache LISP und Mikrowelten, um isolierte Probleme zu lösen 3. Phase (1966-1974): Ernüchterung durch die Erkenntnis des Kontextbezugs von Wissen und der Komplexität der „wirklichen Welt“ 4. Phase (1969-1979): Wissensbasierte Systeme und PROLOG als objektorientierte Programmiersprache 5. Phase (1980-1988): Wirtschaftliche Erfolge durch Expertensysteme 6. Phase (ab 1982): Weiterentwicklung der künstlichen Neuronalen Netze (KNN) 7. Phase (ab 1987): Anwendungsorientierte Forschung und Wissens“verwaltung“ Die weitere Entwicklung ist geprägt durch den Einfluss und Erkenntnisse verschiedener anderer Disziplinen, wie die Linguistik, Neuro-Medizin, Psychologie u.a. Sie betreffen, wie in Kap. 1 dargelegt, die Diskussion um die Wissensentwicklung. Dann kann sogar von einer „knowledge intelligence“ gesprochen werden. Es würde die Fähigkeit ausdrücken, Wissen zu entwickeln. Problematisch erscheint, dass das unvollständige Verständnis menschlicher Intelligenz und von Denkprozessen zu einer Begrenzung durch das technisch Machbare führt (Karagiannis 2001). Maschinen handeln nach Uexküll (1928) nach Plänen, während Menschen wie Pläne selbst sind. Die KI beruht auf der Basis der Logik und der Bool’schen Aussagenlogik sowie der von u.a. Gödel, Turing und Church entwickelten Prädikatenlogik (Karagiannis 2001, S. 25). Ihm zufolge lässt sich die kognitive Ebene über die Gedankenformulierung repräsentieren (Verfahren), bevor sie in der Implementierungsebene für technische Abläufe formalisiert wird (Technologien). Die strukturierte Analyse der methodischen und technologischen Grundlagen Künstlicher Intelligenz illustrierte die Vielfalt an Verfahren auf unterschiedlichen Abstraktionsstufen. Sie helfen, geeignete Verfahren für wissensintensive Prozesse zu wählen und semantische Technologien, wie Gnowsis, einzuordnen. Ebenso können die in der KI bereits enthaltenen Erkenntnisse als technologische Sicht in die Untersuchung der Wissensentwicklung einfließen. Daraus ergibt sich ein deklarativer und prozeduraler Erklärungsrahmen für Technologien in den Verfahren Repräsentation, Mustererkennung und Problemlösung. Deklarative Verfahren setzen manuelle Erfassungen und Definitionen voraus und lassen sich durch eine prozedurale Abbildung automatisieren. Nach Primio (1998, S. 24) verfügen die wenigsten KI-Systeme über ein Modell von sich selbst und kennen nicht ihre eigenen Grenzen. Eine Verbesserung der Verfahren zur Annäherung an die Sub-Symbolik könnte über rekursive, prozedurale Verfahren erreicht werden. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 75 Tabelle 11 zeigt exemplarisch eine Auswahl von Verfahren. Pro Methode lassen sich verschiedene Verfahren anwenden und kombinieren. Die Technologieübersicht erhebt keinen Anspruch auf Vollständigkeit, sondern dient primär der späteren Einordnung des Semantic Desktop. Tabelle 11. Übersicht über diskussionsrelevante Verfahren der Künstlichen Intelligenz deklarativ prozedural Feature-Maps Kohonen-Map MultiAgentenperzeptoren Ontologien, semantische Netze Kontextbeobachtung Konzepte Methoden nach Abstraktionsebene Symbole Repräsentation Bedeutungen und Klassen Verfahren Neuronale Netze Backpropagation Mustererkennung deklarativ prozedural Überwachtes Lernen, wie Vektormodelle BayesKlassifikatoren Ontology mappings Ontology matching Unüberwachtes Lernen, Eigen-/ Fisherwie constraintfaces Methode satisfaction Netzwerke Problemlösung deklarativ prozedural Entscheidungsbäume, Heuristiken Expertensysteme Case-based reasoning Multiperspective reasoning Natural language processing Multi-agent Architektuen Die Übersicht macht deutlich, dass für einen technologischen Umgang mit einem Wissensprodukt eine Vielzahl an technischen Verfahren in Frage kommt. Als Beispiel zur Illustration: Ein Angebot lässt sich als Wissensprodukt in fünf Abstraktionsebenen zerlegen. Jede Ebene wird durch mindestens vier Methoden deduktiv und induktiv nach oben und unten verknüpft. Jede Methode lässt sich nach obiger Tabelle durch mind. sechs Verfahren beschreiben. Unbeschrieben bleiben hier die Varianten an Programmiersprachen, die für die Verfahren denkbar sind. Daraus folgt, dass für ein Wissenprodukt, rein rechnerisch, 120 Verfahren (5 Ebenen x 4 Methoden x 6 Verfahren) anwendbar und zu verknüpfen wären. Im Folgenden werden die aufgezeigten Beispieltechnologien zur Illustration der wesentlichen Aspekte eines Verfahrens vorgestellt. Jedes Verfahren betrachtet dabei die drei methodischen Ebenen Symbole, Bedutungen und Konzepte. Am Ende werden die wesentlichen Erkenntnisse für als Grundlage für den Semantic Desktop zusammengefasst und dieser in die Landschaft eingeordnet. 9.1 Repräsentation Repräsentation ist, allgemein gesprochen, die Beschreibung und Abbildung von etwas. Information ist die Repräsentation einer Bedeutung. Diagramme, als eine Repräsentationsform, dienen der Darstellung von Konzepten wie Prozessen (Debenham 2000). Sie dient der Vereinfachung, Übersetzung zur Kommunikation oder allgemein gesprochen, dem Umgang mit dem Inhalt. Die Theorien zur Repräsentation werden nach Rickheit und Strohmer (1993) als mentale Modelle bezeichnet. Nach Schwarz (1992) sind mentale Repräsentationen eines kognitiven Systems systeminterne Zustände, die systemexterne Zustände abbilden und quasi als solche einfrieren. Sie folgen nach Alber (2000) dem ökonomischen Speicherprinzip in ihrer optimalen Abstraktionsstufe. Demnach wird die Repräsentationsform gewählt, die ein Optimum zwischen Speicherbedarf und Detailgenauigkeit erlaubt. Dabei wird die Repräsentation des eigentlichen Inhalts als symbolisch begreifbar von der Repräsentation des Konzepts als subsymbolisch und nicht mit den Sinnen fassbar unterschieden. 76 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen In der Linguistik verwendet Alber für die Beschreibung der Adjektivkonstruktion Repräsentationen weniger im Sinne von Abbildungen, sondern als innere individuelle Konstruktion auf der Basis von semantischen Netzwerken. Diese können in Form von kognitiven topologischen Karten vorliegen. Die Erzeugung von Sätzen kann als Vorgang der Symbolmanipulation beschrieben werden. Sie wendet Regeln auf der Grundlage von Wörtern an, die den Status von Symbolen haben (Alber 2000). Symbole sind begriffliche, konzeptuelle Zuordnungen zu bestimmten Merkmalsausprägungen und Mustern von Signalen. Sie repräsentieren bestimmte Zustände, die über Sensoren erfasst werden (Frequenzen, Wellen, etc.). In Form von Modellen, Formeln und Algorithmen lassen sich diese digitalisiert repräsentieren. In ihrer Grundform basieren Computer auf Nullen und Einsen, die per se schon nur eine bestimmte Repräsentation der Wirklichkeit ermöglichen. Eraßme (2002) bezeichnet dies als Symbolismus. Er basiert auf begrifflichen Konzepten und nutzt heuristisches Problemlösen durch gezielte Einschränkung des Lösungsraums der zu testenden Thesen und systematische Symbolmodifizierung auf der Basis von Regeln. Die Schwierigkeit, wie in der Gesichtserkennung, ist die mangelnde Formalisierbarkeit der Probleme und lange Lösungszeiten. Symbole hängen in ihrer Form nicht mit dem Konzept zusammen. Sie sind eindeutig, atomar und haben Tokenfunktion. Sie sind in einem System also unersetzbar. Das Entfernen eines Symbols aus einem System führt zum Verlust des ganzen Konzeptes, auf welches das Symbol referiert. Da Konzepte ihrerseits eine Repräsentation eines Wirklichkeitszustandes sind, könnten sie als interne Symbole verstanden werden, die dem Nutzer nicht bewusst zugänglich sind, sondern nur in der Interaktion der „Units“ temporär existieren. Als subsymbolisches Modell geben sie somit nur die symbolische Repräsentation auf, nicht aber die Grundlage symbolischen Denkens: Konzepte und Kategorien. Karagiannis unterscheidet als Repräsentationsmethoden deklarative (objektorientierte Modelle, Datenmodelle, lexikalische und regelorientierte Repräsentation) und prozedurale (Methoden und Programme) (Karagiannis 2001, S. 54f.) Diese finden sich nach Knauf (2004) in unterschiedlichen Programmiersprachen wieder. Prozedurale, objekt-orientierte Sprachen sind explizite Problemlösungsalgorithmen, während deklarative Sprachen eine funktionale Beschreibung des Problems vornehmen. Als Beispiele deklarativer Sprachen gelten PROLOG, LISP, C++, Corba IDL oder Algernon, KQML (Knowledge Query and Manipulation Language) und KIF (Knowledge interchange format). Prozedurale Lösungsalgorithmen werden als Backtrack-Methode bezeichnet und erraten oder testen eine Lösung im Gegensatz zu deklarativen Heuristiken. Die Sprachen umfassen eine höhere ontologische Abstraktion und bauen auf tieferen Abstraktionen und Repräsentationen auf. So baut Basic auf Assembler auf, etc. Sie folgen einer manuellen Explikation der Abstraktionsebenen und einer formalen Ontologie. Sie basieren auf einer euklidischen Geometrie. Neben der reinen Sprache verbreitern Programmiertechniken wie JBoss AOP, Nanning, and Aspectwerkz (aspect-oriented development) und Architekturen durch Kapselung (wrapping) oder verallgemeinerte Prozeduren die Anwendungsbasis der symbolischen Repräsentationen (Franklin 1997, Grundsy 2000, Kiczales 1997, Merk 2001). Für die Erstellung zugrundeliegender Algorithmen können höherwertige, wissensbasierte Sprachen verwendet werden. Damit lassen sich rekursiv weitere Abstraktionsebenen abbilden. Programmiersprachen sind somit ein wichtiges Hilfsmittel, um die gewonnenen Erkenntnisse aus der Komplexitätsanalyse verfügbar zu machen. Interessant dabei ist, wie viel Komplexität und Intelligenz im System und in der einzelnen Einheit wie einem Objekt, Agent oder Aspekt liegt. Für die Repräsentation auf unterschiedlichen Komplexitätsstufen und semantischen Ebenen sind unterschiedliche Repräsentationsmethoden bekannt. Die Ebenen sind selbst-ähnlich und rekursiv miteinander verknüpft, so dass sich die Repräsentationsform der Signalebene auf die weiteren semantischen Ebenen auswirken und umgekehrt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 9.1.1 77 Feature-Maps und Netze als symbolische Repräsentation auf Signalebene Der Hebb’schen Lernregel nach entstehen Verbindungen durch Verstärkung, wenn zwei Einheiten gleichzeitig aktiviert sind (Hebb 1949, Alber 2000). Sie beruht auf der Theorie der Zellverbände, die bestimmte Aktivierungsmuster repräsentieren. Für die Repräsentation dieser Muster existieren wiederum verschiedene Modelle, wie MLPs (Multi-Layer-Perzeptrons), Kohonen-maps, Mangold-Alwin Musterassoziator, Expertennetze, Jordan- und Elman-Netze, rekurrente Experten (Tani 1999) und Netze oder Hopfield-Netze. Die Kohonen-Feature-Map ist aufgebaut wie ein zweischichtiger Musterassoziator. Dabei wird ein mehrdimensionaler Merkmalsraum so auf eine zweidimensionale Ausgabeschicht abgebildet, dass die Ähnlichkeitsbeziehungen zwischen den wichtigsten Merkmalen durch räumliche Distanzen als Vektoren repräsentiert auf der Karte abgebildet werden (Kruse et al. 1991). Dieser Lernvorgang ist eine Abstraktion. Der Mangold-Allwinn Musterassoziator nutzt für den Lernvorgang ein MultiLayer-Perzeptron (MLP) (Mangold-Allwinn 1993). Dabei existieren neben der Ein- und Ausgabeschicht verdeckte Ebenen. Sie ordnen Merkmale den Eingangsknoten zu. Diese codieren die Bezeichnungen der zu vergleichenden Signale. Interessant bei den Studien von Mangold-Allwinn ist, dass die Zusammensetzungen der konzeptuellen Repräsentationen mit den situationalen Gegebenheiten variieren, woraus unterschiedliche Ähnlichkeitseinschätzungen in Abhängigkeit von der jeweiligen Situation resultieren. Diese Beispiele zeigen bereits die Repräsentation von Signalen und Symbolen als eine Einordnung auf das vorherige Bezugssystem. Sie hängt damit subjektiv vom Sensor oder Betrachter ab und bezieht sich rekursiv auf diesen. Es wird nur wahrgenommen, was sich über die Repräsentation erfassen lässt. 9.1.2 Ontologien als symbolische Repräsentation auf Bedeutungsebene Eine Ontologie beschreibt nach Will (2004, S.264) ein Wissensgebiet durch eine standardisierte Terminologie und semantische Beziehungen. Sie nutzt dabei Regeln, die die Themen miteinander in Beziehung setzen. Nach Gruber (1993) ist eine Ontologie eine formal explizierte Spezifikation geteilter Konzepte. Sie ist Hilfsmittel der Repräsentation, um Wissens- und Informationsobjekte auszutauschen und zu kommunizieren (Studer 2001). Sie unterstützen einen Meta-Prozess, der den Kontext der Informationsobjekte beschreibt. Eine Ontologie weist Begriffen Bedeutung zu (Lorenz 2006, S. 2). Begriffe sind nach Aristoteles in Worten manifestierter Seelenausdruck. Ihre Bedeutung resultiert aus dem Kontext und der Perspektive des Betrachters. Das gemeinsame Verständnis ermöglicht die Kommunikation über das Themengebiet und beschreibt konzeptuell strukturierte Interessensgebiete und Domänenmodelle (Stumme 2005). Allgemein gesprochen, ist eine Ontologie eine Wissensrepräsentation eines formal definierten Systems von Begriffen und Relationen. Philosophisch betrachtet, erklärt Ontologie die Beschaffenheit der Welt. Epistemologie erklärt im Kontrast die Beschaffenheit unserer Erfahrung von dieser Welt (Förster 1993). Verschiedene Sachverhalte und Phänomene können über Ontologien repräsentiert werden. Während Domain-Ontologien Konzeptualisierungen für Wissensbasen bestimmter Domänen sind, beinhalten Task-Ontologien Methoden zur Bearbeitung von Aufgaben. Generische Ontologien verkörpern allgemeine Konzepte. Sie existieren in mehreren Domänen. Üblicherweise sind nach Lorenz (2006) Ontologien in informationstechnisch verarbeitbare statische Taxonomien mit mehrfacher Vererbung und disjunkten Unterkategorien organisiert. Durch Nutzerbeobachtung können diese dynamisch weiterentwickelt werden, wenn sie häufigen Änderungen unterliegen. Zur Abbildung des richtigen Abstraktions- und Detaillierungsgrades bei der manuellen Erstellung helfen Kompetenzfragen. Sie werden mit Hilfe der Ontologie beantwortet. Das Aufstellen und Entwickeln von Ontologien ist im rein subjektiven Sinne keine Wissensentwicklung. Die Erkenntnisse der Wissensentwicklung lassen sich aber hierauf im Sinne einer Explizierung von implizitem Wissen anwenden und aus technischer Sicht als ein wissensintensiver Prozess begreifen. Auf dieser Basis ließe sich die Erstellung von Ontologien selbst automatisieren (Lorenz 2006, S. 14f.). 78 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Netze sind darauf basierend Verbindungen von Konzeptrepräsentationen (Ontologien) auf unterschiedlichen Ebenen. Nach Lorenz (2006, S. 10ff.) bilden sie Bedeutungen im Sinne von Zusammenhängen ab. Werden semantische Beziehungen abgebildet, so spricht Sowa (1984) von „Conceptual graphs“. Sie orientieren sich sehr stark am Aufbau von Grammatiken. Anwendungsbezogen werden heute kognitive Modelle bereits über In-out, emphasis, classification oder causal-Diagramme visualisiert und dargestellt (Axelrod 1976). Über eine weitere Abstraktion der zugrundeliegenden Themen ordnen Topic oder Language Maps diese in vorhandene Kategorien ein (Moench 2003, Novak et al. 2004). Semantik ist Bedeutung und basiert auf logischen Schlussfolgerungen und Darstellung von kontext-spezifischen Zusammenhängen, Restriktionen und lexikalischen Einheiten (Alber 2000). Die Sprache benötigt hierfür oft unpräzise Formulierungen, wie abstrakte Konzepte oder Logik als eine formale Beschreibung. Technisch lassen sich diese Beschreibungen als Frames (Rahmen) abbilden. Ein Frame ist dabei eine Objektklasse eines Problembereichs, welche zu anderen Frames in Beziehung stehen kann. Eine solche Klasse besteht aus Slots (Eigenschaften). Den Slots können Prozeduren zugeordnet sein, die bei Änderung einer Eigenschaft auszuführen sind. Zur maschinellen Verarbeitung von Ontologien werden Beschreibungssprachen verwendet. Sie erlauben eine entsprechende Interpretation der Terme. Als Beispiele seien folgende häufig verwendete W3C-Formate erwähnt (http://www.w3.org/, Ahmed 2001): RDF(S) (Resource Description Framework Schema), OWL (Web Ontology Language), SPARQL (SPARQL Protocol and RDF Query Language), KIF (Knowledge Interchange Format), DAML (Darpa Agent Markup Language), OIL (Ontology Interface Language) sowie weitere wie SHOE (Corby et al. 2004), XOL (XML-based Ontology Exchange Language) oder OKBC (Open Knowledge Base Connectivity), die hier nicht weiter vertieft werden sollen. Historisch gesehen, hat sich OWL aus DAML und OIL entwickelt. Im Vergleich zu bestehenden Programmiersprachen erlauben semantische Sprachen den direkten Umgang mit Taxonomien. Sie lassen sich dann durch Inferenzmaschinen in bestehende Suchalgorithmen einbinden und nutzen. RDF(S) und OWL sollen als die wichtigsten und für den Semantic Desktop relevanten näher vorgestellt werden. 9.1.2.1 Resource Description Framework (Schema) – RDF (S) RDF ist eine vom W3C definierte Meta-Beschreibungssprache auf Basis von XML zur Beschreibung von Metadaten und Ontologien. Die Beschreibung erfolgt in Form eines Triples: Subjekt, Prädikat, Objekt. Das Subjekt ist die Ressource, über die eine Aussage gemacht werden soll. Das Prädikat definiert die Information, die über das Subjekt gegeben werden soll. Das Prädikat wird auch als Eigenschaft des Subjektes bezeichnet. Das Objekt bezeichnet den Wert des Prädikats. Damit wird eine Aussage (statement) über ein bestimmtes Objekt innerhalb einer Domäne gemacht. Es wird als ein so genanntes Statement bezeichnet. RDF Syntax ist die Repräsentation des Modells in XML. In RDF können sogar Aussagen über Aussagen getroffen werden, um somit komplexes Wissen zum Ausdruck bringen zu können. RDF Daten können als gerichteter Graph dargestellt werden, bei dem der eine Knoten das Subjekt abbildet, der andere das Objekt. Die Kanten zwischen den Knoten bilden das Prädikat. In der Standardisierung dieser Repräsentation können Namenspaces vergeben werden. Werden diese nicht manuell vergeben, kann auf standardisierte Namespaces, wie das Dublin Core Schema, zurückgegriffen werden. Mit RDF kann die Dokumentenreihenfolge flexibel gehalten werden. Während man in einem XML-Dokument das ganze Baumschema verstehen muss, kann man RDF-Modelle als Tripel leicht abfragen. XML wird daher für die Syntax und RDF für die Semantik genutzt. RDF stellt jedoch höhere Anforderungen an den Entwickler. Er erzielt damit aber eine auswertbare Form von Wissen und seinen Ontologien. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 79 Nach Baumeister und Seipe (2005) ist RDF eine domänen-unabhängige Sprache zur semantischen Beschreibung von Datenmodellen und wird üblicherweise in XML repräsentiert. Das jeweils anwendungsspezifische Vokabular des RDF-Datenmodells wird im RDF-Schema (RDFS) definiert. Während XML-Schemata Dokumente durch Constraints beschreiben, werden im RDFS Eigenschaften und Beziehungen zwischen Objekten und Wertebereichen definiert. RDFS (RDF Schema) erweitert das RDF-Modell und bildet wiederum die Basis für OWL, das die verbliebenen Beschränkungen von RDFS beseitigen soll. Mit RDFS können die Aussagen (Statements), die mittels RDF formuliert wurden, hierarchisch in Klassen und Instanzen organisiert werden. Mittels SPARQL können diese aufgerufen und adressiert werden. Es ist ein Protokoll und eine SQLähnliche Abfragesprache für das Semantische Web. 9.1.2.2 Web Ontology Language − OWL OWL, als auf RDF aufbauende Prädikatenlogik, ermöglicht zwar einen Umgang mit höheren Komplexitäten, reduziert aber die Leistungsfähigkeit und Schlussfolgerungsfähigkeit. Sie existiert daher in drei Ausbaustufen: OWL Lite bietet eine hierarchische Klassifizierung mit der Möglichkeit, Gleichheit zwischen Klassen herzustellen. OWL Lite sind Taxonomien mit einfachen Constraints. OWL DL bietet ein Höchstmaß an Ausdrucksstärke bei gleichzeitiger Garantie der Ausführbarkeit. Die Ausdruckstärke wird durch die Möglichkeit erzielt, Klassen explizit als disjunkt zu beschreiben und nicht nur als ungleich zu identifizieren. OWL Full ernöglicht zusätzlich zu OWL DL syntaktische Freiheit auf Kosten der Ausführbarkeit. In OWL Lite und OWL DL ist es nicht möglich, dass etwas Klasse und Instanz gleichzeitig ist. Dadurch wird die Ausführbarkeit gewährleistet. In OWL Full ist dies erlaubt. Dadurch wird es möglich, unterschiedliche Ontologien zu kombinieren, in denen genau das der Fall ist. Deshalb ist es nötig, eine Instanz mit einer Klasse gleichsetzen zu können. 9.1.3 Konnektionistische Netze als subsymbolische Repräsentation auf Konzeptebene Zur Beurteilung konnektionistischer Netze auf Konzeptebene soll das Phänomen der Subsymbolik kurz dargelegt werden. Aufgrund der sprachlichen oder programmiersprachlichen Umsetzung vermag keine der Technologien, subsymbolische Prozesse tatsächlich abzubilden, sondern kann sich diesen nur simulierend nähernd. Weit gefasst, ist Subsymbolik der Bereich an Vorgängen und Zuständen, die im Computer selbst nicht symbolisch repräsentiert sind. Der Umgang mit Subsymbolik sucht nach simulativen Verfahren und Möglichkeiten, diese mit Hilfe von Konzepten und Abstraktionen abzubilden und zu strukturieren. Durch die Beschreibung aus einer Perspektive heraus gehen jedoch die Konzepte ein Stück weit verloren. Wichtig ist die Kenntnis der Perspektive im Zusammenhang mit einem Konzept. Computer beruhen per se auf einer Repräsentationslogik und sind nach Dreyfus und Dreyfus (1986, S. 90f.) nicht fähig, zum Beispiel Bilder direkt zu interpretieren. Die Nutzung der Subsymbolik in der KI differenziert daher weniger philosophisch ob beschreibbar oder nicht, sondern geht grundsätzlich von einer Beschreibbarkeit aus und unterscheidet nach der Zugänglichkeit und Genauigkeit. Damit ist die subsymbolische Repräsentation Basis für die symbolische Repräsentation. Sie basiert auf Beschreibungsebenen von kognitiven Vorgängen von Smolensky (1988), der subsymbolischen Hypothese von Hofstadter (1985) und Erkenntnissen aus der Forschung mit konnektionistischen Systemen von Dorffner (1991). Smolensky unterscheidet drei Ebenen kognitiver Vorgänge: konzeptuell, als exakt von symbolischen Modellen beschrieben; sub-Konzeptuell, als exakt von subsymbolischen Modellen beschrieben; neural, als exakt vom Gehirn beschrieben, aber der Beobachtung meist unzugänglich. 80 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Hofstadter beschreibt darauf aufbauend Inferenzen und Wissen als Interaktion einer großen Anzahl von Prozessoren (Units), die direkt durch Modellprozessoren verwirklicht werden muss und keine exakte Beschreibung auf konzeptueller Ebene erlaubt. Für die Realisierung der nicht beschriebenen (expliziten) Interaktion müsste seiner Hypothese nach ein Formalismus existieren, der Informationen, die in reinen Symbolstrukturen ausgelassen werden, mit einschließt und (selbst) referenziert. Aus der Erfahrung mit konnektionistischen Systemen beschreibt Dorffner Wissen selbst als subsymbolisch. Nur die Systeme besitzen als Input und Outputlayer symbolische vom Systemdesigner definierte und interpretierte Schnittstellen. Wissen kann dagegen nicht in einer externen symbolischen Form vorliegen, da 1.) das Ausfallen einer Einheit nicht zum Ausfall eines Konzeptes führt, wie dies bei symbolischer Repräsentation der Fall wäre (Robustheit). 2.) die Funktionalität des Modells nicht von einer Interpretation abhängt. Zwar ist es prinzipiell möglich, die Muster im Hidden Layer zu interpretieren, das System arbeitet aber auch ohne Interpretation. 3.) da der Lernmechanismus interpretationsfrei ist, ist auch keine vollständige Welt in der Vorstellung des Designers nötig, um alle Kontexte zu erfassen. Dies geschieht hier entsprechend der Forderung der subsymbolischen Hypothese von Hofstadter alleine durch das Zusammenspiel der einzelnen Prozessoren. Rumelhart (1986) unterstützt diese Forderung. Dorffner (1991, S. 174) schließt, dass ein selbstorganisierendes System, wie es konnektionistische Netzwerke sein können, kognitives Verhalten auch ohne Repräsentation − also in gewissem Sinne repräsentationsfrei (non-representationalist) – modellieren kann. Nach Alber (2000) geht es damit weniger um Wissen als symbolisches Ergebnis, sondern als subsymbolische Erstellungsregel. Diese generiert immer wieder neue Zustände. Für eine Annäherung lehnt sich die Arbeit diesem und damit der Begriffsverwendung von Hofstadter, Dorffner und Alber im Sinne eines iterativen Prozesses zur Zustandsbildung an. Sie bezeichnet die subsymbolische Abstraktionsebene als Konzept-Ebene, auch wenn diese die Repräsentation nicht als symbolisches Konzept versteht. Zur Verdeutlichung lassen sich das Zusammenspiel und die Unterschiede zwischen symbolischer und subsymbolischer Repräsentation über eine Gebirgsanalogie veranschaulichen (Eraßme 2002). Technisch ausgedrückt steht die X-Achse für mögliche Aktivierungszustände eines subsymbolischen Modells, repräsentiert in einem neuronalen Netz. Auf der y-Achse finden sich die Anzahl der Aktivierungen. Gipfel in diesem „Gebirge“ kennzeichnen eindeutige Muster, die sich auf der symbolischen Ebene leicht als Konzepte identifizieren und über Symbole abbilden lassen. Wenn Wissen ein Aktivierungszustand ist, kann Wissen symbolisch beschrieben werden. Explizites Wissen (symbolisch) wäre damit die Liste von Bergnamen und die Relationen zueinander. Implizites Wissen (subsymbolisch) wäre die dazugehörige Landkarte. Diese Erfassung birgt Schwierigkeiten, die aus der Praxis bekannt sind: • Keine Erklärung, warum die benachbarten Punkte des Gipfels eines flachen Hügels diesem fast gleichberechtigt sind (Wertigkeit und Relevanz von Dokumenten). • Das symbolische Modell kennt nur die Epiphänomene und kann die Details nicht erfassen (Titel technisch nutzbar, nicht aber der Content und die Aussagen). • Symbole sind atomar und arbiträr. Ihre Form gibt keinen Aufschluss über den Inhalt (In einer PowerPoint kann inhaltlich das Gleiche stehen wie in einem Word-Dokument). • Die einzelnen Symbole erhalten erst dann einen Sinn, wenn sie in ihrer Relation zu anderen Symbolen definiert werden. Symbole werden aber erst durch ihre Relationen entdeckt. Es liegt ein Zirkelschluss vor, der das Problem der vollständigen Formalisierung illustriert (Dokument ist eine Marktstudie, weil sie im Folder Marktstudien abgelegt ist. Dieser entsteht erst aus seinem Inhalt, nämlich verschiedenen Dokumenten, die als Marktstudie bezeichnet werden). Er lässt sich erst durch die Hilfestellung einer externe Vorgabe durch den Nutzer auflösen. Diese bedarf einer symbolischen Repräsentation für die Kommunikation und durchbricht damit die subsymbolische Balance. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 81 Alber (2000) unterstreicht dieses Beispiel mit dem Versuch einer Erklärung dieser Zusammenhänge. Hiernach bilden sich aus den eingehenden Signalen subsymbolisch sog. Mikrofeatures als nicht bedeutungstragende Elemente. Erzielt wird diese Bildung durch Netzwerke auf Basis des Backpropagation-Lernalgorithmus. Das Netzwerk der Mikrofeatures wird nicht mehr von einem externen Designer erstellt, sondern ist das Resultat von Lernprozessen in einem Netzwerk. Das Wissen über die Mikrofeatures steckt in den Verbindungen und stellt somit implizites Wissen dar. Es besitzt so lange keine verständliche Interpretation, bis es zu einer Interaktion mit einem zweiten Medium und damit einer Explizierung im Sinne einer Kommunikation kommt. Aus der Diskussion zeigt sich, dass Konzepte auf der jeweils höheren Abstraktionsebene als subsymbolisch anzusehen sind. Will man nicht alle Eventualitäten in Abstraktionsbeziehungen explizit machen und pflegen, scheint es mit iterativen Lernprozessen Ansätze zu geben, sich dem subsymbolischen Phänomen technologisch zu nähern. Eine subsymbolische Repräsentation erscheint für die Wissensentwicklung, im symbolischen Sinne, unerlässlich. Vor einer dynamischen Implementierung subsymbolischer Phänomene kann die symbolische Repräsentation als Semantik verstanden werden. Sie hilft, einen verbesserten Umgang mit symbolischer Repräsentation zu erzielen und sich subsymbolischen Möglichkeiten zu nähern. Zu berücksichtigen ist dabei, dass eine symbolische Repräsentation schon als Symbol einer Interpretation des Betrachters, einer Informationsreduktion und damit einer Trennung von Inhalt und Form unterliegt. Mit diesem Wissen konzentriert sich die weitere Diskussion auf die Weiterentwicklung einer symbolischen Repräsentation und Verarbeitung durch die Erforschung und das Verständnis der subsymbolischen Welt – wohl wissend, dass dies nur eine Annäherung sein kann. Die KNN (Künstlichen Neuronalen Netzen) zugrundeliegenden Prozesse werden dem Konnektionismus zugerechnet. Sie haben eine lange Geschichte, die nach Zell (1994) von folgenden wesentlichen Erkenntnissen geprägt war und Mitte der 80er mit der Neurobiologie einen neuen Schub im Hinblick auf die Lösung von Optimierungsproblemen bekam: 1943 Mc Culloch und Pitts: erstes Modell eines künstlichen Neurons 1949 Begründung der Hebb’schen Regel eines Lernalgorithmus für einfache neuronale Netze 1958 Rosenblatt: mathematische Definition des Perceptron-Netzes 1969 Minsky und Papert: theoretisch begründetes Modell eines neuronalen Netzes 1972 Kohonen: selbst-organisierendes neuronales Netz Der Konnektionismus orientiert sich stärker an Strukturen des Gehirns als an digitalen Prozessen des Geistes (Birbaumer 1997, S. 4). In der Philosophie des Geistes wurden von einigen Autoren neuronale Netze als der beste Weg betrachtet, das menschliche Denken zu modellieren. Sie erleichtern das Lernen aus Beispielen, das Verallgemeinern von Beispielen, das Abstrahieren, das schnelle Erkennen und Vervollständigen komplizierter Muster, das assoziative Speichern und Abrufen von Informationen etc. Die Kritiker halten das konnektionistische Modell für unrealistisch, weil zu stark vereinfachend. Kritisiert wurde von Fodor und Pylyshyn (1988), dass der Konnektionismus den systematischen und produktiven Charakter menschlichen Denkens vernachlässige. 82 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen KNN bestehen aus einem konnektionistischen Modellsystem, das auf Eingaben mit den gleichen Ausgaben antwortet wie sein reales Vorbild, indem die inneren Gewichtungen über Rückwärtspropagierung trainiert werden. Folgende Abbildung nach Zell (1994) verdeutlicht dies. Dabei werden die Vektorzuordnungen festgelegt. Ihre Gewichtungen können trainiert werden. Nur die Netzstruktur wird als Ausgangsneuronen = Anzahl der Klassen und Eingangsneuronen = Anzahl der Merkmale festgelegt. Eingabe muster Ausgabe Bedeutung Differenz - = Rückwärtspropagierung Abb. 13. Konnektionistisches Modellsystem Für die Zuordnung existieren derzeit verschiedene statistische und stochastische Verfahren, wie Hidden Markov. Dabei tritt jedes Merkmal mit einer gewissen Wahrscheinlichkeit auf und es folgt ein anderes Merkmal mit einer entsprechenden Verbundwahrscheinlichkeit. Zu dieser Abfolge von Merkmalen gehört das eigentlich gesuchte Sprachsignal mit seinem Inhalt. Ziel dabei ist, die kleinstmögliche Auswahl der Eingangsknoten bei zufriedenstellender Leistung. Hierzu wird meist die statistische principle component analysis verwendet (Zhang 2000). Sie reduziert Dimensionen, ohne Informationen aus den Ursprungsdaten zu verlieren. Wie oben beschrieben, zeigt sich hier die Grenze der Repräsentation. Nachdem Expertensysteme und Simulationen nur auf detaillierten Kenntnissen des Systems durch schrittweises Zerlegen und vollständiger symbolischer Beschreibung beruhen, erfordert eine vollständige und hinreichend genaue Beschreibung einen nicht abzuschätzenden Pflege- und Redaktionsaufwand. Solche Systeme stoßen daher in der Praxis an ihrer Grenzen. In konnektionistischen Modellen wird diese Komplexität durch Dezentralisierung begegnet. Sie stellen viele einfache Einheiten in enger Vernetzung dar. Diese Einheiten arbeiten lokal und kommunizieren mit anderen nur via Signalen über Verbindungen (Eraßme 2002). Im Sinne eines radikalen Konnektionismus fordert Dorffner (1997, S. 22f.) von konnektionistischen Systemen einen bottom-up Ansatz: Selbstorganisation statt explizitem Design, sensomotorische Schnittstellen, Nutzung von Konzepten; Entwicklung eigener Aktionen statt passiver Rezeption von Input. Dies unterstützt Zhang (2000) mit seiner Definition Neuronaler Netze als selbst-anpassende, nicht-lineare Methode mit der Fähigkeit zu einer allgemeinen Näherung. Neuronale Netze eignen sich nach Karagiannis (2001), wenn unbekannte Ursache-Wirkungs- Zusammenhänge oder unstrukturierte Daten vorliegen. Als typische Eigenschaften gelten gemäß Horster et al. (1993) und Eraßme (2002): Parallelität, verteilte Informationsrepräsentation, Selbstorganisation, Generalisierungsfähigkeit, Lernfähigkeit, Fehlertoleranz. Damit eignen sie sich nach Karagiannis (2001, S. 292ff.) für typische Einsatzfelder wie: assoziative Speicher, Steuerung, Datenkomprimie- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 83 rung, Diagnostik, Vorhersage, Abbildungen, multisensorische Datenfusion, Optimierung, Mustererkennung oder Risikoabschätzung. Neuronale Netze weisen aber Nachteile auf, wie das Festhalten in lokalen Minima, Abhängigkeiten von Startwerten oder Konvergenzgeschwindigkeit. Abwandlungen von der klassischen Lösung versprechen Vorteile, sind aber für den Semantic Desktop derzeit noch nicht verfügbar. 9.2 Mustererkennung Deskriptiv betrachtet ist Mustererkennung die Differenzierungsfähigkeit von Maschinen durch erfahrungsbasierte, meist statistische Selektion sensorbasierter Signale nach ihrer Ähnlichkeit zu kategorisieren (Goldstone 1993, S. 141, Alber 2000). Goldstone verweist dabei auf die Relevanz des entsprechenden Vorwissens für eine erfolgreiche Mustererkennung, den Dreyfus und Dreyfus (1986) unterstützen. Sie ergänzen ihn durch eine Differenzierung von Experten und Novizen in der Frage der Informationsrelevanz. Zu Ähnlichkeiten liegen eine Vielzahl an wissenschaftlichen Aussagen und Methoden vor. Ihre Kernaussagen und Aspekte helfen zu verstehen, wie Muster erkannt werden. Nach Goldstone (1993) werden Ähnlichkeiten über Metaphern beschrieben und verbunden. Dabei wird die Bedeutung des Wortkontextes für Ähnlichkeiten der Aussage betont, weniger des Wortes in seiner lexikalischen Form. Goldstone und Son (2005) geben eine Übersicht über Formen, auf Ähnlichkeiten zu schließen: Instanzen-basiert, Perspektiven-basiert, Fall-basiert und Methoden: Zeit, die jemand benötigt, um die Unterschiedlichkeit zu erklären, nearest-neighbor, configural cue und Vektorquantifizierung. Die statische und symbolische Begriffsrepräsentation definiert Begriffe durch eine Merkmalsliste (Klix 1992). Im Gegensatz dazu geht die Gradiententheorie von Eckes (1991) von charakteristischen mit Auftretenswahrscheinlichkeiten versehenen Merkmalen aus. Ihre unterschiedlichen Gewichtungen eignen sich insbesondere für die dynamische Konzeptbildung. Unter allen ist für die Fragen der Wissensentwicklung interessant, wie sich eine Differenzierungsfähigkeit ausprägen lässt, egal aus welcher Perspektive oder in Bezug auf welches Objekt. Neben der qualitativen und statistischen Abgrenzung von Signalen hängt die Differenzierungsfähigkeit nach Mangold-Allwinn (1993) auch von der Ladegeschwindigkeit gespeicherter Informationen ins Bewusstsein ab. Er geht davon aus, dass beim Abruf der Objektkonzeptinformation die konkretperzeptuellen Merkmale schneller ins Arbeitsgedächtnis geladen werden als die abstrakt-strukturellen Merkmale. Entsprechend treten Unterschiede in der Ähnlichkeitsbeurteilung bei den zu verschiedenen Zeitpunkten entstehenden Konzeptbildungen auf. Probleme sind daher grundsätzlich lösbar, wenn die nötige Detailebene über die Zeit erreicht wird. Folge ist, dass zum Zeitpunkt x eine Ähnlichkeit besteht, die bei genauerem oder abstrakterem Hinsehen (Veränderung der Perspektive) wieder verworfen werden kann. Eine Modellannahme besagt, dass hierfür die ablaufenden Hintergrundberechnungen verantwortlich sind, die die Kategorisierung in parallel ablaufender Prüfung ständig modifizieren. Aufmerksamkeit reduziert diese und richtet den Fokus auf die Aufnahme oder die aktuelle Handlung. Goodman (1972) kritisiert in Goldstone (1993, S. 132ff.), dass sich Ähnlichkeit selbst-referenziell auf die zu beschreibende Klasse als klassifizierendes Element bezieht. Er bestätigt damit indirekt die Aussagen über die Relevanz des Vorwissens. Ähnlichkeit wäre damit weniger eine objektive Differenzierungsgröße als vielmehr eine sequentiell entstandene, subjektive Möglichkeit, Beziehungen herzustellen, Komplexität zu reduzieren und Ordnung zu schaffen. Dies führte Goldstone dazu, Ähnlichkeit als Klassifizierungskriterium als zu flexibel zu kritisieren, und zu der Forderung, dass Ähnlichkeits- und Klassifizierungsbedingungen übereinstimmen (Goldstone 1993, S. 131). Aus wissenstheoretischer Sicht könnte das heißen, dass beide aus derselben Perspektive betrachtet werden müssten (Goldstone 1993, S. 149). Es würde erklären, warum abstrakte Begriff und Konzepte subjektiven Charakter haben. Sie weisen nur für den Nutzer eine vertraute Ähnlichkeit auf. Diese muss durch Kommunikation und Explizierung der Kontexte dem Anwender oder 84 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Zuhörer übermittelt und von diesem neu konstruiert werden. Durch gegenseitige Rückmeldung erfahren beide eine Einigung über die Bedeutung des Begriffs oder Konzepts zusammen mit einer subjektiven Einschätzung der Wahrhaftigkeit der Übereinstimmung. Althoff und Weß (1991) unterscheiden im case-based reasoning vier Formen von Ähnlichkeit, um die Passgenauigkeit auf eine Situation zu definieren: ununterscheidbar, ausreichend ähnlich, eventuell ähnlich, zumindest ein wenig ähnlich, nicht einmal ein bisschen ähnlich. Die Vagheit dieser Eigenschaften lässt darauf schließen, warum Kinder zwar feststellen, dass Dinge unterschiedlich sind, aber die Differenzierungskriterien nur schwer benennen können (Goldstone 1993, S. 139). Dies führt zur Tendenz, nach einer Maximierung der Gesamtähnlichkeit zu suchen statt nach Optimierung eines Ähnlichkeitskriteriums. Die automatische Benennung und Interpretation von Mustern im Hinblick auf ihre Ähnlichkeiten bildet Klassen. Aus konnektionistischer Sicht unterscheiden Kategorien nach Dorffner (1991) ähnliche Zustände, die durch eine „Menge von Stimuli“ von einem intelligenten System als ähnlich behandelt werden. Kategorie und Klasse werden über die Literatur hinweg je nach Hintergrund und Sprachgebrauch synonym verwendet. Eine Differenzierung ließe sich sinnstiftend durch eine weitere Untergliederung des Abstraktionslevels vornehmen. Diese Detaillierung spielt für die weitere Auseinandersetzung eine untergeordnete Rolle. In Ergänzung zur Lerntheorie in Kapitel 5.8 bieten technologische Umsetzungen in lernenden Systemen Erkenntnisse und Ansätze der Musterkennung. Prozedural betrachtet, verbessern sich lernende Systeme im Gegensatz zu deterministischen Systemen automatisch durch ihre Erfahrungen (Mitchell 1997). Inhaltlich lernende Systeme sind Programme, die ihre Mustererkennung durch Vergrößerung der Erfahrungsbasis optimieren. Sie lernen Benutzerinteressen oder neue Regeln, um zu klassifizieren (Müller et al. 2001). Strukturell lernende Systeme mutieren und verändern ihre logische Form und ihren Aufbau, indem sie Schlussfolgerungen aus ihren Erfahrungen zu ihrer eigenen Rolle und Fähigkeit ziehen. Beispiele sind Viren und Würmer, die sich selbst in mutierter Form replizieren, um sich zu immunisieren und den Gegebenheiten anzupassen. Es gibt viele ähnliche Lernverfahren. Sie unterscheiden sich durch das angewandte Abstraktionslevel (z.B. Dokument, Inhalt oder Begriff). Eine Auswahl an Lernverfahren sei an dieser Stelle kurz nach Franklin (1997) illustriert: • Thomas (1993) differenziert acht Lernformen gemäß dem Schwierigkeitsgrad des Verhaltens, das gelernt werden soll. • Maes (1994) beschreibt Lernformen unterschieden nach der zugrundeliegenden Lernmethode: memory-based reasoning, reinforcement learning, supervised learning, and learning by advice from other agents. • Dreschers concept learning (1988) und Kohonens self-organization (1984) sind weitere zu nennende Methoden • Madhvanath und Godvindaraju (2001) unterscheiden den analytischen vom holistischen Ansatz. Der analytische unterteilt Objekte (hier: Wörter) in einfachere Einheiten, wie Buchstaben, um diese zu identifizieren und das Gesamte daraus abzuleiten. Der holistische Ansatz dagegen testet das Objekt als Ganzes und nutzt nur bei Fehlern oder zur Verifizierung den analytischen Ansatz. • Mitchell (1997, S. 244ff.) unterscheidet maschinelles Lernen in „lazy“ und „eager learning“. Eager-Systeme, wie Back-propagation haben eine globale, determinierte Näherungsfunktion (single linear function hypothesis) für die Entwicklung der Antwort, während lazy-Systeme, wie nearest neighbour oder gewichtete Regression, eine Kombination aus lokalen Annäherungen zeitpunktbezogen wählen kann. Lazy- und eager-Systeme unterscheiden sich hauptsächlich hinsichtlich ihrer Rechenzeit und der erzeugten Klassifikationen. Lazy- Systeme benötigen weniger Rechenzeit während des Trainings, aber mehr bei der Vorhersage. Die Aussage muss jedes Mal neu entwickelt und hergeleitet werden. Weitere Ansätze optimieren die beschriebenen im Hinblick auf Performance, Effizienz und ihren Anwendungsbereichen als Prognose, Prüfung oder Steuerung. Performance bezieht sich dabei auf Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 85 Generalisierungsfähigkeit einer Lernmaschine zufällig ausgewählter Beispiele (Kuhwaja 2002, S. 33f., Strecker und Schwickert 2000). Effizienz beschäftigt sich mit der Komplexität einer Lernmaschine in Raum und Zeit. Hierzu sind bereits einige Ansätze, auch aus der Bilderkennung, bekannt. • Moghaddam et al. (1998) − Suche in großen Datenbanken • Govindaraju (2004) beschleunigt den Such- und Erkennungsprozess durch Dynamic Programming and matching character models. • Belhumeur (1997) optimiert für große Lichtvarianzen durch Lineare Projektion oder Tefas et al. (1998) durch morphologische “shape decomposition”. • Schlimmer (1996) unterscheidet Batch-Segmentierung für Massendaten und oder inkrementale Segmentierung für evolvierende, kleine Datenmengen . Allgemein gesprochen, entspricht Lazy learning dem unüberwachten Lernen, während eager learning mit einem Zielvektor eher dem überwachten Lernen entspricht. Während die Differenzierung zwischen überwachtem und unüberwachtem Lernen aus der Lerntheorie stammt, lässt sich Mustererkennung aus technischer und kognitionswissenschaftlicher Sicht in feature-based, bottom-up und holistische, top-down-Ansätze unterscheiden (Best 1992 und Smyth 1994). Nach Zell (1994) entspricht überwachtes Lernen dem top-down-Mustererkennen. Es basiert auf der Definition eines Zielmusters, auf das hin das System die Eingangssignale und Muster testet. Damit lassen sich unüberwachtes, lazy- und top-down-Lernen sowie überwachtes, eager- und bottom-up-Lernen zueinander clustern. Ihrem technologischen Reifegrad nach eignen sich Letztere für bekannte, beschriebene Systeme und werden daher auf Symbolebene im Folgenden kurz beleuchtet. Erstere lassen sich auf Konzeptebene konnektionistisch und konstruktivistisch beschreiben. 9.2.1 Stochastik und überwachtes Lernen als symbolische Mustererkennung auf Signalebene Klassifikation ist für Zell (1994), Schukat-Talamazzini (1995), Kreßel und Schürmann (1995), mathematisch gesehen, eine reine vektorielle Abbildung von Eingangssignalen auf vorgegebene Merkmalsvektoren. Dabei werden die Daten reduziert und in neuer Form codiert, um eine Abstraktion zu schaffen. Diese feature-based Ansätze erklären Muster aus ihren Einzelteilen und extrahieren spezielle Bild- oder Gesichtseigenschaften durch eindimensionale Vektorisierung. Computer können keine bildbasierten Inferenzen verarbeiten (Khuwaja 2002, Dreyfus und Dreyfus 1986, S. 54). Als Methoden werden hierfür das Hidden-Markov-Modell oder ein Abgleich von Eigenschaftsvektoren unter Nutzung des Fourier-Koeffizienten verwendet (Samaria 1994, Hagen 1995). Die Muster-Entwicklung ist eine Klassifikationsaufgabe und ein stochastischer Prozess. Alle benötigte Information ist in den Verbundwahrscheinlichkeiten zwischen den Merkmalsvektoren (Eingangsinformation) und den erlaubten Klassen (Ausgangsgröße) enthalten. Basierend auf der Entscheidungstheorie entspricht die Klassifikationsentscheidung dann der Minimierung des Gesamtrisikos unter Berücksichtigung der Kostenmatrix. Die Kostenmatrix beschreibt die Kosten für die Ist-Entscheidung bei einer Soll-Klasse. Dieser Ansatz führt direkt auf die Rückschlusswahrscheinlichkeiten als optimale Entscheidungsfunktionen und ist in der Literatur als Bayes-Klassifikator (u.a. Harmann 1995) bekannt. Dieser bedeutet, dass (als kleinstes Risiko) diejenige Klasse gewählt wird, die die größte Rückschlusswahrscheinlichkeit besitzt. In Ergänzung dazu lassen sich Klassifikationsprobleme wissensbasiert oder durch automatisches Lernen abbilden. Die Erkennungsrate ist das Maß, an dem sich die Wahl der Technologie messen lassen muss. In komplexen Informationsverarbeitungssystemen ohne hinreichendes Grundlagenwissen haben statistisch begründete, trainierbare Verfahren größte Erfolgsaussichten. Als Beispiel des überwachten Lernens stellt Diederich (1989) das Recruitment-Lernverfahren vor. Im Gegensatz zu ähnlichkeitsbasiertem (forward-propagation) Lernen basiert das RecruitmentLernverfahren auf Instruktion. Für dieses Verfahren wird nur ein Beispiel benötigt, zu dem ungeordnete Einheiten in Beziehung gebracht werden. Es zählt daher zu den höher geordneten Lernverfahren. Es erinnert an die top-down-Methode unter Nutzung generischer Konzepte. Die Methode bietet eine Strukturiertheit und macht damit das Systemverhalten im Gegensatz zu rein konnektionistischen 86 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Systemen mit hidden layers nachvollziehbar. Nachteilig wirkt sich aus, dass der Zeitpunkt des Lernens vorbestimmt ist. Die Übersicht zeigt eine Vielzahl an Klassifikationsverfahren. In Bezug auf den Semantic Desktop und Gnowsis ist zu untersuchen, welche sich in der Kombination mit anderen Verfahren qualitativ, aber auch in ihrer Performance eignen und durchsetzen können. 9.2.2 Ontology mapping und merging als Mustererkennung auf Bedeutungsebene Ontologie-basierten Reasoning-Verfahren lassen sich verschiedene Merging-Verfahren zugrunde legen, wie instance-mapping oder Attributenanalyse (Kalfoglou und Schorlemmer 2003). Die meisten befinden sich im Prototyp- oder Forschungsstadium. Im MUMIS-Projekt zum Beispiel wird Ontology merging verwendet, um Informationen Dokument-übergreifend zu extrahieren und eine integrierte und vollständigere Erläuterung des Multi-media-Materials zu erreichen (Reidsma et al. 2003). Essentiell beim Ontology merging ist, dass zunächst die Beziehung der beteiligten Ontologien bekannt ist. Diese Gap-/ Fit-Analyse ist Aufgabe des Ontology mappings. Dou et al. (2002) unterscheiden auf dieser Basis dann zwei Merging-Strategien: Überführung von Daten in eine globale Ontologie (Ontolingua) oder Überführung einer Ontologie in eine klar definierte Ziel-Ontologie (OntoMorph). Ziel des Ontology mappings ist es, die Korrespondenz zwischen den Ontologie-Konzepten herauszufinden (Dou et al. 2002, S. 12ff. und Elst et al. 2004). Dabei gibt es zwei Arten von matching Algorithmen, die die top-down-/ bottom-up-Logik der vorigen Kapitel auf dieser Abstraktionsebene wiederholt: ontology-based (holistisch) und instance-based (feature-based). Sie unterscheiden sich in ihrer Fähigkeit, Ontologien zu mappen, wenn Daten nur in einer vorhanden sind. Sie bedienen sich dabei dreier Methoden: syntactic, structural and semantic matching. Syntactic or term-based matching konzentriert sich auf Namensähnlichkeiten, wie in CUPID oder Chimaera oder Protegé’s PROMPT Modul. Es vergleicht für das Matching alle Teilstrings der Länge n in PROMPT. Die Relevanz ergibt sich dann aus der Anzahl passender Tupel. Beispiel: „Trend“=“Trend“. Structural matching berücksichtigt die Ontologiestruktur und analysiert den nächsten Nachbar von Ontologie-Knoten über Similarity Flooding algorithm (Melnik et al. 2002). Beispiel: Xy ist ein Trend und wird mit xy=“Trend“ als Begriff zugeordnet und erkannt. Semantic oder instance-based matching versucht ein matching zwischen Bedeutungen, meist abgeleitet aus den Instanzen der Ontologieklassen oder WordNet-Bedeutungen (Bsp.: Latent Semantics Indexing method (LSI)). Die meisten gehen aber von einer Master-Ontologie im Hintergrund aus (Kotis und Vouros 2004). Im Semantic Desktop wird hierfür das „vector space model“ im brainfiler der Firma NextBot verwendet (Salton 1968). Beispiel: XY ist ein Trend und WZ ist eine Entwicklung, Trend ist begrifflich ähnlich zu Entwicklung. Dann sind XY und WZ = „Trends“ Allgemein gesprochen wird das Subjekt zum Objekt und die Klasse zur Instanz, wenn ein neues Abstraktionsniveau bezogen wird. In Ergänzung dazu bietet die Formal Concept Analysis die Möglichkeit, neue Ontologien aus bestehenden Instanzen zu erstellen, statt fertige Ontologien zusammenzuführen (Stumme 2001). Das Mappen von Ontologien als semantische Repräsentation von Konzepten ist wesentlicher Bestandteil einer Kommunikation. Neue Bedeutungen und neues Wissen entstehen durch Verallgemeinerung und Änderung des Abstraktionslevels, meist durch Nutzerinteraktion und in Abhängigkeit der Rolle und Situation (Dou et al. 2002, S. 14f.). Hypothesen entstehen beim concept mapping durch die Verbindungen zwischen zwei Konzept-Karten, beschrieben durch ontologische Knotenbeziehungen (Huang und Beevers 2004, Trochim 1985). Dabei werden Informationsalternativen quantifiziert und festgestellt, inwieweit ein gemeinsames Verständnis zustande gekommen ist. Der Prozess folgt einem kontinuierlichen Trial-and-error sowie Verhandeln von Bedeutungen, als Interpretationen, bis ein äußerer Attraktor erreicht ist und dies entsprechend signalisiert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 9.2.3 87 Holistische Ansätze als subsymbolische Mustererkennung auf Konzeptebene Holistisch bezeichnet einen ganzheitlichen Ansatz. Er zielt darauf ab, Strukturen, Konzepte und letztlich Perspektiven als Ganzes wahrzunehmen und zu erkennen. Goldstone (1993) verdeutlicht, dass Kinder die Welt zwar als Ganzes verstehen, aber nicht in differenzierten Konzepten erklären können. Erwachsene sind hingegen nicht oberflächlich, sondern multi-konzeptionell, zumindest, was ihre Sprache und damit Repräsentation der Welt angeht. Neben feature-based-Ansätzen verbessern holistische Ansätze wie Eigenfaces, Fisherfaces oder neuronale Netze die Trefferquoten bei Gesichts- und Handschrifterkennung. Der Eigenface-Ansatz von Turk and Pentland in Khuwaja (2002) arbeitet mit der Abstandsoptimierung zu einem trainierten Zielraum von passenden Gesichtern. Ein neues Gesicht wird damit als passend identifiziert, wenn es unter einem bestimmten Schwellwert zum Zielraum liegt. Eine leichte Verbesserung kann Belhumeur in Khuwaja (2002) als Fisherface-Ansatz nachweisen, indem er den Eigenface-Ansatz zusammen mit Fishers linearen Diskriminante verwendet. Sie erleichtert das Auffinden der Richtung im Datenraum. Keines der Verfahren berücksichtigt die Erfassung des Kontextes, da das Abstraktionslevel, welches für die Lösung der Situation nötig wäre, nicht auf einen Schlag erfasst werden kann. Wäre dem so, ließe sich problemlos eine der Erkennungsformen anwenden. Wenn nicht, bedarf es immer einer Kombination aus beiden: holistische Erkennung bekannter Formen, Modelle und Konzepte und die darauf aufbauende Kombination und Erschließung neuer Abstraktionsstufen. Durch die Speicherung und Vergabe von Bezeichnung und Klassifizierung der neu erschlossenen Zusammenhänge können Lernvorgänge abgebildet und abgespeichert werden. Alber (2000) nutzt statt dem überwachten Lernen unüberwachte Lernverfahren, um sich dem Kontext, als subsymbolische Information, zu nähern. Dies basiert auf einem bottom-up- Mustererkennen auf der Basis eines selbstorganisierenden Systems, im Sinne des konstruktivistischen Verständnisses. Es beschreibt das automatische, emergente Auffinden von Clustern durch Vernetzung und Datenreduktion. Beispiele für unüberwachtes Lernen sind nach Müller (2001, S. 190): Datenklassifizierung, Dichteschätzungen oder Datenbeschreibungen. Allen ist gemein, dass die Datenbeschreibungen fehlen. Ohne symbolische Repräsentation der Datenbeschreibung (label) muss der Basisalgorithmus als Skalarprodukt verfasst werden. Unüberwachte Lernverfahren eignen sich zur Modellierung von subsymbolischen Situationen, in denen sich im System Veränderungen herausbilden. Schemata emerging nach Rumelhart et al. (1986, S. 20) kann als ein solches Verfahren genannt werden. Dabei werden die Schemata nicht als feststehende Gebilde im Gedächtnis gespeichert, sondern sie werden in der jeweiligen Situation als Instanziierung eines Schemas generiert. Realisiert wird die Vorstellung der Emergenz von Schemata in einem Constraint-Satisfaction-Netzwerk, das einen Ruhezustand zu erlangen sucht. Die stabilen Zustände entsprechen den instanziierten Konfigurationen von Schemata, welche Goodness-of-fit-Maxima darstellen in einer Landschaft, die einen n-dimensionalen Raum über die Mikrofeatures bildet. Das System strebt nach einem Harmoniewert, der nach Smolensky (1986, S. 208) „maximally self-consistent“ ist. Aufgrund der fehlenden feature-Beschreibung könnten sich holistische Verfahren eignen, den Gesamtzusammenhang zu erfassen. Holistische Verfahren basieren auf den Erfahrungen mit Hologrammen (Buttlar 1992). Diese sollten das Auflösungsvermögen von Elektromikroskopen durch eine neue Technik der photographischen Speicherung verbessern, bei der nicht die Intensität des reflektierten Lichtes, sondern das Quadrat der Intensität und das Intensitätsverhältnis zwischen einem bestimmten Lichtstrahl und den benachbarten Strahlen berechnet wird. Das Besondere am Hologramm ist, dass es in jedem Teil des Hologramms das gesamte Bild in verdichteter Form enthält. Kein Bildteil fehlt, wenn ein Teil der Filmplatte abgeschnitten wird. Das ganze Bild wird nur in seiner Intensität geschwächt. Pribram zog dazu in Wilber (1982) eine Parallele zwischen diesem Hologramm-Effekt und dem Verhalten des Gehirns, nachdem Menschen, die eine Gehirnverletzung erlitten haben, im Allgemeinen keine bestimmte Gedächtnisspur einbüßen. Nachdem Probanden aus dem „Schnee-Rauschen“ des Fernsehers Bilder und Muster formten und herausgriffen, lag der Schluss nahe, dass unser Gehirn die "harte" Wirklichkeit durch Interpretationen von Frequen- 88 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen zen aus einer Dimension, die Raum und Zeit transzendiert, konstruiert. Nach Pribram und Bohn in Wilber (1982) ist das Gehirn ein Hologramm, das ein holographisches Universum interpretiert. Dabei unterscheiden sie einen entfalteten und eingefalteten Zustand des Hologramms, der sich mit dem symbolischen und subsymbolischen vergleichen ließe: „Im entfalteten Bereich von Raum und Zeit scheinen die Dinge getrennt und verschieden, im eingefalteten Frequenzbereich, sind alle Dinge und Geschehnisse raumlos, zeitlos, immanent, eins und ungeteilt.“ Auch nach Dreyfus (1986) können Hologramme, in Analogie zum Geist, Ähnlichkeiten erkennen. Es ist eine zusätzliche Möglichkeit assoziativen Gedächtnisses. Das holographische Paradigma weist theoretische Parallelen auf und bietet Gedankenansätze für die Wissensentwicklung im subsymbolischen Bereich auf Konzeptebene. Eine technologische Integration und Kombination mit semantischen Verfahren konnte bisher nicht identifiziert werden. 9.3 Problemlösung Basierend auf der Mustererkennung und Repräsentation ist das Problemlösen ein wesentliches Verfahren der künstlichen Intelligenz. Ein Problem ist die Abweichung eines aktuellen von einem erwünschten Zustand der Realität (Horster et al. 1993, S. 10). Zur Problemlösung ist oft eine Entscheidung nötig, die eine Alternative aus einer Menge von Lösungsmöglichkeiten auswählt. Entscheiden wird zum Kernmerkmal der Problemlösung im Vergleich zur Mustererkennung. Problemlösen besteht unabhängig von den jeweiligen Anwendungsfeldern aus den Schritten (Pedersen 2004): Informationen erheben, Modellbilden, Prognose und Ergebniskontrolle. Dabei wird schon auf Verfahren der Mustererkennung zurückgegriffen. Gemeinhin wird das Suchergebnis bereits als Problemlösung gesehen, wobei Modellbildung, Prognose und Kontrolle unsichtbar vom Nutzer ablaufen. Statt einer Lösungsregel kann auch eine kontinuierliche Steigerung der Ergebnisrelevanz von Suchen zu Problemlösungen führen, sobald entsprechende Schwellenwerte erreicht werden. Problemlösung wäre damit die iterative Suche nach einer Zielgröße. Problemlösen ist nach Goldstone (1993) ein rationaler Teil des Lernens zum Wissenserwerb. Wissensentwicklung kann dabei als Problemlösung verstanden werden, unabhängig davon, auf welchem Abstraktionsgrad. Problemlösung ergibt sich durch die Einbettung der intentional entstandenen Klassifizierung in die Situation und den Anwendungskontext. Hierzu bedarf es ggfs. einer Überarbeitung und Justierung der Abstraktionshierarchie, um erneut Ähnlichkeiten zu gewinnen. Sie ergeben sich auf den gleichen Abstraktionsstufen, denn Ähnlichkeiten verschwimmen ähnlich der Heissenberg’schen Unschärferelation, je genauer sie analysiert werden (Goldstone 1993, S. 132.ff.). Im Hinblick auf voriges Kapitel definieren sich Abstraktionsstufen durch die Anzahl der Differenzierungsmerkmale aus verschiedenen Perspektiven (Goldstone 1993, S. 149). Dies erhöht die strukturelle Komplexität. Solange die Strukturen überschaubar sind, reicht für ihre Handhabung die euklidische Geometrie mit einfachen Grundbausteinen und potenzierbaren Kompositionsregeln. Für komplexere Strukturen und Hierarchien empfiehlt Alber (2000) fraktale Geometrie. Eine fraktale Beschreibung natürlicher Formen vereinfacht das Problem in dem Sinne, dass die Komplexität von den Kompositionsregeln in die Grundbausteine selbst verlagert wird. Das Erzeugungsverfahren ist dabei Rekursion. Die Grundelemente müssen je nach Abstraktionslevel und Problemstellung neu abgegrenzt und definiert werden. Zur Festlegung des passenden Abstraktionslevels muss ein bestimmtes Ähnlichkeitsmaß für alle beteiligten Konzepte erzielt werden. Abstraktion reduziert Daten und erzeugt Unschärfe. Das Maß an möglicher Unschärfe könnte sich durch ein Trustlevel oder Reputationsmechanismus definieren lassen (Luck et al. 2004). Dieser lässt sich durch Zuverlässigkeitstests und Sicherheitschecks bis hin zu Normen und sozialen Strukturen zwischen technologischen Einheiten, wie Agenten, weiterentwickeln. Entstehen zufällig unbewusst Ähnlichkeiten, bezeichnet Karagiannis (2001, S. 210) diese als Assoziationen. Zur Nutzung müssen sie konzeptualisiert und benannt werden. Ihr Abstraktionsgeflecht muss als Kontext dargestellt werden. Während das Bewusstsein sequentiell arbeitet, verlaufen unbewusste Prozesse parallel ab. Auch wenn Computer derzeit mit sequentiellen Logiken programmiert Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 89 werden, könnten sie ihre parallele Rechenkraft einsetzen, wie sie bei der Problemlösung im Schach eindrucksvoll unter Beweis stellen (Herbert 1964). 9.3.1 Reasoning als allgemeines, symbolisches Problemlösen auf Signalebene Problemlösungsverfahren bilden Analogien durch das Übertragen von Regeln. Die Literatur strukturiert die verschiedenen Reasoning-Ansätze. Ein kurzer Überblick soll Anregungen für die Diskussion und Einordnung geben, inwieweit diese für eine semantische Suche relevant sind. Nach Herbert (1964) existieren folgende Arten von Problemlösungen: Means-end analysis, Planning process, Problem-solving organizations und discrimination trees. Welche Verfahren sich zur Problemlösung eignen, hängt von der Problemklasse ab: • Typ der Entscheidung: wie Auswahl einer Lösungsalternative, Auswahl einer Lösung für Handlungsprogramme oder Abstimmung von Handlungsprogrammen • Entscheidungssituation: wie Sicherheit, Risiko oder Unsicherheit • Problemstruktur (Grad der Darstellbarkeit einer Problemstellung): wie Quantifizierbarkeit, Zielfunktion, Lösungsverfahren, Lösungsdefekte, Wirkungsdefekte, Bewertungsdefekte oder Zielsetzungsdefekte • Anwendungsbereich: Suche, Analyse, Synthese oder Prognose Je nach Ausprägung eignen sich andere Netzwerktypen (Horster 1993, S. 18). Diese lassen sich gemäß der Verfügbarkeit der Lerndaten, ihrer Inputdatenstruktur, ihrem Bewertungsansatz und der Netzwerktopologie in drei Schritten den Problemklassen zuordnen (Horster 1993, S. 20): 1. Ableitung eines Netztyps aus dem Problemtyp (Verfahren) 2. Abgleich zwischen Problemstellung und Netztyp (Modell) 3. Lösung des Problems (Initialisierung) Wulff unterscheidet in Pedersen (2004) verschiedene Formen des Problemlösens: empirisch (induktiv), deduktiv, empathisch und ethisch. Im Vordergrund der technologischen Diskussion stehen dabei Erstere zwei. Deduktives Schließen schließt nach Schmid (2002) vom Allgemeinen zum Speziellen, während induktives Schließen vom Speziellen zum Allgemeinen leitet. In ihrer technologischen Anwendung manifestiert sich induktives Schließen durch sich selbst generierende Algorithmen in lernenden Systemen, während wissensbasierte Systeme mit deduktiven Schlüssen arbeiten. Beide finden ihre Basis in der holistischen (deduktiv) und feature-based- (induktiven) Mustererkennung. Nach Reidsma et al. (2003) spielen in der Einordnung von Aussagen zeitliche Abfolgen und vergangene Situationen eine Rolle, um zu „schließen“. 9.3.2 Multi-perspective und case-based reasoning als symbolisches Problemlösen auf Bedeutungsebene Bedeutung entsteht, prozedural betrachtet, durch den Interpretationsvorgang. Die Interpretation wird vertreten, wenn sich diese gegenüber dem Problem verifizieren lässt. Abstraktionen bieten Formen für den Umgang mit unvollständigen oder zeitkritischen Daten und ermöglichen damit eine Optimierung der Rechenkosten. Hierfür wird eine Vergröberung und Modellierung durch Weglassen von Details vorgenommen. Bestehende Definitionen interpretieren Standpunkte aus ihrem Inhalt, im Sinne von extern handelnde Einheiten bis hin zu mentalen Modellen in einer Domäne. Maiden et al. (1996, S. 158f.) ergänzt dieses Verständnis um den Standpunkt-Halter („owner“) als soziale Komponente zur Unterstützung und als Basis von Kommunikation, Verhandlung und Einigung. Ein Standpunkt kann dabei unterschiedliche Repräsentationsformen annehmen und besitzt spezifische Charakteristika (Maiden et al. 1996, S. 160), wie Name und Version, Beziehungen der Owner untereinander oder Prozessanleitung zur Weiterentwicklung des Standpunkts. Während der Inhalt aus Dokumenten besteht, beinhaltet der Standpunkt vier Modelle: zwei Listen mit Anforderungen und Annahmen, ein unvollständiges Datenfluss-Diagramm und eine Videoauf- 90 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen zeichnung des Definitionsmeetings. Diese werden in der ConceptBase gespeichert und über Sprache O-Telos repräsentiert und verarbeitet. Damit ergibt sich die Möglichkeit, sich oder ein Subjekt in die Rolle eines anderen zu versetzen, sobald die modellhaften Beziehungen untereinander definiert wurden. In Weiterentwicklung des Multi-Layer Reasoning, wie DynaMol (Leong 1998), werden die Layer durch Perspektiven, ausgedrückt als Ontologien, ersetzt. Basierend auf einer Ähnlichkeitsprüfung können ontologische Überlappungen identifiziert werden. Dabei wird ein domänen-unspezifisches Meta-Modell aus dem Entstehungsprozess genutzt. Die Gemeinsamkeiten dienen als Anker für die weiteren „Verhandlungen“ im Hinblick auf Assoziationen zwischen Standpunkten. Nach fehlenden Informationen fragt das System. Das beschriebene Modell vermeidet aufwendige Thesauri und Domainmodellierung für jeden einzelnen view und Standpunkt des Objektbereichs. Vielmehr wird die Sichtweise vom Content getrennt modelliert (Maiden et al. 1996, S. 165). Standpunkte lassen sich mit Ontologien modellieren. Im rekursiven Dialog zum Problem entsteht ein Prozess des semantischen Problemlösens. Weick (1985) beschreibt diesen Prozess als fünf Arten der Interpretation: effectuating (to see what happens – trial and error), triangulating (apply several different measures to depend on perception their confidence-verification), affiliating (compare to already known features), deliberating (slow and careful reasoning), consolidating (put them in context). Sinn entsteht ihmnach durch das „Verhältnis eines Wissenssystems zu seinem Handlungssystem“. Da sich subjektive, standpunktbezogene Strukturen derzeit nur manuell modellieren lassen, könnten für komplexere Probleme nicht nur Ontologien, sondern, deskriptiv betrachtet, ganze Fälle strukturiert beschrieben und mit Hilfe des Case-Based Reasonings (CBR) genutzt werden. Die Grundlage von CBR ist der CBR Cycle (Watson 1994). Er beschreibt mit Abbildung 13 in Anlehnung an Aamodt und Plaza (1994) die Nutzung und Verbesserung bestehender Lösungsfälle für neue Problemstellungen als einen Kreislauf von retrieve, re-use, revise, retain. Problem Re tr New case iev e Learned case Retrieved case New case Retain Prvious cases Re -u se Tested, Repaired case Reta in Confirmed solution Solved case Suggested solution Abb. 14. CBR Kreislauf Die Fälle lassen sich im adaptiven CBR anpassen und weiterentwickeln, um eine Problemlösung und Kommunikation zu ermöglichen (Bergmann 2002). Dafür können Ontologie-Instanzen zu einem ähnlichen Fall angepasst werden (transformational adaptation), Teilaspekte neu kombiniert (compositional adaptation) oder ganze Lösungsstrukturen auf neue Fälle übertragen werden (generative adapta- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 91 tion). Ein gegebener Fall mit höchster Ähnlichkeit zum Problem könnte als Anker und Basis für einen induktiven Problemlösungsprozess durch Adaption dienen. Allen Ansätzen ist gemein, dass das automatische Identifizieren eines geeigneten Abstraktionslevels nicht problemlos realisierbar ist. Nach Smyth und anderen Autoren in Bergmann (2002) wäre die hierarchical adaptation ein Ansatz in Kombination mit anderen Modellen. Dabei werden Fälle auf unterschiedlichen Abstraktionsebenen abgespeichert und vom allgemeinsten her angepasst, um dann in iterativer Weise die Veränderungen durch die Abstraktionsebenen hindurchzuziehen. Eine weitere Herausforderung ist die Repräsentation und vollständige Abbildung komplexer Probleme und Fälle als explizites Transformationswissen in Form von Anpassungsregeln und Anpassungsoperatoren. Bergmann schlägt hierfür einen kompositionellen Ansatz vor, der die Probleme in Teilprobleme untergliedert und inkrementelle Lösungen anstrebt, die sich später wieder zur neuen Lösung zusammensetzen lassen (Bergmann 2002, S. 233ff.). Allgemein gesprochen, löst der Adpations Zyklus eine Kombination von constraint-satisfactionProblemen, wie sie aus der prozeduralen Mustererkennung bekannt sind, sowie ein Optimierungsproblem (Bergmann 2002, S. 235f.). Dabei ist weniger relevant, welche Schwachstellen in einem Fall existieren, als vielmehr Anpassungsregeln zu finden, die zu einem optimalen Konfigurationsresultat führen. Hierfür lassen sich zwei grundlegende Ansätze unterscheiden: „Preservation of Consistency“ und „Temporary Loss of Consistency“. Ersterer beschreibt den Bedarf zur Konsistenz bei jeder Anpassungsiteration. Im zweiten Fall ist der kurzzeitige Verlust der Konsistenz erlaubt, wobei dieser vermerkt wird, um in der finalen Lösung wiederhergestellt oder angepasst werden zu können. Die Vorteile des CBR sind die schnelle Antwort auf der Basis von Fällen und Konzepten, ohne eine erneute Herleitung und komplettes Domainverständnis. Als Nachteile dagegen gelten, dass alte Fälle veralten oder aktualisiert werden und die Treffergenauigkeit sehr stark von den Retrieval-Fähigkeiten und einer historischen Datenhaltung abhängt. Interessant könnte CBR für Planungen sein, wo nicht vergangene Fälle im Vordergrund stehen, sondern zukünftige Situationen oder Zustände als case-based-Planungen erzeugt werden können. Die Entwicklung von Plänen ist ein wissensintensiver Prozess. Die Erfahrung aus diesen trägt nicht nur Informationen zu semantischen Technologien der Mustererkennung und des Problemlösens, sondern auch zum Prozess der Wissensentwicklung bei. Frühe case-basierte Planungssysteme zur Planerstellung verwenden nach Bergmann (2002) folgende Module: • der Anticipator sagt Planungsprobleme vorher. • der Retriever durchsucht das Plangedächtnis nach Plänen. • der Modifier verändert den gefundenen Plan. • der Repairer liefert eine kausale Erklärung und repariert den Plan. • der Assigner verwendet die kausale Erklärung, um die Merkmale festzuhalten, aus denen sich der Fehler zukünftig vorhersagen lässt. • der Storer speichert die neuen Pläne im Gedächtnis. Sie können hilfreiche Ansatzpunkte für einen Rahmen der Wissensentwicklung sein. 9.3.3 Agent-based solving als subsymbolisches Problemlösen auf Konzeptebene Deklarativ betrachtet, soweit Subsymbolik symbolisch zu fassen ist, eignet sich die Linguistische Analyse (Magnini et al. 2002). Sie identifiziert automatisch mit Hilfe des Natural language processing (NLP) Textbausteine und Begriffe und ordnet ihnen lexikalische Formen und Kategorien zu. Der Baustein wird funktional in seine Sprachstruktur zerlegt (vgl. als Beispiel www.askjeeves.com). Es interpretiert die Bausteine im Sinne ihrer Bedeutung und Synonyme (semantisches Netz) mit Hilfe von WordNet. NLP verwendet dabei zwei Stufen der Analyse: linguistisch, semantisch und ihre „Optimierungen“. 92 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Prozedural gesehen, eignen sich Agenten für diese Aufgaben. Mit der Erstellung von Konzepten im Hintergrund ist es agentenbasiertes Problemlösen (Koriche 1998). Es besteht aus Verstehen, Denken und Annähern. Agenten können sagen, ob eine Aussage die logische Konsequenz seiner Wissensbasis ist oder ob alle allgemeingültigen Interpretationen dieser Aussage für die Wissensbasis gelten. Aus der Vielzahl an Entscheidungsmöglichkeiten bei unzureichender Information soll der Agent beim Decidable Reasoning den Teil wählen, der die höchste Übereinstimmung aufweist. „Agent“ is ein viel verwendeter Begriff, der selbst ein Beispiel für die Mehrdeutigkeit eines Konzepts in unterschiedlichen Kontexten ist. Lexikalisch gesehen, ist ein Agent jemand, der im Auftrag eines anderen tätig wird (Burkhard 2003). Er ist fähig, eigenständig (autonom) Aufgaben durchzuführen, die zur Lösung einer Aufgabe notwendig sind. Er ist adaptiv, intelligent und mobil (Stormer und Knorr 2001). Autonomie entsteht, wenn sein Verhalten auf eigener Erfahrung beruht. Er ist eine technologische Repräsentationsform, die bestimmte Verfahren anwenden und ausführen kann. In ihrer Kombination zu Agenten-Systemen nutzen Agenten weitere Kombinationsmöglichkeiten und ermöglichen die Lösung komplexere Aufgaben, wie Planung, Prozesskontrolle, Produktionssteuerung, Luftverkehrskontrolle, Informationsmanagement, E-commerce (Verhandlungen) oder Business process management (Merk 2001). Aus informationstheoretischer Sicht unterscheiden sich Agenten von Objekten durch die fehlende Kontrolle von Objekten über ihr eigenes Verhalten. Agenten kapseln mehr Freiheitsgrade (Wagner et al. 2003). Sie besitzen somit die Autonomie, eine geforderte Leistung entsprechend ihrer aktuellen Situation zu erbringen, indem sie Lösungsvarianten gegeneinander abwägen. Agenten reichen nach Luck et al. (2004) von reaktiven über hybride bis hin zu deliberativen Agenten, die sich hinsichtlich ihres Autonomiegrades unterscheiden. Nach Wagner et al. (2003) sind wesentliche Elemente von Agentensystemen die Interaktion von Agenten und agenteninternen Abläufen. Hierfür existieren agentenorientierte Programmiersprachen, Klassenbibliotheken, Entwicklungsumgebungen wie Gaia, agentTool, Passi oder Jess, Laufzeitumgebungen und Agentenarchitekturen. Agenten werden für eine konkrete Aufgabenstellung und Problembeschreibung entwickelt. Damit wird die Intention (Rolle(n)) und Situation (Prozess(e)) bis zu einem gewissen Grad extern vorgegeben. Es wird deduktiv ein Modell (Funktionsspezifizierung, Systemstruktur und -verhalten) designed, um es in kleine Einheiten (Agenten) zu zerlegen. Durch Abstraktion lassen sich Konzepte erstellen, die über eine Strukturierung in Hierarchien und Beziehungen als Interaktionsmodelle wirken. Nach Dodero et al. (2002) ist der Austausch von Vorschlägen in einer gemeinsamen Sprache und in Abhängigkeit der Ziele und Bedürfnisse beteiligter Agenten Mittel der Interaktion. Fishburn basiert diese in Dodero et al. (2002) auf Beziehungspräferenzen, Werte, Issues und auf die Speicherung von Entscheidungszuständen zur Nachverfolgung der Entscheidung. Darin spielen Hierarchien von Agenten, vorherige Zielerfüllung oder Erstellungszeitpunkt von Vorschlägen eine Rolle, um die Relevanz einzuschätzen. Sie lässt sich aus diesen Faktoren als Funktion modellieren und optimieren. Diese Form wendet Heutte (2004) in einem Multi-Agenten-System an, um Bilder zu klassifizieren. Srinivas und Wechsler nutzen in Khuwaja (2002) eine hybride Architektur für forensische Klassifizierung von Bildern und Zhang and Flucher nutzen in Khuwaja (2002) einen Baum von neuronalen Netzen. Möglichen Geschwindigkeitseinbußen begegnet Heutte durch einen gemeinsamen Speicher. Gruppierung der Agenten ermöglicht eine spezifische Behandlung auf verschiedenen Interpretationsstufen. Die Programmierung in KQML erlaubt eine Installation auf unterschiedlichen Computern und damit ein vernetztes Arbeiten. Mit den unterschiedlichen Gestaltungs- und Ausprägungsmöglichkeiten, die MAS bieten, entsteht eine große Vielfalt an Anwendungsmöglichkeiten, (Elst et al. 20004): • funktional nach Aufgabe (Informationsauswahl, Schnittstellenmanager, Decision support, simulation, Kontexterstellung, Telekommunikation, statische Optimierungsprobleme, Dokumentenvorschläge), • inhaltlich (e-business, Supply chain Information, etc.) • technischen Eigenheiten, wie Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen o o o 93 Architekturdesign - rein reaktiv, Nutzung von Agentenzuständen, etc., konkrete Architektur - belief-desire-intention oder schichtenbasiert, spezielle features - Mobilität, Interaktion mit Menschen, Anpassungsfähigkeit, Zusammenarbeit, etc. Allen ist ihr Streben nach Prozessoptimierung gemein. Nach Elst et al. (2004) sind wesentliche Herausforderung für Informationsagenten weniger die Retrievaltechniken als vielmehr die Sensoren, die den Kontext aufnehmen, und die Funktionen, die die Ausgabeform der Information steuern. Sie geben einen ausgezeichneten Überblick über die Landschaft von Multi-Agentensystemen in der Gliederung nach Agentenähnlichkeit. Homogene Ansätze beinhalten für sie Agenten, die einer gemeinsamen Klasse angehören, wie Matchmakers. Darüber hinaus haben sie Agenten, die Nutzern helfen, Informationen nicht nur zu nutzen, sondern auch bereitzustellen, und miteinander (kontext-basiert) zu kommunizieren. Als Beispiele mit entsprechendem Literaturverweis führen die Autoren an: Kazaa, Edutella, Ed2K, MARS, DIAMS, CAPIAs (Context–Aware Personal Information Agents). Auch wenn homogene Agentensysteme nach Elst et al. (2004) ein guter Hebel für Informationsagenten sind, basieren sie nicht auf Agentenplattformen und konzentrieren sich im Wesentlichen auf eine KM-Aufgabe (Informationsvorschläge und Interaktionsunterstützung). Sie erreichen zwar eine Umorientierung vom Produktfokus auf einen Prozessfokus der Applikationen, sind aber nicht ausreichend, um komplexe Wissensdomänen zu managen. Hierfür ist eine Kombination aus globaler, organisationaler und individueller Perspektive und ein autonomes Entscheidungsverhalten notwendig. Heterogene (Multi-)Agentensysteme, wie KaoS, versprechen nach Elst et al. (2004) Abhilfe, indem sie Agenten unterschiedlicher Klassen (unterschiedliche Ziele und Kompetenzen) miteinander kombinieren. Dabei können einerseits mehr Perspektiven oder andererseits mehr Systemfunktionalitäten modularisiert und repräsentiert werden. Sie bedienen sich auf Ebene der funktionalen Softwarearchitektur des bekannten Drei-Ebenen-Modells: Daten- Applikations- und Präsentationsebene (Elst et al. 2004). Für die meisten dieser Systeme steht der Knowledge re-use im Vordergrund. Merk (2001) unterscheidet logik-basierte (deliberativ) und reaktive (verhaltensbasiert, emergent) Agenten-Architekturen. Logik-basierte, wie PROLOG, bieten eine klare logische Semantik, besitzen aber eine schlechte Performance wegen inhärenter Berechnungslogiken. Reaktive Architekturen besitzen eine strukturelle Einfachheit und Effizienz, lassen sich aber schwer vorhersagen und mit Lernkonzepten versehen. Sie erlauben im Unterschied zu deliberativen (planend, feed-forward) neuen Informationen die Handlungen kontinuierlich zu beeinflussen und zu übernehmen. Sie sind opportunistisch und ungeplant. Bryson (2000) differenziert reaktive Architekturen als verhaltens-basierte, zwei- oder dreischichtige Systeme mit reflective, deliberative und reactive level, Belief-Desire-Intention (BDI) und SoarArchitekturen. Kernherausforderungen im Design von Agenten ist die Transformation der Wahrnehmung in eine hilfreiche mentale Repräsentation gewünschter Handlungen und diese in die eigentliche Handlung. Verhaltens-basierte Systeme gehen davon aus, dass sich intelligentes Verhalten nicht aus dem Denken ableiten lässt und daher die Konzentration auf diese beiden Transformationen ausreichend ist (Bryson 2000). Sie sind modular aufgebaut und damit abhängig von einer hierarchischen Steuerung. Hierarchische Systeme transformieren Wahrnehmungen und Intentionen in einen Abfolgeplan von Handlungen unabhängig von seinem Ursprung (Erfahrung, Kreativität, Instinkt, etc.). Externe Eventualitäten lassen sich hierüber schwer vorhersehen und abbilden. BDI-Architekturen (Belief-Desire-Intention) definieren, welche Ziele wie erreicht werden sollen (Merk 2001). Beliefs sind dabei aus der Agentensicht wahre Umweltinformation. Desires sind Optionen, die ein Agent hat, um die Ziele zu erreichen, die als Intentionen bezeichnet werden. 94 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Soar unterscheidet sich von den beschriebenen Systemen durch eine stark verteilte Kontrolle in Produktionsregeln. Diese sind fast ausschließlich reaktiv. Sein aufwändiger Programmierüberbau beschert Soar ein Nischendasein als eine spezialisierte Form von Lernsystem. Zusammenfassend zeigt sich, dass Auswahl seiner Aktionen ein wesentliches Merkmal reaktiver Agenten für komplexe Aufgaben und ein parallel arbeitendes „environment monitoring system“ für Agenten in dynamischen Umgebungen sein müssen. Kernproblem von reaktiven Systemen ist, dass sie kein Gedächtnis besitzen und jede Information daher eine Reflexion der aktuellen Umgebung ist. Ohne Gedächtnis kann ein Agent nicht lernen order vorausschauend planen. Das Gedächtnis unterstützt dabei die Bewertung von mehrdeutigen Informationen und ist damit Basis einer entsprechenden Differenzierungsfähigkeit. Mehrschichtige und hybride Systeme kombinieren die verschiedenen Ansätze. Malcolm kombiniert ein verhaltensbasiertes System mit einem hierarchischen Planungssystem als zweischichtiges System. Dreischichtige Systeme nutzen eine Mittelschicht, die Planelemente als „implizites Wissen“ im Gegensatz zum expliziten Lösungswissen beinhaltet. Diese Mittelschicht wird meist als reaktiv betrachtet, da sie selbst keine eigenen Pläne entwickelt, sondern nur situationsbedingt selektiert. Modularität ist bei diesen Schichtenmodellen auf die untere verhaltensbasierte Ebene beschränkt. Offen ist, wie Repräsentationen zwischen den verschiedenen Schichten verschoben und genutzt werden können. Während die Robotik dreischichtige Modelle bevorzugt, scheint sich in Agentenarchitekturen das Procedural Reasoning System (PRS) und Reactive Action Packages (RAP) für die Mittelschicht durchzusetzen (Georgeff und Lansky 1987, Firby 1987). RAP erlaubt die Erzeugung reaktiver, flexibler und situationspezifischer Pläne. PRS besteht aus vier Ebenen, die durch einen Übersetzer verbunden sind, der Wahrnehmung, Handlung und logisches Denken steuert. PRS behebt Probleme traditioneller Planungsarchitekturen, wie die Erstellung eines vollständigen Plans vor der Handlung, da vorher nicht geklärt werden kann, inwieweit er „viable“ ist (Glasersfeld 1995). Meist werden die Pläne rückwärts, vom Ziel ausgehend definiert. Die Schwierigkeit ist, Pläne während der Handlung zu verändern oder verschiedene Ziele, wie Planen und intuitives, reaktives Handeln, gleichzeitig zu verfolgen. PRS erwiesen sich in der Praxis als einfacher zu programmieren und bieten vordefinierte PlanDatenbanken und spezialisierte Priorisierungsmechanismen für die Aufmerksamkeit von Agenten. 9.4 Zwischenfazit Mit der Übersicht und Darstellung ausgewählter Technologien in den jeweiligen Klassen der Künstlichen Intelligenz ergeben sich folgende Erkenntnisse als Antworten auf die Forschungsfrage F-5, welche Verfahren sich am besten für den Umgang mit Wissen eignen. Die Antworten beziehen sich dabei auf die Eigenschaften von Wissen und erklären, wie sich die Hebel der Wissensentwicklung technologisch abbilden lassen. Im zweiten Schritt werden die technologischen Ansätze mit möglichen Verfahren aus der Diskussion detailliert. Eine Auswahl und Einordnung der verwendeten Technologien erfolgt dann in den Folgekapiteln anhand des Semantic Desktops und Gnowsis. Eigenschaft von Wissen Hebel der Wissensentwicklung Technologische Ansätze und Hebel Erst die Abbildung durch prozedurale Verfahren ersetRekursivität und zen den Explizierungsaufwand und erlauben systemimLernen manente Lernprozesse. Technologische Verfahren werden in deklarative und prozedurale Verfahren unterschieden. Im Hinblick auf den Modellierungs- und Redaktionsaufwand erfordern deklarative Verfahren einen gröVergänglich, konstruktiv (A-5.1.1) Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 95 ßeren Explizierungsaufwand. Prozedurale Verfahren benötigen einen höheren Qualifizierungsaufwand in der Beschreibung, da mehr Intelligenz in das Verfahren verlegt wird. Manche Verfahren dienen dazu, den Aufwand für die Modellierung von deklarativen Verfahren zu reduzieren, wie z.B. Ontologie-Extraktoren für die Erstellung von Ontologien. Sie verbessern zwar das Aufwand-Nutzen-Verhältnis, reduzieren aber den Grundaufwand nicht. So lässt sich, deklarativ gesprochen, die Vergänglichkeit in der Praxis durch ein Verfallsdatum von Wissensobjekten addressieren. Prozedural gesehen würde ein konstruktivistisches, rekursives Verfahren dies implizieren und ein Ergebnis immer wieder neu ermitteln. Dieser immer wieder neue Ermittlungsaufwand wirkt negativ auf die Performance. Eigenschaft von Wissen Hebel der Wissensentwicklung Technologische Ansätze und Hebel Eine systemimmanente Identifikation der Subsymbolik erviabel, Umgang mit Subkontext-spezifisch scheint erst mit Ansätzen auf der Konzeptebene realisymbolik (A-5.1.2) sierbar. Deutlich wurde die Bedeutung der Abstraktion und Ähnlichkeit zur Einbettung von Informationen in den Anwendungskontext. Dabei wird zwischen deduktivem und induktivem Vorgehen unterschieden. Im deduktivem Vorgehen müssen subsymbolische Konzepte in der Modellierung expliziert werden. Induktiv müssen diese systemimmanent zugänglich gemacht werden. Ontologien machen diese als Klassifizierungen technologisch nutzbar. Sie erschließen die Bedeutungsebene im Rahmen der Repräsentation und Mustererkennung über semantische Beschreibungssprachen in Ergänzung zu statistischen Verfahren auf der Signalebene. Mit Hilfe verschiedener Formen des ontology mappings lassen sich diese für die Mustererkennung im Rahmen des Information Retrievals nutzen. Eigenschaft von Wissen Hebel der Wissensentwicklung Technologische Ansätze und Hebel Intention ist neben Kontextfaktoren ein Relevanz- und Entscheidungskriterium und kann durch ontologische Mustererkennung als Näherung in Problemlösungsverfahren berücksichtigt werden. Die bisherige KI konzentrierte sich auf die Ebene der Symbole. Semantische Technologien erlauben zum einen die Erfassung durch ontologische Repräsentation, zum anderen die Verarbeitung durch ontologische Mustererkennung auf Bedeutungsebene. Semantische Verfahren bieten aufgrund ihrer symbolischen Basis nur eine Näherung, die helfen kann, subsymbolische Prozesse besser zu verstehen, ohne sich auf „black boxes“ verlassen zu müssen. Sie helfen, komplexere Zusammenhänge verarbeitbar zu machen. Noch benötigen sie eine Modellierung aller relevanten Perspektiven, wie der Intention des Betrachters mit seinen Zielen, Aufgaben und Kompetenzen. Folge ist eine mehrdimensionale Verschlagwortung durch strukturierte Meta-Daten. subjektiv (A-5.1.3) Berücksichtigung der Intention Konzepte beschreiben subsymbolische Phänomene, die weniger als symbolische, sequentielle Beschreibung zu fassen sind, sondern als simultane Gleichgewichtsprozesse wie Zustände bestehen. Sie zerfallen durch eine Beobachtung oder Bewusstmachung und erneuern sich ständig. Eine Modellierung dieser könnte sich dem in der Wissenstheorie geforderten re-entry nähern und ständig neue Begriffsmutationen anbieten (Edelmann und Tononi 2000). Die Differenzierung nach Abstraktionsebenen verdeutlicht in eigener Darstellung mit Tabelle 12, dass sich semantische Verfahren subsymbolischen, konzeptionellen Phänomenen nur simulativ nähern können. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 96 Tabelle 12. Mögliche Verfahren zur Realisierung der technologischen Hebel Zuordnung Zu A-5.1.1 Technologischer Hebel Verbesserung von deklarativen Verfahren durch Explizierungshilfs-mittel Mögliche Verfahren • • auf viele Personen) • Vergänglich, konstruktiv, Rekursivität und Lernen Zu A-5.1.2 viabel, kontextspezifisch Ersatz durch prozedurale Verfahren Höhere Abstraktionsebenen technologisch nutzbar machen durch Beschreibung und Repräsentation von Konzepten Umgang mit Subsymbolik Integration und Kombination von Musterkennung und Problemlösungsansätze Zu A-5.1.3 Subjektiv, Berücksichtigung der Intention Verfallsdaten mit Bearbeitungsworkflow Unüberwachtes Lernen und schemata emerging könnten in Erweiterung zu bekannten stochastischen, überwachten Verfahren mit Hilfe von ConstraintSatisfaction-Netzwerken bottom-up-Entwicklungen simulieren und unterstützen. Damit ginge man von einem rein konstruktiven, sich ständig erneuerndem Modell aus. Deklarativ (direkt) durch semantische Beschreibungssprachen wie RDF(S) oder OWL auf XMLBasis und Ontologien Deklarativ (indirekt) durch Repräsentationsnetze, wie Neuronale Netze Prozedural durch Abbildung des Personal Information Models als Repräsentation mentaler Modelle Deklarativ (direkt) • Heuristiken, Regeln, wie Explizierung der Ziele in der deduktiven Wissensentwicklung • • Annäherung durch Simulation und Nutzerfeedback Erstellungshilfen für Ontologien Automatisierung Crowdsourcing (Verteilung des Redaktionsaufwands Nutzerfeedback über Ergebnis-Layout und Navigation Case-based Reasoning Deklarativ (indirekt) Die Rolle eines Nutzers könnte im Prozess ein Zwischenschritt sein, die Intention zu erfassen und damit automatisch zugänglich zu machen. Über Peer-2Peer Ansätze könnte das Zusammenspiel und die Kommunikation der Akteure simuliert werden und damit eine Erfahrungsbasis für Agentenarchitekturen darstellen. Prozedural Nutzung von multi-perspective resoning Ansätzen, die über Verhandlung der Standpunkte zu Aussagen kommen. In Weiterentwiclung können Agenten diese Standpunkte repräsentieren und wie Individuen agieren. Manuell ließe sich ihnen eine Perspektive und Intention in Form von Prinzipien, Werten geben, um den subjektiven Charakter von Wissen zu repräsentieren. Diese Verfahren erschließen die Konzepte in Form von Ontologien aus dem Nutzerkontext, während Metadaten manuell expliziert werden. Die Intelligenz liegt bei Metadaten außerhalb des Systems beim Knowledge Engineer. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen (A-5.2) 97 Die technologischen Hebel nutzen Repräsentationen mentaler Modelle. Die verwendeten deklarativen Verfahren werden derzeit auf Bedeutungsebene noch nicht durch prozedurale ersetzt. Um eine manuelle Modellierung zu umgehen und den Redaktionsaufwand zu verringern, nutzen diese Hilfsmittel automatische Ermittlung durch Nutzerbeobachtung und OntologieAutomatisierung als Repräsentanten mentaler Modelle. Menschen sind immer auch eine Fehlerquelle. Semantische Verfahren erlauben mit der automatischen Ermittlung die Vermeidung von Fehlern bei der Indexierung und damit eines Informationsverlusts bei der Recherche. Die dynamische Integration vermeidet die kontinuierliche Verwaltung der Terminologien und deren Kosten. Es erlaubt eine Konsistenz in den Bezeichnungen, so dass nicht unterschiedliche Anwendergruppen unterschiedliche „Sprachen“ nutzen, die wieder zu Verständnisschwierigkeiten führen. Aber auch automatisierte Lösungen bergen Schwierigkeiten. Ihre Grenzen liegen in der unzureichenden Fähigkeit, mit Komplexität umzugehen. Sprachliche Vielfalt ist zu hoch oder Termmenge ist zu niedrig, um die Sachverhalte performant und in guter Qualität abzubilden und auszuwerten. Die Zuordnung sprachlicher Ausdrücke zu ihren Bedeutungsinhalten ist unzureichend oder es fehlen begriffliche Relationen in der Lexikalisierung von Paraphrasen. Die vorgestellten Verfahren wirken wie Spezialbausteine, die jedes für sich spezifische Herausforderungen der Repräsentation, Mustererkennung oder Problemlösung addressiert. Sie decken das Spektrum von symbolischen, statistik-geprägten bis hin zu subsymbolischen, holistischen Ansätzen ab. Ersteren mangelt es an Subjektivität, Letztere scheinen den Kontext zu erfassen und damit die Viabilität zu addressieren. Sie beinhalten auch differenzierte Sichtweisen und Formen der Verhandlung zur Konstruktion eines neuen Zustandes. Sie lassen aber die Vergänglichkeit unberücksichtigt und arbeiten derzeit noch auf Informations- und Datenbasis statt auf Konzepten. In Summe zeigt sich, dass kein Verfahren oder keine Technologie es vermag, die Herausforderungen alleine zu lösen. (A-5.3) Die Verfahren wirken in ihrer anwendungsspezifischen Kombination. Kernfrage der technologischen Unterstützung im vorliegenden Fall ist die Informationsrelevanz, die im Anwendungsbezug als Wissen Wert stiften kann. Relevanz ist ein relativer Begriff, dessen Aussagekraft sich erst in Bezug auf etwas ergibt, hier dem Template eines Management Summaries. Die Rolle der Prozessakteure könnte, wie im Beispiel illustriert, eine wichtige Rolle spielen. Fraglich ist, ob diese die Subjektivität von Wissen und die Standpunkte aus der Technologiediskussion repräsentieren kann (F-5.3.1). In diesem Falle könnte über sie das Modell der Intention in die Diskussion und Technologien eingebracht werden. Folgendes Kapitel stellt bestehende Applikationen zur Abgrenzung und Einordnung kurz vor und zeigt die Probleme auf. Daraufhin wird mit der semantischen Suche im Semantic Desktop eine neue Kombination von Technologien in ihrer Wirkung auf die Informationsrelevanz untersucht. Dabei soll im Hinblick auf die nächste Forschungsfrage (F-6) herausgearbeitet werden, inwieweit die semantische Suche (Gnowsis) des Semantic Desktops leistungsfähiger und intelligenter als bestehende Suchen im Rahmen des betrieblichen Wissensmanagements sind. Auf dieser Basis soll zudem die neu aufgeworfene Frage (F-5.5.1) untersucht werden. Mit den Erkenntnissen lässt sich der Beitrag des Semantic Desktop im Sinne der Forschungsfrage (F-7) bestimmen und einordnen. 98 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 99 10 Semantic Desktop im Applikationsumfeld Aus Applikationssicht bieten auch Proposal Automation Tools, Recommendersysteme oder Content- und Wissensmanagement Tools einen Rahmen für den betrieblichen Umgang mit Informationen. Sie kombinieren bereits verschiedene Technologien und machen sie für den betrieblichen Einsatz nutzbar. Sie bilden den Umgang mit Informationen im Sinne des Contententwicklungs- und -pflegeprozesses ab, vernachlässigen aber die Einbindung in die Geschäftsprozesse. Sie sind nach wie vor auf ein manuelles Design im Vorfeld der Anwendung angewiesen. 10.1 Wissensmanagementsysteme (WMS) und Portale Informationssysteme für das Wissensmanagement sind nach Riempp (2004) WMS. Sie sollten leichten Zugang zu gemeinsamen Dokumenten und Lessons learned bieten, ohne eine reine Dokumentenablage zu werden. WMS beziehen sich auf explizite Wissensobjekte, die gerne durch explizite Verbindungen mit Links für die Navigation verbunden werden (Document linkage systems). WMS existieren als argument management systems. Sie versuchen, komplexe Diskussionen und Entscheidungen zu visualisieren und zu verbessern. Beide erfordern ein hohes Maß an Pflegeaufwand und bedürfen meist extensiver Suchtechnologien, um der Informationsflut Herr zu werden. WMS unterstützen Mitarbeiter bei der Ausführung von WM-Prozessen und integrieren Technologie, Prozess und Anwenderaktivitäten. Sie unterstützen Transparenz, Austausch, Steuerung der Wissensentwicklung und Effizienz. Aus prozessualer Sicht bieten sie Inhalte, Kompetenz, Zusammenarbeit und Orientierung (Riempp 2004, S. 132f.). WMS lassen sich nach unterschiedlichen Kriterien klassifizieren. Nach Maier (2002, S. 220ff.) abstrakt nach der Wissensart oder des Contents (Produktwissen, Patente, best practices, FAQ, community directory), eng gefasst nach ihrer Funktionalität oder konkret nach der Aufgabe. Weiter unterscheiden sie sich nach Riempp (2004, S. 144) in ihrer Realisierung gemäß der Zielgruppe: Individuum (Content-Management), Gruppe (Community) oder Organisation (Portal) oder ihrer Funktionalität: Portale, Community System, wissensintensives Prozessmanagement oder Kreativitätswerkzeuge. Drei wesentliche Quellen für WMS-Architekturen finden sich ebenfalls bei Maier (2002): Theoriegetrieben (Organisational memory), Markt-getrieben (praktische Integration von Daten und Dokumenten Management System), Hersteller-spezifisch (white-paper-basiert). Maiers (2002, S. 196f. und 2005) Architekturvorschlag bettet WMS in die Systemlandschaft als Middleware ein. Sie lassen sich als personen-, organisations- oder wissensproduktgebundene Instrumente differenzieren Wissensportale bieten einen Single point of access und über reine Contentsammlungen hinaus Sinnzusammenhänge, um Informationen zu finden. Sie erlauben den Zugang zu unterschiedlichen Informationsquellen, kontinuierlichen Zugriff auf neue Informationen basierend auf Nutzerprofilen. Hierfür haben sich eigene Applikationen etabliert (Plumtree, Hummingbird, etc.), deren Art und Umfang (Wissensteilung, Wissenssuche, Wissensaufbereitung (Retrieval, Agents, Groupware), Wissensbasis (DMS, Archivierung, Imaging), Wissenslandkarten) die Meta-Group als Enterprise Information Portals bezeichnet (Koriche 1998) . Eine besondere Form eines WMS ist das Corporate Memory (Aschoff und v. Elst 2001). Es bezieht die abstrakte Definition auf das im Unternehmen verfügbare Wissen mit ein. Es entwickelt sich zunehmend weg von einem personen-unabhängigen System hin zu einer Interaktionsplattform zur Erstellung und Nutzung von Wissen. Dennoch bleibt fraglich ist, wie und welches Wissen gespeichert werden kann. Letztlich können nur Informationen, wie Content, Meta-informationen, Konzepte, Regeln oder Beziehungen gespeichert werden. 100 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 10.2 Proposal Automation Tools Zur Verbesserung der Unterstützung der Angebotsentwicklung gibt es bereits einige enabling applications, wie Proposal Automation Tools – PAT − (Wilson 2001). Sie entwickeln Standardangebote, indem sie Text- und Grafikelemente auf der Basis von vorgegebenen Angebotsstrukturen miteinander verbinden. Sie stützen sich dabei auf Portfoliodefinitionen und vordefinierte Argumentationen. Sie können aufgrund ihres manuellen Vorgehens als Content-Applikationen betrachtet werden. Siemens IT Solutions und Services (SIS) verwendet ähnliche eigenentwickelte Anwendungen, die darüber hinaus eine Standardkalkulation und Preisermittlung unterstützen. Sie tragen zwar zur Vereinfachung des Angebotsprozesses bei, aber bisher nicht zur Reduzierung des Redaktionsaufwands. Hierfür müssten sie Technologien und Verfahren anwenden, die mit höheren Komplexitäten umgehen können. Denkbar wäre ein Management Summary als einen case aufzufassen und mit case-basedreasoning-Verfahren zu arbeiten. Aufgrund der Aufgaben- und Informationskomplexität unterstützen PAT zwar, ersetzen aber noch keine wissensintensiven Prozesse und machen noch keinen Gebrauch von den beschriebenen Funktionen. Sie bedürfen heute einer aufwendigen Spezifizierung und vernachlässigen wichtige Kontextinformationen, wie Kundenprioritäten oder Geschäftsumfeld des Kunden. Sie unterstützen daher noch keine Entwicklung von Value propositions, wie Kostenreduzierung für Antworten auf Kundenanfragen, oder Solution Szenarios, wie Lieferung eines globalen Help-Desk und Prozess-Redesign statt Verkauf von Suchfunktionalitäten. 10.3 Recommendersysteme Recommendersysteme geben Endnutzern Produkt- oder Serviceempfehlungen und bilden selbst einen wissensintensiven Prozess ab. Mit ihrer Funktionalität können sie eine aktive Prozessunterstützung für wissensintensive Prozesse sein. Adomavicius und Tuzhilin (2005) unterscheiden in ihrem Literaturüberblick zu content- und collaborations-basierten sowie hybriden Empfehlungsansätzen heuristisch- und modell-basierte Empfehlungstechniken. Brand-Haushofer (2005) differenziert nach dem Einsatzfeld in Vorschlagssystemen, Selling-Systemen und Systemen zur Kundenkommunikation. Terveen und Hill (2001) unterscheiden als Ansätze content-based, collaborative-filtering, reccomendation support und social data mining. Sie basieren alle auf Informations-Filteringsystemen und stellen Technologien aus der Prozesssicht dar. Im weiteren Sinne umfassen Recommendersysteme damit individualisierte und nichtindividualisierte Systeme. Damit würden sie Formen einer Suche einschließen. Im engeren Sinne unterscheiden sich beide durch den Grad der Profilnutzung. Recommendersysteme weisen eine hohe Personalisierung auf. Im Hinblick auf den Semantic Desktop verschwimmt diese Grenze aber zunehmend. Runte (2000) unterscheidet weiter in eigenschaftsbasierte und empfehlungsbasierte Systeme. Erstere leiten die Empfehlung feature-based aus den Objekteigenschaften ab, während Letztere über collaborative filtering Peer-Gruppen einbeziehen. In diesem Sinne stellt der Semantic Desktop ein Hybrid dar. Er nutzt beide Denkrichtungen, wobei er die Empfehlungen anderer user automatisch aus deren Eigenschaften, sprich Personal Information Models (PIMO), ableitet. Langfristig werden semantische Suchen so vielleicht Vorschläge zu relevanten Textbausteinen in Abhängigkeit der value proposition, Kundensituation und Vertriebsstrategie machen können. Semantik ergänzt in jedem Fall bestehende Filter-Algorithmen und verbessert damit die Recommendations und Recommendersysteme. 10.4 Semantic Desktop Der Semantic Desktop ist ein Artefakt und Tool basierend auf semantischen Technologien im Kontext des Semantic Web (Dengel 2007). Er kombiniert individuelles Informationsmanagement mit sicherer Informationsverteilung in vertrauensvollen Community-Umgebungen. Er macht Technologien des Semantic Web für den Desktop nutzbar (Sauermann 2003 und Sauermann et al. 2005) und stellt semantische Services für Collaboration und Community building bereit (Dengel 2007). Dafür kombiniert er verschiedene technologische Bausteine, wie Algorithmen, Schnittstellen oder Ergebnisdarstellungen und ergänzt sie um einen peer-to-peer-Ansatz. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 101 Die Entwickler und Autoren Sauermann et al. (2005) beschreiben den Desktop als ein Artefakt, in welchem ein Individuum all seine digitalen Informationen aufbewahrt. Als semantische Webressourcen sind sie über einen Uniform Resource Identifier (URI) identifizierbar und als RDF Graph auswertbar. Die Beziehung der Ressourcen untereinander erfolgt durch Ontologien als Abbild individueller mentaler Modelle. Der Semantic Desktop entstand aus Studienprojekten der Autoren und wurde im Rahmen von Forschungsprojekten am DFKI, wie EPOS (Dengel et al. 2002), weiterentwickelt. Er ist beeinflusst von Forschungsprojektem im Umfeld des Semantic Web, wie • Webservices und Informationsintegration bei SECO (Harth 2004), • Datenintegration und Anpassung von SQL Quellen (Bizer und Seaborne 2004) • ein erster Integrationsansatz vom MIT aus dem Projekt Haystack (Quan et al. 2003) • Speicherung von Multimediadaten aus Microsofts MyLifeBits-Projekt (Gemmel et al. 2002) • Personal Information Manager aus dem open-source-Projekt Chandler (www.chandlerproject.org) oder IRIS Semantic Desktop (www.openiris.org) • Visiualisierung und Bearbeitung von RDF Graphen aus dem Fenfire-Projekt (www.fenfire.org) Für die Anwendungsfelder des Semantic Desktop existieren bereits verschiedene Bausteine und Technologien. Sauermann et al. (2005) geben dazu im Hinblick auf die Realisierbarkeit und Nutzung im Praxisumfeld eine Übersicht und Referenzen zu den verwendeten Technologien. Sie verdeutlichen in Tabelle 13 die Kernpunkte der Weiterentwicklungen und technologischen Besonderheiten des Semantic Desktop unter Berücksichtigung folgender Kriterien bei der Verfahrens- und Technologieauswahl: • Performance: Geschwindigkeit in Bezug auf die Ergebnisqualität • Ressourcenbedarf: Speicherbedarf und Systemvoraussetzungen • Usability: Nutzergerechte Navigation und Ergebnisbereitstellung • Offenheit: Offene Schnittstellen und Kombinationsfähigkeit in einer Architektur • Reifegrad: Fähigkeit, mit Komplexität umzugehen ohne zusätzlichen Modellierungsaufwand Tabelle 13. Technologiebausteine des Semantic Desktops Grounding Technology Type Storage Search Communication Ontologies Information Interaction Ontology editing Today • Jena • RDF gateway • Sesame • Lucene • Desktop Search Tools • Jabber, IM • Email • P2P networks • DC • FOAF • Icalender • SKOS • Thesauri • PIMO • Protegé • IsaViz • KAON Semantic Desktop SPARQL und semantische Protokolle (RDF) Semantische Suchdienste Semantic messaging und P2P •Popular ontologies •Ontology mapping •Desktop ontologies Ontology editors Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 102 Domain Specific PIMO und Workflow • Tidepool/ Storymail • PhotoStuff • RSS Readers • Microsoft Outlook • Lotus Notes • Frodo Taskman Semantic Desktop applications Semantic PIMO, Semantic Workflow Der Semantic Desktop erfindet, technologisch gesehen, wenig Neues, sondern macht die Potentiale von Einzeltechnologien über eine intelligente Kombination nutzbar. Alleinstehend optimieren diese nur Teilaspekte der betrieblichen Herausforderung. Er integriert insbesondere semantische Repräsentationen und Technologien der Mustererkennung. Technologien zur Problemlösung auf Bedeutungsebene sind nicht standardmäßig integriert. Ihre potentielle Wirkung soll durch händische Modellierung von Regeln simuliert werden, um eine zukünftige Integration zu untersuchen. Wie Tabelle 14 in eigener Darstellung zeigt, erschließt der Semantic Desktop damit eine weitere Abstraktionsebene. Entsprechende Weiterentwicklungen in die noch nicht addressierten Bereiche sind aufgrund der offenen Architektur denkbar. Sie basiert hierfür weitestgehend auf open-source- Komponenten, wie Protegé. Tabelle 14. Einordnung beispielhafter semantischer Verfahren (hellgrau) als Weiterentwicklung bestehender KI-Verfahren (dunkelgrau) Mustererkennung Problemlösung prozedural deklarativ prozedural deklarativ prozedural Feature-Maps Kohonen-Map MultiAgentenperzeptoren Vektormodelle Überwachtes Lernen, wie BayesKlassifikatoren Entscheidungsbäume, Heuristiken Expertensysteme Ontologien, semantische Netze Kontextbeobachtung Ontology mappings Ontology matching Case-based reasoning Multiperspective reasoning Backpropagation Eigen-/ Fisherfaces Methode Unüberwachtes Lernen, wie constraintsatisfaction Netzwerke Natural language processing Multi-agent Architekturen Konzepte deklarativ Symbole Repräsentation Methoden nach Abstraktionsebene Bedeutungen und Klassen Verfahren Neuronale Netze Sauermann at al. (2005) streben mit dem Semantic Desktop einen Bezug zu unserem individuellen Erfahrungshintergrund und die Einbindung in tägliche Prozesse und Aktivitäten bis hin zu persönlichen Interessen an. Sie lassen dafür unsere mentalen Modelle durch Ontologien formal repräsentieren. Mit Hilfe der Repräsentationssprache RDF für Ontologien werden diese technologisch zugänglich und nutzbar gemacht. Der Semantic Desktop beobachtet, neben der Abbildung mentaler Modelle, den Nutzer, um seinen Kontext, wie kürzliche Aktivitäten, zu erfassen. Mit Hilfe des Kontextes wird die Art und Form der Informationsbereitstellung beeinflusst. Kontextparameter stoßen im Hintergrund automatisch Suchen an, die diese Informationen kontextgerecht ermitteln. Erforscht wird am DFKI derzeit eine allgemeine Ontologie für Kontextinformationen (Schwarz 2006). Erste Prototypen und Ansätze sind auch in anderen Forschungsprojekten, wie EPOS, eFISK (Miller et al. 2005) oder Activity Based Metadata for Semantic Desktop Search von Chirita et al. (2004) verfügbar. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 103 Der Semantic Desktop ist in einer offenen Architektur gestaltet und erlaubt dadurch eine applikationsunabhängige Kontexterfassung und -bereitstellung. Der Nutzer wird dadurch entlastet und muss sich nicht an Applikationsumgebungen anpassen, sondern die Technologie passt sich an sein Nutzungsverhalten an. Damit ermöglicht der Semantik Desktop ein applikationsübergreifendes Management der persönlichen Modelle. Er besitzt damit den Charakter eines Master-Daten-Managers und einer Middleware statt einer proprietären Applikation. Er fügt sich damit in bestehende betriebliche Applikationslandschaften und Workflow-Umgebungen ein. 10.5 Zwischenfazit WMS und PAT bieten dem Nutzer integrierte Funktionalitäten und eine nutzergerechte Bedienung und Oberfläche. Sie passen sich aber nicht an die Informationsbedarfe des Nutzers an, sondern sind nach ihrem Inhalt strukturiert. Eine nutzergerechte Informationsbereitstellung erfordert damit aufwändige Datenpflege, Verschlagwortung und Modellierung. Recommendersysteme orientieren sich am Nutzer und arbeiten entweder eigenschafts- oder empfehlungsbasiert. Jedoch lösen auch sie nicht das Problem des Allgemeinwissens und der Nutzung des Kontextes. Der Semantic Desktop bietet eine neue Kombination bestehender Technologien in einem offenen, applikationsunabhängigen Format. Mit Hilfe von Nutzerbeobachtung und Verwendung nativer Strukturen des Nutzers können Konzepte automatisch ermittelt werden. Sie legen den Vergleich mit Recommendersystemen nahe. Anders als bestehende Recommendersysteme kombiniert und ergänzt der Semantic Desktop die Ansätze mit Hilfe von semantischen Konzepten und P2P-Strukturen. (A-5.4) Der Semantic Desktop ist mit einem hybriden Recommendersystem vergleichbar. Er kombiniert eigenschaftsbasierte und empfehlungsbasierte Ansätze. Die Kombination der Technologien verspricht verbesserte Ergebnisse durch die Erschließung der Bedeutungsebene und unter Anwendung optimierender Ansätze für deklarative Verfahren, wie der Ontologie-Erstellung. Betrachtet man den Semantic Desktop in Summe im Hinblick auf die in Kapitel 9.4. angeregten Verfahren zur Addressierung der Charakteristika von Wissen und der Hebel der Wissensentwicklung, zeigt sich als Antwort auf die Fragen (F-5.3.1) und (F-4.4.1), dass er • Bedeutungen über direkte deklarative Verfahren zugänglich macht. Eine Rekursivität wird aufgrund der deklarativen Ansätze derzeit nur indirekt addressiert. Mit Hilfe prozeduraler Technologien, wie Constraint-Satisfaction-Netzwerken, könnte sich diese integrieren lassen. • subsymbolische Konzepte systemimmanent zunächst über direkte Repräsentationssprachen berücksichtigt. Durch Verwendung des Personal Information Models werden mentale Modelle ohne zusätzlichen Modellierungsaufwand zugänglich. Eine prozedurale und systemimmanente Integration der Konzeptebene wird nicht addressiert. • die Intention nicht direkt berücksichtigt, sie aber durch Modellierung des PIMO und von Regeln einbindet. Es steht damit ein Testszenario zur Verfügung, das sich über die Rollen in betriebliche Prozess- und Systemlandschaften einbinden lässt. Der Semantic Desktop repräsentiert eine Entwicklung, die Schritt für Schritt das Technologiespektrum integriert und kombiniert. Sie wird in eigener Darstellung in Abbildung 14 illustriert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 104 Intention Subsymbolik Verfahren Repräsentation Mustererkennung Problemlösung Methoden nach Abstraktionse bene deklarativ prozedural deklarativ prozedural deklarativ prozedural Symbole Feature-Maps Kohonen-Map Multi-Agentenperzeptoren Vektormodelle Überwachtes Lernen, wie BayesKlassifikatoren Entscheidu ngsbäume, Heuristiken Expertensy steme Bedeutunge n und Klassen Ontologien, semantische Netze Kontextbeobachtung Ontology mappings Ontology matching Case-based reasoning Multiperspective reasoning Neuronale Netze Backpropagation Eigen/Fisherfac es Methode Unüberwachtes Lernen, wie constraintsatisfaction Netzwerke Natural language processing Multi-agent Architekture n Konzepte Rekursivität Abb. 15. Technologieintegration zur schrittweisen Abbildung von Wissen Mit der Integration von komplexeren Erkennungs- und Problemlösungsverfahren können sukzessive die Intention und Standpunkte von Nutzern berücksichtigt werden. Die Addressierung und Erschließung weiterer Abstraktionsebenen ermöglichen tieferen Zugang zu subsymbolischen Konzepten. Durch den Einsatz prozeduraler Verfahren als Ersatz für deklarative wird Modellierungsaufwand in systemimmanenten Lernaufwand gewandelt. Die Definition prozeduraler Verfahren basiert auf den jeweiligen Erkenntnissen deklarativer Modellierungen. Mit einer kontinuierlichen Performancesteigerung können diese Schwellenwerte erreichen, um neue Abstraktionsebenen zugänglich zu machen. Mit diesen Erkenntnissen und den Grundlagen der Künstlichen Intelligenz lässt sich auch die spezifische Frage (F-2.3.1) aus Kapitel 6 in Bezug auf die Wirkung einer semantischen Suche auf verschiedene Prozessarten beantworten. (A-2.3.1) Der Semantic Desktop und mit ihm die semantische Suche adressiert zielorientierte, wissensintensive Prozesse. Mit Hilfe von ontologischen Repräsentationen erschließt der Semantic Desktop mit der Bedeutungsebene eine neue Dimension der Technologieunterstützung im Umgang mit unstrukturierten Informatioen. Technologien aus der Signalebene benötigen, ähnlich wie CRM- oder PAT-Systeme, strukturierte Informationen. Um aus unstrukturierten Daten strukturierte zu machen, bedarf es bisher des bekannten Redaktionsaufwands, insbesondere in dynamischen Umgebungen. Eine semantische Suche kann mit dynamischen, unstrukturierten Daten umgehen und diese situations- und intentionsspezifisch bereitstellen, um die Ergebnis- und Informationsqualität zu steigern. Durch Retrival und Nutzung bestehender Konzepte ersetzt sie den bisher manuellen Redaktionsaufwand in der Festlegung von Konzepten zur Zielerreichung. Mit Hilfe der Rolle können Informationsbausteine dynamisiert werden. Die Rolle unterstützt damit den Ersatz deklarativer Systeme durch prozedurale. Wie Tabelle 15 verdeutlicht, lassen sich in der Beschreibung der Rolle Intentionen und Ziele festhalten, die für zielorientierte Prozesse einen deklarativen Nutzen bieten. Für aktivitätsorientierte Prozesse, die bereits deklarativ (z.B. in Workflows) beschrieben sind, sind sie Grundlage für eine prozedurale Abbildung. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 105 Tabelle 15. Beitrag der Technologien und der semantischen Suche in wissensintensiven Prozessen Prozessart Charakteristikum Wissensintensiver zess Aktivitätsorientiert Folgeaktivitäten und Ziele sind definiert. Pro- Formular ausfüllen Wissensentwicklung als Deduktiv Erstellung eines Management Summaries Detaillierung der VorRedaktionsaufwand lagen (z.B. Template) und Ziele auf verarbeitbare Größen Signalebene Abstraktionsebene ContentmanagementApplikationen systeme/ PAT Technologieunterstützung/ -enabler Volltextsuche Manueller Explizie- Hoch rungsaufwand Außerhalb des Systems Handhabung Komplexität Zielorientiert Gesamtziel definiert, Aktivitätsziele nur vage erkennbar, Folgeaktivitäten sind offen. Entwurf Angebot/ Informationssammlung Induktiv Wissensorientiert Offene Ziele und Aktivitäten Festlegung und Definition von Konzepten und Regeln zur Zielerreichung Bedeutungsebene (Weak)-WorkflowMgmt. Systeme und Semantic Desktop Semantische Suche Erfassung und Explizierung versteckter Konzepte Konzeptebene Agenten-Systeme Mittel Niedrig In einzelnen Systembausteinen Im System Erstellung einer Value proposition Intuitiv Case-based reasoning Die Frage (F-2.3.2), welche Schritte für die weitere Forschung notwendig wären, um sich intuitiven, wissensorientierten Prozessen zu nähern, lässt sich wie folgt beantworten: (A-2.3.2) Für eine Unterstützung wissensorientierter, wissensintensiver Prozesse wäre eine Nutzung von Technologien auf Konzeptebene und unter Berücksichtigung von Problemlösungsverfahren notwendig. Value propositions können als schwer explizierbare Aussagen eines Angebots verstanden werden. Damit würden sie in die Abstraktionsebene der Konzepte fallen. Sie sind symbolisch beschreibbar, besitzen aber eigentlich subsymbolischen Charakter und enthalten verschiedene Sichtweisen und Standpunkte, wie Produkt-, Vertriebs- oder Nutzenargumentationen. Technologien, die die subsymbolische Ebene unterstützen könnten, wie Neuronale Netze, existieren problembezogen bei klar definierten Optimierungsproblemen, sind aber in ihrer Eingabe- und Ausgabestruktur festgelegt und damit für dynamische Umgebungen bisher nur bedingt geeignet. 106 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 107 11 Gnowsis − Semantische Suche im Semantic Desktop Über die Diskussion möglicher Technologien und Applikationen zur Addressierung der Besonderheiten und Charakteristika von Wissen im Rahmen der Wissensentwicklung hat sich die semantische Suche als wesentlicher, realisierbarer Baustein herausgestellt. Sie verspricht die Senkung des Redaktionsaufwandes bei gleichzeitiger Steigerung der Ergebnisqualität durch intelligente Kombination bestehender Technologiebausteine. Die semantische Suche des Semantic Desktop – Gnowsis − wird in diesem Kapitel vorgestellt, in den Kontext des Information Retrievals eingeordnet und in ihrer Wirkung im Praxisumfeld bei Siemens IT Solutions and Services getestet. Die Ergebnisse stehen im Vergleich zur aktuell eingesetzten Suche von Livelink (Opentext) und werden in ihrer Relevanz an Rollenprofilen gespiegelt. 11.1 Kontext des Information Retrievals In Kapitel 9 wurden bereits allgemeine Verfahren und Methoden der Künstlichen Intelligenz zur Repräsentation und Mustererkennung beschrieben. Sie werden auf die Fragestellungen des Information Retrievals angewendet und in ihrer Wirkungsweise diskutiert. Neben einer pfadbasierten Navigation verwenden Nutzer nach Barreau und Nardi (1995) Volltextsuchen zur Identifikation von Informationen auf dem Desktop. Basis für die Volltextsuche sind auf einem Computer gespeicherte „indizierte Inhalte“ (Vanholt 2004). Alle vom Nutzer eingegebenen Suchwörter werden mit dem vorhandenen Datenbestand abgeglichen. Wird ein Suchwort in einem Dokument gefunden, wird dieses Dokument als Treffer angezeigt. Der Nachteil dieses Verfahrens ist, dass ein intelligenter Umgang mit der Sprache weder vorgesehen noch möglich ist. Nach Dengel (2008) bilden folgende Bausteine die Basis für einen technologischen Umgang mit Dokumenten und Informationen: Indexierung und Repräsentation, Bewertung und Gütemaße, Dokumentsuche, Termrelevanz, Dokumentenklassifikation. Die Bausteine bestehen aus oder nutzen statistische oder regelbasierte Verfahren, je nach Grad der Nutzerinvolvierung. Zu jedem Baustein existieren Optimierungsansätze, die Fehlerraten oder Leistungsfähigkeit verbessern. Mit Hilfe der Boole´schen Indexierung wird ein Inhalt oder Dokument anhand von begrifflichen und sprachlichen Term-Häufigkeiten repräsentiert. Zur Optimierung des Indexes werden Füllwörter eliminiert, Wortstämme gebildet (Stemming), Synonyme und Akronyme berücksichtigt (Thesauri), Phrasen mit Hilfe von Lexikon und Grammatik identifiziert oder über linguistischen Methoden auf ihre Bedeutung untersucht. Die Korrelation cij zwischen Begriffen ti und tj wird nach Dengel (2006) durch deren Häufigkeit fik und fjk im Dokument dk ausgedrückt: c ∑ f = ij d k∈D x ik f jk (1) Zur Vermeidung von individuellen Präferenzen kann diese normalisiert werden: c' ij = c c +c −c ij ii jj (2) ij Das Ergebnis von c’ ist 1, wenn die Begriffe ti und tj die gleiche Häufigkeit aufweisen. Die hierdurch generierten Begriffe werden genutzt, um ein elektronisches „Verständnis“ und mentales Modell zum Suchbegriff zu bilden. Damit lassen sich die Modelle statt nur der Begriffe vergleichen und in Beziehung setzen. Der Nutzer verständigt sich mit dem System assoziativ über sein mentales Modell statt nur über den Begriff als solchen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 108 Linguistische Verfahren berücksichtigen lediglich einzelne Wörter unabhängig vom Kontext und arbeiten mit Positivlisten (Wörterbücher). Auch wenn sie keine Bedeutungsdifferenzierung erlauben, sind sie schnell, stabil und im abgebildeten Funktionsumfang mit hohem Prozentsatz korrekt. Dennoch benötigen sie für die Pflege des Wörterbuchs Redaktionsaufwand. Für die Termgewichtung wird eine inverse Dokumentanhäufigkeit aus Anzahl und Frequenz der Dokumente berechnet. Über die Frequenz kann auf inhaltliche Aspekte geschlossen werden, da häufige Terme oft Füllwörter sind. Folgende tabellarische Darstellung nach Dengel (2008) gibt eine Übersicht über die Wirkung der verschiedenen Optimierungsverfahren: Tabelle 16. Wirkung verschiedener Optimierungsverfahren im Information Retrieval Bereich Indexterm Termvektor Methode Stemming Gewichtung der Terme Spezialisierung X Entfernung von Stopwörtern X X Entfernungsangaben Thesaurus Abfrage Generalisierung X X X Grammatik und Wörterbuch X Quorum-Level-Suche X X Relevance Feedback X X Neben dem Aufbau und der Repräsentation der Daten beeinflusst die Abfrage und deren Abgleich zur Datenmenge die Ergebnisqualität. Die Abfrage ist im Wesentlichen vom Nutzer abhängig und davon, wie spezifisch er diese stellt. Für den Abgleich kommen statistische und Vektorraummodelle in Frage. Letztere können auch ähnliche Dokumente finden, die der Abfrage nur teilweise entsprechen. Mit Hilfe von Klassenvektoren können auch uneindeutige Dokumente zumindest einer Klasse zugeordnet werden In Summe bieten diese automatischen Verfahren den Vorteil auch unbekannte Dokumente und Inhalte klassifizieren zu können. Jedoch weisen sie eine höhere Fehlerrate als bei manuellen Verfahren auf und sind im Nachhinein schlecht nachvollziehbar, da sie sich aus einer komplexen Matrix ableiten. Manuelle, regelbasierte Verfahren dagegen bieten eine hohe Kontrolle über die Ergebnisqualität. Sie setzt jedoch entsprechenden Aufwand und Vorkenntnisse des Nutzers voraus. Systeme unterscheiden sich in ihrer Ausprägung oben beschriebener Einflussgrößen. Die Vergleichbarkeit von Systemen sinkt mit zunehmendem Abstraktionslevel der verarbeiteten Inhalte und Formen der Ergebnisdarstellung. Alle Suchverfahren und Retrieval-Methoden liefern zwar relevante Informationen, jedoch keine eigenen Aussagen oder Problemlösungen. Suchverfahren streben nach Auffinden einer Lösung zu einem gestellten Problem oder Frage. Bekannte Suchmaschinen, wie Google, Explorer Search, etc., liefern auf Basis von vernetzten Stichwörtern oder einer unstrukturierten Content-Analyse verwandte Inhalte. Sofern diese Inhalte nicht selbst Antworten oder Lösungen darstellen, bieten die RetrievalVerfahren selbst keine Problemlösung an. Dies ist vielmehr ein Prozess der Wissensentwicklung. Manuelle Wissensentwicklung beginnt heute dort, wo die Suche keine passenden, fertigen Ergebnisse Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 109 mehr liefert, weil sie nicht zugänglich, aber vorhanden sind oder weder zugänglich noch vorhanden sind. Heutige Suchen in Help-Desks nutzen neben den statistische Methoden decision trees. Decision trees unterstützen aber nur das Auffinden vorhandener Lösungen und weniger die Herleitung neuer Antworten. Suchverfahren identifizieren Daten und Informationsbausteine und stellen damit iterative Grundlagen für die Problemlösung. Sie verwenden die in Kapitel 9 beschriebenen Verfahren auf Signalebene. Darüber hinaus finden sich Lösungen, die einzelne Probleme des Information Retrievals beheben. Tabelle 17 gibt nach Dengel (2008) eine Übersicht über benachbarte Verfahren: Tabelle 17. Optimierungsverfahren des Information Retrieval auf verschiedenen Abstraktionsebenen Adaptivität/ Abstraktion Dokumente Inhalt/ Gliederung Hoch Collaborative Document Search Mittel Text Classification, Context classification collaborative filtering Niedrig Traditional search document Passage retrieval Daten Wrapper for information extraction Information spotting Mit Hilfe des des PassageRetrievalVerfahrens lassen sich ganze Textpassagen identifizieren. Mit dem Collaborative Document Search kann aus erfolgreichen Suchanfragen gelernt werden. Beide beschreiben exemplarisch technologische Entwicklungsrichtungen ausgehend von der traditionellen Dokumentensuche deduktiv, in Richtung Inhalt und induktiv, zu höheren Abstraktionsstufen. Die Weiterentwicklung von Suchverfahren im Hinblick auf Steigerung der Ergebnisrelevanz unter Berücksichtigung des Vorbereitungsaufwandes und der Suchperformance tragen wesentlich zur technologischen Unterstützung von Problemlösungen bei. Damit wird eine Näherung zum Informationsschwellenwert für eine Entscheidung erzielt, der eine Aussage ermöglicht. Kagolovsky und Moehr (2000) zufolge führt dies zu einer zunehmenden Nutzerzentrierung der Suchen, da die Relevanz eine subjektive Einschätzung ist. Hierzu schlagen die Autoren weitergehende Untersuchungen hinsichtlich der formalen Repräsentation von Semantik und der Bewertung konzeptueller Überschneidungen zwischen Suchergebnissen und Informationsbedarf des Nutzers vor, die in diesem Zusammenhang nicht vertieft werden sollen. Smolnik und Riempp (2006, S. 102) unterscheiden InformationRetrieval-Technologien nach der „Art der Verwendung von Metadaten“ in keine Metadaten und flach, hierarchisch oder netzwerkartig organisierte Metadaten. Sie geben einen Überblick über den Reifegrad der Suchmaschinen. Smolnik und Riempp (2006, S.106) beschreiben diesen als Kombination aus Implementierungsaufwand, Qualität der Suchergebnisse, Retrievalperformance und Integrationsfähigkeit heterogener Informationsbestände. Dabei wird deutlich, dass semantische Technologien trotz hohen Implementierungsaufwandes vor allem gegenüber den anderen Verfahren durch die Integrationsfähigkeit heterogener Informationsbestände punkten. Diese wird im weiteren Verlauf durch die P2P-Struktur und den Aufbau des Semantic Desktops verdeutlicht. (http://desktop.google.com), Apple Spotlight (http://www.apple.com/de/macosx/features/300.html#spotlight), Yahoo! Desktop Search (http://de.docs.yahoo.com/search/desktop/) oder Microsoft Windows Desktop Search (http://www.microsoft.com/windows/desktopsearch/de/default.mspx), sind proprietäre Produkte im Wett- Bestehende Suchen, wie Google Desktop bewerb. Sie sind im Allgemeinen ausreichend, aber technologisch gesehen, weit hinter „Suchspezialisten“, wie Autonomy (http://www.autonomy.de/) oder Convera (http://www.convera.com/), zurück. Während Letztere unterschiedliche Suchalgorithem nutzen, basieren Erstere meist auf reiner Volltextsuche oder assoziativer Suche. Die assoziative Suche oder strukturierte Suche arbeitet im Standardfall vergleichbar zur Volltextsuche. Sie bietet darüber hinaus weitere intelligente Funktionalitäten, wie unscharfe Suche über Re- 110 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen levanzbewertung, Ähnlichkeitssuche, kontextabhängige Gewichtung und Sortierung der Ergebnisse (Smolnik und Riempp 2006, S. 103). Sowohl Google Desktop als auch Livelink (http://www.opentext.com) oder Ontoprise (http://www.ontoprise.com) nutzen domänenspezifische und -abhängige assoziative Verfeinerungen. Diese marktreifen Applikationen berücksichtigen nicht oder nur in kleinem Maße Teile der hinter den Begriffen liegenden Konzepte und Bedeutungen. Sie unterscheiden sich vielmehr hinsichtlich verfügbaren Datenbestandes (verteilte oder zentrale Systeme; öffentlich oder intern). Für die Weiterentwicklung der Suchen zu einer semantischen Suche werden weitere Technologiebausteine in den Suchdienst integriert. Tabelle 18 gibt in Anlehnung an Sauermann et al. (2005) einen Überblick über die im Semantic Desktop ergänzten Bausteine und Algorithmen. Tabelle 18. Entwicklungspfad von der Volltextsuche zur Semantischen Suche Desktop Search Browsing Fulltext Search Ontologies Free Links Trails, Timeline Taxonomies Thesauri Query Search Text-Analysis (Stemming) Context (User Mining) … Page Rank Query Extension Automatic Clustering Semantic Desktop Search Ausgehend von heutigen Volltextsuchen im oberen linken Eck werden drei Entwicklungrichtungen hin zu einer Semantic Desktop Search deutlich. 1) Text-basierte Technologien (oben, rechts, dunkelgrau) 2) Semantische Technologien auf expliziten, manuellen Informationsverbindungen (unten, links, hellgrau) 3) Semantische Technologien auf automatisch ermittelten Ontologien und Kontexten Die Darstellung zeigt exemplarisch Technologiebeispiele. Sie werden sich aus der Forschungsdiskussion verfeinern und erweitern lassen. Fest steht jedoch, dass erst ihre Kombination ihr volles Potential zur Entfaltung bringen wird. Der Semantic Desktop macht hierzu mit Gnowsis einen ersten Schritt hin zum semantischen Suchen. Ansätze der semantischen Suche werden im folgenden Kapitel ausführlicher betrachtet. 11.2 Formen und Arten semantischer Suchen Eine etablierte systematische Klassifikation semantischer Suchen ist in der Literatur derzeit nicht bekannt. Es werden daher Aspekte der Nutzerschnittstelle und verwendete Algorithmen getrennt betrachtet. Für Mangold (2007) ist eine semantische Suche ein Retrieval-Prozess, der sich Domänenwissen zu Nutze macht. Er beschreibt damit die Übereinstimmung der Bedeutung der gesuchten Zeichenkette mit ihrer Daten-Bedeutung. Anspruch der semantsichen Suchen ist ein automatisierter Umgang mit lexikalischer und struktureller Mehrdeutigkeit. Lexikalische Mehrdeutigkeit bezeichnet nach Hildebrandt et al. (2007) die Mehrdeutigkeit der Wörter. Strukturelle Mehrdeutigkeit entsteht dadurch, dass komplexe Ausdrücke mehrere grundlegende Strukturen haben können. In solchen Fällen ist die Rolle der Wörter in dem Ausdruck nicht eindeutig, wie der Satz „Er sah die Frau mit dem Fernglas“ beispielhaft verdeutlicht. Im Überblick der Literatur sind erst in jüngster Zeit Klassifizierungsansätze für semantische Suchen zu finden. Bisher wurde mit Hilfe von Prototypen unterschiedliche Einflussfaktoren optimiert und getestet. Als wesentliche Faktoren zur Abbildung der Komplexität wurden die Konstruktion der Anfrage und der Suchalgorithmus identifiziert. Je präziser die Anfrage formuliert ist, umso weniger tritt das Problem der lexikalischen und strukturellen Mehrdeutigkeit auf. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 111 Beide spannen damit einen Diskussionsrahmen aus Genauigkeit und Komplexität der Anfrage. Genauigkeit erfordert eine aufwendige Konstruktion der Abfrage. Die Komplexität der Anfrage braucht einen intelligenten Suchalgorithmus. Semantische Suchen nutzen für das Retrieval Konzepte. Sie werden mit den wesentlichen inhaltlichen Merkmalen eines jeden Dokuments gematcht. Nach Hees (2004) arbeiten sie sprachunabhängig. Anfragen und Dokumente können sich von der verwendeten Terminologie her vollständig unterscheiden und doch auf konzeptioneller Ebene genau und damit synonym zueinander passen. Dieses Problem wird zwar bereits über Thesauri oder statistische Verfahren adressiert, ist aber wieder mit hohem manuellen Pflegeaufwand verbunden. Aus Sicht der Nutzerinteraktion klassifiziert Lei et al. (2006) semantische Suchen in vier Kategorien: 1. Form-basierte Suchen Sie stellen Ontologien, Klassen und Eigenschaften in spezifische Webformulare bereit. Der Nutzer kann diese seinen Suchanfragen zur Verfeinerung hinzufügen. SHOE (Heflin 2000) gilt als beispielhafter Vertreter dieser Kategorie. Nachteilig ist das notwendige Vorwissen des Nutzers für erfolgreiche Suchanfragen. 2. RDF-basierte Abfragen Sie machen semantische Informationen nicht durch Formulare, sondern spezifische Abfragesprachen zugänglich. Corese (Corby et al. 2004) gilt als beispielhafter Vertreter dieser Kategorie. In Steigerung zu Kategorie 1 muss der Nutzer hier nicht nur die zugrundeliegende Ontologie, sondern auch noch die Abfragesprache beherrschen. Dies macht es zu einem für Endnutzer wenig geeigneten Interface. 3. Semantik-basierte Schlagwortsuchen Sie verwenden automatische, semantische Repositories und Informationen. Die Ergebnisdarstellung in Form von Clustern wird durch einen zweistufigen Prozess des Instanzenretrievals über Instanzenmatching unterstützt. TAP (Guha et al. 2003) gilt in dieser Kategorie als typischer Vertreter. 4. Beantwortungstools Sie nutzen semantische Mark-ups, um ganze Fragen in natürlicher Sprache zu beantworten. (Lopez et al. 2005 und Cimiano 2004) Sie transformieren dabei die Frage in ontologische Triples oder spezifische Abfragesprachen. Auch wenn diese an der Nutzerschnittstelle einfach sind, sind sie sehr durch die Leistungsfähigkeit der NLP Technik beeinflusst. Die ersten drei binden semantische Informationen technologisch unterschiedlich in die Suchabfrage ein. Die vierte Kategorie wirkt sehr weit gegriffen, da sie sich an den Suchergebnissen orientiert. Während die ersten drei den Einflussfaktor „Konstruktion der Abfrage“ addressieren, wirkt die vierte Kategorie auf den eingesetzten Algorithmus. Dennoch konzentrieren sich alle auf Schlagwortsuchen und unterstützen nur unzureichend komplexe Anfragen. Sie sind teilweise für den Endnutzer nicht performant genug und bieten keine zugängliche Struktur von Ergebnissen. Die Klassifikation berücksichtigt keine Unterschiede in den zugrundeliegenden Algorithmen und ist daher für die weitere Arbeit nur bedingt hilfreich. Mangold (2007) geht in seiner Klassifizierung über die reine Sicht von Lei et al. (2006) der Nutzerinteraktion hinaus und berücksichtigt weitere Klassifizierungskriterien, wie Architekur, Coupling der Lösungsbausteine, Semantische Transparenz und Modifikationsmöglichkeit, Nutzerkontext und Strukturformen der Ontologie und Ontologiesprache. Für eine spätere Einordnung (Kapitel 11.4) von Gnowsis in die bekannten und vorgestellten Klassifikationsschemata wird im Folgenden Gnowsis und seine Ausprägungen dargestellt. 112 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 11.3 Besonderheiten von Gnowsis Aufbauend auf den Basis-Technologien des Semantic Desktop verwendet Gnowsis für eine optimierte Indexierung die Software brainfiler von Nextbot (http://www.nextbot.de). Zur Verbesserung der Klassifikation werden semantische Repräsentationen (RDF) und Ontologie-mappings verwendet. Sie optimieren den Modellierungsaufwand durch teilautomatisierte Ontologie-Erstellung. Für die Abfrage und Ergebnisdarstellung wird von einem unerfahrenen Nutzer im betrieblichen Umfeld ausgegangen. Als Darstellungsform werden auch hier seine nativen Strukturen genutzt. Die eigenen Begrifflichkeiten sollen dem Nutzer die Orientierung erleichtern. Mit dieser Kombination will Gnowsis nicht nur eine Veränderung eines Merkmals, sondern eine Gesamtoptimierung der Ergebnisqualität erzielen. 11.3.1 Aufbau von Gnowsis Für die Beschreibung des Applikationsaufbaus wird nach Sauermann et al. (2005) das Model-ViewController-Muster verwendet. Danach wird das Modell als RDF Graph dargestellt, der angezeigt und modifiziert werden kann. Diese Beschreibungslogik wird verwendet, weil es eine höhere Performance verspricht. Das RDF(S)-Framework bietet die Möglichkeit, Metadaten in maschinenlesbarer Form darzustellen und auszutauschen. Hierfür nutzt es einen Mechanismus, um Ressourcen domänenneutral zu beschreiben. Es macht sich dabei die Objektorientierung aus der Künstlichen Intelligenz zu Nutze und erlaubt eine Nachvollziehbarkeit der Ergebnisse. Da RDF eine saubere Trennung von Dingen und Beziehungen fehlt, erscheint es für Massendaten ungeeignet. Die Tripel stellen redundante Informationen dar und belasten die Performance. Der Verlust des relationalen Schemas reduziert die Komprimierbarkeit. RDF eignet sich damit für heterogene, schwach strukturierte und wissensintensive Anwendungen, wie die Angebotserstellung. Der Controller selbst wird über Schnittstellen in die Applikation integriert und ist in der Regel domainspezifisch. Als zentrale Services laufen sie auf einem Server im Hintergrund. Sie werden als Enabling Services bezeichnet. Die folgenden sind Kernbestandteil von Gnowsis: RDF Repository, Adaptor-Framework, Ontologien, Kontextinformation und offene Architektur. Da diese Dienste heute schon als Standard zur Verfügung stehen, liegt die Herausforderung darin, ihre Schnittstellen zu standardisieren und als stabile Implementierungen zur Verfügung zu stellen. Abb. 16. Gnowsis Architektur Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 113 Nach Sauermann (2003) und Sauermann et al. (2005) kann die Architektur mit einem Baum verglichen werden, der auf einem Boden von Daten wächst. Wie die Wurzeln die Nährstoffe vom Boden extrahieren, extrahieren die Adapter Daten von den eingebundenen Anwendungen und wandeln die Daten in das RDF Format um. Im RDF-Repository werden bidirektionale Daten und Verknüpfungen gespeichert. Das Adapter-Framework kombiniert die Wurzeln und errichtet in der Analogie den Baumstumpf, auf dem der Server basiert. Den Stamm des Baums stellt der Gnowsis Server dar. Er veröffentlicht die Daten vom Adapter Framework und ist der zentrale Gegenstand in der Architektur. Auf dem Stamm aufsetzend sind die Äste und die Früchte des Baums, die Benutzerschnittstelle sowie Schnittstellen zu Microsoft Outlook oder Mozilla, angesiedelt. Das Gnowsis Webinterface besteht aus einer Adressleiste, über die einzelne Ressourcen editierbar sind. Es bietet damit Eingabefelder und Auswahlboxen, um die Suche auf den lokalen Desktop oder auf das Peer-Netzwerk einzuschränken. Ein Bereich zur Anpassung von Annotierungen ermöglicht weitere direkte Eingriffe des Nutzers. Eine visuelle Anzeige, welche Ressourcen derzeit in Verwendung stehen und welche Ressourcen miteinander in Verbindung stehen, erleichtert dem Nutzer die Bedienung. Mit Hilfe eines eingebauten Ontologie-Browsers lässt sich die Dokumenten-Klassifizierung anpassen. Die Suchergebnisse werden als Kurzzusammenfassung mit Stichworten ausgegeben. Sie sind nach ihren Klassen sortiert. Konzept, Dokument, Event, Projekt, oder Kontakt sind mögliche Klassen. Zu jedem Ergebnis stehen über “browse” und “link” weitere ergänzende Informationen als Pop-up über den Projektmanager zur Verfügung. Wie Dengel (2006) beschreibt, lassen sich die Suchergebnisse durch + und – erweitern und detaillieren. Eine kurze Dokumentenzusammenfassung, Folderinformationen, Trefferrelevanz und eine Beschränkung der angezeigten Treffer ergänzen als UsabilityFeatures die inhaltliche Ergebnisqualität zu einer subjektiv wahgenommen Ergebnisrelevanz. 11.3.2 Klassifikation mit dem brainfiler Der Brainfiler erstellt pro Dokument Begriffsvektoren in Bezug zu ihrem Ablageordner. Er repräsentiert ein oder mehrere Indexservices. Sie verwalten einen Index über die Dokumente in den angebunden Repositories und stellen intelligente Such- und Klassifikationsfunktionalitäten bereit. Im Index–Service werden die Rechte und der Kontext der Dokumente verwaltet. Topic Project Document new office invitation Tim Peter Rome Project Rome Who Where Abb. 17. Indexierung unterschiedlicher Datenquellen und –formate 114 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Gnowsis greift nach Sauermann et al. (2005) über die zum brainFiler gehörige SOAP-Schnittstelle auf den Index-Service zu. Intern tauschen die Komponenten Nachrichten und Arbeitsaufträge über ein verschlüsseltes Netzwerkprotokoll asynchron aus. Nach Hees (2004) beinhaltet der Index-Service Komponenten, wie den Associative Index oder den Classifier. Er setzt auf den XVFS Service auf, welcher den Zugriff auf das Dateisystem ermöglicht. Gemeinsam mit dem Mediator bietet der IndexService die Möglichkeit der Erweiterung einer einfachen Volltextsuche hin zur assoziativen Suche. BrainFiler und Gnowsis verwenden Regeln über die Jena inference engine (http://jena.sourceforge.net/inference/) und SPARQL (http://www.w3.org/TR/rdf-sparql-query/) Anfragen, die auf RDF Modellen beruhen. Mit diesen lassen sich Suchergebnisse erweitern und optimieren. Eine typische Anfrage könnte folgendermaßen lauten: „Wenn ein Projekt gefunden wurde, lege Projektleiter und Autor als Kontakte fest“. Die Regeln werden als forward-chaining- Regeln in Gnowsis hinterlegt, wie folgendes Beispiel zeigt: # Example for retrieving the project manager as expert contact (?hit retrieve:item ?project), (?project rdf:type org:Project) -> querySparql('CONSTRUCT { ?x1 org:HasProjectmanager ?m. ?m rdfs:label ?labelm. ?m rdf:type ?typem. ?x1 retrieve:todoRelateHitTo _:hit . _:hit rdf:type retrieve:InferedHit . _:hit retrieve:item ?m . _:hit retrieve:textSnippet \'Projektleiter\'. } WHERE { graph ?g { ?x1 org:HasProjectmanager ?m. ?m rdfs:label ?labelm. ?m rdf:type ?typem. }} ', ?project). Wurde ein Eintrag (retrieve:item) in der Treffermenge (?hit) gefunden, welcher vomTyp (rdf:type) org:Project ist, greift die Regel. Es werden alle Instanzen (?m) zusammen mit ihrer Bezeichnung (rdfs:label) und ihrem Typ (rdfs:label) ermittelt, die über org:HatProjektleiter mit dem gefundenen Projekt in Beziehung stehen. Das Ergebnis sind die Projektleiter des gefundenen Projekts. Andere semantische Technologien nutzen statt RDF die Repräsentationspsrache F-Logic, um Regeln in die Suche zu integrieren. Die Gnowsis-Architektur erlaubt auch die Verwendung anderer Index engines. 11.3.3 Ontology mapping und matching Ontology-mapping- und matching-Verfahren reduzieren den Modellierungsaufwand bei der Erstellung von Ontologien. Sie optimieren damit die Verwendung deklarativer Verfahren und stellen eine Grundlage für den Einsatz von prozeduralen, rekursiven Verfahren. Technisch gesehen können ontology matchings als Beziehungen zwischen Ontologien verstanden werden, die sich durch eine Entscheidung mergen lassen. Für den aktuellen Forschungsrahmen von EPOS und der vorliegenden Forschungsarbeit ist, zusammen mit der Ontologie-Modellierung mit Protegé, Prompt ausreichend. EPOS und der Semantic Desktop kombinieren verschiedene Matching-Ansätze (Maus 2005, S. 101ff.). Für die Entscheidung zwischen sich widersprechenden Paaren wird ein Ranking auf der Basis einer modifizierten Borda Count method angewendet (Ho 1992). Dabei werden die Ergebnisse einzeln miteinander verglichen und über eine Rangsumme neu geordnet. Im Semantic Desktop werden die term-basierten Matching-Algorithmen von PROMPT durch instance-based Algorithmen aus dem strukturellen Matching ersetzt und um eine Rankingliste der Matching-Paare und ihrer Beziehung (gleiche Klasse, Ober- oder Unterklasse) ergänzt (Maus 2005). Auch wenn dies später ohne Nutzer abläuft, besteht die Möglichkeit, sich über die Funktionsfähigkeit des Systems zu informieren. Der brainfiler setzt die als Softwareprodukt frei käufliche NextBot engine ein, die die Ähnlichkeiten aus einem durch Beispiele trainierten Vektorraummodell ableitet (Hees 2004). Die Ansätze dienen einer automatisierten Mediation zwischen Domain-Ontologien, da eine händische Aufbereitung durch knowledge engineers in großen Dimensionen nicht denkbar und finanzierbar wäre. Ihnen gemeinsam ist die Trennung von Form (Struktur) und Inhalt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 115 11.3.4 Personal Information Model (PIMO) als Katalysator für Peer-to-Peer Information liegt in strukturierter und unstrukturierter Form mit manuellen oder automatischen Annotierungen vor. Information ohne Struktur oder Meta-Daten lässt sich durch Volltextsuche finden. Google Desktop ist hierfür ein Beispiel. LiveLink dagegen verwendet manuelle Annotierungen und Meta-Daten, um die Inhalte zu strukturieren. Semantische Technologien verwenden halbautomatisierte Annotierungen. Sie reduzieren damit den händischen Aufwand. Sie nutzen die Tatsache, dass Informationen nach persönlichen Präferenzen und Prioritäten abgelegt und gesucht werden. Hierdurch ergeben sich unterschiedliche Interpretationen des gleichen Inhalts oder gleicher Dokumente. Im Vergleich zu case-based reasoning (CBR) ermöglicht die Nutzung der nativen Strukturen mittels PIMO (Sauermann et al. 2007) einen bottom-up entwickelten, konstruktivistischen Ansatz. CBR dagegen konzentriert sich derzeit auf eine organisatorische Beschreibungsebene und wirkt statisch, replizierend, auch wenn im Sinne der Case Adaption hier Flexibilisierungsmöglichkeiten geschaffen wurden. Informationen und Wissensobjekte sind verteilt verfügbar. Ihre Zugänglichkeit und dezentrale Verarbeitung sind Herausforderungen. Sie bergen das Potenzial, verfügbare, aber nicht bekannte Informationen zugänglich zu machen. Wenn Daten nicht in das zentrale Repository eingestellt wurden, stehen sie zwar individuell, aber nicht kollektiv zur Verfügung. Für Corporate Memories ist, wie in KnowMore, die Client-Server-Architektur am weitesten verbreitet (Abecker 1999). Dabei nutzt die workflow und inference engine den Server, während Applikationen und worklist handler als Client genutzt werden. Dem verteilten Wesen von Informationen wird hingegen die Peer-to-peer-Architektur gerecht. Einem sozialen Netz nachempfundene Struktur und Kommunikation der Rechner erlaubt eine dezentrale Datenhaltung mit zentraler Verfügbarkeit. Offen ist dabei die Zugriffsfrage. Wie in echten sozialen Netzen wird sie meist über Genehmigung oder Empfehlung abgebildet. Sie erteilt diese über Vertraulichkeits- und Vertrauensstufen. Peer-to-peer-Architekturen sind zwar flexibler als serverbasierte Systeme können allerdings keine übergreifende Wissens- und Informationsqualität sicherstellen (Holsapple 2003, S. 131ff.). Zum einen beschränken die Zugriffsberechtigungen das Schreiben aller. Zum anderen führt es schnell zu einem Informationsüberfluss, sofern es nicht durch soziale Community-Regeln gesteuert werden kann. In Wikipedia (www.wikipedia.de), als Vertreter solcher Systeme, gelten trotz Informationsfreiheit Prinzipien für den Umgang mit Wissen. Organisationales Wissen ist die gemeinsame, kommunikative Einigung auf Begriffsbedeutungen. Unter dieser Voraussetzung ist die Einordnung von Begriffen aufwendig. Diese muss für eine Automatisierung durch die Maschine im Vorfeld manuell geleistet werden. Eine Einordnung bei jedem Suchergebnis unterstützt einen konstruktivistischen Ansatz, bei dem situations- und suchspezifisch die Bedeutungen neu zugeordnet und erzeugt werden. Eine Einordung einmalig bei der Ablage erfordert eine abstrakte Verschlagwortung und ist starrer. Rolle und Prozessschritt spannen einen Wissensraum auf, der als Wissensdomäne bezeichnet werden kann. Die Summe aller organisatorischen Wissensdomänen beschreibt das explizite organisationale Wissen. Er wird technologisch über Meta-Daten formalisiert und nutzbar gemacht. Sie strukturieren und definieren Teil-Domänen im organisationalen Wissensraum. Charakteristisch für den individuellen Wissensraum ist dagegen, dass Rolle und Prozessschritt bei der Erstellung individueller Dokumente und Strukturen nicht explizit sind. Er besitzt damit eine eigene immanente Wissensdomäne. Über Kommunikation und Einordnen lässt sich, wie in Abbildung 17 illustriert, der individuelle Wissensraum zum organisationellen in Beziehung bringen. 116 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Prozess (Aktivitäten, Kontext) Domäne x y z Domäne x Domäne x y y z z Organisationaler Wissensraum (explizit) Rolle (Perspektive, Intention) Einordnen durch PIM Darstellen im PIM Individueller Wissensraum (implizit) Abb. 18. Zusammenspiel individueller und organisatorischer Wissensräume Al-Laham (2003, S. 195) zitiert hierzu die Strategic Learning Assessment Map von Bontis und Crossan (1999, S. 20). Auch wenn diese noch mit methodischen Mängeln verbunden erscheint, skizziert sie ihm zufolge einen Ansatz zur weiteren Effizienzmessung von Wissen und Lernprozessen im Unternehmen. Mit Hilfe des PIMO soll in diesem Zusammenhang der Dialog zwischen der individuellen und organisationellen Ebene hergestellt werden. Weitere Forschungen könnten mit Hilfe der Assesment Map diesen Prozess messbar machen und weiter optimieren. Nach Elst et al. (2004) kann dies über eine Kombination unterschiedlicher Ontologien als Kontexte repräsentiert werden: Informations-, Kunden-, Organisations-, domain- oder workflow-bezogene Ontologien. Auf das SIS Beispiel übertragen, würden die Rolle (Intention) und der Prozess (Situation) den Wissensraum aufspannen. Organisationale Wissensdomänen sind unter anderem Dokumententyp oder Portfolioinformation. Persönliche Wissensdomänen sind in den Folderstrukturen nach Kunden, Region, Anlass geordnet In der Kombination von organisationellen Strukturen und Domänen und individuellen Folderstrukturen repräsentiert das PIMO die Rolle des Nutzers und dessen subjektive Perspektive. Die Strukturen werden in Protegé (http://protege.stanford.edu/) erstellt und in Gnowsis integriert. Die individuelle Folderstruktur kann eine Überlagerung verschiedener Rollen (Privat, geschäftlich) und Historien (alte und aktuelle Projekte) sein. Das heißt, für unterschiedliche Rollen kann ein Begriff, Name oder Objekt unterschiedliche Bedeutungen haben und die gleiche Bedeutung mit unterschiedlichen Begriffen hinterlegt sein. Ein Nutzer kann mehrere Rollen haben. Ihre Vermischung führt zu Unschärften in der persönlichen Perspektive. Da die peer-to-peer-Technologie auf einzelnen Nutzern basiert, wird für die Untersuchung der Einfachheit halber angenommen, dass ein Nutzer genau eine zugewiesene Rolle hat und dass sein individueller Arbeitsplatz die Perspektive und Intention dieses Nutzers in seiner zugewiesenen Rolle repräsentiert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 117 Abb. 19. Vergleich der Folderstrukturen von Sales und Proposal Manager bei SIS Abbildung 18 zeigt die Folderstrukturen eines Proposal Managers (links) und eines Sales Managers (rechts) in Anlehnung an ihre realen Desktops bei SIS. Umgekehrt lässt sich durch Nutzerbeobachtung auf eine Rolle schließen. SIS produziert viele tausend Angebote im Jahr für das gesamte Leistungsspektrum. Es reicht vom Outsourcing bis hin zu Solution- und Systemintegrationsprojekten. Für größere Angebote werden Teams mit unterschiedlichen Rollen und Erfahrungslevels eingesetzt. Sales Manager liefern die erste Kundeninformation zusammen mit dem request for proposal des Kunden sowie dem geplanten Ansatz (Preis, Value proposition, Storyline, etc.). Hieraus entsteht ein erster Entwurf des Management Summaries. Proposal Manager arbeiten im Gegensatz zu den Sales Managern meist in organisational, topdown vorgegebenen Strukturen in einer zentralen Ablage. Sales Manager dagegen präferieren individuelle Strukturen auf ihrem lokalen Desktop. Nichtsdestotrotz arbeiten beide an denselben Dokumenten und nutzen ähnliche Informationspools. Die Analyse der Strukturen zeigt, allgemein betrachtet, dass Folderstrukturen gemäß den untersuchten Praxisbeispielen anhand folgender Aspekte strukturiert sind: Zeit, Themen (Portfolio und Unternehmensbereiche), interne oder kundenbezogene Projekte, Ereignisse und Meilensteine, Kunden und Lieferanten, Regionen, Bereiche, Absichten, Gründe oder Bearbeitungsstatus. Alle resultieren aus bestimmten Aufgaben und Intentionen. Sie sind historisch gewachsen. Die Folderstrukturen lassen sich zusammen mit organisationalen Meta-Daten als Personal Information Model (PIMO) technologisch nutzen. Sie berücksichtigen damit die individuellen Ablagepräferenzen und -prioritäten. Diese führen zu unterschiedlichen Wahrnehmungen des gleichen Inhalts, mehrfach abgelegter Information und eindimensionaler Ablagestrukturen. Sie bilden letztlich damit die Intention ab. Der Dialog aus verschiedenen Perspektiven und Intentionen ist ein wesentlicher Teil der Wissensentwicklung. Kontextinformation repräsentiert die Situation unter anderem durch das auslösende Ereignis, die Zeit oder den Prozessrahmen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 118 11.4 Gnowsis im Spektrum semantischer Suchen SchlagwortIndex Volltextsuche Kategorien Domainkonzept Regeln Inferenz Semantiche Suche Aus Sicht der Nutzerschnittstelle wäre Gnowsis originär nach der Klassifizierung von Lei et al. (2006) in Kapitel 11.2 in Kategorie 2 (RDF-basierte Abfragen) einzuordnen. Gnowsis berücksichtigt als Erweiterung zur Volltextsuche zusätzlich (referenzierte) Objekte aus Ontologien (Domainkonzept) und auf per Inferenz geschlossene Objekte. Es kombiniert damit Kategorie 2 (Semantik-basierte Schlagwortsuchen) und 3 (Beantwortungstools). Abb. 20. Bausteine der Semantischen Suche Abbildung 19 stellt die drei Bausteine und Schritte der semantischen Suche für Gnowsis schematisch dar. Indexbasierte Suchergebnisse werden durch statistische Verfahren verbessert sowie durch die Einbeziehung von Ontologien und Inferenzen abgerundet. Mangold (2007) geht in seiner Klassifizierung über die reine Sicht von Lei et al. (2006) der Nutzerinteraktion hinaus und berücksichtigt weitere Klassifizierungskriterien. In Bezug auf Gnowsis lassen sich diese wie folgt erörtern: • • • • • Architekur: Stand-alone, mit eigenem Dokumentenindex Coupling: Für Gnowsis trifft weder eine lockere noch eine enge Verknüpfung als Einzellösung zu. Vielmehr kann man von einer hybriden Lösung sprechen. Aufgrund der dynamischen Verknüpfung der Ontologie über das PIMO ist sowohl die lose Koppelung enthalten als auch eine enge Kopplung durch die Indizierung der Dokumentenbasis. Diese dynamische und hybride Form ist ein Differenzierungsmerkmal von Gnowsis gegenüber anderen beschriebenen Verfahren, wie SHOE (Heflin 2000). Es soll damit eine weiter verbesserte Precision und Recall erzielt werden und der individuellen Perspektive des Nutzers besser Rechnung getragen werden. Semantische Transparenz und Modifikationsmöglichkeit: Dieses Kriterium beschreibt analog zur Klassifizierung von Lei et al. (2006) die Nutzerschnittstelle und die explizite Beeinflußbarkeit der semantischen Strukturen durch den Nutzer. Gnowsis bietet, wie TAP (Guha et al. 2003), einen zweistufigen, hybriden Ansatz. Es extrahiert zum einen automatisch Ontologien aus dem PIMO, erlaubt aber diese durch den Nutzer zu modifizieren. Nutzerkontext: Über die Bewertung der Dokumentenrelevanz im brainfiler lässt sich ein lernendes Verhalten annehmen. Ein etablierter Lernalgorithmus existiert nicht, da die Nutzerspezifikation dynamisch aus dem PIMO erzeugt wird. Strukturformen der Ontologie und Ontologiesprache: Gnowsis nutzt RDF-basierte Ontologiesprachen und weist keine domainspezifischen Ontologiestrukturen auf. Mit Hilfe des ontology matchings legt Gnowsis Grundlagen für eine dynamische Ermittlung von common-sense-Strukturen. Im Prototyp sind diese noch nicht final ausgeprägt. Gnowis würde durch die Verwendung des PIMOs bei einer kleineren Komplexität der Anfrage bessere Genauigkeit erreichen. Damit verbunden wäre eine Reduzierung der lexikalischen Mehrdeutig- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 119 keit. Gnowsis testet mit Hilfe des PIMO dynamische Ansätze und Hebel, die bisherigen, historisch rückblickenden Klassifikationskriterien zu erweitern. Die Arbeit konzentriert sich auf die Untersuchung der Wirkung des Prototypen als Ganzes in seiner Ergebniswirkung auf Precision und Recall und in seiner Wirkung Perspektiven in Form von Rollen abzubilden. Für eine tiefergehende, technische Einordnung von Gnowsis wäre eine Ausdifferenzierung der Kriterien Coupling und Nutzerkontext hilfreich. Diese Forschungsfrage wird nicht weiter verfolgt, aber als weitergehende Forschung angeregt. Inwieweit sich diese architekturtechnischen Aussagen und damit Frage (F-6.4) im Praxisumfeld bestätigen, soll der nachfolgende Test zeigen. Er testet die Gesamtperformance in Bezug auf bestehende Suchen im Praxisumfeld und diskutiert über den Vergleich verschiedener Kollaborationsszenarien den Einfluss des Einzelaspekts nativer Strukturen als Repräsentant für die Rolle eines Nutzers. Die Performanceoptimierung des brainfilers wird aus früheren Tests vorausgesetzt und im Rahmen der Gesamtperformance mitberücksichtigt. 11.5 Testansatz Gnowsis als semantische Suche im Semantic Desktop verfolgt mit Hilfe eines Personal Information Models auf Basis einer peer-to-peer-Vernetzung das Ziel, den subjektiven Charakter von Wissen zu repräsentieren und bottom-up zu konstruieren (Sauermann 2003). Wie in Kapitel 9 beschrieben, wirken Technologien auf unterschiedlichen Ebenen. Im Folgenden wird die Wirkung der semantischen Suche für die Erstellung eines Management Summaries auf Begriffs- und Bedeutungsebene anhand von Dokumententiteln und ihren Ablagestrukturen diskutiert. Dabei wird untersucht, inwieweit diese eine Verbesserung gegenüber in der Praxis eingesetzten Technologien bringen und inwieweit sie Rollen als Intentionen in der Wissensentwicklung berücksichtigen können: Die Tests werden auf Basis realer, aber aus datenschutzrechtlichen Gründen anonymisierter Datensätze aus dem betrieblichen Alltag der SIS getestet. Gnowsis macht die Funktionalitäten webbasiert verfügbar und ist als Prototyp im Unternehmenskontext einsetzbar. Gnowsis verbindet damit eine einfache Multi-Schlagwort- Eingabeform mit einem mehrstufigen Algorithmus basierend auf terminologischer Konzeptualisierung (Dengel 2006). Dieser verwendet für den Nutzer unsichtbar semantische Konzepte bei der Identifikation und in der Bewertung der Suchergebnisse. Begriffsähnlichkeiten und vorbereitetete statistische Häufigkeitsanalysen werden in Dokumenten kombiniert. Im Folgenden wird untersucht und dargestellt, welche Rolle das PIMO bei der semantischen Suche Gnowsis spielt. Vermutet wird, dass die Nutzung des PIMOs die Suchqualität durch folgende Aspekte steigert (Gordon und Pathak 1999): a) Erhöhung der Verfügbarkeit von Information (Recall) durch Identifikation der benötigten Assets, welche nicht durch ähnliche Keywords ausgezeichnet sind. Beispielhaft wird das Projekt mit „Kunde 1“ gefunden, wenn nach „Kostenreduktion“ gesucht wurde, da das Projekt mit Kunde 1 in Beziehung zum Thema Kostenreduktion steht. b) Erhöhung der Relevanz (Precision), indem die Rolle sowie die Intention des Nutzers für das interne Ranking der Ergebnisse sowie deren Auswahl (Precision) berücksichtigt werden. Ein auf vielen Peers zum gesuchten Keyword passendes Asset erhält mit größerer Wahrscheinlichkeit ein höheres Ranking als ein Asset, das auf verschiedenen Peers über unterschiedliche Keywords identifiziert wird. In der Angebotsentwicklung lassen sich unterschiedliche Teilbereiche der technologischen Unterstützung identifizieren. Beispiele aus der Praxis sind Vorschlag einer Story für ein Angebot oder Nutzung und Integration strukturierter Daten aus CRM- oder ERP-Systemen zur Preisbildung. Im Hinblick auf die zu testende und zur Verfügung stehende Technologie bietet sich an, die Auswahl vorhandener Dokumente und Wissensobjekte näher zu untersuchen. Gerade hier stoßen die Ansätze 120 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen der Wissensverteilung, im Sinne eines re-use, an ihre Grenzen. Zur weiteren Optimierung mit heutigen Ansätzen bedarf es eines unverhältnismäßig größeren Redaktions- und Pflegeaufwandes. Fraglich ist also, inwieweit sich die Ergebnisrelevanz technologisch steigern lässt. 11.5.1 Testmethode Information Retrieval (Dengel 2008) klassifiziert Suchergebnisse in Contingency charts nach Präzision und Korrektheit. Vier Kategorien werden dabei unterschieden: Präsise und richtig erkannt (correct accept), präzise, aber unrichtig (correct reject), unpräzise, aber richtig erkannt (false accept) soweie unpräzise und unrichtig (false reject). Gemessen wird die Relevanz mit der allgemein anerkannten und üblichen Methode von Precision und Recall nach Brünken (1998). Dabei sei : N die Menge aller Objekte des Systems M die Menge aller relevanten Objekte mit M P die Menge der angebotenen Dokumente/ Objekte (=Suchergebnis) Q die Menge aller nicht-relevanten Objekte Ma die Menge angebotener (a) relevanter Objekte (Ma Qa die Menge angebotener (a) nicht-relevanter Objekte (Qa Q). Diese wird als Noise bezeichnet (false accept). Rejection bezeichnet die Menge nicht relevanter und nicht angezeigter Dokumente N und |M| |N| M). Diese wird als Hits bezeichnet (correct accept) Ihre Zusammenhänge, Abgrenzungen oder Überschneidungen illustriert Abbildung 20: Qa N Q M Ma P Abb. 21. Schema und Abgrenzung der Qualität von Suchergebnissen In einem Beispiel sind gegeben: |N| = 26, |Q| = 16, |M| = 10, |P| = 8, | Qa| = 2 und | Ma| = 6; Als Egebnis wären für Precision und Recall folgende Werte zu ermitteln: r = 6 / 10 = 0,6; p = 6 / 8 = 0,75. Basierend auf der Gesamtzahl verfügbarer Dokumente und Objekte beschreibt Recall (r) damit die Quote der gefundenen relevanten Objekte verglichen mit den verfügbaren relevanten Objekten: r = |Ma| / |M| mit 0 ≤ r ≥ 1 (3) Ein idealer Wert für r ist offensichtlich 1. In diesem Fall (|Ma| = |M|) wären alle relevanten Objekte im Suchergebnis vorhanden. Da sich der Wert relativ leicht durch Aufweichung der Suchkriterien verbessern ließe, wird zur Verfeinerung der Aussage über die Qualität des Suchergebnisses noch die Precision mit berücksichtigt. Im einfachsten Fall ließe er sich durch Lieferung aller vorhandenen und damit aller relevanten und nicht relevanten Dokumente aufweichen. Für den Suchbegriff wurde daher vorher festgelegt, welche Objekte als relevant grundsätzlich zur Verfügung stehen. Precision (p) bezieht nun die gefundenen relevanten Dokumente auf alle im Suchergebnis angezeigten Dokumente und stellt deren Quote dar. Das Suchergebnis könnte durch weitere Funde verschlechtert worden sein: Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen p = |Ma| / |P| mit 0 ≤ p ≥ 1 121 (4) Das Ziel ist, einen möglichst hohen Anteil an relevanten Objekten im gesamten Suchergebnis zu liefern. Dies ermöglicht es einem Nutzer, aufgrund der geringen Anzahl nicht-relevanter Objekte die relevanten Objekte der Suchergebnisse leichter zu identifizieren. Im Idealfall gilt auch für p der Wert 1. In diesem Fall (|Ma| = |P|, |Qa| = 0) würden nur relevante Objekte geliefert. Dies lässt sich im Gegensatz zu r, am leichtesten durch eine Verschärfung der Suchkriterien beeinflussen, indem nur Objekte geliefert werden, die aus Systemsicht sicher relevant sind. Fallout (f) ist die Quote der gefundenen nicht-relevanten Objekte: f= |Qa| / |Q| mit 0 ≤ f ≥ 1 (5) Ziel ist, möglichst wenige der vorhandenen nicht-relevanten Objekte im Suchergebnis zu liefern, und stellt somit ebenfalls eine Erweiterung der beiden anderen Qualitätskriterien dar. Im Idealfall (|Qa| = 0, |Q| > 0) gilt somit für f der Wert 0. Der Vollständigkeit halber bezeichnet Rejection die Menge nicht relevanter und nicht angezeigter Dokumente. (siehe Krutz et al. 2003) Im Test sehen Ergebnistabellen beispielhaft wie folgt aus: Tabelle 19. Beispielhafte Suchergebnisse für brainfiler und LiveLink Kunde1 LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M P (found) Q Ma (correct accept) Qa (false accept) (correct reject) c/b (false Precision Recall (r) Fallout F-Wert reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) measure 155 81 89 10 6 7 145 75 82 13 9 10 10 6 7 3 3 3 0 0 0 142 72 79 0,77 0,67 0,70 1,00 1,00 1,00 0,02 0,04 0,04 0,97 0,95 0,96 7 3 4 140 96 155 15 8 17 125 88 138 17 11 19 14 20 13 8 15 11 15 4 3 4 3 5 2 0 2 -11 -15 121 85 134 -3 1332 0,76 0,73 0,79 0,79 0,75 0,87 1,00 0,88 0,03 0,03 0,03 0,86 0,96 0,88 7,86 19,50 9 5 11 8 10 1337 Im Folgenden werden Szenarien definiert. Sie unterstützen die Untersuchung, inwieweit sich der subjektive Charakter von Wissen in Form von Rollen wiederfinden lässt. Sie erlauben die Diskussion innerhalb des Anwendungsfalls der Angebotserstellung. Grundsätzlich ist der Wunsch nach hohem Recall und hoher Precision selten erfüllbar. Liegt der Schwerpunkt auf einer möglichst großen Ergebnismenge, ist ein hoher Recall ausschlaggebend bei gleichzeitig sinkender Precision. Wird der Anspruch auf die Genauigkeit der gefundenen Dokumente gelegt, sollte die Precision hoch sein, wobei der Recall abfällt. 11.5.2 Testszenarien Als Testszenarien wäre ein Vergleich der Technologie in verschiedenen wissensintensiven Prozessen oder ein Vergleich unterschiedlicher Szenarien in einem wissensintensiven Prozess denkbar. Zu unterschiedlich sind wissensintensive Prozesse, um eine eineindeutige Aussage über den Einfluss der Technologie machen zu können, so dass hier der Szenariovergleich innerhalb eines Anwendungsfalls angewandt wird. Sollte sich die Hypothese bestätigen, dass Rollen geeignet sind, um als PIMO die Perspektive eines Nutzers zu repräsentieren und damit die Ergebnisrelevanz zu steigern, könnte ein Vergleich zwischen Anwendungsfällen untersucht werden. In Ergänzung wird durch Test des Semantic Desktop unter Praxisbedingungen eine zusätzliche Aussage im Vergleich zum Labortest gewonnen. Er ist bei Bestätigung Hinweis auf das Potential einer Modellanwendung in anderen wissensintensiven Prozessen. In Workflow-Umgebungen wurden bisher nur situationsspezifische Kontextinformationen wie Zeit oder Aktivität berücksichtigt. Die Rolle repräsentiert die individuelle Perspektive und enthält damit 122 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen eine Intention oder Aufgabe. Sie könnten Informationen weitere Bedeutung verleihen. Hierfür soll mit dem Test getrennt untersucht werden, wie sich die Rolle in homogenen (gleichen Rollen) und heterogenen (unterschiedlichen Rollen) Gruppen und Kollaborationssituationen auf die Relevanz von Informationen auswirkt. Die unterschiedliche Dokumentenbasis kann als peer-to-peer-Architektur verfügbar gemacht werden. Sie repräsentiert hierin unterschiedliche Mitarbeiter, die mit ihren Dokumenten die Basis möglicher relevanter Dokumente vergrößern. Homogene und heterogene Gruppen differenzieren sich durch zwei wesentlichen Einflussgrößen: Rolle und Dokumentenbasis. Sie bilden, wie in Abbildung 21 aufgezeigt, Szenarien, über die die Auswirkungen von Konzepten und Regeln in Gnowsis auf die Relevanz der Suchergebnisse getestet werden. Wissensobjekt verschieden Szenario 2 Szenario 4 ähnlich Szenario 1 gleich Szenario 3 ähnlich verschieden Rolle Abb. 22. Testszenarien in Abhängigkeit von Rolle und Wissensobjekt Gnowsis ist die semantische Suche im Semantic Desktop. Sie verwendet, wie verschiedene andere Dienste im Semantic Desktop, semantischer Konzepte und Regeln. Erste Erfahrungsberichte aus der Entwicklungsumgebung mit willkürlichen Daten und Dokumenten zeigten bereits deutliche Verbesserungen in der Ergebnisrelevanz gegenüber herkömmlichen (Volltext-)Suchen. Der Test validiert daher im ersten Teil (Szenario 1) zunächst die Erfahrungsberichte mit Gnowsis mit anonymisierten Strukturen und Daten aus dem Tagesgeschäft auf einem einzelnen Desktop. Der zweite Teil diskutiert im Vergleich der Szenarien 2 und 3 mit Szenario 1, welchen Beitrag die Technologie in der Kollaboration leisten kann. Semantische Konzepte werden hier nach den existierenden Rollen Proposal Manager und Sales Manager modelliert. Sie werden als Teil eines Personal Information Models (PIMO) repräsentiert und ermitteln sich aus bottom-up, dynamisch ermittelten nativen Strukturen, wie Folder- oder Mailordnerstrukturen. Zur Erörterung, inwieweit sich beide Erkenntnisse gleichzeitig erzielen lassen, wird Szenario 4 mit Szenario 1 vergleichen. Für eine grundsätzliche Einordnung der Ergebnisse stellt der Test die Ergebnisse von Gnowsis in Szenario 4 als Suche mit semantischen Konzepten den Ergebnissen der bei SIS eingesetzten zentralen Knowledgebase Livelink ohne Konzepte gegenüber. In Szenario 1 werden vor allem Verbesserungen der Precision erwartet, da mit der Beschränkung auf einen Desktop wenige Störungen und nicht-relevante Dokumente Einfluss nehmen. In Szenario 2 wird ein zweiter Arbeitsplatz eines Nutzers mit ähnlicher oder gleicher Rolle (Sales Manager) untersucht. Dieser Sales Manager arbeitet an unterschiedlichen Themen (oder unterschiedlichen Kunden) und somit an unterschiedlichen Dateien. Trotz der unterschiedlichen Inhalte bewegen sie sich aufgrund der gleichen Rolle in gleichen Domänen, wie Kalkulationen, Trends, Lösungen, Entwicklung, etc. Es wird angenommen, dass die Nutzer ihren Arbeitsplatz in ähnlicher Weise organi- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 123 sieren sowie ein ähnliches Vokabular verwenden. Nutzer mit gleicher Rolle, die auf einem unterschiedlichen Datenbestand arbeiten, könnten somit von einander profitieren, indem sich durch die teilweise komplementären Informationen der Peers die gesamte Datenbasis erhöht und den Nutzern somit potenziell mehr relevante Informationen für seine Arbeit zur Verfügung stellen. In der Folge wird eine Steigerung des Recalls erwartet. In Szenario 3 werden Nutzer mit den unterschiedlichen Rollen Sales Manager und Proposal Manager berücksichtigt, die aber an ähnlichen oder gleichen Themen und Dateien arbeiten. Insbesondere Kunden-Communities sind schwach strukturierte Arbeitsbereiche. Sie verbinden Nutzer mit unterschiedlichen Rollen, wie Sales Manager, Solution Designer, Proposal Manager, Project Manager, etc. Sie arbeiten alle mit demselben Kunden zusammen. Einige der Dokumente werden zentral gespeichert. Der Großteil der Informationen wird sich in Dokumenten auf dem jeweils lokalen Arbeitsplatz wiederfinden. Die gemeinsame Nutzung vom individuellen Standpunkt aus wird als nicht notwendig oder sinnvoll erachtet. So arbeitet jeder Nutzer oder jede Rolle weiterhin überwiegend mit den Dokumenten seines eigenen Arbeitsplatzes, wobei hingegen nur ein Teil der Informationen innerhalb der Community geteilt wird. Die Nutzer könnten davon profitieren, dass auf den unterschiedlichen Peers ähnliche Dokumente mit rollenbedingt unterschiedlichen Konzepten und somit mehr Informationen zu ähnlichen Dokumenten zur Verfügung stehen. Die Erweiterung der Datenbasis um ähnliche Dokumente sollten den Faktor Recall positiv beeinflussen. Die hinzugekommenen Konzeptinformationen zu ähnlichen oder gleichen Dokumenten sollten den Wert für Precision beeinflussen. In Szenario 4 werden Nutzer mit unterschiedlichen Rollen betrachtet, die an unterschiedlichen Themen oder Dateien arbeiten. Jeder der Nutzer arbeitet überwiegend auf seinem eigenen Arbeitsplatz. Kommunikation und der Austausch von Informationen findet im organisatorisch vorgegebenen Rahmen statt. Die unterschiedlichen Rollen könnten von Informationen des anderen profitieren. Sie gehen das Risiko ein, dass sich durch Verfügbarkeit vieler irrelevanter Dokumente die Relevanz der Suchergebnisse verringert. 11.6 Testbasis Die für diese Tests zu verwendenden Begriffe werden anhand von markanten, in den Dokumenten enthaltenen Passagen ermittelt. Sie werden mit den Ergebnissen aus der Befragung von Vertretern der Rollen Sales und Proposal Manager abgeglichen. Hieraus ergeben sich für die durchzuführenden Tests folgende Suchanfragen: Cost Reduction, Business Efficiency, Call-Center, Help-Desk, Infrastructure, Communication, SAP R3, RFID, Voice Data Solution, Outsourcing, Financial Market und Kunde1 (als anonymisierter Stellvertreter für Kundennamen). Die Tests werden mit den hier aufgeführten Begriffen in den gegebenen Szenarien durchgeführt. In den einzelnen Szenarien werden jeweils alle Suchbegriffe getestet. Die zuvor ermittelten Werte (Gesamtzahl der Elemente, sowie die Anzahl der relevanten und nicht relevanten Elemente) sowie die aus den Tests hervorgegangenen Werte werden in die entsprechende Tabelle eingetragen. Anschließend werden die Qualitätsparameter berechnet. 11.6.1 Datenbasis und Ordnerstrukturen Für die durchzuführenden Test wurden zunächst passende Dateien und Ordnerstrukturen ausgewählt. Grundlegende Datenbasis bilden die über 100 anonymisierten deutschen und englischen Management Summaries von Angeboten. Diese werden durch entsprechende, zur Erstellung der Management Summaries, verwendete Quelldateien ergänzt. All diese Dateien stehen unter LiveLink, in einem für das Projekt angelegten Testordner zur Verfügung und können somit von LiveLink durchsucht werden. Für den Proposal Manager werden, in Anlehnung an die Vorgaben der SIS-Projekt-Struktur, folgende Ordner und Unterordner verwendet: 124 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Tabelle 20. Ordnerstruktur eines Proposal Managers Ordner Basisdaten Unterordner Allgemeine Informationen, Teammitglieder, Querverweise Projektauftrag, Projektpläne, Kalkulationen, Risiko-Management, Qualitätsmanagement, Kundenbeziehung Ressourcenverteilung, Bewilligungen Mit Kunde, Partner, Team Zulieferungen, Beistellungen Abnahmen, Auftrag Abschlussbericht, Lessons learned Präsentationen, Vorlagen, Hintergrund-Infos Management Berichte Kommunikation Lieferungen Verträge Ergebnisse Verschiedenes Für die Sales Manager wird, in Anlehnung an die Realdaten von verfügbaren Sales Managern, folgende Struktur angenommen: Tabelle 21. Ordnerstruktur eines Sales Managers Ordner Kommunikation Unterordner E-Mails, Briefe Meetings, Kontakte, Thema 1, Thema 2, Präsentationen Controlling, Marktstudien, Referenzen, Strategien Personal, Kontakte Thema 1, Präsentationen, Vorträge, Verschiedenes Berichte, Downloads Sales und Marketing Initiativen Organisation Kunde 1 Sales Service Die im Testordner verfügbaren Dateien werden nun entsprechend ihrem Inhalt auf die jeweiligen Ordner der einzelnen Nutzer verteilt. Diese Verteilung berücksichtigt die in den Kernszenarien (S1 S4) gegebenen Voraussetzungen. Die ähnlichen Verzeichnisstrukturen der beiden berücksichtigten Sales Manager werden zum Beispiel mit Dokumenten zu unterschiedlichen Themen gefüllt. 11.6.2 Organisatorische Ontologie Zur Ergänzung des PIMO wird als organisatorische Ontologie auf das SIS Ontologiemodell zurückgegriffen. Dies wird mittels Protegé (http://protege.stanford.edu/) modelliert. (siehe Anhang A, Source Code). Hierin werden ein Informations-, Kunden-, Organisations-, Produkt, Rollen- und Workflowmodell abgebildet. Abb. 23. Ontologie - Informationsmodell Das Informationsmodell besteht aus Dokumenten sowie deren Spezialisierungen, Projektdokument und Template. Zwischen den einzelnen Dokumenten bestehen diverse Beziehungen. Die wichtigste ist die Kennzeichnung, dass ein Dokument auf einem anderen beruht, um so die Struktur des Management Summary Templates abbilden zu können und auf die Quelldokumente eines gefundenen Objekts schließen zu können. In Anlehnung an Zeilbeck und Franz (2005) werden die in der Ontologie notierten Dokumente (Templates und Best- Practice-Dokumente) mit den entsprechenden Meta-Daten versehen. Diese sind: Title, Creator, Publisher (Owner), Contributor (Co-Author of a document), Subject (Keywords), Description, Document Type, Language und Coverage (Countries). Meta-Daten wie Verweise auf Personen werden nicht textuell, sondern als direkte Referenzen angelegt. Projektdokumente enthalten zusätzlich eine Referenz auf das jeweilige Projekt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 125 Abb. 24. Ontologie - Kundenmodell Dem Kundenmodell liegt die Struktur der SIS Brancheneinteilung zugrunde. Für Instanzen von Kunden und Kundenanforderungen werden beispielhaft Daten aus den verfügbaren Dokumenten verwendet. Kunden werden ebenfalls den einzelnen Projekten zugeordnet. Abb. 25. Ontologie - Organisationsmodell Dem Organisationsmodell liegt die grundlegende Organisationsstruktur von SIS zu Beginn dieser Arbeit zugrunde. Die Hierarchie wird mit Dummydaten aufgefüllt. Abb. 26. Ontologie - Produktmodell Im Produktmodell sind die Beziehungen zwischen Portfolioelementen und daraus zusammengestellten Business Topics oder Solutions für einzelne Projekte ausgewiesen. Abb. 27. Ontologie - Rollenmodell Das Rollenmodell resultiert aus den bei SIS existierenden Rollen sowie deren Ausprägungen (in Form von Entwicklungsstufe oder Expertenlevel). Die typischen Fähigkeiten und Kenntnisse einer 126 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Rolle sind ebenfalls ausgewiesen. Dies würde ausblickend beispielsweise Assignment-bezogene Tests ermöglichen. Die anonymisierten Personen werden mit ihrer Rolle versehen. Abb. 28. Ontologie - Prozessmodell Dem Workflow-Modell liegen die SIS Prozessdefinitionen aus Kapitel 0 zugrunde. Zur jeweiligen Aufgabe werden das gewünschte Template und die entsprechende Verantwortlichkeit einer Rollenausprägung hinzugefügt. Insgesamt ergibt sich somit eine Ontologie, in welcher anhand der nachfolgend notierten Inferenzen Schlussfolgerungen gezogen werden können. 11.6.3 Systemvoraussetzungen Das positive Ergebnis der mit Hilfe der Abteilung für Softwareinstallationen durchgeführten Überprüfung der allgemeinen Installierbarkeit auf SIS-typischen Rechnersystemen bestätigt die vom DFKI angenommenen Systemvoraussetzungen für die Verwendung von Gnowsis. Tabelle 22. Systemvoraussetzungen System Brainfiler Client Minimal Windows 2000, XP und 2003 600 MHz, 384 MB RAM Empfohlen Windows 2000, XP und 2003 2000MHZ, 512 MB RAM Brainfiler Server Windows 2000, XP und 2003 1000 MHz, 512 MB RAM Windows 2000, XP und 2003 2500MHZ, 768 MB RAM Modellierung Windows 2000, XP und 2003 1500 MHz, 512 MB RAM Windows 2000, XP und 2003 3000 MHz, 1024 MB RAM Tabelle 22 zeigt die seinerzeit hohen Leistungsanforderungen pro Arbeitsplatz des unter Windows lauffähigen Semantic Desktops und seiner Modellierungswerkzeuge. 11.7 Testergebnisse In Erweiterung zur Suche mit semantischen Konzepten werden die Szenarien mit manuellen rollenspezifischen Regeln betrachtet. Dabei soll untersucht werden, inwieweit mit dem gleichen Redaktionsaufwand wie heute für Informationskategorisierung eine weitere Steigerung der Relevanz erzielt werden kann. Im Vergleich zur bisher bei SIS eingesetzten LiveLink-Suche über eine vergleichbare Grundgesamtheit gemäß den Szenarien zeigt sich, dass in allen eine Steigerung sowohl des Recalls als auch der Precision erzielt werden konnte: Tabelle 23. Gesamtverbesserung gegenüber bisheriger LiveLink Suche (ohne Regeln) Szenario S2 S1 Recall 10% 23% Precision 28% 29% Szenario S4 S3 Diese wurden um besonders auffällige Werte wie folgt bereinigt: Recall 6% 22% Precision 18% 20% Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 127 Bei der Suche in brainFiler und LiveLink ist für Business Efficiency und Call-Center mit 1,00 ein besonders hoher Recall-Wert zu identifizieren. Mögliche Ursache ist eine gute Indizierung der relevanten Dateien. LiveLink findet zu Call-Center viele nicht-relevante Dokumente (p=0,25). Beim synonymen, organisatorisch verwendeten Begriff Help-Desk sieht das Ergebnis mit p=0,50 etwas besser aus. Auch bei den weiteren Begriffen liegt LiveLink mit den Precision-Werten meist unter denen des brainFilers Bei der Suche mit Gnowsis (mit Ontologie) werden durchgängig hohe Werte für Precision erzieht. Dies liegt unter anderem darin begründet, dass in der Ontologie nur zusätzliche exakte Treffer gefunden werden und nicht versehentlich auf nicht relevante Einträge geschlossen werden kann. Die RecallVerbesserungen fallen in S2 und S4 nicht ganz so hoch aus. Im Gegensatz zu S1 und S3 erhöht und differenziert sich hierbei die Datenbasis. Dies erhöht M, die Menge der relevanten Dokumente. Die verfügbaren Ontologien können in dieser Komplexität nur über Inferenzen automatisch erschlossen werden, wie nachfolgende Tabelle verdeutlicht. Damit reduziert sich Ma, die Menge der daraus angebotenen Treffer. Bis auf vereinzelte LiveLink-Ergebnisse, bei SAP R3 und Outsourcing, bleiben die Werte für Fallout auf einem konstant niedrigen Niveau. Die Ergebnisse unter Ergänzung rollenspezifischer Regeln, wie „If a project was found, determine the project documents as a possibly good source document for the current task“, verdeutlichen, dass sich hierüber vor allem beim Recall weitere Verbesserungen von 15-20% erzielen lassen: Tabelle 24. Gesamtverbesserung gegenüber bisheriger Livelink Suche (mit Regeln) Szenario S2 S1 Recall 24% 39% Precision 29% 31% Szenario S4 S3 Recall 26% 39% Precision 20% 21% Diese Steigerung ist durch die manuelle Bewertung weiterer relevanter Objekte aus Sicht einer Rolle zu erklären. Die Testdaten und absoluten Zahlen sind verfügbar und werden als Anhang zur Arbeit bereitgestellt. 11.7.1 Erfahrungsberichte werden bestätigt Erfahrungsberichte von acht Forschern im Entwicklungsrahmen von Gnowsis weisen auf eine sehr gute Repräsentation der Nutzersicht im Sinne einer Relevanz hin. Die Testpersonen stufen das Tool in ihrer täglichen Arbeit im Befragungszeitraum über eine Woche auf der Basis von strukturierten Interviews subjektiv als hilfreich ein. Dabei wird vor allem festgestellt, dass unerwartete Informationen gefunden und die eigene Kategorisierung, aber auch die anderer Teilnehmer, bei der Suche hilfreich ist. Der Gnowsis-Test bestätigt für den ersten Teil des Tests nun die Erfahrungsberichte im Praxisrahmen bei SIS und auf Basis einer Precision- und Recall-Standardbewertungsmethode für Suchmaschinen. Tabelle 25. Ergebnisse gegenüber Laborbedingungen Beschreibung Ziel Beobachtung Erfahrungsberichte Szenario 1 (ohne Regeln) (Sauermann 2006) Suche mit willkürlich modellierten Suche mit real modellierten Rollen und reRollen und Dummy-Daten auf ei- alen Datensätzen aus der SIS Praxis auf einem Desktop in der alltäglichen nem Desktop mit hinreichend großem DaForschungsarbeit tenvolumen Bestätigung der Wirkung von Gnowsis unter Praxisbedingungen Unerwartete Informationen wurden p: 29%, r: 23% als relevant gefunden (Recall) In Ergänzung zum Recall steigt auch die Precision an. Diese lässt sich nicht originär aus den Daten ableiten, sondern ergibt sich aus den Nutzerstrukturen. Die Nutzung eines Systems wie LiveLink, ermöglicht es dem Nutzer bei einer Suche, die entsprechend der ermittelten Relevanz sortierten Dokumente zu erhalten. Entweder ist der eingegebene Beg- 128 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen riff direkt im Dokument enthalten oder das Dokument wird aufgrund assoziativer Ähnlichkeit gefunden. Zu wichtigen in den Dokumenten enthaltenen Meta-Daten, wie Autor, liefert LiveLink eine zusätzliche Ergebnisliste. Wenn der Autor der Dokumentenvorlage und nicht der Autor des eigentlichen Inhalts angegeben wurde, liefert diese Liste eine große Anzahl unbrauchbarer Ergebnisse. Der Test der lokalen Suche zeigt, dass brainFiler und LiveLink annähernd die gleichen Ergebnisse ermitteln. Dies geschieht unabhängig von der auf Regeln und Ontologien basierenden Nutzung der semantischen Suche. Unter Gnowsis werden, durch die Verwendung von Ontologien und Regeln, zusätzlich die zum Suchbegriff passenden Informationen wie Kontakte oder Projekte angegeben, da diese Ergebnisse in einer semantischen Beziehung zueinander stehen. Da unter LiveLink, im Gegensatz zu brainFiler oder Gnowsis, mehr nicht relevante Dokumente angezeigt wurden, könnte der Semantic Desktop bereits in diesem frühen Beta-Stadium, LiveLink erweiternde Funktionalität bereitstellen. Dies wird automatisiert durch die Ermittlung des initialen Ergebnisses der Suchverfeinerungen, Ermittlung der Konzepte, des Kontexts und der Sucherweiterungen durch Inferenzen. Andernfalls müssten diese Schritte manuell in weiteren Suchdurchläufen ausgeführt werden. Abb. 29. Screenshot (schematisch) Gnowsis für Szenario 1 Im obigen beispielhaften Screenschot des Gnowsis Suchergebnisses sind die drei ersten für die Suche nach Cost Reduction zu erkennen. Es handelt sich ausschließlich um relevante Dokumente. Im Unterschied zwischen Sales Manager und Proposal Manager auf einem Desktop gelten die gleichen Aussagen wie für die lokale Suche eines Sales Managers. Aufgrund der unterschiedlichen Strukturen der Rollen haben sich trotz eines fast identischen Datenbestandes Unterschiede im Suchergebnis gezeigt. Neben kleinen Unterschieden bei den gefundenen relevanten und nicht relevanten Dokumenten fallen vor allem die Unterschiede in der Reihenfolge der präsentierten Suchergebnisse auf. Diese Abweichungen können auf die unterschiedlichen Arbeitsplatzstrukturen der Rollen zurückgeführt werden. Im Vergleich der einzelnen Szenarien gegenüber Szenario 1 ergeben sich folgende Diskussionen und Ergebnisse. Im Beispiel werden die Ergebnisse eines Sales Managers zugrunde gelegt: 11.7.2 In homogenen Gruppen wirkt die Rolle auf die Ergebnisschärfe In Szenario 2 werden homogene Gruppen als peer-to-peer-Netzwerk durch mehrere Desktops mit den gleichen Folderstrukturen (gleiche Rolle) simuliert. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 129 Tabelle 26. Ergebnisse Szenario 2 gegenüber Szenario 1 Beschreibung Ziel Beobachtung Szenario 1 (ohne Regeln) Szenario 2 (ohne Regeln) Suche mit modellierten Rollen auf Suche mit gleichen Rollen über einem Desktop mehrere Desktops Wird die Rolle oder der MA durch das semantische Konzept repräsentiert ? Beeinflusst die Systemarchitektur (zentral/ dezentral) die Ergebnisrelevanz ? Recall in S2 (10%) steigt um 13%-Punkte nicht so stark wie in S1 (23%), Precision steigt mit 28% ähnlich stark wie in S1 (29%). Die angezeigten Ergebnisse werden um wenige neue relevanten Dokumente erweitert. Vor allem aber werden sie um irrelevante bereinigt. Die Ergebnisschärfe wird gestärkt. Der Zugriff auf unterschiedliche Peers vergrößert die Gesamtmenge der möglicherweise relevanten Dokumente und deren Klassifikationen. Die Verfügbarkeit ähnlicher Peers lieferte deshalb mehr relevante, in ähnlichen Strukturen gespeicherte Dokumente als die lokale Suche. Somit lässt sich durch die Tests feststellen, dass das Suchen mit Gnowsis über brainFiler, auf ähnlich organisierten Desktops, zusätzliche, unbekannten Informationen aufdecken kann. Abb. 30. Screenshot (schematisch) Gnowsis für Szenario 2 Im Vergleich zu Szenario S1 wurden zwei weitere relevante Dokumente auf einem Peer (remote) gefunden sowie die entsprechenden Konzepte identifiziert. Mehrere Desktops, als verschiedene Mitarbeiter in gleicher Rolle, stellen mehr und unterschiedliche Daten und Dokumente bereit. Es liegt auf der Hand, dass hierdurch mehr relevante Dokumente zur Verfügung stehen und der Recall ansteigen müsste. Dies ist nachweislich der Fall. Das Ergebnis zeigt, dass vielmehr als der Recall die Precision, wie in S1, ansteigt. Dies legt den Schluss nahe, dass die modellierte Rolle unabhängig von der Datenbasis ihren Einfluss auf die Ergebnisschärfe ausübt. Erfahrungsgemäß dürften mehr Dokumente zu ei- 130 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen ner Verschlechterung (Vermischung mit irrelevanten Daten) des Ergebnisses führen. Gnowsis vermeidet also das Aussortieren irrelevanter Dokumente aus dem Suchergebnis in diesem Szenario. Die gleiche Rolle und damit die gleiche Sicht auf unterschiedliche Dokumente verstärkt also die Bedeutung eines Objekts. Die Eigenschaft Mitarbeiter sorgt nur für ein Mehr an Dokumenten. Gnowsis würde sich damit sehr gut eignen, in großen homogenen Gruppen die Ergebnisschärfe zu steigern, und gerade hier Ansatzpunkte zur Automatisierung der Wissensentwicklung liefern. Es setzt allerdings die einheitliche Ablagestruktur voraus. Sie könnte in einer Rollendefinition zentral vorgegeben werden. Damit würden im Gegensatz zu top-down organisierten zentralen Plattformen, wie Livelink, die aufwendigen Upload-Prozesse und der zentrale Redaktionsprozess gespart. Zum zweiten lässt sich schließen, dass eine zentrale oder dezentrale Architektur eher eine Frage der Flexibilität ist denn eine Frage der Ergebnisrelevanz. In beiden Szenarien stiegen alle Werte an und die Precision sogar in gleichem Maße stark, was auf eine eher vernachlässigbare Einwirkung der Architektur schließen lässt. 11.7.3 In heterogenen Gruppen wirkt die Rolle auf die Zugänglichkeit relevanter Objekte Der Vergleich zwischen Szenario 1 und Szenario 3 untersucht die Frage, inwieweit unterscheidlcihe Rollen auf einem gemeinsamen Desktop wirken. Tabelle 27. Ergebnisse Szenario 3 gegenüber Szenario 1 Beschreibung Ziel Beobachtung Szenario 1 (ohne Regeln) Szenario 3 (ohne Regeln) Suche mit modellierten Rollen auf Suche mit unterschiedlichen einem Desktop Rollen auf einem Desktop Können verschiedene Sichtweisen auf die gleichen Dokumente die Ergebnisrelevanz erhöhen ? Recall in S3 steigt mit 22% ähnlich stark wie in S1 (23%), Precision steigt mit 20% um 9%-Punkte weniger stark wie in S1 (29%). Es werden mehr relevante Dokumente gefunden, wobei die angezeigten durch weitere irrelevante Dokumente verwischt werden. Es wird die Sichtbarkeit und Verfügbarkeit von relevanten Dokumenten gesteigert. Das System erlaubt in diesem Szenario, eine Erweiterung der Suchergebnisse anhand der unterschiedlichen Verbindungen einer Datei mit den relevanten Begriffen und Konzepten. Verursacht durch die brainFiler-Funktionalität kann das gleiche Dokument auf einem Experten-Peer mit hauptsächlich relevanten Dokumenten eine niedrigere Klassifizierung haben als auf einem unspezialisierten Peer mit breit gefächertem Wissen und hauptsächlich nicht relevanten Dokumenten. So sind bei einzelnen Suchen relevante und nicht relevante Dokumente zum Ergebnis hinzugekommen. Zusammen mit den Resultaten aus S2 kann festgestellt werden, dass Peers eine größere Gesamtdatenbasis und die Berücksichtigung mehrerer PIMOs oder Perspektiven ermöglichen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 131 Abb. 31. Screenshot (schematisch) Gnowsis für Szenario 3 In S3 wurden zu den lokalen Ergebnissen noch ein nicht relevantes Dokument (markiert) und ein relevantes Dokument auf dem remote-Peer gefunden. Der gleiche Datenbestand auf einem Desktop mit verschiedenen Rollen macht mehr relevante Dokumente durch die Nutzung der unterschiedlichen Ablagestrukturen verfügbar. Dies entspricht der Praxiserfahrung, dass Kollegen in anderen Rollen Dokumente haben, die aus der eigenen Rolle und der eigenen Perspektive nicht als relevant gefunden werden, weil sie in anderen Ordnern abgelegt werden. Da sie im Suchergebnis durch irrelevante Dokumente verwischt werden, besteht hier weiterhin manueller Aufwand, diese aus dem Suchergebnis herauszuarbeiten. Einige Informationen wären vorher gar nicht gefunden worden. Die Zusammenarbeit verschiedener Rollen stellt zwar mehr relevante Dokumente zur Auswahl als ohne modellierte Rolle, hilft aber noch vergleichsweise wenig zur zielgerichteten Empfehlung und Bereitstellung. Auch rollenspezifische Regeln tragen im aktuellen Fall wenig zur Verbesserung der Precision bei. Sie helfen zwar weitere relevante Dokumente zu identifizieren, bedürfen aber weiterer Forschung, wie sie zu gestalten wären, um auch die Precision stärker zu beeinflussen. 132 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 11.7.4 In unstrukturierten Gruppen wirkt die Rolle eher ergebnisschärfend Der Vergleich zwischen Szenario 1 und Szenario 4 untersucht die Frage, ob beide Effekte gleichzeitig, wie in großen Communities (Intranet, Internet), auftreten können. Szenario 4 kann dabei als eine Kombination der Szenarien 2 und 3 verstanden werden. Tabelle 28. Ergebnisse Szenario 4 gegenüber Szenario 1 und Livelink Beschreibung Szenario 1 (ohne Regeln) Suche mit modellierten Rollen auf einem Desktop Szenario 4 (ohne Regeln) Suche mit unterschiedlichen Rollen auf verschiedenen Desktops Schließen sich beide Effekte gegenseitig aus ? Ziel Beobachtung Recall und Precision steigen beide weiterhin an. Sie steigen mit r=6% und p=18% nicht so stark, wie in Szenario 1 (r=23% und p=29%). Die beiden Effekte Recall und Precision wirken aufeinander, so dass ein Mehr an relevanten Dokumenten nicht ausreichend durch ein Mehr an angezeigten relevanten Dokumenten ausgeglichen werden kann. Livelink Suche ohne Rollen mit realen Datensätzen aus der SIS Praxis auf einem zentralen Server (vgl. einem großen Desktop) Einordnung der Verbesserung in ein Live-System ohne semantische Suche Im Vergleich von S4 mit Livelink kann eine Steigerung in Recall und Precision gegenüber dem implementierten System und der gesamten Datenbasis festgestellt werden. Es konnte ein erforderliches Dokument über synonyme Suchfragen (Help-Desk, Call-Center) aufgefunden werden. Da S4 eine Kombination der vorhergehenden Situationen ist, sind die Resultate eine Kombination der in den vorangegangenen Situationen gelieferten Ergebnisse. Es ist eine Kombination aller relevanten und nicht relevanten Dokumente. Alle vorhergehenden Situationen integrierend, unterstreicht dieses Resultat die Erwartung von S3, dass die Peersuche eine positive Auswirkung auf den Recall-Wert und eine unter Umständen negative Auswirkung auf den Precision-Wert hat, wenn Peers von Nutzern mit einer anderen Rolle (Perspektive) durchsucht werden. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 133 Abb. 32. Screenshot (schematisch) Gnowsis für Szenario 4 Auch in diesem Screenshot wurde der nicht relevante Eintrag markiert. Dieses Bild stellt die beschriebene Kombination der vorangegangenen Suchen noch einmal graphisch dar. Die Ergebnisschärfe lässt sich zwar steigern. Für einen Einsatz von Gnowsis im Internet oder Intranet als Kombination aus mehr gefundenen relevanten Informationen und deren präzisere Darstellung im Suchergebnis reicht die Signifikanz des Anstiegs von Recall und Precision nicht aus. Regeln wirken, wie in dem anderen Vergleich, relevanzsteigernd. Sie sind aber immer mit manuellem Redaktionsaufwand verbunden. Im Vergleich zu bisherigen Systemen konzentriert sich dieser aber weniger auf eine Verschlagwortung und bewegt sich mit Regeln auf einer anderen Ebene. Zu untersuchen wäre, inwieweit sich solche Regeln auch (semi-)automatisch aus Workflow-Systemen ableiten ließen. 11.7.5 Insgesamt wirkt die Rolle, aber gruppenspezifisch Zusammenfassend wirkt die Berücksichtigung der Rolle ergebnisschärfend (p hoch) in homogenen Gruppen und ergebniserweiternd (r hoch) in der Zusammenarbeit heterogener Gruppen. Sie beschleunigt damit das Auffinden relevanter Informationen (ergebnisschärfend) in homogenen Gruppen. In der rollenübergreifenden Zusammenarbeit bewirkt sie die Identifikation von Informationen, die bisher nicht gefunden wurden (ergebniserweiternd). 134 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Die bisherige Modellierung von Rollen in Prozessen in Form von Aktivitäten und Verantwortlichkeiten reicht für die Modellierung nicht aus. Für eine kontextgerechte Bereitstellung von Informationen und damit Entwicklung von Wissen werden Prozesse um Informationsflüsse ergänzt. Ebenso müssen Rollen um eine informationstechnische Modellierung ergänzt werden. Sie tragen damit zur Steigerung der Informationsrelevanz und zur Automatisierung der Wissensentwicklung bei. Das PIMO erweist sich aber als geeignet, eine Nutzerperspektive zu modellieren und technologisch nutzbar zu machen. Die Ergebnisse unterstützen damit die Literaturdiskussion zur Entwicklung von Wissen als eine dynamische, subjektive und situationsspezifische Bereitstellung von Informationen. 11.8 Testgüte Welche Aussagekraft die Stichprobenwerte von Precision- und Recall in Bezug Leistungsfähigkeit von Gnowsis haben wird mit Hilfe einer statistischen Signifikanzanalyse untersucht und illustriert. Sie beschreiben den Informationsgehalt der Daten im Vergleich zu zufälligen Werten. Dabei steht der direkte Vergleich von Gnowsis und LiveLink in S1 im Vordergrund. Welche inhaltliche Bedeutung die Werte haben wird mit Hilfe von Relevanzanalysen und werten, wie ROC-Kurve oder F-Wert, untersucht. Sie berücksichtigen den Kontext der Aussagen in Form von inhaltlichen Bezugsgrößen und untersuchen, inwieweit sich Steigerungen der Leistung originär oder nur auf Kosten anderer Kenngrößen steigern lassen. Im vorliegenden Fall bietet sich der Kontext aus den typischen Meßgrößen von Suchmaschinen, wie Recall, Precision und Fall-out an. 11.8.1 Signifikanzanalyse der Testergebnisse Die statistische Signifikanz untersucht die Abhängigkeit von Testvariablen. Der Unterschied zweier oder mehrerer Variablen ist signifikant, falls die Wahrscheinlichkeit, dass sie durch Zufall so zustande kommen, gering ist und damit nur ein Zusammenhang „erscheint“, aber nicht wirklich „ist“. Signifikanztests erlauben eine Abschätzung der Irrtumswahrscheinlichkeit in Bezug auf die aufgestellte Nullhypothese. Im vorliegenden Fall ist die Nullhpothese, dass die Ergebniskurven von Gnowsis und LiveLink gleich sind, ihre Differenz Null ist. Statistische Tests können nur Unterschiede und keine Differenzen feststellen, so dass versucht wird, eine Alternativhypothese zu bestätigen und damit die Nullhypothese mit einer bestimmten Irrtumswahrscheinlichkeit zu verwerfen. Ab einem Signifikanzniveau von 95% oder einer maximalen Irrtumswahrscheinlichkeit von 5% spricht man von signifikanten Werten. Das bedeutet, dass sie sich vom Erwartungswert um mehr als die zweifache Standardabweichung unterscheiden. 11.8.1.1 Standardabweichung und Varianz Standardabweichung und Varianz beschreiben die Streueung statistischer Werte um ihren Mittelwert (Sachs 1997). Sie helfen, zu erkennen, ob der Mittelwert aus sehr ähnlichen, dicht am Mittelwert liegenden Werten entsteht oder durch sich gegenseitig mittelnde Extremwerte. Ist die Standardabweichung gering, so häufen sich die Messungen um den Mittelwert; ist sie groß, so sind sie weit verstreut. Die Standardabweichung berechnet sich als die Quadratwurzel der Varianz: (6) Die Varianz selbst ist das arithmetische Mittelwert aller quadrierten Abweichungen der Daten von ihrem arithmetischen Mittelwert: Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 135 (7) Die Standardabweichungen werden für Precision, Recall und später für den F-Wert über die Suchbegriffe in den verschiedenen Szenarien mit Inferenzen ermittelt: Tabelle 29. Ergebnisse Standardabweichung für Precision über die Szenarien 1 2 3 4 5 6 7 8 9 10 11 12 Stichprobe=12 Kunde1 Financial Market Outsourcing Voice Data Solution RFID SAP R3 Communication Infrastructure Helpdesk Callcenter Business Efficiency Cost Reduction Precision S1 0,6667 1,0000 0,8000 0,6667 1,0000 1,0000 0,8000 0,5714 0,5000 0,8400 0,6667 0,8750 Precision S2 0,7647 0,8636 0,8065 0,6667 0,7143 0,6000 0,6000 0,5556 0,6000 0,6000 0,7143 0,7692 Precision S3 0,7273 0,9231 0,8000 0,7500 0,6667 0,6364 0,5714 0,6250 0,4000 0,6000 0,5000 0,7500 Precision S4 0,7895 0,8400 0,8049 0,7500 0,6250 0,5000 0,5000 0,6000 0,5000 0,5000 0,5556 0,7059 Precision LL 0,7692 0,4286 0,6522 0,4286 0,2222 0,2222 0,2667 0,4667 0,5000 0,2500 0,4167 0,7143 Varianz (precision) Standardabweichung (precision) Mittelwert 2,658% 0,898% 1,799% 1,611% 3,287% 16,304% 0,78 9,474% 0,69 13,414% 0,66 12,692% 0,64 18,131% 0,44 Die Werteverteilung und Streuung der Begriffe über die Szenarien illustriert die nächste Abbildung: Precision 1,0000 Ausprägung 0,9000 0,8000 0,7000 Precision S1 0,6000 Precision S2 Precision S3 0,5000 Precision S4 0,4000 Precision LL 0,3000 0,2000 0 1 2 3 4 5 6 7 8 9 10 11 12 13 Begriffe Abb. 33. Verteilung Precisionwerte nach Suchbegriffen Die Testreihe weist im Szenarienvergleich eine Standardabweichung von gut 12% auf. Sie erscheint damit konstant und für eine Aussagekraft und Belastbarkeit der Messwerte hinreichend. Im Vergleich zu LiveLink weisen die Testwerte eine deutlich geringere Standardabweichung und Varianz auf. Für den Recall ergeben sich folgende Ergebnisse und Werte: Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 136 Tabelle 30. Ergebnisse Standardabweichung für Recall über die Szenarien 1 2 3 4 5 6 7 8 9 10 11 12 Stichprobe=12 Kunde1 Financial Market Outsourcing Voice Data Solution RFID SAP R3 Communication Infrastructure Helpdesk Callcenter Business Efficiency Cost Reduction Varianz (precision) Standardabweichung (precision) Mittelwert Recall S1 1,0000 0,8333 0,9231 1,0000 1,0000 0,7143 0,8000 1,0000 1,0000 1,0000 1,0000 1,0000 0,925% Recall S2 0,8667 0,8636 0,7813 0,6667 0,8333 0,7500 0,7500 0,8333 0,7500 1,0000 1,0000 0,9091 0,955% Recall S3 1,0000 0,8571 0,9091 1,0000 1,0000 0,8750 0,8000 0,8333 1,0000 1,0000 1,0000 0,9000 0,544% Recall S4 0,8824 0,8750 0,8049 0,7500 0,8333 0,8889 0,7500 0,7500 0,7500 1,0000 1,0000 0,8571 0,752% Recall LL 0,5882 0,1250 0,7317 0,7500 0,6667 0,4444 0,5000 0,8750 0,7500 1,0000 1,0000 0,7143 5,508% 9,618% 0,94 9,774% 0,83 7,377% 0,93 8,673% 0,85 23,469% 0,68 Diese Testreihe weist im Szenarienvergleich eine noch deutlichere Verbesserung der Standardabweichung im Vergleich zum LiveLink Szenario auf. Sie liegt bei ca. 8%. Und erscheint damit konstant. Die Aussagekraft und Belastbarkeit der Messwerte wird als ausreichend betrachtet. Ausprägung Recall 1,0000 0,9000 0,8000 0,7000 0,6000 0,5000 0,4000 0,3000 0,2000 0,1000 0,0000 Recall S1 Recall S2 Recall S3 Recall S4 Recall LL 0 1 2 3 4 5 6 7 8 9 10 11 12 Begriffe Abb. 34. Verteilung Recallwerte nach Suchbegriffen Der mögliche Einfluss der erweiterten Grundgesamtheiten (durchsuchte Dokumente) im Vergleich von Tests mit Inferenzen gegenüber LiveLink wurde durch direkten Vergleich auf Basis des brainfiler (vgl. Anhang – Suche mit LiveLink) ausgeschlossen. Bereits ohne Inferenzen werden bessere Recallund Precision-Werte erzielt. Hierbei fließen im Gegensatz zu rein algorithmischem Retrieval Lernerfahrungen des Nutzers und Designer mit ein. Die Betrachtungsgrößen berücksichtigen alle ermittelten Werte der Stichprobe. Schließt man Ausreißer aus, verbessern sich die Aussagen weiter und zeichnen sich duch geringere Streuung aus. Im LiveLink-Szenario sind mehr als ein Ausreißer zu verzeichnen, so dass eine „Glättung“ schwieriger fällt. In Summe streuen die Werte von Gnowsis weniger stark um ihren Mittelwert als LiveLink. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 137 Neben der Steuungsanalyse gibt es Signifikanztests für die Bewertung der Test- und Wertegüte auf Basis von anderen Bezugsgrößen. Der F-Test bewertet, inwieweit Varianzen zweier Grundgesamtheiten zufällig voneinander verschieden sind oder nicht. Der Chi-Quadrat-Test (Manning und Schütze 1999) und sein Pendant für kleinere Stichproben, der Kolmogorov-Smirnov (KS-)-Test (Sachs 1997), stellen die Beziehung zu einem hypothetischen Wert und der T-Test (Manning und Schütze 1999) zu einem Erwartungswert oder Mittelwert her. Sie eignen sich, um erwartete Werte und Hypothesen, die mit Hilfe anderer Verfahren ermittelt wurden, mit den tatsächlich beobachteten Werten eines zweiten Verfahrens zu vergleichen und so Aussagen über die statistische Signifikanz einer Vorhersage oder einen Verfahrensvergleich zu machen. Im Gegensatz zu weiteren Tests, bleibt die Reihenfolge der Ergebnisse in den hier genannten unberücksichtigt. Sie testen auf eine durchschnittliche Verbesserung der Ergebnisse. Tabelle 31. Übersicht möglicher Signifikanztest Test/ Kriterien T-Test KS-Test W-Test Paarweise Werte Abhängig vom Verteilungstyp x x x Kleine Stichproben x x x Im Gegensatz zum T- und KS-Test ist der Wilcoxon-Vorzeichen-Rang-Test (W-Test) als nichtparametrischer Test für gepaarte Stichproben und auch bei kleinen Stichproben anwendbar (Zöfel 2002, Brüning und Trenkler 1994, Siegel 2001). Der W-Test ist nicht vom Verteilungstyp abhängig und erfordert keine Normalverteilung der Stichproben. Er erfüllt alle Voraussetzungen für den vorliegenden Fall mit 12 Stichproben, paarweisen Werten der Suchbegriffe und eines nicht bekannten Verteilungstyps. In Ergänzung des Vorzeichentest berücksichtigt er nicht nur die Richtung der Differenzen, sondern auch die Stärke der Differenzen zwischen zwei gepaarten Stichproben. Sie macht die Ergebnisse schärfer. 11.8.1.2 Wilcoxon-Test für paarweise Stichproben Der W-Test untersucht die Differenzen der Stichprobenpaare und –reihen in Bezug auf einen Mittelwert. Wenn es, gemäß Nullhypothese, zwischen beiden Reihen keine Unterschiede gibt, zeigen sich positive und negative Differenzen. Zeigen sich nur positive oder nur negative Differenzen deutet dies bereits auf einen hohen Mittelwertunterschied hin. Der W-Test bringt die Differenzen aus den Vergleichswerten pro Begriff dem Betrag nach in eine Rangfolge und bildet über die Rangzahlen eine positive und negative Rangsumme. Aufgrund der kleinen Stichprobe wird über die kleinere Summe von beiden mit Hilfe der Tabelle das Signifikanzniveau ermittelt. Je weniger sich die Stichproben unterscheiden, umso ähnlicher sind auch die Rangsummen. Auch der W-Test kann ein- oder zweiseitig ermittelt werden. Im vorliegenden Fall gehen wir von einem zweiseitigen Test aus, da Abweichungen vom Mittelwert sowohl nach oben als auch nach unten gleich wichtig sind. In der Tabelle wird daher beim Wert n-1 (=11) nachgeschlagen. Die Berechnung mit den vorliegenden Testdaten für Precision ergibt in nachstehender Tabelle ein positives Bild: 138 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Tabelle 32. Wilcoxon-Test für Precision – Szenario 1 n (urspr.) n (sort.) 9 1 8 2 4 3 11 4 1 5 7 6 3 7 10 8 12 9 5 10 2 11 6 12 N 12 Begriff Helpdesk Infrastructure Voice Data Solution Business Efficiency Kunde1 Communication Outsourcing Callcenter Cost Reduction RFID Financial Market SAP R3 Precision S1 aufsteigend 0,5000 0,5714 0,6667 0,6667 0,6667 0,8000 0,8000 0,8400 0,8750 1,0000 1,0000 1,0000 Precision LL 0,5000 0,4667 0,4286 0,4167 0,7692 0,2667 0,6522 0,2500 0,7143 0,2222 0,4286 0,2222 Differenz 0,0000 0,1048 0,2381 0,2500 -0,1026 0,5333 0,1478 0,5900 0,1607 0,7778 0,5714 0,7778 absolute Diff 0,0000 0,1048 0,2381 0,2500 0,1026 0,5333 0,1478 0,5900 0,1607 0,7778 0,5714 0,7778 Rang 1 3 6 7 2 8 4 10 5 11 9 11 Rangsumme +Ränge 0 3 6 7 0 8 4 10 5 11 9 11 74 -Ränge 0 0 0 0 2 0 0 0 0 0 0 0 2 Da keine negativen Differenzen auftauchen, sind Rang und +Ränge deckungsgleich bzw. – Ränge=0. Mit Hilfe der Grenzwert-Tabelle ergibt sich damit für die Precision eine hochsignifikante Aussage von 99,9%. Gnowsis ist in Bezug auf Prcision mit großer Wahrscheinlichkeit nicht nur zufällig besser als LiveLink. Auch die weiteren Szenarien von Precision weisen mit Werten über 99% Signifikanz ein entsprechend hohe Signifikanzniveau auf und stützen dies. Mit Hilfe der Tabelle für exakte Signifikanzniveauangaben spezifiziert sich der Wert auf 99,927%. Er ermittelt sich in dieser Tabelle aus dem zweifachen Wert (zweiseitiger Test) für N= 12 Stichproben und der niedrigeren Rangsumme - in diesem Fall als Zwei. Tabelle 33. Wilcoxon-Test für Recall – Szenario 1 n (urspr.) n (sort.) 6 1 7 2 2 3 3 4 4 5 5 6 8 7 11 8 9 9 12 10 1 11 10 12 N 12 Begriff SAP R3 Communication Financial Market Outsourcing Voice Data Solution RFID Infrastructure Business Efficiency Helpdesk Cost Reduction Kunde1 Callcenter Recall S1 aufsteigend 0,7143 0,8000 0,8333 0,9231 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 1,0000 Recall LL 0,4444 0,5000 0,1250 0,7317 0,7500 0,6667 0,8750 1,0000 0,7500 0,7143 1,0000 1,0000 Differenz 0,2698 0,3000 0,7083 0,1914 0,2500 0,3333 0,1250 0,0000 0,2500 0,2857 0,0000 0,0000 absolute Diff 0,2698 0,3000 0,7083 0,1914 0,2500 0,3333 0,1250 0,0000 0,2500 0,2857 0,0000 0,0000 Rang 8 10 12 5 6 11 4 1 6 9 1 1 Rangsumme +Ränge 8 10 12 5 6 11 4 0 6 9 0 0 71 -Ränge 0 0 0 0 0 0 0 0 0 0 0 0 0 Auch beim Recall ergibt sich aus der Grenzwerttabelle im direkten Vergleich mit einer kleineren Rangsumme von 0 und 3 in den Szenarien S1 und S3 ein hohes Signifikanzniveau von über 99,9%. Die ermittelten Werte für die Szenarien S2 und S4 liegen mit niedrigen Rangsummen von 10 und 6 immer noch im Bereich des 95% Signifikanzraums. Mit Hilfe der Tabelle für expliziten Signifikanzniveaus spezifizieren sich die Werte für Szenario 1 und 3 bei niedrigeren Rangsummen von 0 und 3 auf 99,976% und 99,878% sowie für Szenarien 2 und 4 bei niedrigeren Rangsummen von 10 und 6 auf 98,95 und 99,658%. Mit Szenario 4 ergibt sich diese Signifikanz auch auf der gleichen Datenmenge wie bei LiveLink, die in den anderen Szenarien durch P2P- und rollenbedingte Anpassungen variieren kann. Die Testergebnisse sind für Recall statistisch signifikant. Mit dem Verwerfen der Nullhypothesen in beiden Fällen kann mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass Gnowsis und LiveLink unterschiedliche Kurven produzieren und damit die Testergebnisse eine statistische Signifikanz besitzen. Nachdem die Signifikanztest in den wesentlichen Szenarien die statistische Aussagekraft der originären Testwerte bestätigen, wird in nachfolgendne Kapitel die inhaltliche Bedeutung der Ergebnisse im Sinne einer Relevanz untersucht. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 139 11.8.2 Relevanzanalyse der Testergebnisse Die Relevanz untersucht die Frage nach dem Ausmaß der Wirkung oder Bedeutsamkeit eines Faktors, wie Recall oder Precision. Diese Relevanzaussage ergibt sich nicht aus der reinen Deutlichkeit und Informationsgehalt von Daten, sondern in Bezug auf einen inhaltlichen Kontext oder Wirkungsraum. Die Aussage entsteht meist aus dem Vergleich der Kosten und Risiken, die durch einen Faktor im Kontext entstehen. Im Folgenden werden die Auswirkungen des Recalls gegnüber des Fall-outs (ROC-Kurve) und der Precision (F-Maß und Cost-benefit) untersucht. Zweitere Aussage wird im Hinblick auf die Zielsetzung der Arbeit in der Untersuchung der Rolle gewichtiger sein. Erkenntnisse aus der Diskussion zwischen Recall und Fall-out sollen der Weiterentwicklung der Basistechnologien, wie brainfiler, dienen. 11.8.2.1 ROC-Kurve mit Signifikanz- und Einflußanalyse Die medizinische Diagnostik kennt und verwendet die Beziehung zwischen Sensitivität (Recall) und Spezifität (Fall-out) als ROC-Kurve (Herlocker et al. 2004) als Relevanzgröße. Sie wurde in den 60er Jahren von Sweats (1963) als „relative operating characteristic“ oder heute „receiver operating characteristic“ eingeführt. Im vorliegenden Zusammenhang lässt es sich für den Vergleich des Gnowsis-Verfahrens gegenüber dem in der Praxis eingesetzten LiveLink anwenden. Die ROC-Kurve misst die Fähigkeit eines Systems, zwischen dem relevanten Signal und dem Rauschen zu unterscheiden. Sie zeigt den Grenznutzen relevanter Ergebnisse auf Kosten mit angezeigter irrelevanter Ergebnisse. Mit Hilfe eines cut-off-Wertes lässt sich der „signal- and noise tradeoff“ bestimmen und aufzeigen, ob der receiver eher am Anfang oder Ende ein starkes Signal ausprägt. Während Precision- und Recall-Aussagen der Ergebnisqualität in Bezug auf die möglichen relevanten Treffer trifft, macht die ROC-Kurve eine Aussage über den Anteil und die Verteilung der Treffer in Bezug auf den Gesamttest. Nachteil der ersteren Aussagen ist der Klassifizierungsaufwand in relevante und nicht-relevante Objekte im Vorfeld des Tests. Die ROC Kurve trifft damit weniger eine Relevanzaussage in Bezug auf die Ergebnismenge, wie Precison, sondern nur auf die Auswahlfähigkeit aus der Gesamtmenge in Bezug auf die Fehlerrate (noise). Unberücksichtigt bleibt die Ergebnisreihenfolge, so dass sie sich für Aussagen des „Find Good Items“-Tests nur bedingt eignet. Bei diesem Test ist die Ergebnisreihenfolge für die Relevanz beim Anwender von Bedeutung. Ebenso sind die untersuchten Kriterien nicht alleine für Relevanzaussagen ausschlaggebend. Abweichungen von der Norm können hilfreiche Aussagen bieten, die maschinell nicht weiter genutzt werden. Im vorliegenden Fall wird die Ergebnisgüte durch den Vergleich der Rauschanteile, Quotient Ma und Qa, in den jeweiligen Verfahren mit Hilfe der ROC-Kurven in kumulierter und prozentualer Form im Mittel und unabhängig der paarweisen Zuordnung zueinander in Beziehung gestellt. Die Werte werden für die graphische Kurvendarstellung um einen Null-Wert als Startpunkt der Darstellung ergänzt und aufsteigend nach dem Quotient aus Ma und Qa sortiert. Eine ideale ROC-Kurve steigt von links unten her mit wenig Rauschen, false accept, steil durch Werte mit sehr geringen Fallout-Raten an und nähert sich assymptotisch der 100% Linie durch Werte, die mit viel Fall-out weniger neuen Recall bringen. Der Rauschanteil der Begriffe in Gnowsis sollte niedriger sein als bei Livelink. Die Signifikanzuntersuchung erfolgt gemäß obiger Teststellung in Schritten vom direkten Systemvergleich hin zu den Veränderungen in den P2P-Szenarien und erweiterter Grundgesamtheiten. Im direkten Vergleich wird ein einzelner Desktop (S1) und Arbeitsplatz mit der gleichen Grundgesamtheit (S4) an Dokumenten durchsucht: Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 140 Tabelle 34. Aufbereitete LiveLink-Ergebnisse für ROC-Kurve Test value (Begriffe) Ma Qa 0 4 4 3 4 5 3 3 7 3 30 10 10 86 * SAP R3 RFID Callcenter Communication Business Efficiency Voice Data Solution Financial Market Infrastructure Helpdesk Outsourcing Cost Reduction Kunde1 Summe Ma/Qa Ma(%) 0 #DIV/0! 14 0,29 14 0,29 9 0,33 11 0,36 7 0,71 4 0,75 4 0,75 8 0,88 3 1,00 16 1,88 4 2,50 3 3,33 97 Qa(%) 0% 5% 5% 3% 5% 6% 3% 3% 8% 3% 35% 12% 12% 100% 0% 14% 14% 9% 11% 7% 4% 4% 8% 3% 16% 4% 3% 100% Ma(%) Qa(%) 1-Ma(%) 1-Qa(%) Kurvenfläche cum. cum. cum. cum. (AUC) 0% 0% 100% 100% 5% 14% 95% 86% 0,141 9% 29% 91% 71% 0,134 13% 38% 87% 62% 0,083 17% 49% 83% 51% 0,096 23% 57% 77% 43% 0,057 27% 61% 73% 39% 0,031 30% 65% 70% 35% 0,029 38% 73% 62% 27% 0,054 42% 76% 58% 24% 0,019 77% 93% 23% 7% 0,067 88% 97% 12% 3% 0,007 100% 100% 0% 0% 0,002 0,721 Tabelle 35. Aufbereitete Gnowsis (S4)-Ergebnisse für ROC-Kurve Test value (Begriffe) Ma Qa 0 3 3 6 8 5 6 5 12 3 15 33 21 120 * Helpdesk Callcenter Communication SAP R3 Business Efficiency Infrastructure RFID Cost Reduction Voice Data Solution Kunde1 Outsourcing Financial Market Summe Ma/Qa Ma(%) 0 #DIV/0! 3 1,00 3 1,00 6 1,00 8 1,00 4 1,25 4 1,50 3 1,67 5 2,40 1 3,00 4 3,75 8 4,13 4 5,25 53 Qa(%) 0% 3% 3% 5% 7% 4% 5% 4% 10% 3% 13% 28% 18% 100% 0% 6% 6% 11% 15% 8% 8% 6% 9% 2% 8% 15% 8% 100% Ma(%) Qa(%) 1-Ma(%) 1-Qa(%) Kurvenfläche cum. cum. cum. cum. (AUC) 0% 0% 100% 100% 3% 6% 98% 94% 0,056 5% 11% 95% 89% 0,054 10% 23% 90% 77% 0,105 17% 38% 83% 62% 0,131 21% 45% 79% 55% 0,061 26% 53% 74% 47% 0,058 30% 58% 70% 42% 0,041 40% 68% 60% 32% 0,061 43% 70% 58% 30% 0,011 55% 77% 45% 23% 0,039 83% 92% 18% 8% 0,047 100% 100% 0% 0% 0,007 0,671 Stellt man die Werte in nachfolgender Abbildung als typisches ROC-Diagramm graphisch dar, wird die Verbesserung durch Gnowsis deutlich. 100% 90% 80% 70% 60% 50% 40% Kurvenfläche: LiveLink = 0,721 Gnowsis (gB S4) = 0,671 Gnowsis (gB S1) = 0,747 30% 20% 10% 0% 0% 20% LiveLink 40% 60% Gnow sis (gleiche Basis - S4) 80% 100% 120% Gnow sis (gleiche Basis - S1) Abb. 35. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink Ein Verfahren ist dann besser, wenn es oberhalb der Diagonalen liegt und je stärker es aus der linken unteren Ecke nach oben ansteigt. Die Diagonale entspricht einer beliebigen, zufälligen Ergebnisverteilung. Aus der Grafik wird schon deutlich, dass beide Kurven im Vergleich zu einer zufälligen Verteilung und eine AUC von 0,5 besser abschneiden. Interessanter ist jedoch der Vergleich der Verfahren untereinander. Der Kurvenverlauf von Gnowsis in Abbildung 34 liegt für S1 vor allem zu Beginn der Kurve über dem von LiveLink. Im rechnerischen Vergleich der Kurvenfläche (AUC) liegt Gnowsis mit 0,75 über dem Wert von LiveLink mit 0,72. Im Vergleich mit gleichen Grundgesamtheiten in S4 kann Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 141 Gnowsis dies jedoch nicht wiederholen und liegt mit 0,671 unterhalb von LiveLink. Da die Unterschiede zwischen den Kurven nicht allzu deutlich ausfallen, wäre zu klären, inwieweit die Unterschiede zufällig oder signifikant sind. Die für eine Signifikanzaussage zu verwerfende Nullhypothese wäre, dass beide die gleiche ROC-Kurve produzieren. Dies soll zu 95-99% ausgeschlossen werden. Für die Darstellung der Kurve wurden die Werte nach ihren Quotienten Ma/ Qa sortiert, liegen jedoch weiterhin paarweise vor, so dass auch hier weniger der KS- oder T-Test, sondern der W-Test zur Anwendung kommen sollte. Analog der Beschreibung aus obigem Kapitel ergibt sich für die ROCKurve in S4 nachfolgendes Ergebnis: Tabelle 36. Ergebnisse des Wilcoxon-Tests der ROC-Kurven n (urspr.) n (sort.) 2 1 4 2 1 3 5 4 3 5 10 6 9 7 8 8 12 9 11 10 7 11 6 12 N 12 Begriff Financial Market Voice Data Solution Kunde1 RFID Outsourcing Callcenter Helpdesk Infrastructure Cost Reduction Business Efficiency Communication SAP R3 AUC (Gnowsis AUC S4) (LiveLink) 0,007 0,0295 0,011 0,0309 0,039 0,0018 0,041 0,1343 0,047 0,0671 0,054 0,0825 0,056 0,0185 0,058 0,0542 0,061 0,0072 0,061 0,0575 0,105 0,0963 0,131 0,1410 Differenz -0,0229 -0,0198 0,0369 -0,0935 -0,0200 -0,0281 0,0374 0,0037 0,0541 0,0038 0,0085 -0,0102 absolute Diff 0,0229 0,0198 0,0369 0,0935 0,0200 0,0281 0,0374 0,0037 0,0541 0,0038 0,0085 0,0102 Rang 7 5 9 12 6 8 10 1 11 2 3 4 Rangsumme +Ränge 0 0 9 0 0 0 10 1 11 2 3 0 36 -Ränge 7 5 0 12 6 8 0 0 0 0 0 4 42 Nachdem sich die Rangsumme zwischen +Ränge und –Ränge kaum unterscheidet, wird bereits deutlich, was sich durch die W-Test Tabelle bestätigt. Es kann nicht mit mind. 95% Wahrscheinlichkeit ausgeschlossen werden, dass es sich um eine zufällige Konstellation handelt. In Ergänzung zur statistischen Basis könnten sich Konzepte und Inferenzen auf das Verhalten von Recall in Bezug auf Fall-out auswirken, auch wenn diese die Datenbasis vergrößern und nicht wirklich vergleichbar machen. Nachstehende Abbildung verdeutlicht, wie die Tests mit erweiterten Datenbasen im Vergleich zu LiveLink abschneiden. Hierzu werden, neben der zuvor dargestellten Kurve von Gnowsis (gleiche Basis – S4), die Kurven der Ergebnisreihen von Gnowsis mit Konzepten und Inferenzen dargestellt und ihre Fläche ermittelt. 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 0% 20% LiveLink 40% Gnow sis (gleiche Basis - S4) 60% 80% Gnow sis (Konzept S4) 100% 120% Gnow sis (Inferenz S4) Abb. 36. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink mit erweiterter Datenbasis In diesem Vergleich, sowie auch mit Daten auf Basis des Szenario 2, liegen die Flächenwerte von Gnowsis nicht mehr über denen von LiveLink. Da sich durch das Hinzufügen von Konzepten und In- 142 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen ferenzen die Datenbasis verändert, müssten für eine weitergehende quantitative Untersuchung der Szenarien in LiveLink die gleichen Datensätze hinterlegt werden. Dieser Aspekt wurde im aktuellen Testdesign nicht vertieft, da LiveLink die hinzugefügten Datensätze inhaltlich nicht in der Suche berücksichtigt. In Summe zeigt sich eine Indikation zur Verbesserung der Ergebnisse durch Gnowsis im diekten Vergleich (S1), die sich jedoch nicht als signifikant bestätigen lässt und auf unterschiedlicher Datenbasis basieren. In S4 mit gleicher Basis kann keine Verbesserung gefunden werden. Die Test-Aussagen in Bezug auf Recall sind damit unter diesen Bedingungen zu betrachten und entstehen zum Teil auf Kosten des Fall-outs. Dies mag auf die Tatsache zurückzuführen sein, dass allen der brainfiler zugrundeliegt. Er ist für die Optimierung zwischen Recall und Fall-out verantwortlich. Wie sich die Relevanz zwischen Precision und Recall darstellt, soll in nachstehendem Kapitel dargestellt werden. 11.8.2.2 F-Maß und Cost-benefit Kennzahl Die Relevanz der Ergbnisse und nicht zuletzt die Bewertung der Usability eines Retrieval-Systems hängen auch am Nutzertyp ab (Nielsen et al. 2001) − ist er ein erfahrener Nutzer oder ein Anfänger ? Im vorliegenden Beispiel gehen wir von einem durchschnittlichen, nicht Retrieval-erfahrenen Vertriebsmitarbeiter aus. Die Ergebnisqualität der im Retrieval verwendeten Assoziationsmaße wird, wie in Kapitel 11.5.1 bereits beschrieben, mit Hilfe von Recall und Precision ermittelt. Die Größe der Stichprobe mit 12 unterschiedlichen Begriffen pro Szenario, also 48 Proben für alle Szenarien, wird als ausreichend für eine Bestätigung der Laborvermutungen unter Praxisbedingungen betrachtet. Ausführlichere quantitative Tests könnten die zunehmende Etablierung semantischer Retrieval-Verfahren begleiten. Der Test und seine Auswertung basieren nach Womser-Hacker (1989, S. 66ff.) auf der Makromethode. Sie betrachtet die einzelnen Suchanfragen als Grundeinheit. Sie ermittelt zunächst die Precisionwerte pro Suchanfrage und mittelt dann die Werte der Suchanfragen (pges = summe pi / n). Damit fließt jede Suchanfrage gleichgewichtig in die Bewertung ein. Bei der Mikromethode hingegen werden die Dokumente als Grundeinheit genommen. Sie berechnet, unabhängig von der Trefferanzahl der einzelnen Suchanfragen, das Verhältnis der relevanten Treffer zu allen Treffern. Dadurch fließt jedes Dokument gleichgewichtig in die Bewertung mit ein. In vielen Fällen jedoch geht der Erfolg einer dieser Größen, wie Recall, zu Lasten der anderen, wie Precision. Mit Hilfe des F-Maßes (Dengel 2008) wird die kombinierte Wirkung und damit die „absolute“ Relevanzsteigerung beschrieben. Das F-Maß ist das gewichtete, harmonische Mittel. Das harmonische Mittel dient dabei als Lagemaß, wenn die Beobachtungswerte Verhältniszahlen sind, wie bei Precision und Recall gegeben. Es gilt damit ein Spezialfall des arithmetischen Mittels für verhältnisskalierte Merkmale und berchnet sich nach folgender Formel: Fβ = (b2 + 1) * Precision(Ki ) * Recall(Ki ) b 2Precision(Ki) + Recall(Ki ) (8) F berücksichtigt mit b für die Gewichtung den Anteil der „false accept“, der fälschlicherweise im Suchergebnis ausgewiesenen Treffer. b ermöglicht damit unterschiedliche Gewichtungen von Precision und Recall. Im vorliegenden Fall gehen wir von b=1, einer Gleichgewichtung der Parameter, aus. Nachfolgende tabellarische und graphische Übersichten zeigen die F-Werte der einzelnen Begriffe in den verschiedenen Szenarien und der sich daraus ermittelten Standardabweichung als Streuungsund Signifikanzmaß. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 143 Tabelle 38. Ergebnisse Standardabweichung für F-Werte über die Szenarien 1 2 3 4 5 6 7 8 9 10 11 12 Stichprobe=12 Kunde1 Financial Market Outsourcing Voice Data Solution RFID SAP R3 Communication Infrastructure Helpdesk Callcenter Business Efficiency Cost Reduction Varianz (precision) Standardabweichung (precision) Mittelwert F-Wert S1 0,8000 0,9091 0,8571 0,8000 1,0000 0,8333 0,8000 0,7273 0,6667 0,8571 0,8000 0,9333 0,734% F-Wert S2 0,8125 0,8636 0,7937 0,6667 0,7692 0,6667 0,6667 0,6667 0,6667 0,7500 0,8333 0,8333 0,564% F-Wert S3 0,8421 0,8889 0,8511 0,8571 0,8000 0,7368 0,6667 0,7143 0,5714 0,7500 0,6667 0,8182 0,847% F-Wert S4 0,8333 0,8571 0,8049 0,7500 0,7143 0,6400 0,6000 0,6667 0,6000 0,6667 0,7143 0,7742 0,697% F-Wert LL 0,6667 0,1935 0,6897 0,5455 0,3333 0,2963 0,3478 0,6087 0,6000 0,4000 0,5882 0,7143 2,814% 8,568% 0,83 7,511% 0,75 9,202% 0,76 8,348% 0,72 16,774% 0,50 F-Wert Ausprägung 1,0000 0,8000 F-Wert S1 0,6000 F-Wert S2 0,4000 F-Wert S4 F-Wert S3 F-Wert LL 0,2000 0,0000 0 1 2 3 4 5 6 7 8 9 10 11 12 13 Begriffe Abb. 37. Verteilung F-Werte nach Suchbegriffen Wie schon bei den Recall- und Precisionwerten zeigen sich auch hier deutliche Verbesserungen nicht nur in den absoluten F-Werten, sondern auch in der Standardabweichung. Die Ergebnisstreuung fällt damit geringer aus als bei handelsüblichen Suchen. Die Testreihe weist im Szenarienvergleich eine Standardabweichung von ca. 8% auf. Sie erscheint damit hinreichend konstant und für eine Aussagekraft und Belastbarkeit der Messwerte ausreichend. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 144 Deutlich wird die Stichhaltigkeit der Ergebnisse in der Precision-Recall-Darstellung folgender Abbildungen 37 und 38 als Vergleich zwischen LiveLink und Gnowsis. Eine Häufung im rechten oberen Quadranten weist auf hohe Ergebnisqualität hin. Die Größe der Kreise zeigt den F-Wert. Je größer der Kreis im Quadrant rechts oben, desto „absoluter“ die Ergebnisqualität. Sie geht nicht auf Kosten des anderen Einflussfaktors. Precision/Recall LiveLink Kunde1 1,20 Financial Market 1,00 Outsourcing Voice Data Solution Recall 0,80 RFID 0,60 SAP R3 0,40 Communication Infrastructure 0,20 Helpdesk 0,00 0,20 0,30 0,40 0,50 0,60 0,70 0,80 Precision Callcenter Business Efficiency Cost Reduction Abb. 38. Precision/ Recall Häufung LiveLink Precision/Recall Gnowsis S1 1,20 Kunde1 Financial Market 1,00 Outsourcing Voice Data Solution Recall 0,80 RFID 0,60 SAP R3 Communication 0,40 Infrastructure Helpdesk 0,20 0,00 0,00 Callcenter Business Efficiency 0,20 0,40 0,60 0,80 1,00 Cost Reduction Precision Abb. 39. Precision/ Recall Häufungen Gnowsis S1 Die Häufungsstruktur in der Livelink Darstellung ist heterogener verteilt und in seinen F-Werten geringer ausgeprägt. Diese Relevanzanalyse bestätigt die Aussagekraft der Ergebnisse. Nachdem die F-Werte wieder paarweise vorliegen, soll mit Hilfe eines W-Test die statistische Signifikanz untersucht werden. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 145 Tabelle 39. Wilcoxon-Test für F-Werte n (urspr.) n (sort.) 9 1 8 2 1 3 4 4 11 5 7 6 6 7 3 8 10 9 2 10 12 11 5 12 N 12 Begriff Helpdesk Infrastructure Kunde1 Voice Data Solution Business Efficiency Communication SAP R3 Outsourcing Callcenter Financial Market Cost Reduction RFID F-Wert S1 aufsteigend 0,6667 0,7273 0,8000 0,8000 0,8000 0,8000 0,8333 0,8571 0,8571 0,9091 0,9333 1,0000 F-Wert LL 0,6000 0,6087 0,6667 0,5455 0,5882 0,3478 0,2963 0,6897 0,4000 0,1935 0,7143 0,3333 Differenz 0,0667 0,1186 0,1333 0,2545 0,2118 0,4522 0,5370 0,1675 0,4571 0,7155 0,2190 0,6667 absolute Diff 0,0667 0,1186 0,1333 0,2545 0,2118 0,4522 0,5370 0,1675 0,4571 0,7155 0,2190 0,6667 Rang 1 2 3 7 5 8 10 4 9 12 6 11 Rangsumme +Ränge 1 2 3 7 5 8 10 4 9 12 6 11 78 -Ränge 0 0 0 0 0 0 0 0 0 0 0 0 0 Nachdem sich der F-Wert aus Precision und Recall bildet, kann auch für ihn mit min. Rangsummen von 0 und 1 die Nullhypothese bei einem Signifikanzniveau von mind. 99% oder spezifischen 99,976% für Rangsumme=0 und 99,951% für Rangsumme=1 verworfen werden. Die Testergebnisse sind damit für die F-Werte statistisch signifikant. Würde Precision im Sinne der für die Diskussion und Test bedeutenderen Kennzahl mit einem höheren b-Faktor gewichtet, ließe sich der Einfluß des Recall justieren und die Signifikanzniveaus im Kontext verändern. In der Weiterentwicklung der Gewichtung lässt sich nach Dengel (2008) ergänzend eine betriebswirtschaftliche Kosten-Nutzen-Betrachtung der Ergebnisqualität als cost-benefit-Kennzahl beschreiben. n c/b-Measure ben,cost () = Ai * ben - Bi * cost (9) i=1 Die Formel zeigt einen positiven Ergebniswert, wenn der Nutzen der correct accepted, der relevanten Suchergebnisse, die Kosten der nicht-relevanten Suchergebnisse übertrifft. Mit Hilfe dieser Methode ließen sich weitere Nutzerpäferenzen abbilden. Das Ranking der Suchergebnisse ist beispielsweise nutzenstiftender, wenn alle relevanten Ergebnisse am Anfang erscheinen oder bestimmte Dokumentenarten bevorzugt werden sollen. Diese Präferenzen lassen sich als Inferenzen in den Suchergebnissen berücksichtigen. In den voliegenden Testergebnissen zeigt sich dies für 2/3 der untersuchten Begriffe, wie „Help Desk“ oder „SAP R3“ (vgl. Anhang – Semantische Suche). Zusammen mit den Erkenntnissen des ROC-Tests zeigt sich, dass zwar die Relevanz des Recalls gegenüber dem Fall-out nicht signifikant nachweisbar ist, jedoch signifikante Aussagen für die Relevanz des Recalls im Vergleich zur Precision und damit der angestrebten Verbesserung der rollenabhängigen Ergebnisqualität mit des F-Wertes. Übersetzt erzielt Gnowsis einen besseren Grenznutzen in der Ergebnisrelevanz. Es verringert das „Rauschen“, also die Anzahl nicht relevanter Treffer im angezeigten Ergebnis. Wie in der Diskussion der Testergebnisse verdeutlicht, besteht jedoch für die Verbesserung der Leistungsfähigkeit in P2PUmgebungen und mit unterschiedlichen Rollen noch Weiterentwicklungsbedarf, da der RecallZuwachs möglicherweise auf Kosten des Fall-out geht und nicht alle Erkenntnisse als signifikant nachweisbar sind. 146 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 11.9 Zwischenfazit Der Test weist neben der Praxistauglichkeit vor allem den Einfluß der Rolle auf die Precision nach. Seine Aussagekraft wurde durch statistische Signifikanz der Testergebnisse in Bezug auf Precision und Recall mit Hilfe des W-Tests in allen Szenarien mit mind. 95% nachgewiesen. Die Testergebnisse sind damit hinreichend als Grundlage für die weiteren Überlegungen zum Einfluß der Rolle in Bezug auf Steigerung der Suchergebnisqualität. Weitere quantitativ-basierte und fokussierte Untersuchungen erscheinen jedoch sinnvoll, um ein übergreifendes, allgemeingültigeres Bild zu erhalten. Unter Berücksichtigung der Signifikanzaussagen deuten die Testergebnisse stark darauf hin, dass eine semantische Suche den Explizierungs- und Modellierungsaufwand a priori verringern kann, da sie die zugrundeliegenden Konzepte dynamisch in Abhängigkeit der Suchanfrage anwendet. Mit Hilfe des brainfilers wird eine ausreichende Basisperformance sichergestellt. Mit Hilfe von nativen Strukturen erschließt Gnowsis den Bedeutungskontext eines Nutzers und begegnet damit dem Problem der Subjektivität. (A-6.1 und Mit Hilfe von ontology mappings und matchings wird die Bereitstellung von OntoA-6.2) logien erleichtert. Mit Hilfe des P2P-Ansatzes simuliert Gnowsis Allgemeinwissen im Rahmen der Nutzercommunity. Über die Rolle erschließt er die Intention des Nutzers aus dem Prozesskontext. Häufig ist das Informationsbedürfnis aus der Anfrage eines Benutzers nicht klar ersichtlich. Die Relevanz eines Dokuments bezüglich einer Anfrage ist schwierig zu beurteilen. Was das Suchsystem als relevant betrachtet, kann für den Benutzer subjektiv irrelevant sein. Fehlende Quellenerfahrung oder nicht aktiviertes Hintergrundwissen erschwert die Informationssuche zusätzlich. Die Anfrage ist zu kurz oder die angefragten Terme kommen in den betrachteten Quellen nicht vor. Der brainfiler verbessert die Ergebnisse durch Spezialisierung und Generalisierung von Indextermen, Termvektoren und Anfragen. Die technische Performance bleibt erhalten, indem er Indexterme verdichtet und Termvektoren erweitert. Native Strukturen repräsentieren die mentalen Modelle des Nutzers. Über ihre Darstellung als RDF-Ontologie werden sie technologisch nutzbar. Sie stellen die Perspektive des Nutzers als Bedeutungskontext der Suche dynamisch und automatisch ermittelbar bereit. Die Bereitstellung einer größeren Datenbasis unter Berücksichtigung der verschiedenen Rollen und Sichtweisen erlaubt Explizierung von nutzerübergreifenden Konzepten. Der in der deklarativen Modellierung notwendige Aufwand zur Erstellung von Ontologien wird durch Verfahren des ontology mappings und matchings reduziert. Mit diesen Ansätzen trägt Gnowsis zu einer stärkeren Nutzerorientierung des Information Retrievals bei. Gnowsis zeichnet sich durch seine Integrationsfähigkeit und Kombination von erfolgreichen Verfahren und Technologien aus. Es ist eine hybride Technologie, die durch eine benutzerfreundliche Oberfläche die Verfahren dem ungeübten Nutzer zugänglich macht, indem sie Abfrageintelligenz in die Verfahren legt und damit den Nutzer entlastet. Gnowsis kombiniert damit in der Klassifizierung von Lei et al. (2006) semantik-basierte Schlagwortsuchen mit dem Format von Beantwortungstools. Es bestätigt damit die Einordnung des Semantic Desktop als hybrides Recommendersystem (A-5.7) in Kapitel 10.5. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen (A-6.3) 147 Die Technologiekombination macht die Potentiale der webbasierten Technologien für den Nutzer auf dem Desktop verfügbar. Einzeltechnologien optimieren die Performance. Eine Technologiekombination wirkt dann, wenn Nachteile eines Verfahrens durch ein anderes aufgehoben werden, ohne die Gesamtperformance zu beeinträchtigen. Die Wirkung der Einzeltechnologien wurde gerade beschrieben. Zusammenfassend ist die daten- und verfahrenstechnische Integration der verschiedenen Technologien unter dem Dach einer nutzerfreundlichen Oberfläche der wesentliche Hebel für die Gesamtperformance. Die Nutzung der nativen Strukturen eines Nutzers wirkt dagegen direkter auf den Such- und Retrieval-Algorithmus. Die Berücksichtigung verschiedener Optimierungsverfahren im Rahmen der Indexierung durch den brainfiler schafft performance-technisch neue Freiräume für die Verarbeitung weiterer Technologiebausteine. (A-6.4) Gnowsis, als semantische Suche des Semantic Desktop, bestätigt die Laborergebnisse auch im Praxistest mit annonymisiserten Dokumenten von Siemens IT Solutions and Services. Der Test hat eine Steigerung in Precision und Recall unter Praxisbedingungen nachgewisen. Er bestätigt damit die Ergebnisse aus den Beobachtungen unter Laborbedingungen und auch im Vergleich zur in der betrieblichen Praxis eingesetzten Suche Livelink. Erfolgreiche Signifikanz- und Relevanztests der Untersuchungen im Hinblick auf Datenqualität und absolutem Mehrwert unterstreichen die inhaltlichen Aussagen. (A-5.3.1) Die Rolle kann die Subjektivität von Wissen und Standpunkte repräsentieren. Der Einfluss der Rolle konnte durch den Vergleich verschiedener Nutzungsszenarien nachgewiesen werden. Sie beeinflusst gruppenspezifisch die Ergebnisqualität. In homogenen Gruppen wirkt sie ergebnisschärfend, in heterogenen Gruppen wirkt sie auf die Zugänglichkeit relevanter Dokumente. Lässt man die Tatsache außer Acht, dass jede Person verschiedene Rollen hat, kann man vereinfacht behaupten, dass sich hierduch die individuelle Perspektive technologisch nutzbar machen lässt. Die Künstliche Intelligenz hält, wie in Kapitel 9.3 aufgezeigt, für den weiteren Umgang mit diesen Standpunkten Verfahren bereit. (A-4.4.1) Eine technologische Abbildung der Subsymbolik ist derzeit mit dem Semantic Desktop nicht möglich. Mit Hilfe der Testergebnisse und der Beschreibung von Gnowsis lässt sich auch Frage 4.4.1 aus Kapitel 8.7. nach dem technologischen Umgang mit Subsymbolik beantworten. Gnowsis macht subsymbolische Strukturen manuell als Ontologien zugänglich und verwendet Hilfsmittel, diese Explizierung zu vereinfachen und zu automatisieren, wie Nutzung des PIMO als Repräsentation des mentalen Modells und Kontextes des Nutzers oder einer Rolle. Für eine systemimmanente Nutzung subsymbolischer Elemente wären Technologien auf Konzeptebene notwendig. Der Semantic Desktop bietet mit seiner offenen und plattformunabhängigen Struktur die Voraussetzungen, in seiner Weiterentwicklung Technologien dieser Ebene, wie Künstliche Neuronale Netze, einzubinden. Mit der händischen Modellierung von Regeln liefert er jedoch schon den Nachweis, dass eine Nutzung dieser Konzepte erfolgreich im Sinne der Ergebnisqualität ist. Im Ergänzung zur Nutzung des PIMO bei der Suche und Selektion selbst, wird das PIMO bei der Ausgabe der Suchergebnisse verwendet, um die Usability zu steigern. Suchergebnisse werden in Form und Struktur des PIMOs ausgegeben und erleichtern den Dialog mit dem Nutzer. Mit diesem Ansatz wäre ein Befüllen von Templates denkbar und damit eine semi-automatische Erstellung von Texten in einer vorgegebenen Struktur. 148 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 149 12 Modell der Wissensentwicklung Ein Modell dient allgemein der Prognose, Erklärung und Entscheidungsunterstützung im Sinne einer vereinfachten Repräsentation der Wirklichkeit. Das Modell der Wissensentwicklung soll für die weitere informatorische Prozessunterstützung und Übertragbarkeit einen strukturierten Rahmen schaffen. Es soll Erkenntnisse kombinieren und in Beziehung setzen, um sie technologisch abbildbar zu machen, und Wege der Weiterentwicklung aufzeigen. Erst damit können sie ihren Beitrag zur Steigerung der Produktivität der Wissensarbeiter voll entfalten. 12.1 Erkenntnisse aus der Literatur und dem Technologietest Nach theoretischen und literaturtechnischen Untersuchungen von Wissen und Wissensentwicklung wurde der Einfluss der Rolle als Perspektive und Intention auf die Ergebnisqualität einer semantischen Suche nachgewiesen. Die Tests zeigen, dass es technologische Ansätze gibt, die die Vermutungen aus der Literatur unterstützen, Wissen als konstruktive und kontextspezifische Entwicklung aus Informationen aufzufassen. Tabelle 40. Zusammenfassung der Literaturdiskussion Bisherige Annahmen aus Erkenntnisse aus der Erkenntnisse aus dem Schlussfolgerung der Wissensverteilung Literaturdiskussion Test Wissen ist ein Objekt und Zustand. Wissen kann aus organisatorischer Sicht bereitgestellt werden Wissen ist subjektiv. Information wird aus einer individuellen Perspektive betrachtet. Rolle beeinflusst die Relevanz des Suchergebnisses, je nach Szenario durch mehr relevante oder schärfere Ergebnisse Wissen kann kontext- Wissen ist konstruk- Konzepte werden botunabhängig übertragen tiv und entsteht im- tom-up ausgelesen werden. mer wieder neu durch und nicht redaktionell situationsspezifische top-down vorgegeben Bereitstellung von Information. Perspektivische Betrachtung und Auswahl von Information verleiht Bedeutung. Wissen entsteht in einer spezifischen Situation durch dynamische (nicht statische) Selektion von relevanten Informationen in einem Prozess von perspective taking und making Sie bestätigen sie nicht in ihrer Gesamtheit und Komplexität. Dennoch ermuntern sie dazu, den Diskussionsprozess von einer Wissensverteilung in die Richtung Wissensentwicklung für eine pro-aktive Prozessunterstützung fortzuführen. Sie zeigen auf, dass sich insbesondere für homogene Gruppen eine Steigerung der angezeigten relevanten Ergebnisse erzielen lässt und in heterogenen Gruppen deutlich mehr relevante Dokumente identifizieren lassen, als ohne bekannt gewesen wären. Insgesamt beabsichtigt die Technologie mit Hilfe des PIMOs den heutigen manuellen Aufwand zu reduzieren oder diesen auf höheren Abstraktionsebenen einzusetzen. Damit werden eine Leistungsverschiebung zu individuellen, rollenspezifischen Ergebnissen erzielt und verborgende Beziehungen durch Ontologien und Konzepte expliziert und zugänglich. Da es technologisch noch nicht gelingt, Systeme auf rein subsymbolischer Ebene zu erstellen, kommt der Explizierung eine besondere Bedeutung zu. Sie erlaubt ein Verstehen der Einzelschritte und ermöglicht die Kommunikation zwischen den Systemen, auch wenn dies später vielleicht einmal überflüssig wird. Im Kommunikationsverständnis von Luhmann (1995) entsteht innerhalb der Kommunikationssysteme kein Wissen. Der Semantic Desktop unterstützt die Wissensentwicklung durch die Explizierung verborgener Beziehungen. Mit Hilfe der Rolle macht er aus Informationen Wissen und ersetzt damit sogar Teile der Wissensentwicklung. Im Folgenden werden die Erkenntnisse aus den Diskussionen in einem Modell zusammengefasst, um diejenigen Einzelschritte aufzuzeigen, die sich durch die beschriebenen Technologien unterstützen lassen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 150 12.2 Knowledge Creation Framework (KCF) Der Gesamtprozess der Wissensentwicklung ist ein Erkenntnisprozess. Verschiedene Methoden der Wissenschaft unterstützen diesen. Als Beispiele finden sich Beobachtung, Aufzeichnung, Dokumentation, Versuch und Irrtum, Experiment, Messung, Vergleich, Befragung und Interview. Sie beziehen sich auf die Interaktion des Systems mit der Umwelt und weniger auf die internen Prozesse der Wissensentwicklung. Das Modell in Abbildung 39 beschreibt den Prozess und die Charakteristika der Wissensentwicklung aus individueller Sicht. Es berücksichtigt dabei Aspekte des Konstruktivismus wie Rekursivität oder Redundanz sowie lerntheoretische Erfahrungen (Bernus und Schmidt 1998). Es setzt auf dem Lernprozess von Boisot auf und erweitert diesen durch Berücksichtigung der Perspektive und Intention aus individueller Sicht. Aus organisatorischer Sicht können weiterhin formale knowledge-assetcreation-Prozesse, wie bei Siemens auf Basis von Boisot, für die Erstellung von Knowledge-assets verwendet werden. Wiederverwendbare Methoden oder Templates sind Beispiele für Knowledgeassets. Sinnliche Reaktion Daten Verifizieren Gedanke Fragen Einsehen Zerlegen Sinneinheit/ Idee Gedächtnis Sammeln Wahrnehmen Gefühl Erfahren Inkubation Bewußt Formen Speichern Vergessen Intention (Wollen) Information Wirklichkeit Aktion Reiz Wahrnehmen Emotion Vorstellen Abb. 40. Modell der Wissensentwicklung (Knowledge Creation Framework) Kern des theoretischen und angewandten Wissensverständnisses ist die Subjektivität und Kontextabhängigkeit von Wissen. Subjektivität ist die individuelle Wirklichkeit und im Sinne Maturanas und Luhmanns, Ausdruck eines, zwar mit anderen Systemen verankerten und gekoppelten, aber geschlossenen Systems. Kontext beschreibt die Schnittstelle des Systems mit seiner Umwelt und mit anderen Systemen. Im Sinne der Wissenstreppe lässt sich dieser durch die Situation und die Intention des Subjekts bestimmen. Situation beschreibt dabei die Problemstellung und Anwendung der individuellen Wirklichkeit auf die physische Umwelt. Die Situation beinhaltet dabei das Vorwissen, Erfahrungen, aktuelle Thema und das Wissensniveau. Intention bezeichnet den Lösungswillen und berücksichtigt das Wollen und Zielsetzung des Subjekts oder Systems. Die Intention ist abhängig von der aktuellen Rolle des Individuums und kann als Perspektive interpretiert werden. Sie bestimmt den Anspruch an Qualität, Tiefe, Form, Korrektheit, Wirkung und Aussage bei der Explizierung basierend auf dem Erfahrungsschatz und unter Berücksichtigung der Situation. Un-Bewußt Wissen K-assets Kompetenzen Erfahren Selektieren Vorstellen Situation (Anwendung) Repräsentation Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 151 Durch die Kopplung des Systems mit seiner Umwelt wird die Wissensentwicklung in Form eines Reizes angeregt. Im unbewussten Prozess reift der Reiz zu einem Gefühl und wird als solches erkannt. Das Gefühl erzeugt die „Vorstellung“ einer Emotion, aus der je nach Selektionskriterien, Ideen als neue Zusammenhänge bewusst werden (Damasio 2005). Im bewussten Prozess wird entweder die gewonnene Einsicht verifiziert und zur Wirklichkeit geformt oder durch bewusste Handlungen, wie Fragen und Zerlegen, in logische Aussagen und Sinneinheiten in seiner Komplexität reduziert. Durch diese Aufteilung wird ein neues Selektionsraster geschaffen, das es erlaubt, neue Sinnzusammenhänge aus dem Unbewussten wahrzunehmen, abzurufen. Nachdem die Wahrnehmung immer einen bewussten und einen unbewussten Anteil trägt, überlagern sich die verschiedenen Entwicklungsprozesse auf Basis des Gedächtnisses und der dort repräsentierten Erfahrung. Persönlich wird der Gesamtprozess als ein Nachdenken, Überlegen, Lernen empfunden und nur Teile davon bewusst wahrgenommen. Alle Prozessschritte sind über das Gedächtnis miteinander verknüpft. Es ermöglicht eine Wiederholung bestimmter Prozesssschritte, wie Verifizieren oder Sammeln, und dient der Bewertung und Speicherung der Vorgänge. 12.2.1 Sammeln und Inkubation Das Bewusstsein nimmt erst Gefühle wahr. Sie sind bereits Ergebnis einer Sammlung und Reifeprozesses. Unbewusst verarbeitet unser Gehirn die unzähligen Reaktionen unserer Sinne auf die Reize der Umwelt. Die Sammlung und Bündelung verschiedener Reize ruft ein Gefühl hervor, das der Mensch, gespiegelt an seinen emotionalen Erfahrungen zur Emotion, weiterverarbeitet. Edelmann und Tononi (2000, S. 188) bezeichnen diesen Prozess des Zusammenschaltens von selektiven Ereignissen als „re-entranter Prozess“. Danach vermag er eine nicht mit Begriffen belegte Welt in Objekte und Ereignisse zu unterteilen. Re-entry ist der zentrale Mechanismus zur räumlichen und zeitlichen Koordination verschiedener sensorischer und motorischer Ereignisse. Er vermag differenzierte und parallel ablaufende Zustände zu koordinieren und sie durch Inferenzen mit sequentiell verlaufenden, bewussten Prozessen zu integrieren. Aus dem Alltag ist der Schlaf als eine Form der Inkubation bekannt. Er sortiert und interpretiert die gewonnen Eindrücke und ermöglicht durch die „Vorhaltung“ von möglichen Sinnzusammenhängen die Selektion und Einsicht ins Bewusstsein. 12.2.2 Einsehen und selektieren Einsehen und Selektieren unterscheiden sich hinsichtlich einer aktiven, intendierten (Selektieren) oder eher passiven (Einsehen) mentalen Handlung des Individuums. Edelmann und Tononi (2000, S. 28) betonen den selektiven Charakter des Gehirns und Bewusstseins im Gegensatz zu bisher vermuteten instruktiven oder konstruktiven Charakter an dieser Stelle. Das Gedächtnis und die ständig parallel ablaufenden Prozesse bilden einen Wahrnehmungsfilter, der Zusammenhänge erkennen lässt (Glaser und Strauss 1998, S. 256). Die Lerntheorie bietet zur Unterstützung dieses und des verankernden Prozesses verschiedene Methoden als Hilfestellung (Hopperdietzel 2005): freies Erinnern (alles aufzählen, was über ein Thema bekannt ist); Erinnern auf einen Hinweisreiz (zu einem Stichwort (Notizen) an Inhalte erinnern); Wiedererkennen („es ist welcher der drei Möglichkeiten.“). Dieses Abrufen von Zusammenhängen hängt weniger an der Speicherkapazität als vielmehr an der Abrufkapazität, da an dieser Stelle aus parallelen Prozesse sequentielle Schlussfolgerungen und Zusammenhänge erzeugt werden. Hierzu sind perspektivische Entscheidungen nötig, die aus intransparenten Zuständen logische Zusammenhänge machen und Orientierung bieten (Luhmann 1995). Letztlich zeichnet die Entscheidungsfähigkeit eines Systems, das Wählen zwischen Alternativen, intelligente Systeme aus (Edelmann und Tononi 2000, S. 85). Auf der anderen Seite sind Entscheidungen der Komplexitätstreiber in der Problemlösung. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 152 12.2.3 Verifizieren Verifizieren und Formen erscheinen dem rationalen Wesen als wohl vertrauteste und bekannteste Prozesse. Sie lassen sich allgemeinsprachlich als Denken zusammenfassen. Unter Verifizieren ist eine Überprüfung von Aussagen und Zusammenhängen zu verstehen. Die Wissenschaftstheorie würde dabei die Hypothesenprüfung anhand von empirischen Quellen und die Theoriebildung durch hermeneutische Validierung von Aussagen unterscheiden. Empirische Belege würden nur so weit verwendet, wie sie der Theoriebildung dienen und nicht der reinen Verifizierung (Glaser und Strauss 1998, S. 38). Sie verankert die neuen Sinnzusammenhänge in den bestehenden Kategorien im Sinne eines Verstehens (Danner 1979). Sinnkategorien können als bewusst wahrnehmbare, logische und subjektiv determinierte kleinste Einheiten des Wissens verstanden werden. Verifizieren ist eine Form des Schließens, bei dem Ideen und Gedankenbausteine in ihren Aussagen getestet werden. Sie werden vor dem Hintergrund bestehender Erfahrungen und der durch Situation und Intention angeregten Zielsetzung in unterschiedliche Situationen simuliert. Verstehen ermöglicht ein „Nachleben“ und emotional ein „Sichhineinversetzen (Empathie)“. Beide Formen verdeutlichen die Zusammengehörigkeit von bewussten und unbewussten Prozessen im Sinne einer integrierten Wirklichkeit (Edelmann und Tononi 2000). Diese Formen ermöglichen einen Umgang mit vagen und unvollständigen Bausteinen. Sie hängen von der Ausprägung des Wahrnehmungsfilters zwischen bewusst und unbewusst ab. Verifizieren könnte als der Übergang von Daten zu Informationen verstanden werden. Diese erhalten durch Erfahrungen eine Bedeutung. Rieger (2002) unterstreicht dabei den rekursiven Charakter der Bedeutungskonstitution und die Dynamik der Bedeutungsentstehung durch Schlussfolgerungen. 12.2.4 Formen Formen beschreibt nicht ein manuelles Modellieren, sondern ein mentales Clustern und Kategorisieren (Teich 1996, S. 37). Ziel des Formens ist es, die verifizierten Sinnzusammenhänge in eine kommunizierbare und explizierbare Form und Zusammenhang zu bringen. Kernelement des Formens ist die Abstraktionsfähigkeit. Abstraktion ist ein Verkürzen oder Zusammenfassen anhand von inhaltlichen, zeitlichen oder personellen Differenzierungskriterien. Zur Abstraktion notwendig ist die Fähigkeit zur Assoziation und das Bilden von Analogien. Hiermit lassen sich Zusammenhänge finden und Kategorien bilden, die mittels eines Überbegriffs abstrahiert werden können. In der Informationstheorie wird das Zusammenfassen von einzelnen Infos zu „Paketen“ höherer Ordnung als Chunking bezeichnet (Bernus und Schmidt 1998). Es ist eine Etikettierung zur Entlastung des Arbeitsgedächtnisses, da weniger Verarbeitungskapazität benötigt wird. Chunks lassen sich wieder „ausfalten“ und weiter verfeinern. Im Sinne eines Drehbuchs wird die Zusammenfassung von Informationen in zeitlicher Reihenfolge als Scripting bezeichnet. 12.2.5 Vergessen und speichern Der kontinuierliche Fluss an Reizen und deren Verarbeitung überlagern den erreichten Wirklichkeitszustand, der sich in unserer inneren Wahrnehmung abschwächt. Das Abschwächen könnte als Vergessen interpretiert werden. Dabei handelt es sich eher um eine Priorisierung. Die Ausgestaltung des Prozesses des Vergessens und Speicherns trägt dazu bei, Wirklichkeitszustände wieder in Erinnerung zu rufen. Wie beschrieben werden Erkenntnisse nicht nur in diesem Prozessschritt verankert, sondern in einer stetigen Interaktion mit dem Gedächtnis. An dieser Stelle sinkt nur die bewusste Wahrnehmung des Wirklichkeitszustandes. Alltagsmethoden, wie Notizen, verhindern das „Vergessen“ (Woitsch und Karagiannis 2004, Delp et al. 2004). Oft wird das Ergebnis aufgeschrieben oder gespeichert. Im Sinne des assoziativen Speicherns werden nur die Erstellungsregeln statt dem Ergebnis gespeichert. Eine zentrale Rolle im Prozess der Wissensentwicklung spielt das Gedächtnis. Die Fähigkeit zur Speicherung beeinflusst die Beziehungen und Interaktionen zwischen den Prozessschritten (Ziemke 2000, S. 20). Sie ermöglicht erst, ein Zeitgefühl zu entwickeln und damit Entwicklungen und Lernen durch den Vergleich unterschiedlicher Zustände wahrzunehmen. Das Gehirn ermöglicht die Transformation paralleler in sequentielle Prozesse. Das Gedächtnis wirkt in jedem bewussten Prozessschritt als Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 153 Filter auf der Basis von Erfahrungen und führt damit zu einer Rekursivität. Jeder Schritt beeinflusst bereits den nächsten Schritt. Bewusste Prozesse verlaufen damit sequentiell, während unbewusste Prozesse parallel laufen und reentrant miteinender interagieren (Edelmann und Tononi 2000). Die Forschung unterscheidet drei Arten von Gedächtnis: sensorisches, primäres oder Kurzzeit- und sekundäres oder Langzeitgedächtnis (Birbaumer 1997, S. 160f.). Das sensorische Gedächtnis speichert für wenige hundert Millisekunden sensorische Reize, um die wichtigsten Merkmale zu extrahieren. Das Vergessen beginnt sofort nach der Aufnahme. Eine Kodierung (verbal, nicht verbal) kann die Reize in ein dauerhaftes Gedächtnis übertragen. Das primäre Gedächtnis (Kurzzeitgedächtnis) dient zur vorübergehenden Aufnahme verbal kodierten Materials. Vergessen entsteht durch Ersetzen der eingespeicherten Information durch neue. Es können nicht mehr als 7/2 Informationseinheiten gleichzeitig dort behalten werden. Nichtverbal kodiertes Material wird vom primären Gedächtnis nicht gespeichert. Es wird entweder durch einen eigenen Zwischenspeicher oder direkt vom sensorischen in das sekundäre Gedächtnis übertragen. Übertragung aus dem primären Gedächtnis in das sekundäre Gedächtnis wird durch Üben erleichtert, und zwar durch aufmerksames Wiederholen und damit korrespondierendes Zirkulieren der Information im primären Gedächtnis. Das sekundäre Gedächtnis (Langzeitgedächtnis) ist ein großes und dauerhaftes Speichersystem. Bisher gibt es keine fundierte Abschätzung seiner Kapazität und der Verweildauer des dort gespeicherten Materials. Die Information ist nach ihrer „Bedeutung“ gespeichert. Zur Wiedergabe muss das Gedächtnismaterial aus dem Langzeitspeicher wieder in das begrenzte Kurzzeitgedächtnis gebracht werden. Vergessen im sekundären Gedächtnis scheint weitgehend auf Störung (Inferenzen) des zu lernenden Materials durch vorher (proaktive Hemmung) oder anschließend (retroaktive Hemmung) Gelerntes zu beruhen. 12.2.6 Fragen und zerlegen Mit der Beschränkung der Wissensentwicklung auf einen rein bewussten Vorgang werden die Eindrücke durch Fragen und Zerlegen in Sinneinheiten aufgeteilt. Dabei wird geprüft, inwieweit sich Kongruenz zu bestehenden Gedächtnisinhalten herstellen lässt oder das Problem herausgearbeitet werden kann. Für diesen Prozess wird auf Ähnlichkeiten zurückgegriffen. Er entspricht zum großen Teil dem Prozess der Mustererkennung. Fragen ist dabei die bewusste Aufnahme und Interpretation der Reize. Zerlegen entspricht einer Analyse. 12.3 Beitrag und Einordnung des KCF Nonaka (1995) beschreibt in seinem Modell ebenfalls den Prozess der Wissensentstehung, vor allem aus organisationaler, sozialer Perspektive. Es mag helfen, diesen Prozess, vor allem in seinem Zusammenspiel mit dem individuellen Erkenntnisprozess, zu verstehen. Im Vergleich des Modells der Wissensentwicklung zum SECI-Modell von Nonaka in Abbildung 40 zeigt sich, dass Nonaka (1995) Wissensentwicklung vor allem als Interaktionsprozess zwischen Systemen, und damit organisational, versteht. Das KCF beschreibt dagegen einen individuellen Prozess des Perspektivenwechsels. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 154 Interaktionssystem explizit implizit Intention (Wollen) Kompetenzen explizit Sinnliche Daten Verifizieren Gedanke Fragen Zerlegen Sozialisierung Gedächtnis Sammeln Wahrnehmen Gefühl Inkubation Erfahren implizit Sinneinheit/ Idee Bewußt Formen Speichern Vergessen Aktion Reiz Internalisierung Reaktion Internalisierung implizit Information Wirklichkeit K-assets Kombination Wahrnehmen Emotion Vorstellen Abb. 41. Vernetzung von Wissenssystemen über Interaktionssysteme Nonaka beschreibt allgemein, wie sich in den einzelnen Phasen Wissen entwickelt, und betont vielmehr, „dass“ sich dort Wissen entwickelt. Für Nonaka und Konno (1998) ist Wissen in von den Systemen geteilten Räumen im Sinne eines Kontextes eingeordnet. Sie bezeichnen den gemeinsamen Raum für das Entstehen von Beziehungen als „ba“. Dieser Raum entspricht dem Interaktionssystem zwischen Systemen. Sobald Wissen vom „ba“ getrennt wird, wird es zu Information, die unabhängig kommuniziert werden kann. Dieser Rahmen beinhaltet die Forschungen und Entwicklungen zu Wissensidentifikation und -transfer der letzten Jahre. Das Modell besticht durch seine Einfachheit und praktische Nachvollziehbarkeit. Nonaka unterscheidet nicht zwischen bewusst und unbewusst, sondern versteht implizit als systemimmanent und explizit als systemextern. Das Knowledge Creation Framework setzt eben dort an und beschreibt einen Ansatz, implizite Prozesse zu verstehen. Es ergänzt damit die Darstellungen von Nonaka um eine differenzierte Sicht auf die systemimmanente Wissensentwicklung. Hierfür wird das Modell um eine bewusste und unbewusste Erklärungsebene erweitert, auch wenn im Test vor allem die bewusste Ebene untersucht wird. Es verdeutlicht den Bedarf an grundlegenden Fähigkeiten, wie Differenzierungs- und Entscheidungsfähigkeit und Selbstähnlichkeit: 1) Differenzierungsfähigkeit Das Erkennen von Ähnlichkeiten und Unterschieden auf horizontaler (Klassen) und vertikaler (Abstraktion) Ebene führt zu kleinsten logischen Einheiten. In ihrer Abfolge ergibt sich der sequentielle Charakter des Bewusstseins (Edelmann und Tononi 2000, S. 40). Er rührt aus der Notwendigkeit zur Unterscheidung. Dies ist nur zeitpunktbezogen möglich. Die Fähigkeit zur Differenzierung verhilft dem System, Unsicherheit durch Zerlegung zu reduzieren und rational beherrschbar zu machen (Edelmann und Tononi 2000, S. 49). Sinnzusammenhänge müssen zerlegt und dekontextualisiert werden, um sie auf neue Perspektiven und Problemstellungen anwendbar zu machen (Koriche 1998). Die Schwierigkeit dieser Loslösung aus dem originären Kontext ist aus den Interaktionssystemen beim Wissenstransfer bekannt. Hierfür muss der Kontext mittels Meta-Informationen erfasst und mit dem zu übertragenden Sinnzusammenhang verbunden werden. Nicht alle relevanten Verknüpfungen können expliziert werden. Technologisch gesehen ergibt sich hieraus ein Meta-Informationsproblem. 2) Entscheidungsfähigkeit Wirklichkeit entsteht durch eine Vielzahl von bewussten und unbewussten Entscheidungen. Sie basieren auf der Erfahrungsbasis eines Qualitätsgefühls oder Maßstäben für Zusammenhänge. Sie können nach Regeln organisiert sein. Regeln beschleunigen den Entwicklungs- und Entscheidungsprozess, da als logisch sinnvoll empfundene Zusammenhänge nicht jedes Mal neu erstellt, sondern als Regeln angewendet werden können. Un-Bewußt Wissen Externalisierung Externalisierung Sozialisierung Erfahren Selektieren Vorstellen Situation (Anwendung) Repräsentation Einsehen implizit Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 155 3) Selbstähnlichkeit Komplexitätsreduzierend wirkt die Systemeigenschaft der Selbstähnlichkeit. Sie beschreibt eine ähnliche Regelgültigkeit und -verhalten auf unterschiedlichen Abstraktionsebenen. Für jede Ebene hat das KCF wiederum seine Gültigkeit. Wissen wird damit nicht nur auf verschiedenen Arten von wissensintensiven Prozessen, sondern auch auf unterschiedlichen Abstraktions-Ebenen entwickelt: Prozess-Ebene (Aufgabe), Objekt-Ebene (Dokument), Inhalts- und Aussagenebene (Text), Struktur-Ebene (Ontologie) oder Begriffsebene (Taxonomie). Die Ausprägung der einzelnen Fähigkeiten, vor allem der kognitiven, wird als Intelligenz bezeichnet. Künstliche Intelligenz ist damit ein Werkzeug für die Modellierung der Fähigkeiten. Knowledge Intelligence beschreibt darauf aufbauend die Abbildung der Entwicklungsprozesse von Wissen. 12.4 Anwendung des bewussten, symbolischen KCF Die Diskussion in Kapitel 9 über technologische Möglichkeiten zur Abbildung von Subsymbolik hat die Schwierigkeiten bei der impliziten Erfassung veranschaulicht. Auch wenn der unbewusste, subsymbolische Teil einen wesentlichen Baustein der Wissensentwicklung darstellt, ist fraglich, ob die Konzentration auf den bewussten, symbolischen Teil für die aktuelle Diskussion und den Stand der Technologie nicht ausreichend sind. Auf diesem Level bestätigen Gentner (1989) und Holyoak (1985) die Stufen des Wissenstransfers auf organisationale Basis als den bewussten Teil der Wissensentwicklung aus obigem Modell in ähnlicher Reihenfolge: Kodieren der Aufgabenmerkmale (=Zerlegen); Abrufen alter Informationen aus einer Basisaufgabe (=Fragen); Auswählen und Abbilden von möglicherweise brauchbarem Wissen auf die Gegebenheiten der Zielaufgabe (=Selektieren und Verifizieren); Abstrahieren von Strukturen, die den Aufgaben gemeinsam sind (=Formen). Zusammenhänge, Ähnlichkeiten und Differenzen lassen sich erkennen, indem das Individuum bewusst unterschiedliche Perspektiven einnimmt und sich in Situationen oder Begriffswelten hineinversetzt (vgl. psychologisches Verstehen). Boland und Tenkasi (1995) sprechen dabei von „Perspective taking und perspective making“. Birbaumer und Schmidt (1997) bezeichnet diesen Prozess im Hinblick auf einen interdisziplinären Austausch als bewusste „Verfremdung“. Helscher (1991) hingegen hält das Entnehmen einer Theorie aus dem Erklärungsbereich und Anwendung auf einen anderen für nicht zulässig. Auch Einstein wusste schon, dass sich Probleme nicht aus dem gleichen Gedankengebäude heraus lösen lassen. Erst ein Sprung aus der eigenen Gedankenwelt heraus kann sie lösen. Edelmann und Tononi (2000, S. 228) erklären dieses Vorgehen. Unterscheidung und damit Problemlösung entstehen ihrer Meinung nach durch die Kopplung von Bezugsrahmen, aus deren Interaktion unterschiedliche Perspektiven entstehen und damit eine hinreichende Differenzierung und Selektion möglich wird. Basis hierfür ist eine funktionale Clusterung, die nicht weiter ohne Informationsverlust zerlegbar ist (Edelmann und Tononi 2000, S. 226f.). Diese funktionale Clusterung wirkt im Sinne der Chaostheorie wie ein Attraktor, der sich entweder aus der Überlagerung bildet oder durch die bewusste Einnahme einer bestimmten Perspektive ergibt und das Zentrum der Interaktionen darstellt. Übertragen auf den beschriebenen Rahmen und je nach Perspektive, könnte Wirklichkeit sowohl die Problemlösung als auch die Problemstellung sein. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen .doc .ppt Knowledge base:Trend Dokumente, alte Angebote, Referenzen, Portfolio, Dokumente, etc. organisationell Intention (Rolle) (Will) Anfrage Kontext Verificator Form Abspeichern Entwurf Ausgabe des Suchergeb nisses Vergessen Template und Entwürfe des Management Summary Producer Dok. mit ähnlichen Begriffen Receiver Abgleich mit der Anforderung Reconciler Verifizieren Priorisierung der Ergebnisse Perspective making Gedächtnis Perspective taking Fragen Dok. mit ähnlicher Bedeutung Interpreter Aufteilen Zusatz information durch Regeln Analyser individuell Abb. 42. Wissensentwicklung als Prozess des „perspective taking und making“ Übertragen auf das KCF am Beispiel der semantischen Suche als Engine in den Prozesschritten entsteht, wie in Abbildung 41 auf symbolischer Ebene dargestellt, ein Kreislauf aus perspective taking und making. Der Receiver nimmt dabei die Informationen aus den Schnittstellen auf. Der Interpreter hinterfragt und vergleicht ihre Bedeutung und Qualität. Der Analyser wendet Regeln an, um weitere Informationen zu vernetzen oder Elemente so weit zu unterteilen, dass im Reconciler Ergebnisse priorisiert und ausgewählt werden können. Er transformiert einen parallelen Vergleichs- und Abwägungsprozess durch iterative Selektion in einen sequentiellen, logischen Prozess auf der Basis von komfortablen Ähnlichkeitsmaßen. Je nach Entscheidungsmodell kann auf diese geschlossen werden oder sie ergeben sich durch immer weitere Aufteilung bis zu einem Schwellenwert, der die Antwort hervorruft. Dieses Ergebnis wird im Verificator in die bestehende Bedeutungslogik eingeordnet und im Hinblick auf die Frage- oder Problemstellung untersucht. Folge kann eine unterschiedliche Begrifflichkeit oder ein anderes Abstraktionslevel in Abhängigkeit des Vorwissens und der Erfahrung des Nutzers sein. Gemäß den Präferenzen des Nutzers wird diese dann im Producer formuliert und layouttechnisch in eine zugängliche Form gebracht. Für den einen ist zum Beispiel eine PPT-Form, für den anderen ein Word-Dokument oder nur eine Stichwortstruktur ausreichend. Die Engines finden sich in Anlehnung an Sauermann et al (2005) in den Bausteinen des Semantic Desktops als wesentliche Aufbauelemente in Abbildung 42 wieder: Symbolisch Situation (Anwendung) Design proposal Auswählen und bemerken 156 Producer Reconciler Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 157 Verificator Analyser Interpreter Receiver Abb. 43. Anwendung des KCF auf den Semantic Desktop zur Erstellung von Suchergebnissen Der Receiver sammelt die Informationen aus unterschiedlichen Datenquellen und -formaten. Über den Interpreter werden diese mit dem Personal Information Model und anderen, auch organisationellen, Ontologien in Beziehung gesetzt. Inferenzen können diesen Dialog im Anmalyser noch verfeinern. Im Reconciler werden die Suchergebnisse gewichtet. Über eine gemeinsame Liste werden nocheinmal die Priorisierungen untereinander abgewogen und im Producer als Suchergebnis im GUI dargestellt. Über den Verificator lassen sich die Suchergebnisse mit Hilfe von Nutzerfeedback beeinflussen, um weiterführende Thesen zu testen oder zu erarbeiten. Für die Tests der Leistungsfähigkeit der Technologie spielt dies keine Rolle, da die Kernwirkung sich aus dem Interpreter ergibt. In der Wirkung und Bedeutung des Semantic Desktop auf der Prozessebene fällt auf, dass durch die Änderung des Abstraktionslevels Gnowsis als semantische Suche nur einen Teil der Prozessschritte unterstützt. Er stellt lediglich die Suchergebnisse bereit, während die Auswahl, Bereitstellung und Speicherung der Ergebnisse andere Applikationen, wie Recommender, Content oder Dokumenten Managementsystem im Prozessumfeld übernehmen können. Mit dieser Beobachtung stellt sich die Frage, ob eine weitere Ausdifferenzierung des Semantic Desktop als einzelne Agenten eine weitere Optimierung bringen könnte. 12.5 Zwischenfazit Ausgehend von der wissenssoziologischen Annahme, dass Wissen im sozialen Kontext und Umfeld entsteht, zeigt sich, dass sich Wissensentwicklung, unter Berücksichtigung lerntheoretischer und psychologisch-medizinischer Erkenntnisse, im Sinne einer subjektiven Wirklichkeitsbildung in sechs Schritten durch das Knowledge Creation Framework darstellen lässt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 158 Im Hinblick auf die Eigenschaften von Wissen (Rekursivität, Anwendungsbezug und Intention) ist es ein rekursiver Prozess des perspective takings und makings im Rahmen von Situation und Intention. Das Modell ergänzt bestehende Modelle der organisatorischen Wissensnetwicklung um die individuelle Perspektive. Es beschreibt, was Technologien intelligent macht als die Fähigkeit, Differenzierung, Entscheidung und Selbstähnlichkeit abzubilden. Es setzt bewusste und unbewusste Phasen über das Gedächtnis und die Erinnerung reentrant miteinander in Beziehung. Deutlich wird dabei, dass Nonaka die Prozesse zwischen und weniger innerhalb eines Systems und Individuums beschreibt. Eine Lösung des Kontextproblems könnte durch diesen Perspektivenwechsel (aus dem Interaktionssystem hin zum Individuum) möglich sein. Wissen wird nicht in der Interaktion per se, sondern erst im Subjekt selbst entwickelt. Voraussetzungen für diesen Prozess sind Differenzierungs- und Entscheidungsfähigkeit in Abhängigkeit von Situation und Intention als Kontext. Wissen entsteht dabei durch zwei gegenläufige, sich überlagernde Prozesse: funktionale Clusterung (bewusste Initiierung und Verankerung) und Offenheit (unbewusster Rahmen, um Anker als Kern durch stabilen Zustand zu finden). Nach dem Nachweis der Performance und Einsatzfähigkeit von Gnowsis lässt sich mit dem Knowledge Creation Framework auch zeigen, welche Schritte der Wissensentwicklung durch Gnowsis automatisiert werden. (A-7.1) Gnowsis automatisiert die Schritte Analyser und Interpreter. Die Diskussion zeigt, dass Gnowsis die Schritte Analyser und Interpreter voll abdeckt. Mit Hilfe von manuellen Regeln nähert es sich der Abbildung des Reconcilers an. Die Suche deckt damit die induktiven Schritte Sammeln und Inkubieren sowie die dekuktiven Fragen und Zerlegen ab. Sie erweitert damit die Schritte um den Interpreter bis hin zum Reconciler. Das KCF bildet die Grundlage für einen Ausblick der weiteren Entwicklung semantischer Technologien und Integration intelligenter Technologien in die offene Architektur des Semantik Desktop. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 159 13 Auswirkungen und Ausblick Das untersuchte Fallbeispiel der Angebotsentwicklung als wissensintensiver Prozess basiert schwerpunktmäßig auf deduktiver Wissensentwicklung. Induktive Wissensentwicklung erfordert einen technologischen Umgang mit subsymbolischem und emergent, konstruktivistischem Wissen. Dieser konnte mit Hilfe des Semantic Desktop nicht vollständig abgebildet werden. Dennoch konnte durch den P2P Ansatz aufgezeigt werden, wie bottom-up-Prozesse repräsentiert werden können. Das Ziel, Wissen konstruktivistisch abzubilden, führte zur Erkenntnis, dass sich die Subjektivität von Wissen als Perspektive in Form einer Rolle berücksichtigen lässt. Damit ist ein wesentlicher Schritt zu einer subjektiven Wirklichkeit anstelle einer objektivierten, nachträglichen Realität gemacht. Auf Basis und mit Hilfe der Rolle kann Wissen situationsgerecht erstellt werden und nicht mehr nur passiv und als Stützprozess einbezogen werden. Auch wenn dies technologisch noch nicht vollständig realisierbar ist, zeigt das KCF einen Weg und die Bedingungen hierfür auf. Deutlich wurde die Bedeutung verschiedener Abstraktionsebenen als ergänzende Dimension zu bisherigen Repräsentationsformen. Auch wenn hierdurch die Komplexität steigt, gewinnt die Differenzierung der Wissensentwicklung und ermöglicht eine feinere und bessere technologische Unterstützung. Unberücksichtigt blieb in der Diskussion die Abbildung von Emotionen. Die Diskussion beschränkte sich auf bewusste, rationale Knowledge-Objekte. Nachdem gerade ihre medizinischbiologische Erforschung begonnen hat, bedarf es noch einiger Erkenntnisse, diese technologisch handhabbar zu machen. Mit ihnen wird sich voraussichtlich auch der Bereich der Subsymbolik erschließen. Die signifikanten Ergebnisse des Technologietests zeigen einen positiven und deutlichen Beitrag von Gnowsis zur Steigerung der Ergebnisgüte und lassen sich als Antworten auf die Forschungsfragen formulieren: (A-7.2) Gnowsis leistet einen Beitrag zur Automatisierung deduktiver Wissensentwicklung und Reduktion des a-priori-Redaktionsaufwands (Kapitel 13.1) (A-7.3) Gnowsis ermöglicht die Übertragung der Erkenntnisse auf andere wissensintensive Prozesse (Kapitel 13.2) (A-7.4) Gnowsis besitzt das Potential der Texterschließung durch Integration weiterer Retrieval Verfahren (Kapitel 13.3) (A-7.5) Gnowsis bildet die Grundlage für eine service- und agenten-orientierte Architektur des Semantic Desktop im Semantic Web (Kapitel 13.4) Im Folgenden werden diese aufgezeigt und detailliert. Die Fragen (F-7.6) und (F-7.7) werden in den Kapiteln 13.3. und 13.4. mit adressiert und abgeleitet. 13.1 Auswirkungen auf die Wissensentwicklung Der Beitrag für die deduktive Wissensentwicklung wird über eine schrittweise Näherung von „Unterstützung“ und „Automatisierung“ von Entwicklungsschritten erzielt. „Unterstützung“ bedeutet den Ersatz von technologischen Hilfsmitteln, um den manuellen Explikationspozess, wie Ontologien, zu erleichtern. „Automatisierung“ bedeutet den Ersatz durch Technologien, die diesen Entwicklungsschritt selbstständig ausführen. Hierfür muss die Intelligenz des Designers in die Technologie oder das System integriert werden. Management Summaries lassen sich sowohl im Sinne der Wissensentwicklung induktiv als auch deduktiv erstellen. Die meisten schließen naturwissenschaftlich-induktiv aus einer (empirischen) Da- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 160 tenbasis über begriffliche und symbolische Methoden. Deduktives Schließen ist stark durch manuelle, organisatorische Vorgaben geprägt und schließt vom Allgemeinen ins Spezielle. Induktiv gesehen, versucht die Internet-Gemeinschaft dem großen manuellen Aufwand durch sog. Crowdsourcing (Howe 2006) zu begegnen. Dabei trägt jeder Teilnehmer einen kleinen Teil zur manuellen Beschreibung bei. In Summe ergibt sich eine größere Beschreibungsbasis. Aus betriebswirtschaftlicher Sicht ist dies eine effiziente Methode. Fraglich ist, inwieweit dies auf die Dauer kostentechnisch tragfähig ist. (A-7.2.1) Gnowsis ermöglicht das kommunikative Spiel zwischen den Abstraktionsebenen Die technologische Unterstützung deduktiver Ansätze, wie Proposal-Automation-Systeme, basiert auf einer manuellen Detaillierung und Explizierung unter top-down-Vorgabe eines Ergebnistemplates oder -struktur. Eine Automatisierung, ein Ersatz also, war bisher auf induktive Anätze bezogen, wie klassisches Information Retrieval als Ersatz für manuelle Verschlagwortung, da den Technologien ein Allgemeinwissen (common-sense) fehlt oder nicht zugänglich war. Ihre Weiterentwicklung erfordert nach (A-2.3.2) aus Kapitel 10.5 immer höherer Grade an subsymbolischer ReasoningKapazität, um aus der Menge an Möglichkeiten sinnvoll und automatisch zu wählen. Durch die Integration von Methoden in die Systeme steigt die Systemintelligenz und der A-prioriModellierungsaufwand wird reduziert. Um sich diesen höheren Graden zu nähern, wurden induktive Prozesse beschrieben (KCF, Ontologien) und getestet (Gnowsis-Test). Die technischen Tests der semantischen Suche haben also Verbesserungen des induktiven Schließens auf Basis von ontologischen Explikationen auf Dokumentenebene belegt. Zudem wurde die Bedeutung der Rolle für die Bedeutungsbildung herausgearbeitet. Hinzu kommt die Möglichkeit, die Rolle über ein Personal Information Model technologisch verfügbar zu machen und damit diesen Prozessschritt zu unterstützen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Abstraktionsebenen Methoden 161 Methoden Adaptations and annotations Form Verify Select+ Realize Perspective taking Receiver Save Forget Perspective making Memory & Representation Story Semantik Full-text Search results Semantic search refinement Prioritisation and classification Verificator Reconciler Plausibilities and decisions Adaptations and annotations Verify Select+ Realize Info (text) in template Aussagen Memory & Representation Perspective taking Full-text Search results Analyser Semantic search refinement Prioritisation and classification Verificator Reconciler Formatting Plausibilities and decisions Adaptations and annotations Perspective taking Divide Final draft mgmt. summary Receiver Interpretator Analyser Full-text Search results Semantic search refinement Prioritisation and classification Verificator Reconciler Plausibilities and decisions Form Sorted and aligned text Adaptations and annotations Verify Perspective making Klassen Memory & Representation Doc. with Doc. with Question similar key similar words meaning Gliederung Divide Info (text) in template Doc. in template structure Receiver Interpretator Analyser Full-text Search results Semantic search refinement Prioritisation and classification Producer Verificator Formatting Final draft mgmt. summary Reconciler Plausibilities and decisions Adaptations and annotations Form Sorted and aligned text Verify Perspective making Inhalt und Text (Information) Info (text) in template Bedeutung Memory & Representation Perspective taking Info (text) in template Doc. in template structure Prioritisation and classification Formatting Doc. with Doc. with Question similar key similar words meaning Divide Doc. in template structure Receiver Interpretator Analyser Full-text Search results Semantic search refinement Prioritisation and classification Producer Verificator Formatting Final draft mgmt. summary Save Forget Save Forget Memory & Representation Syntax Semantic search refinement Producer Select+ Realize Verify Perspective making Doc. with Doc. with similar key Question similar words meaning Doc. in template structure Interpretator Producer Form Sorted and aligned text Divide Doc. in template structure Analyser Save Forget Save Forget Perspective making Doc. with Doc. with Question similar key similar words meaning Final draft mgmt. summary Analyser Formatting Divide Perspective taking Interpretator Producer Form Sorted and aligned text Doc. in template structure Info (text) in template Interpretator iv ukt ind Receiver Divide Dokument Info (text) in template ded ukt iv Verify Perspective taking Receiver Full-text Search results Select+ Realize Form Sorted and aligned text Doc. with Doc. with Question similar key similar words meaning Final draft mgmt. summary Analyser Prioritisation and classification Adaptations and annotations Memory & Representation Perspective taking Interpretator Reconciler Plausibilities and decisions Perspective making Konzepte Semantic search refinement Verificator Formatting Adaptations and annotations Verify Doc. with Doc. with Question similar key similar words meaning Doc. in template structure Receiver Producer Final draft mgmt. summary Divide Reconciler Plausibilities and decisions Form Sorted and aligned text Save Forget Wissensprodukt Info (text) in template Final draft mgmt. summary Save Forget Save Forget Perspective making Memory & Representation Rolle Doc. with Doc. with Question similar key similar words meaning Full-text Search results Statistik Sorted and aligned text Verificator Formatting Folder Reconciler Plausibilities and decisions Form Sorted and aligned text Adaptations and annotations Perspective making Memory & Representation Begriffe Perspective taking Daten Info (text) in template Verify Doc. with Doc. with similar key Question similar words meaning Divide Select+ Realize Reconciler Plausibilities and decisions Select+ Realize Verificator Formatting Final draft mgmt. summary Select+ Realize Producer Producer Select+ Realize Sub-symbolik Organisationelle Perspektive Doc. in template structure Receiver Interpretator Analyser Full-text Search results Semantic search refinement Prioritisation and classification Individuelle Perspektive Varianz und Governance Abb. 44. Inhalte im kommunikativen Dialog zwischen Abstraktionsebenen Wie in der Antwort A-5.1.2 in Kapitel 9.4 erläutert erweist sich Abstraktion als Hebel der Semantik und damit als Strukturelement und Basis für Wissenstechnologien. Damit Technologien dies leisten können, müssen sie das in Kapitel 8.6. erwähnte „kommunikative Spiel“ zwischen und mit den Abstraktionsebenen, wie in Abbildung 43 aufgezeigt, beherrschen. Mittels Methoden wird die jeweils angrenzende Abstraktionsebene erreicht. Eine Unterstützung oder Automatisierung dieser Methoden ermöglicht ein automatisches Erschließen, ohne dass jeder Einzelzusammenhang manuell modelliert wird. (A-7.2.2) Gnowsis simuliert deduktives Schließen über eine Kombination aus induktivem Schließen und P2P. Mit seiner P2P-Basis erfasst der Semantic Desktop diese Vielfalt und bietet damit die Möglichkeit, die manuelle Explizierung der Ontologien zu unterstützen. Die breitere Informationsbasis verbessert das verfügbare Allgemeinwissen im System. Durch Strukturierung des Informationsangebots nach Rollen, kann dies rollenspezifisch kondensiert und damit konkretisiert werden. In Kombination mit der bereits nachgewiesenen Verbesserung der Ergebnisqualität kann er umgekehrt wieder deduktives Schließen über eine Kombination aus induktivem Schließen und P2P simulieren. Die Vielfalt und Governance der Daten wird umgedreht. 162 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Abstraktionsebenen Methoden Methoden Organisationelle Perspektive Daten Producer Verificator Formatting Final draft mgmt. summary Reconciler Plausibilities and decisions Form Sorted and aligned text Adaptations and annotations Verify Save Forget Perspective making Memory & Representation Story Perspective taking Doc. with Doc. with Question similar key similar words meaning Dokument Receiver Interpretator Analyser Semantic search refinement Prioritisation and classification Reconciler Plausibilities and decisions Form Sorted and aligned text Save Forget Folder Doc. in template structure Full-text Search results Verificator Formatting Divide Adaptations and annotations Verify Perspective making Memory & Representation Rolle Perspective taking Doc. with Doc. with Question similar key similar words meaning Info (text) in template Select+ Realize Producer Final draft mgmt. summary Info (text) in template Select+ Realize iv ukt ded Wissensprodukt Gliederung ind ukt iv Inhalt und Text (Information) Divide Doc. in template structure Receiver Interpretator Analyser Full-text Search results Semantic search refinement Prioritisation and classification Individuelle Perspektive Varianz und Governance Abb. 45. Rolle als Hebel zum Paradigmenwechsel der Wissensentwicklung aus individueller Sicht Damit kehrt sich in Abbildung 44 die Wirkungsweise induktiven Schließens um. Die Varianz des Individuums findet sich nicht mehr nur in den einzelnen Daten, sondern vielmehr in seiner eigenen Folderstruktur. Auf diese könnten bekannte induktive Verfahren angewandt werden. Die Rolle des Individuums im Geschäftsprozess dient dabei als Methode, um von der Folderebene auf die Dokumentenebene zu schließen. Der Dokumentenebene kann aus einer anderen und neuen Abstraktionsstufe begegnet werden. Im Vergleich mit dem ursprünglichen Paradigma entspricht dies einer Simulation des dekuktiven Schließens auf Basis induktiver Methoden. Die Näherung an die Dokumentenebene aus höherer Abstraktionsstufe in induktiver Form ist der Hebel, Wissensentwicklung technologisch zu befähigen, ohne eine technologische Lösung der Aufgaben der Sub-Symbolik. Er dürfte jedoch Anregungen geben, Sub-Symbolik greifbarer zu machen. 13.2 Auswirkungen auf organisationale wissensintensive Prozesse Im betrieblichen Alltag und in Prozessen sind Rollen durch ihre Aktivität modelliert und definiert. Die Tests haben den positiven Einfluss für einen zielorientierten, wissensintensiven Prozess (Angebotsentwicklung bei SIS) aufgezeigt. Sie verweisen auf den Bedarf nach einer informationstechnischen Modellierung der Rollen. Damit könnten sie Workflow-Systeme (Goesmann 2002 oder v. Elst et al. 2003) für ziel- und wissensorientierte, wissensintensive Prozesse unterstützen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 163 Gnowsis fordert ein Informationsmodell zwischen Prozessbeschreibung und Datenmodell in der Applikationslandschaft (A-7.3.1) Methodisch würde bei SIS in der betrieblichen Praxis zwischen dem aktivitätsorientierten Prozessmodell und dem datenorientierten Architekturmodell ein Informationsmodell eingefügt. Dies stellt mit Abbildung 45 die Basis für den Einsatz semantischer Technologien in der bestehenden Systemumgebung dar. Process Model Abbildung der Rolle verknüpft Prozesse und Systeme Information Model Architecture Data Model Market Market DevelopDevelopment ment Service Service Offering Offering Life Life Cycle Cycle Sales Sales Delivery Delivery ManageManagement ment Information Cluster 1 Information Cluster 2 Information Cluster 3 Information Cluster 4 knowledge motion CMS Op@l Data Types: Data Types: Data Types: Data Types: Master Data Structure Data ..... Master Data Structure Data ..... Master Data Structure Data ..... Master Data Structure Data ..... Applications Abb. 46. Informationstechnische Modellierung der Rolle in der Verknüpfung von Prozess und Architektur Das Informationsmodell stellt Masterdaten und Ontologien für verschiedenen Systeme zur Verfügung. Es sorgt damit für eine informationstechnische Konsistenz und vereinfacht die Kommunikation zwischen den Systemen. Es lenkt den Fokus von Aktivitätsmodellierung auf Informationsmodellierung und konzentriert sich damit stärker auf den Informationsbedarf und das Ergebnis des Nutzers. (A-7.3.2) Gnowsis sollte in bestehende Applikationen und Architektren eingebunden werden. Da Suchtechnologien selten stand-alone implementiert werden, würden sie in Applikationen, wie Customer Relationship-(CRM) oder Product Lifecycle Management (PLM)-Systeme, eingebunden werden. In diesem Rahmen können sie sich auch zu einer aktiven Prozessunterstützung entwickeln, indem der Suchprozess durch Workflow-Aktivitäten im Hintergund ständig mitläuft. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 164 Draft proposal structure: Market Problem Approach Solution Financials References Suggested personalized documents: Proposal.doc Prices and costs.xls Markt development.pdf Customer profile.pdf Reference.ppt Process support: How to write a proposal... Legal restrictions Financial models Abb. 47. Mögliche Integration der semantischen Suche in Standardsoftware SAP CRM Abbildung 46 zeigt exemplarisch, wie sich die Suche als Sales Assistent in das Front-end des SAP CRM on-demand (www.sap.com - on-demand Lösung, 2006) einbinden ließe, um aktivitätsorientiert Informationen bereitzustellen. Der Nutzer verbleibt in einer Anwendungsoberfläche und muss für die Informationssuche nicht zwischen den Systemen wechseln. Über den Sales-Assistenten kann der Nutzer die Suche komfortabel ansteuern. Sie ergänzt die Anfrage dann um Kontextinformationen, wie aktuelle Aufgabenstellung, aus dem aktuellen Workflow. Aus betrieblicher Sicht erleichtert die Integration in Standardsoftware die Implementierung, Wartung und Weiterentwicklung. (A-7.3.3) Das Verständnis der Wissensentwicklung lässt sich auf andere wissensintensive Prozesse, wie qualitative Forschung, übertragen. Wissensentwicklung ist selbstähnlich, so dass sich die Erkenntnisse und das Knowledge Creation Framework nach den positiven Testergebnissen in abgrenzbaren Teilprozessen aus der individuellen und systemimmanenten Perspektive auf die organisatorische Ebene übertragen lassen. Denkbar wären hier das Solution Design im Angebotsprozess, Help-Desks, Requirements engineering im Rahmen des Product Lifecycle Managements, Softwareentwicklung, der organisatorische Prozess der Wissensentwicklung (Knowledge Asset Creation Process) oder der Forschungsprozess per se. Letztere beiden sollen im Folgenden exemplarisch kurz beleuchtet werden. Help-Desks entwickeln weniger Wissen, als es anzuwenden, auch wenn Störungstickets als Anker dienen könnten, aus denen neue Problemlösungen entstehen. Solution Design ist im betrachteten Anwendungsfall der Angebotsentwicklung mit abgedeckt. Requirements engineering und Softwareentwicklung sind etablierte Prozesse, die ausführlich beschrieben sind und deren Analyse den vorliegenden Rahmen sprengen würde. Herbst (2000, S. 15) unterscheidet verschiedene Formen der organisationalen Wissensentstehung nach dem Entstehungsrahmen: durch Forschung (Forscher), durch Kreativität (Schriftsteller), durch Recherche (Journalismus), durch Dokumentation (Bibliotheken). Als forschungsintensives Unternehmen hat Siemens hierfür den Knowledge Asset Creation Process (KNAP) entwickelt (Ramhorst 2001). Er wird allerdings bisher nur über ein gemeinsames Ablagesystem technologisch unterstützt und hat einen Fokus auf die Entwicklung von organisatorischen Wissensobjekten, die eine ontologische Realität für eine Vielzahl an Usern abbilden. Wissensentwicklung wird heute also auf einem 1st level unterstützt und dann manuell, prozessual und organisatorisch vertieft. Technologisch wird diese Abstraktion noch nicht abgebildet. Die prozessuale Abstufung übergeht Technologiebrüche (Tiefe). Das Prozessdesign ermöglicht Komplexitätslösung (Breite/ Vernetzung). Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 165 Mit Hilfe des KCF lassen sich die beschriebenen Beispiele folgenden Phasen des Modells zuordnen und entsprechend technologisch unterstützen: Kreativität=Einsehen; Recherche=Sammeln; Dokumentation=Formen. Forschung ist ein wissensintensiver Prozess auf Basis unterschiedlicher Forschungsansätze. Methoden und Vorgehen der qualitative Sozialforschung können als deduktive Wissensentwicklung und Formen der quantitativen als induktive Wissensentwicklung betrachtet werden. Am Beispiel der qualitativen Sozialforschung wird in nachfolgender Tabelle die Ähnlichkeit der Charakteristika deutlich: Tabelle 41. Vergleich der Charakteristika von qualitativer Sozialforschung und Wissensentwicklung Charakteristika Qualitativer Sozialforschung Kommunikativ und explikativ Offen und prozesshaft Reflexiv und flexibel Charakteristika von Wissen und Wissensentwicklung (aus Kapitel 7.4) Wissen steigert seinen Wert, je weiter es verteilt wird (explizites Wissen). Wissen folgt keinem definierten Workflow sondern entsteht durch Kommunikation und situationsspezifische, inkrementelle Veränderung. Konstruktion der Wirklichkeit durch Aushandeln der Wirklichkeit. Wissen ist als Wissensentwicklung eher ein Prozess, denn ein Produkt. Es bindet Entscheidungen und Informationen rekursiv im Entstehungsprozess als Situationskontext (Viabilität) ein. Bedeutung ergibt sich aus dem Zusammenhang und in Bezug auf eine individuelle Perspektive (Subjektivität). Als Beispiel der qualitativen Forschung können mit dem in der Arbeit genutzten Forschungsansatz der Grounded Theory auch die Eigenschaften des KCF illustriert werden. So entsteht im Sinne der Grounded Theory eine Theorie nicht nur zwangsweise aus den Daten (induktiv), sondern orientiert sich an ihnen (Glaser und Strauss 1998, S. 29, S. 256 und S. 259). Wichtig ist, dass ein systematisches Vorgehen (KCF) erkennbar ist, um aus den Beobachtungen (Receiver) relevante Kategorien, Eigenschaften und Hypothesen zu erstellen (Interpreter, Analyzer). In Form von Fällen (Repräsentation der Konzepte auf deklarativer Bedeutungsebene) können sie als konzeptuelle Kategorien genutzt werden. Aussagen dienen als Datenbasis und Orientierungshilfe (Verificator). Zur Differenzierungsfähigkeit des KCF bilden Glaser und Strauss (1998, S. 259) die Analogie, dass Theorien durch ihre Abgrenzung zu anderen Theorien und Erklärungsmodellen entstehen. Eine Theorie kann aber dennoch nicht losgelöst von ihrem Entstehungsprozess betrachtet und interpretiert werden und zeichnet sich nach Glaser und Strauss (1998, S. 15) durch Konsistenz, Klarheit, Sparsamkeit, Dichte, Reichweite, Integration, Eignung und Handhabbarkeit aus. Angewandt auf die aktuelle Forschungsarbeit stellen sich die einzelnen Wertschöfpungsschritte im KCF wie folgt dar: Lesen (Receiver), Verstehen (Interpreter, Einsortieren oder Strukturieren (Analyser), Kommentieren und Aussagen bilden (Reconciler), Story bilden und Details überarbeiten (Verificator), Ausformulierung (Producer). Forbus et al. (1997) stellen dem KCF ähnliche Prozesse der Theoriebildung, unabhängig vom Forschungsansatz, vor. Diese verändern lediglich die (Entscheidungs-) Regeln im Analyser und Reconciler und den Bezugpunkt im Schließen (Hypothese oder Kriterienrahmen). 13.3 Auswirkungen auf den Semantic Desktop Die Schritte des Knowledge Creation Frameworks und die Ebenen von Wissensobjekten spannen einen Diskussionsrahmen auf. Er lässt sich durch Kombinationen von Technologien und Verfahren, wie Gnowsis, füllen. Die systemtechnischen Auswirkungen der Diskussion auf den Semantic Desktop und Gnowsis lassen sich mit Abbildung 47 in zwei Entwicklungsrichtungen beschreiben: erstens horizontal entlang des KCF und damit prozesserweiternd und zweitens vertikal im gleichen Prozessschritt entlang verschiedener Wissensobjekte. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 166 Knowledge Creation Framework – Schritte V e r ific a to r a ttin g P la u s ib ilit ie s F o r m a n d Save Forget P e r s p e c tiv e (Role) (Will) Intention D o c . w it h s im ila r k e y w o rd s Receiver Wissensobjekte Symbolisch Dokumente Interpretator Sub-symbolisch Dokumente Symbole s e a rc h r e fi n e m Analyzer e n t P r io r it is a t io n Gliederung Gliederung Feature-Maps Kohonen-Map Multi-Agentenperzeptoren Vektormodelle Bedeutunge n und Klassen Ontologien, semantische Netze Kontextbeobachtung Konzepte Neuronale Netze Passage propagation Retrieval a n d c la s s ific a t io n Reconciler .... Überwachtes Lernen, wie BayesKlassifikatoren Gnowsis Sub-symbolisch BegriffeundDaten a n tic A n a ly s e r Prozessgie en Repräsentation n anwendungen Mustererkennung o o n i at (z.B. DropBox) ch Methoden nach Te bin deklarativ prozedural deklarativ prozedural mAbstraktionso ebene K Symbolisch Inhalt undText (Information) S e m D o c . in t e m p la t e s tr u c tu r e D i v id e In te r p r e ta to r re s u lts a n n o ta tio n s a k in g Verfahren lo Folder Folder m a n d I n fo (te x t) in t e m p la t e t a k in g D o c . w it h s im ila r m e a n in g Q u e s t io n R e c e iv e r S e a r c h A d a p ta tio n s V e r ify M e m o r y & R e p r e s e n ta t io n P e r s p e c t iv e F u ll-te x t R e c o n c i le r d e c is io n s S o r te d a n d a lig n e d t e x t Realize Situation (Process) F o r m Select+ P ro d u c e r F in a l d r a f t m g m t. s u m m a ry Prozessschritte des KCF Problemlösung deklarativ prozedural Entscheidu ngsbäume, Heuristiken Expertensy steme Agentenarchitektur Ontology mappings Ontology matching Eigen/Fisherfac es Methode Unüberwachtes Lernen, wie constraintsatisfaction Netzwerke Case-based reasoning Multiperspective reasoning Symbolisch Sub-symbolisch Inhalt/Text Symbolisch Back- NaturalServiceMulti-agent language Architekture orientierte processing n Retrievalarchitektur Sub-symbolisch Wissensobjekte Abb. 48. Weiterentwicklung des Semantic Desktop auf Basis des KCF Gnowsis ist als eine Kombination von Technologien unter Einbeziehung semantischer Verfahren auf Dokumentenebene für die Schritte Interpreter und Analyzer positioniert. Sie optimieren bestehende Module und Funktionalitäten, ergänzen neue Verfahren und entwickeln ganze Fähigkeiten und Anwendungsfelder weiter. In Bezug auf die Forschungsfrage (F-7.6) zeigen sich aus der Matrix die Optionen für die Weiterentwicklung von semantischen Technologien und der Theorie der Wissensentwicklung in Bezug auf wissensintensive Prozesse. (A-7.6) 13.3.1 Optimierung bestehender Funktionalitäten für höhere Abstraktionen Innerhalb eines Funktionsbereichs kann eine Optimierungen der Indizierungen und Algorithmen Gliederungen und Inhalte mit höherer Abstraktion, auch um subsymbolischen Bereich, erschließen. Beispielsweise könnte die Nutzung der Metadateninformation „Dokumentenart“ die Gewichtungsund Selektionskriterien der Suchmaschinen dynamisch beeinflussen, weil sich bestimmte Suchalgorithmen für bestimmte Dokumentenarten eignen. Die intelligente Integration von bekannten Retrievalverfahren, wie Passage Retrieval, würde die Leistungsfähigkeit von Gnowsis unter Berücksichtigung gleichbleibender Performance steigern. Sie steigern zwar die Komplexität der Architektur, können aber Unzulänglichkeiten des heutigen Information Retrievals beheben. Eine mögliche Integration des Passage Retrievals für die Ermittlung von Textbausteinen im Hinblick auf den Umgang mit Value propositions wäre ein Beispiel. Der Einstieg der Semantik auf die Content-Ebene dürfte einen großen Schritt bedeuten und, wie in den Kapitel beschrieben, die Grenzen zur Subsymbolik weiter verschieben. Ein inhaltliches Verstehen wird damit nicht mehr durch manuell vorgegebene Ontologien ermöglicht, sondern durch die automa- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 167 tische, bottom-up-Entwicklung dieser auf der Abstraktionsebene von Texten und Aussagen statt auf Dokumenten und Themen. Funktionen der Problemlösung lassen sich, wie in Kapitel 9.3.2 beschrieben, über CBR-Verfahren einbringen, um Texte und Aussagen in halb-strukturierter Form zugänglich zu machen. Dafür könnte eine Visualisierung der Argumentationsstruktur (Storyboarding) hilfreich sein. CBR-Verfahren entwickeln die hinterlegten Inhaltsstrukturen und Argumentationen über die Case Adaption weiter. Zu diskutieren wären dabei Auswirkungen eines PIMO im CBR. In dieser Kombination wäre es dann wohl schon ein Ansatz für multi-perspective reasoning und eine Abwägung und Gewichtung von Argumenten in Fällen (Storylines). Im Projekt NEPOMUK (http://nepomuk.semanticdesktop.org/xwiki/) wird der Semantic Desktop bereits auf Content-Ebene zu einem wiki-basierten Austausch von Gedanken durch strukturierte Artikulation weiterentwickelt. Hierdurch ließen sich inhaltlich ähnliche Angebotsdokumente finden, die das gleiche Kundenproblem angehen oder eine ähnliche Storyline haben wie eine Preisargumentation gegenüber einer Qualitätsargumentation. Sie wirkt weniger auf den Dokumententyp als auf die Lösung und die inhaltliche Relevanz (content). Wesentlicher Erfolgsfaktor eines Angebots ist das richtige und gemeinsame Verständnis der Kundensituation. Daraus abgeleitet zeigt sich das Handlungsfeld und der Lösungshebel. In Abwägung mit der Vertriebsstrategie ergeben sich aus diesen drei Eckpunkten die Rahmenbedingungen für das Angebot. Die Anforderungen aus dem RFP (request for proposal) fließen in die Lösungsentwicklung ein. Diese Modellierung kann als Definition eines Falls im Sinne des case-based reasoning als Entscheidungsregeln verstanden werden, die im Reconciler angepasst und genutzt werden können. Im heutigen Modell sind diese Informationen nur kondensiert über Folderstrukturen, Metadaten oder Regeln repräsentiert. Emotionale und subsymbolische Aspekte könnten nach Dreyfus und Dreyfus (1986, S. 26f.) in Zukunft neue Möglichkeiten aufzeigen. Bis zu einer Nutzung und Modellierung emotionaler und subsymbolischer Aspekte könnte eine bessere Nutzung der Meta-Daten und ihrer Bedeutungen eine Zwischenlösung darstellen. Sie wäre ein erster Schritt für die inhaltliche Zuordnung durch Zuordnung der Dokumentenarten mit Hilfe von Heuristiken zu einem Template für value propositions und Management Summaries im Sinne von Ankern. Tabelle 42 illustriert exemplarisch eine Zuordnung: Tabelle 42. Mapping von Dokumententyp auf Storyline und Value proposition Value proposition Trends and issues Business scenarios Compelling (customer) events Cost driver Fields of action SIS Benefits (solution) Further benefits Document types Market research; internal sales document Internal sales document (Account plan), customer situation Project description; debriefing document Method (Chestra), template Portfolio description, fact sheets, ROI calculation Reference sheets Je nach inhaltlicher Perspektive lassen sich drei Mappings unterscheiden: 1) Kundensituationsbasiert Höhere Priorisierung der Ähnlichkeit in der Kundensituation mit dem Ziel der individuellen Befriedigung der Bedürfnisse und Referenzverweis. 2) Lösungsbasiert Höhere Priorisierung der Ähnlichkeit in der Lösung mit dem Ziel der Wiederverwendbarkeit von Lösungen im Sinne eines Portfolio pushs. 3) Strategiebasiert Höhere Priorisierung der Ähnlichkeit in der Übereinstimmung mit der Vertriebsstrategie und Value proposition. Die Entwicklung einer Vertriebsstrategie wäre ein weiterer Anwendungsfall. Hier soll eine Auswahl auf Basis der Value proposition und Vertriebsstrategie getroffen werden. 168 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Erst aus der Überlagerung aller drei Perspektiven gelingt eine Aussage über den best-fit unter Berücksichtigung und Explizierung der Differenzen. Differenzen sind in weiteren Sub-Prozessen zu lösen und zu bewerten. Die jeweils passenden Bausteine sind zu extrahieren und zu kombinieren. Der Lösungsfit kann manchmal nur für das Kapitel Solutions im Template genutzt werden, während der Fit der Kundensituation für deren Beschreibung genutzt werden kann. Mit Hilfe der Nutzerbeobachtung kann die Lernfähigkeit des Semantic Desktop gesteigert werden. Sie wirkt innerhalb eines Funktionsbereichs qualitätssteigernd, da sie die Treiber der Ergebnisqualität beeinflusst. Mit der Beobachtung des Nutzers bei seiner Arbeit und seinen Suchen anstelle des PIMOs und seiner vordefinierten Rolle lässt sich auch auf seine Rolle und sein Erfahrungslevel zurückschließen. Auf dieser Basis können ihm weitere Kontextinformationen bereitgestellt werden und auf bestimmte Domänen geschlossen werden. Unter Zuhilfenahme passender Thesauri können Begriffskonflikte aktiv gelöst werden und Fehlermeldungen oder schlechte Ergebnisqualität vermieden werden. In Abhängigkeit der beobachteten Rolle und Aktivitäten kann eine bestimmte Zielsetzung aus dem Prozess geschlossen werden. Sie kann durch Nutzerinteraktion bestätigt und verfeinert werden. Entsprechende Workflow-Aktivitäten können eingesteuert und bereitgestellt werden. Die Nutzerbeobachtung und deren abhängige Schlüsse sind noch am Anfang der Entwicklung. Sie stehen vor großen Herausforderungen, wie Sicherheit und privacy oder diskontinuierliche Arbeit. Sie verändert die Intention zwischen zwei Aktionen. Ein anderer Weg, die Grenzen der Technologie und Automatisierung zu verschieben, ist MyMory (http://www.dfki.uni-kl.de/mymory/). Ein Forschungsprojekt des DFKI mit dem Fokus auf Nutzerbeobachtung. Ziel ist eine aufmerksamkeitsgestützte Bedeutungszuschreibung sowie Kontextmodelle zur situationsspezifischen Identifikation von Arbeitsprozessen. Die gleichen Funktionalitäten und Fähigkeiten des Semantic Desktop können in anderem Anwendungskontext auf eine im Hintergrund aktive Zuordnung von eingehenden Dokumenten übertragen werden. Anstelle der Suche mit einem Schlagwort könnte die Drop-Box auch ein Dokument oder knowledge object verarbeiten. Sie würde, basierend auf dem PIMO, einen Vorschlag zur Ablage oder Einsortierung des Objektes machen und unterstützt den Nutzer durch Vorschläge proaktiv bei der Ablage und Verschlagwortung von Dokumenten. Auch sie folgt den Schritten des KCF, nur mit einem anderen Auslöser und einer Kategorie statt einem Dokument als Ergebnis. 13.3.2 Ergänzung und Weiterentwicklung neuer Funktionen zu einer agentenbasierten Architektur Multi-Agentensysteme erscheinen geeignet, katalytisch auf induktive Wissensentwicklung zu wirken, da sie sich flexibel an unterschiedliche Informationsqualitäten anpassen können. Nach Wagner et al. (2003) eignen sich Agentensysteme für dezentrale, verteilte Systeme wie den P2P-basierten Semantic Desktop, wenn sie abgrenzbare Teile (Agenten) haben. Sie sind strukturell veränderbare Systeme, weil ihre Teile variabel (kommunikativ) miteinander verbunden werden. Sie sind kooperativ, weil sie unter bestimmten Regeln zusammenarbeiten, und komplexe Systeme, bei denen das Systemverhalten nicht determinierbar ist. Ein Multiagentensystem (MAS) könnte als lose gekoppelte Entitäten verstanden werden. Sie arbeiten zusammen, um ein Problem zu lösen, das sie alleine über ein externes, starres und euklidisches Design nicht lösen können (Alber 2000). Ein Multiagentensystem besteht also aus mehreren Agenten. Dabei hat das System die Eigenschaft, dass es keine globale Kontrollinstanz gibt. Die Daten sind dezentralisiert, und die Berechnungen laufen asynchron. Der aus der gemeinsamen Arbeit der Agenten entstehende Prozess und die Lösung kann als Emergenz verstanden werden. Mit Hilfe eines AgentCreators lassen sich Lernprozesse in Agenten-Mutationen in Form von Agelets wandeln (Merk 2001 und Alber 2000). Auch wenn Agenten ein vielversprechender und flexibler Rahmen sind, stehen sie vor einigen Herausforderungen: fehlende Verzeichnisdienste, um passende Informationen zu finden; Kommunikati- Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 169 onsproblem aufgrund fehlender gemeinsamer Sprache und Ontologien; fehlende Hilfsmittel, um bestehende (Legacy-) Systeme einzubinden und technologischen Probleme, die Schließen, Planen und Constraints-Erfüllung beherrschen. Gerade Letzteren lässt sich mit offenen Architekturen, wie dem Semantic Desktop, begegnen. Ihre Einbindung in betriebliche Systemlandschaften wie das Siemens Employee Portal würden weitere Informationsquellen und Kontext erschließen, ohne viele Rahmenbedingungen a priori zu modellieren. Die Fähigkeit zu planen ist ein wesentlicher Teil einer solchen Architektur. Planung bedeutet für die Wissensentwicklung die Auswahl des richtigen Abstraktionsmaßes, um eine Verständigung zwischen den Konzepten zu ermöglichen. Ein Constraint Manager würde als conceptual layer in einem Multi-Agentensystem in Abhängigkeit von Kompetenzlevel die richtige Abstraktionsebene wählen. Die Architekturplattform InterRAP versucht eine Balance zwischen hoher Entscheidungsqualität deliberativer Systeme und geringer Verarbeitungskosten reaktiver Systeme zu finden (Müller 1996, Jung und Fischer 1998). Jung (1998) spricht in diesem Zusammenhang von „bounded rationally“. Die InterRAP-Architektur besteht aus drei Ebenen: Social und Local Planning sowie behaviourbased layer. Während der behaviour-based layer direktes Feedback an die Umgebung gibt, denkt der local planning layer über die Zustände des Ersteren statt über externe Zustände nach. Dies entkoppelt die Denkfunktion vom Wahrnehmungs-Aktionskreislauf und ermöglicht ein abstrakteres Denken. Die social-planning-Ebene ergänzt eine weitere Abstraktionsstufe, indem sie über den local planning layer räsoniert. Die Anwendung dieser Architekturform auf BDI (Believe-Desire-Intention) Agentenarchitekturen ergibt folgendes Handlungsprinzip (Debenham 2000): Ermittle auf der Basis bestehender beliefs die möglichen Handlungsoptionen – selektiere auf der Basis dieser und bestehender commitments die aktuellen Ziele – wähle für jedes neu gewählte Ziel einen Plan und ermittle die sinnvollen nächsten Schritte und Aktivitäten (Intentionen)! In einer Kombination von vertiefter Abstraktionsebene (vertikal) und erweitereter Funktion (horizontal) könnte ein künstliches neuronales Netz ein Agent sein. Sein Design und Einsatz lässt sich über den conceptual layer des MAS steuern und beeinflussen. Der Agent wird zu einem ConstraintManager (Eraßme 2002). In Ergänzung zur Definition des Abstraktionsmaßes als Gleichgewichtszustände wirkt er aktiv auf die Marktbildung und Definition verschiedener Bezeichungsformen (Vulkan und Jennings 2000, Smith 1980). Bei der Marktbildung werden Optimierungsfragen an die Beteiligten versandt, was zwar die Kommunikationskosten erhöht, aber die Lösungsfindung dezentralisiert. Empfehlungen und Koalitionsbildung spielen unter Agenten eine wichtige Rolle. Ein paar Architekturbeispiele aus Elst et al. (2004) illustrieren Ansätze für diesen constraint Manager als Integrationsbasis mit shared concepts: Agentenplattform KRAFT (Preece 2000). Sie nutzt constraints als gemeinsames Kommunikationsformat in FIPA (Foundation of intelligent physical agents) in Form einer gemeinsamen RDFOntologie (shared concept). EULE und das agentenbasierte FRODO sind Systeme, die den Geschäftsprozess als Kontext (ggfs. als weak workflow) nutzen (Reimer et al. 2001, Abecker et al. 2003, van Elst et al. 2003). FRODO basiert auf einem vierschichtigen Modell: Applikations-, Informationsquell-, Ontologie- und Wissenszugangebene. In diesen Ebenen finden sich workflow-related agents für Prozesskontrolle, Personal user agents für die Schnittstelle zum Nutzer, Info Agents für Suche, Wrapper Agents für den Dokumentenzugang und Domain Ontology Agents für Kommunikatoren zwischen den Ontologien. FRODO nutzt die FIPA-kompatible Agentenplattform JADE und wird mit Erfahrungen aus dem peer-2-peer-Ansatz (social structures) des Edamok Projekts auf der Kex-Platform ergänzt (Bonifacio 2002). Beide fließen in das CoMMA Projekt der EU (Corporate Memory Management through Agents) ein (Bergenti et al. 2000). Dabei werden auch Agentengemeinschaften (User Agents für die Nutzerschnittstelle, Resource Agents für die Informationsquellen, Mediator Agents für die Koordination) genutzt, um Annotationen zu vergeben, zu speichern, Schnittstellen und Verzeichnisse zu managen. 170 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Darin wird die Zergliederung der Architekturen in ähnliche Schritte wie im KCF deutlich. Als Schritte finden sich die Trennung von Wahrnehmung und Handlung oder die Planung als wichtiges Element in Abhängigkeit von beliefs (Rolle). Eine Vernetzung beider Modelle könnte das technologische Potenzial der Architekturen für die Wissensentwicklung heben. Dabei wären nur noch die geeigneten Agenten-Strategien vorzugeben (Cherkaoui et al. 2003): constraint-driven (Bewertung verschiedener Aspekte gleichzeitig im Hinblick auf eine Restriktion), model-driven (sequentielle Bewertung verschiedener Bedingungen und Restriktionen auf einen Aspekt hin), territory-based (immanente und abgegrenzte Restriktionen) oder system based (offen, auf mehrere Restriktionen bezogen). Model-driven-Strategien werden bevorzugt am Anfang in der Modulentwicklung angewendet. Constraint-driven-Strategien werden in einem fortgeschrittenem Stadium angewandt, um den globalen Fit zu testen. Die beschriebenen Optionen ähneln sehr stark aktuellen Beschreibungen und Entwicklungen im Rahmen service-orientierter Architekturen, wie man sie im Web bei www.informationweek.de, www.webservices.com oder www.itwissen.info findet, um nur ein paar zu nennen. Auch die Literatur beschreibt diese Architekturform, unter anderem praxisnah bei Starke und Tilkov (2007), prozessnah bei Josuttis (2008) oder technologienah bei Melzer (2007). Allen und vielen weiteren ist das Verständnis einer service-orientierten Architektur als lose Koppelung von Software-Bausteinen – Services − gemein. Im Gegensatz zu klassischen Agentenarchitekturen basieren sie auf offenen Schnittstellen und einen erweiterbaren Kommunikationsschema, wie Webservices. Dadurch sollen sich Applikationen schneller an geänderte Anforderungen aus den Geschäftsprozessen anpassen lassen. Der Semantic Desktop ließe sich sehr gut mit seiner offenen, herstellerunabhängigen Architektur in dieses Leitbild einfügen, auch wenn viele der großen Hersteller eigene Architekturmodelle und Plattformen entwickeln, wie SAP Netweaver (http://www.sap.com/germany/plattform/netweaver/) oder Oracle Fusion Middlerware (http://www.oracle.com/lang/de/products/middleware/). 13.4 Auswirkungen auf das Semantic Web Der W3C_Definition (http://www.w3.org/2001/sw/) nach stellt das Semantic Web ein Framework zur Verfügung, das es unterscheidlichen Applikationen erlaubt, Daten auf der Basis von RDF auszutauschen. In den Erfahrungen und Erkenntnissen für die Entwicklungen des Semantic Web und Web 2.0 im Allgemeinen sticht der Beitrag der Forschung für die Arbeit mit Communities hervor. Die Tests haben die unterschiedlichen Auswirkungen von Rollen in homogenen und heterogenen Gruppen gezeigt und den Einfluss von P2P-Umgebungen verdeutlicht. Web 2.0 unterscheidet sich von den untersuchten Szenarien in organisationalem Umfeld durch eine schwache Ausprägung von Rollen und standardisierten Prozessen. Das Web lebt gerade von diesem offenen Rahmen. Es konzentriert sich stärker auf den Nutzer mit seinem Profil als auf seine Rolle. Dies macht es derzeit noch schwierig, die Handlungsintentionen der Nutzer zu differenzieren. Im Gegensatz dazu konzentriert sich das Web 2.0 stärker auf den Content als auf Dokumente. Mit RSS (http://www.rss-verzeichnis.de/einfuehrung.php) und getaggten Inhalten bestehen hier professionelle Formen, mit Aussage- und Textbausteinen umzugehen. In ihren Kombinationen könnte die Semantik von den Erfahrungen des Web 2.0 im Umgang mit Inhalten profitieren und im Gegenzug das Web von den Erfahrungen im Community Support. Folgt man den Gedanken von Decker und Frank (2004) zu einem Networked Semantic Desktop, entsteht daraus ein Semantic P2P und damit ein ontologiegetriebenes Social Networking. Die Verbindung zwischen beiden wären Ontologien und shared concepts. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 171 Die Erstellung dieser Konzepte erfolgt derzeit über verteilte Arbeit und die Nutzung dezentraler Ressourcen, wie P2P, Social Tagging oder Crowdsourcing (www.crowdsourcing.de; http://crowdsourcing.typepad.com./). Die Zeit vom 06.02.2007 gibt einen aktuellen Überblick über Social Bookmarking Dienste: http://www.zeit.de/online/2007/06/social-bookmarking. Im Gesamtbild wäre das Web 2.0 und Semantic Web ein riesiges Multi-Agent-System und könnte die Rolle des Constraint-Managers übernehmen. Über die offene Architektur ließen sich, wie wir es derzeit schon bei offenen Communities wie Facebook (www.facebook.com) sehen, neue Services bereitstellen. Inhaltlich bringt dies sicher neue Standards und eine breite Nutzerbasis hervor. Betriebswirtschaftlich gesehen ist jedoch fraglich, wie lange Nutzer bereit sind, ohne Vergütung und Kompensation für die Allgemeinheit zu arbeiten. Zu klären wäre, wie sich diese Kosten internalisieren lassen. Spätestens dann werden auch Lösungen interessant, die den Redaktionsaufwand senken. Das Experiment läuft im Web, ob sich Unternehmen schnell darauf einlassen, ist fraglich. Das US Patentamt hat mit dem Peer-2-Patent-Programm (http://www.peertopatent.org/) einen Versuch gestartet, sich für organisationelle Aufgaben der Ressourcen der Webcommunity zu bedienen. Interessant wäre eine weiterführende Diskussion, inwieweit sich Gnowsis als Open-Source-Plattform hier als hilfreiches Hilfsmittel verlinken und etablieren ließe. Das Semantic Web (2.0) nutzt wieder die Community, um Redaktionsaufwand zu dezentralisieren und modelliert damit Bereiche, die derzeit noch nicht systematisch beschrieben sind, wie Problemlösungen. Technologie Semantisches Information Retrieval Produktivitätskurven Weiterentwicklung Semantic Desktop Sem antic Web (2.0) Klassisches Information Retrieval Steigerung der Produktivität von Wissensarbeitern Semantic Desktop Wissensmanagement Aufwandsverteilung Experte Community - schematische Darstellung - Abb. 49. Beitrag des Semantic Desktop zur Produktivitätssteigerung des Wissensarbeiters Abbildung 48 fasst die Entwicklungen der Integration und Unterstützung semantischer Technologien und die Weiterentwicklung des Semantic Desktop zusammen. Sie stärken die Technologiebasis für eine weitere Produktivitätssteigerung von Wissensarbeitern. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 172 (A-7.7) Die Grenzen dieser Entwicklung liegen im Rechtemanagement von geschützten Inhalten und der datenschutzbedingten Einschränkung in der Verwendung von Nutzerprofilen und Rollen. Neben den technologischen Herausforderungen dürfen die prozessualen und sozialen Aspekte im betrieblichen Umfeld für eine Erfolgswahrscheinlichkeit von Systemveränderungen nicht außer Acht gelassen werden. Viele Informationen wären vielleicht technologisch verarbeitbar. Sie sind aber aus datenschutzrechtlichen, persönlichen oder innerbetrieblichen Gründen nicht zugänglich. Hierfür wären aktive Kommunikationsprozesse zwischen Communities und Bereichen vielleicht hilfreicher als eine technologische Lösung. Technologische Hürden lassen sich in der Regel mit work-arounds oder händisch erstellten Schnittstellen umgehen und sind eher eine Frage der Kosten. Tiefgreifender sind gesetzliche Einschränkungen, die die Idee eines freien Datenaustausches zum Schutz von Persönlichkeitsrechten, wie Vertriebsleistung, verbieten oder aufwendige Zugriffsregelungen vorschreiben. Die Umsetzung dieser erfordert entsprechende organisatorische und kulturelle Voraussetzungen, die sich nicht schnell durch die Einführung neuer Technologien verändern lassen. Wie die letzten Jahre jedoch gezeigt haben, unterliegen auch diese einer kontinuierlichen Veränderung in Abhängigkeit der technologischen Möglichkeiten und der Verbreitung von gemeinsamen Standards in Programmiersprachen. Sie leisten eine wichtige Rolle, um die Verständigung der Plattformen und Communities zu gewährleisten. Wie im Technologiekapitel beschrieben, dienen die Sprachen hier dazu, weitere Komplexitäten zu repräsentieren und diese zu internalisieren, so dass sich nutzerspezifische Arbeit auf höherwertige Aufgaben konzentrieren kann, wie Architekturdesign für Web Services. Für den Umgang mit gesetzlichen und organisatorischen Herausforderungen ist ein ausreichendes Veränderungsmanagement notwendig. Es sollte im Vorfeld mögliche Konflikte zwischen Informationstransparenz und Compliance-Regelungen aufzeigen und Lösungsansätze mit dem Management suchen. Die Frage der Kommunikation und des Wissensaustauschs sind wesentliche Bausteine einer Unternehmenskultur und damit Frage des Top-Managements. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 173 14 Zusammenfassung und Fazit Am Beispiel der Angebotsentwicklung bei SIS wurde mit Hilfe der Grounded Theory die Bedeutung des Semantic Desktops für die Wissensentwicklung erforscht. Dabei wurden zu den einleitenden Forschungsfragen (F-1.1 – F-1.3) folgende Antworten gefunden: Die semantische Suche trägt zu einer aktiven Prozessunterstützung in Teilprozessen der Wissensentwicklung bei, kann diese jedoch erst im Rahmen einer Gesamtarchitektur leisten. In Summe ist die Wissensentwicklung per se im Vergleich zur Wissensverteilung noch kein Garant für eine aktive Prozessunterstützung. Sie macht mit der Berücksichtigung der Rolle und Intention wesentliche Kontextelemente im Prozess verfügbar. Und sie legt mit dem Knowledge Creation Framework methodische Grundlagen, die Wissensentwicklung durch Multi-Agentensysteme, weiter zu automatisieren. Damit begegnet der Ansatz eines fehlenden Prozesses der Wissensentwicklung und bietet mit einem P2P-basierten System ein Beispiel für die Flexibilisierung von Systemen, weg von monolithischen, zentralen Systemen. Damit passen sich die Systeme langsam an die Bedürfnisse der Menschen an und nicht umgekehrt. Die relevanten, nicht automatisierbaren menschlichen Fähigkeiten können besser eingesetzt werden. Die Technologie kann einen Dialog zwischen Rollen initiieren, in dem verborgene Gemeinsamkeiten expliziert und herausgearbeitet werden. Die besondere Bedeutung der Rolle für die Wahl des richtigen Abstraktionsmaßes könnte verkürzt durch eine Funktion beschrieben werden: f (Abstraktionslevel, Ergebnisdetaillevel, Dokumentenarten). Damit erscheinen dem Nutzer die gefundenen Informationen vertrauter. (A-1.1) Das Gedächtnis und damit die Informationsspeicherung spielen im KCF eine bedeutende Rolle. Sie leiteen parallele Prozesse in sequentielle über. Vor diesem Hintergrund wäre für die zukünftige Forschung zu überlegen, ob nicht aus der Menge der technologischen Forschungsrichtungen die Holographie und die eingefalteten Informationen ein Potenzial zu weiteren Annäherung an die Subsymbolik darstellen könnten. In jeden Fall lässt sich der Grundgedanke der Holographie, mehr Informationen in einem Baustein zu speichern, als von außen wahrzunehmen sind, sehr gut mit dem KCF und den Charakteristika der aufgezeigten Wissensentwicklung vereinbaren. Zusammenfassend leistet die Technologie einen Beitrag, dem subjektiven Charakter von Wissen gerecht zu werden und die Informationsqualität zu steigern. Sie bedient sich hierzu Gedanken aus unterschiedlichen Disziplinen. Sie wurden durch einen iterativen Dialog, immer in Verbindung mit dem zu testenden Anwendungsfall, herausgearbeitet. Aus der Wissenschaftstheorie leistet die Unterscheidung in induktive und deduktive Ansätze Hilfestellung, die Grenze zwischen dem technologisch Abbildbaren und der Weiterentwicklung aufzuzeigen. Die Philosophie legt mit dem Konstruktivismus die Grundlagen für die Unterstützung einer induktive Wissensentwicklung und war hilfreich für die Herausforderung des Ansatzes der Wissensverteilung und Ableitung des Modells der Wissensentwicklung. Auch die Biologie und Medizin stützten die These eines konstruktivistischen Wissensund Systemverständnisses, so dass dieser Ansatz als Kontrainduktion in der Grounded Theory verfolgt wurde. Nicht zuletzt leisteten sie wertvolle Abgrenzungsarbeit in der Definitorik im Bereich der verhaltensbasierten Lerntheorie. Die Psychologie hat mit ihrem Fokus aus systemimmanente Vorgänge einen wesentlichen Anteil am Prozess der Wissensentwicklung und der Abgrenzung von bewussten und unbewussten Prozessen. Prozesswissen wurde nicht zuletzt aus dem betriebswirtschaftlichen und betrieblichen Umfeld zu Hilfe genommen. Es ist anerkennt, dass nicht nur die Faktoren oder das Ergebnis, sondern gerade der Weg für die Ergebnisqualität relevant sind. Die Künstliche Intelligenz hat nicht nur einige Erfahrung mit der Umsetzung von psychologischen Erkenntnissen in technologische Zusammenhänge eingebracht, sondern auch einen Diskussionsrahmen geschaffen, der eine Einordnung und damit Standortbestimmung semantischer Technologien erlaubte. Dabei ist deutlich geworden, dass natürlich Technologie und Architekturen nicht alle Probleme lösen können, sondern seitens des Managements addressiert werden müssen. Es müssten Fragen des Informationszugangs gelöst und unterstützt werden. Die semantische Technologie weist letztendlich den Einfluss der Rolle nach und unterstreicht die Bedeutung eines constraint-Managers in zukünftigen Agentenarchitekturen. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 174 Die meisten Disziplinen leisteten wichtige Argumentationshilfe. Die Arbeit erhebt dennoch keinen Anspruch, wissenschaftliche Erkenntnisse der jeweils anderen Disziplin zu proklamieren. Nichtsdestotrotz zeigte der Dialog, dass die hier gewonnenen Erkenntnisse Ansporn und Anregung zur weiteren Vertiefung und Vernetzung der Erkenntnisgebiete sein können. Semantische Suchen sind Katalysator für die technologische Erschließung wissensintensiver Prozesse. Ihr Einsatz im betrieblichen Umfeld ist in Einzelfällen absehbar. Es steht zu vermuten, dass sie eher als Bausteine in Standardsoftware oder zielorientierten Workflow-Systemen, wie FRODO, Eingang finden. Ihre Wirkung werden sie, wie in dieser Arbeit beschrieben, erst entfalten können, wenn aus Prozessmanagement-Sicht die Erkenntnis einer informationstechnischen Modellierung von Rollen erkannt wird. Nachdem derzeit noch die Modellierung und Berücksichtigung von aktivitätsorientierten Rollen in Arbeit sind, ist hier mit keiner schnellen, aber dafür mit einer fundamentalen Entwicklung zu rechnen, wie in Service-orientierten Architekturen. Sie werden Prozesse aus Informationssicht applikationsübergreifend verknüpfen und verändern. Sie eignen sich, wie im Vergleich zwischen Sales und Proposal Manager deutlich wurde, für schlecht vordefinierbare Prozesse, während bekannte zentralistische Systeme nach wie vor Bedeutung für strukturierte Informationen in schwach dynamischen bis statischen Umgebungen haben. (A-1.2) Zusammenfassend gesagt, verschieben semantische Technologien die Grenze zwischen konstruktivistisch, bottom-up basierten Elementen und fixen, vorgegebenen Elementen zugunsten der konstruktivistischen. Sie ermöglichen durch die Berücksichtigung einer Perspektive die Bewertung bottomup generierter Inhalte und internalisieren damit Aspekte, die bisher manuell in Strukturen repräsentiert werden mussten. Im Ausblick auf die weitere Entwicklung des Forschungsgebietes dürften zwei Entwicklungen von Bedeutung sein: zum einen die Erfahrungen der Gesellschaft mit dem Semantic Web und Web 2.0 und damit die Bereitschaft, Informationen zu teilen und zur Verfügung zu stellen, zum anderen die Offenheit und Fähigkeit des Wissenschaftsbetriebs, Unterstützung der eigenen Forschungsaktivitäten zuzulassen. Erste Schritte sind hierzu im Bereich der Biotechnologie zu beobachten, wo Google hilft, riesige Datenmengen zu verarbeiten. Natürlich wird die Wissenschaft auf Spezialentwicklungen zurückgreifen, um leading-edge-Ergebnisse zu produzieren. Dennoch sollte eine Standardisierung des Forschungsprozesses in den Basisarbeiten, wie Literaturrecherche, Veröffentlichungen, Diskussionen nicht außer Acht gelassen werden. Schon heute fordert die Veröffentlichungsgeschwindigkeit das Paketieren von immer kleineren Erkenntnis- und Wissensbausteinen (Chunks). Diese als Beitrag in die gemeinsame Diskussion einzubringen, wäre eine Hilfe für die in verteilten Netzwerken arbeitende Wissenschaftscommunity. Im Zusammenspiel mit den Web 2.0-Entwicklungen könnte sie von den Bewertungsverfahren der Community profitieren, um neue Anerkennungswege zu finden. Der Fokus liegt damit stärker auf der Weiterentwicklung, also dem Kernprozess der Forschung als in der Aufbereitung und Strukturierung der Erkenntnislandschaft. Mit Hilfe von Suchmaschinen und visuellen Darstellungsmöglichkeiten lassen sich auch unstrukturierte Zusammenhänge in ihren Aussagen und Bedeutungen abbilden. Zu untersuchen wäre, inwieweit diese Forschungsarbeit an Tiefe verliert, weil weniger Zeit mit der Einordnung und Strukturierung verbracht wird. Mit Hilfe des Knowledge Creation Frameworks werden die wesentlichen Aspekte der Diskussion um Besonderheiten von Wissen und der Wissensentwick(A-1.3) lung kombiniert und für einen Paradigmenwechsel zu einem prozessualen Wissensverständnis zur Verfügung gestellt. Neben den Erkenntnissen über eine bessere Unterstützung wissensintensiver Prozesse, ergeben sich mit dem KCF aus der Diskussion Schlussfolgerungen für eine Weiterentwicklung von Modellen der Wissensentwicklung und Antworten auf die Gedanken zum Verständnis von Wissen. Das KCF erweitert bestehende organisatorische Modelle um eine individuelle Perspektive und bereichtert damit das Verständnis um den Dialog zwischen Individuum und Organisation. Es berücksichtigt den subjektiven Charakter in Form der Intention als Kontextelement. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 175 Das Modell unterstützt und beschreibt die Möglichkeit, Wissen als einen konstruktiven Prozess zur Erstellung eines situationsspezifischen Zustands zu verstehen. Es macht die Möglichkeiten deutlicher, wissensintensiven Prozessen ein anderes Paradigma von Wissen zugrunde zu legen und Wissen selbst als selbstähnlichen wissensintensiven Prozess auf verschiedenen Abstraktionsebenen zu betrachten. Wissen ist zwar weiterhin eine wichtige und strategische Resource im Unternehmen. Die vorgestellten Ansätze ergänzen bestehende Umsetzungshebel für Wissensstrategien, wie von Al-Laham (2003, 380 ff.) beschrieben. Sie machen den strategischen Hebel des Wissensmanagements operationalisierbar und weisen Wege zum Umgang mit wissensintensiven Prozessen. In Bezug auf die Siemens AG und das in Kapitel 8.1.4 vorgestellte Modell aus Diffusion, Proficiency und Codification bedeutet dies ein detaillierteres Verständnis des Kodifizierungsprozesses und eine Verbesserung der technologischen Unterstützung von Diffusionsprozessen. Neben der technologischen Optimierung lassen sich mit Hilfe des KCF auch personen-bezogene Maßnahmen auf organisatorischer Ebene einordnen und systematisch anwenden. Die informationsorientierte Eweiterung von Rollenbeschreibungen erschließt die Potentiale der Technologie für strategische Geschäftsprozesse. Eine wissensbasierte Unternehmensstrategie findet darin Umsetzungsmöglichkeiten ihrer Maßnahmen zu Flexibilisierung und Effizienzsteigerung in personalintensiven Geschäften. Die Grounded Theory ermöglichte einen systematischen, iterativen Dialog zwischen wirtschaftswissenschaftlichen Aspekten und Erkenntnissen der Informatik. Als wissensintensiver Prozess war sie selbst Forschungsobjekt. Mit der Grounded Theory wurde ein im technologischen Umfeld wenig bekannter und genutzter Ansatz gewählt, um diese verschiedenen Aspekte iterativ in die Diskussion einzubringen, ohne einen konkreten Nachweis und Test aus den Augen zu verlieren. Im Sinne der Disziplinschnittstelle der Wirtschaftsinformatik ist dies aber vielleicht ein multiplizierbarer und ausbaubarer Weg, die Erkenntniskräfte beider Disziplinen zu verknüpfen. Vielleicht ergibt sich hierdurch ein besserer und schnellerer Übertrag technologischer Leistungen in den betrieblichen Alltag. Aus dieser Sicht sind die im Kapitel 3 als Qualitätsanspruch gestellten Erwartungen erfüllt: • Vollständig expliziert: Unter Nennung der angewandten Forschungsmethode, mit bekanntem Forschungsziel und durch Forschungsfragen geleitet • Dokumentiert: In verständlicher Struktur dargelegt und geeignet durch Visualisierungen zugänglich gemacht. • Methodisch: Es wurde nach der gewählten Methode gearbeitet und die Methode hat die Erzielung der Ergebnisse unterstützt und sich als geeignet erwiesen • Zielsetzung erreicht: Die Ergebnisse beantworten die gestellten Forschungsfragen und tragen einen Erkenntnisgewinn zum Forschungsziel bei. • Konsistent: Die Forschungsmethode, -zielsetzung und -ergebnisse wurden auch im interpersonellen Rahmen diskutiert und passen zueinander. Die Grounded Theory bringt es im Gegensatz zu rein empirischen Methoden mit sich, dass die Ergebnisse im Diskurs zur Theorie in Beziehung gebracht werden und nicht nur eine Hypothese bestätigen oder widerlegen. Einen ergänzenden Beitrag zum Diskurs bot die Einbettung in Forschungsprojekte wie EPOS und -teams sowie der Dialog in der Forschungscommunity durch (internationale) Veröffentlichungen. (A-1.4) Mit Hilfe das Knowledge Creation Frameworks ist ein Beitrag zur Diskussion der Design Sciences aus Kapitel 3.5.2 an der Schnittstelle zwischen Management, Organisations und Informationstheorien entstanden. Er beschreibt aus Sicht der Wissenstheorie einen Designprozess mit dem Ergebnis eines Artefakts (knowledge product oder asset). Versteht man den Designprozess als Problemlösungsprozess, so ist gerade die Optimierung von Suchverfahren ein wesentlicher Schritt hierzu. Das KCF zeigt eben diesen als Vorstufe des Recon- 176 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen cilers. Mit Hilfe der Grounded Theory ist es gelungen, die Nützlichkeit des Semantic Desktop im betrieblichen Umfeld zu erhärten und seinen Einsatz im Rahmen eines größeren Modells zu erklären. Ein Feldtest in anderen betrieblichen Prozessen zum Nachweis der Gültigkeit könnte aus verhaltensbasierter Sicht in weiterer Forschung erfolgen. Ebenso sollte ein Leistungstest der Technologie mit großen Datenmenegen erfolgen, um die notwendige statistische Power für die Signifikanztest zu erhalten. Als Fazit der Forschung zeigt sich, dass die konstruktivistische und interdisziplinäre Betrachtung von Wissen als Prozess im Sinne einer ständigen Wissensentwicklung hilfreich ist, das objektorientierte Paradigma der reinen Wissensverteilung aufzubrechen. Sie ermöglicht es, sich mit neuen, offenen Ansätzen komplexen Infromationsbedarfen zu nähern, und verspricht im Rahmen von Systemarchitekturen einen signifikanten Beitrag zur Produktivitätssteigerung von Wissensarbeitern: Forschungsfrage Diskussion Wie kann die semantische Suche die Produk- • Besonderheiten wissensintensive Prozesse, tivität in der Wissensentwicklung von wisWissensentwicklung und Wissen sensintensiven Prozessen steigern ? (F-1) • Test der semantischen Suche in Praxisszenarien Ergebnis Die semantische Suche trägt zu einer aktiven Prozessunterstützung in Teilprozessen der Wissensentwicklung bei, kann diese jedoch erst im Rahmen einer Gesamtarchitektur leisten. Semantische Suchen sind Katalysator für die technologische Erschließung wissensintensiver Prozesse. Forschungsfrage Diskussion Was sind wissensintensive Prozesse und ihre • Workflows Besonderheiten ? (F-2) • Prozessarten Ergebnis Wissensintensive Prozesse sind explorativ, nicht im Detail wiederholbar und zuvor unbekannt. Sie können aktivitäts-, ziel- oder wissensorientiert sein. Im Unterschied zu bestehenden Prozessen differenzieren sie sich durch einen konstruktiven Fokus im Individuellen und einen verbreitenden, kommunikativen Fokus im Organisationellen. Wissen entsteht nicht in der Übertragung, sondern im Individuum bei der Explikation oder Internalisierung. Forschungsfrage Diskussion Was sind die Charakteristika von Wissen ? Wissensverständnis in verschiedenen Disziplinen (F-3) Ergebnis Wissen ist ein Zustand subjektiver Wirklichkeit. Die Eigenschaften von Wissen sind Viabilität, Subjektivität, Vergänglichkeit und rekursive Konstruktion. Forschungsfrage Was ist Wissensentwicklung ? (F-4) Diskussion Organisatorische und indivdiuelle Wissensentwicklung in verschiedenen Modellen und Theorien Ergebnis Wissensentwicklung ist ein Prozess des perspective takings und makings zur Erzielung eines Zustandes der subjektiven Wirklichkeit. Es berücksichtigt den subjektiven Charakter von Wissen und integriert Kontextaspekte als Intention in Form von Eigenschaften einer Rolle des Nutzers. Sie werden als Personal Information Model der Technologie in der deduktiven Wissensentwicklung zur Verfügung gestellt. Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 177 Forschungsfrage Diskussion Welche intelligenten Technologien können • Möglichkeiten der Künstlichen Intelligenz auf den Redaktionsaufwand reduzieren und mit Signal, Bedeutungs- und Konzeptebene welchen Herausforderungen ist dies verbun- • Bestehende Applikationen und Systeme den ? (F-5) • Infromation Retrieval Ansätze • Semantische Suchen Ergebnis Intelligente Technologien ersetzen und unterstützen nicht nur wissensintensive Prozessschritte. Hierfür besitzen sie Problemlösungsfähigkeiten. Semantische Technologien erlauben noch keinen Zugang zu subsymbolischen Konzepten. Sie nutzen erfolgreich bestehende, symbolische Konzepte und verbessern die Leistungsfähigkeit von Suchen. Die gewonnen Erkenntnisse im Umgang mit Konzepten sind Grundlage für Nutzung nicht explizit formulierter Konzepte und verborgener Beziehungen. Sie unterstützen leichter induktive Ansätze der Wissensentwicklung, auch wenn mit dem P2P Ansatz eine Grundlage für deduktive Ansätze geschaffen scheint. Forschungsfrage Diskussion Ist die semantische Suche des Semantic Desk- • Test von Gnowsis gegenüber Laborergebnissen tops leistungsfähiger und intelligenter als be- • Test von Gnowsis gegenüber LiveLink stehende Suchen im Spektrum des Informati- • Test von Gnowsis mit unterschiedlcihen Szenaon Retrievals ? (F-6) rien auf Rollenbasis • Signifikanzuntersuchung der Testergebnisse Ergebnis Gnowsis, die semantische Suche des Semantic Desktop, steigert die Ergebnisqualität von Suchanfragen einzelner Wissensarbeiter oder der in homogenen Gruppen. Der Einsatz von P2P-Netzwerken ermöglicht in heterogenen Gruppen Zugang zu weiteren relevanten Dokumenten. In seiner Weiterentwicklung können durch Nutzerbeobachtung automatische Suchen durchgeführt und die Ergebnisse aktiv und situationsspezifisch bereitgestellt werden. Forschungsfrage Diskussion Welchen Beitrag leistet die semantische Suche • Knowledge Creation Framework im Rahmen der Wissensentwicklung und wo • Auswirkungen auf die Diskussionsbereiche liegen die Grenzen bzw. Entwicklungsmög(Wissen, Wissensentwicklung, wissensintensilichkeiten der Technologie ? (F-7) ve Prozesse und semantische Technologien) Ergebnis Das Knowledge Creation Framework beschreibt die Erkenntnisse aus der Theorie und den technologischen Tests. Mit seiner Hilfe lassen sich die Erkenntnisse auf andere aktivitätsorientierte, wissensintensive Prozesse übertragen. Die semantische Suche unterstützt und ersetzt den Analyzer und Reconciler aus dem KCF. Der Semantic Desktop lässt sich in seinen Funktionalitäten und seiner Wirkungstiefe auf ContentEbene zu einer service- oder agentenorientierten Architektur weiterentwickeln. Dabei wäre zu klären, welche Technologien sich für den Umgang mit mit vagen Objekten, wie Text, und vagen Kontexten, wie Storylines, eignen. 178 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 179 Literaturverzeichnis Aamodt, A., Plaza, E. (1994) Case-Based Reasoning: Foundational Issues, Methodological Variations, and System Approaches. In: AI Communications, Vol. 7 Nr. 1, March 1994, pp 39-59, http://www.idi.ntnu.no/emner/it3704/lectures/papers/Aamodt_1994_Case.pdf Abdecker, A., Bernardi, A., Sintek, M. (2000) Proactive Knowledge delivery for enterprise Knowledge Management (Deutsches Forschungszentrum für Künstliche Intelligenz), in: Ruhe, G., Bomarius F. (Hrsg.) Learning Software Organizations, Springer Verlag, 2000 Abecker, A. Bernardi, A., Sintek. M. (1999) Proactive knowledge delivery for enterprise knowledge management. In: SEKE-99. Proceedings of the 11th Conference on Software Engineering and Knowledge Engineering. Kaiserslautern, Germany, June 17-19 1999, 1999, pp. 103-117, http://citeseer.ist.psu.edu/abecker99proactive.html Abecker, A., Bernardi, A., Elst. L.v. (2003) Agent technology for distributed organisational memories. In: Proceedings of the 5th International Conference On Enterprise Information Systems, Vol. 2, pp. 3–10, 2003. Zitiert in: Elst et al. (2004) Adomavicius, G., Tuzhilin, A. (2005) Toward the next generation of recommendersystems: a survey of the state of the Art and possible extensions. In: IEEE Transactions on knowledge and data engineering, Vol 17, No. 6, June 2005 Aebli, H. (1981) Denken: das Ordnen des Tuns. Bd. 2: Denkprozesse, Stuttgart: Klett-Cotta, 1981 Ahmed, K. et al. (2001) Professional XML Meta Data. Wrox Press Ltd., Birmingham, 2001 Alber, K. (2000) Kognitive Verarbeitung von Dimensionsadjektiven - ein konstruktivistisch-konnektionistisches Modell zur Produktion von Äußerungen mit dem Dimensionsadjektiv "groß". Diss., Universität Bielefeld, 2000 Al-Laham, A. (2003) Organisationales Wissensmanagement. Vahlen, 2003 Allweyer, T (1998) Modellbasiertes Wissensmanagement. In: IM Information Management & Consulting, Nr. 1, 1998, pp. 37-45. Althoff, K.-D., Weß, S. (1991) Case-Based Knowledge Acquisition, Learning and Problem Solving for Diagnostic Real World Tasks. – Universität Kaiserslautern, 1991, http://citeseer.ist.psu.edu/203885.html Aken, J.E.v. (2004) Management Research based on the Paradigm of the Design Sciences: The Quest for FieldTested and Grounded Technological Rules. In: Journal of Management Studies, 41:2, March 2004, pp. 219 246 Aschoff, F.-R., Elst, L.v. (2001) Empirical Evaluations of Organisational Memory Information Systems: A Literature Overview. FRODO Discussion paper, 2001, http://www.dfki.uni-kl.de/~elst/papers/Evaluation%20of%20OMIS.htm Axelrod, R. (Hrsg. 1976) Structure of Decision. Princeton, Princeton, 1976 Barreau, D., Nardi, B.A. (1995) Finding and reminding : File organization from the desktop. 1995 Baumeister, J., Seipe, D. (2005) Anfragesprachen für das Semantic Web. In: Informatiklexikon, Gesellschaft für Informatik e.V., Springer, 2005, http://www.gi-ev.de/service/informatiklexikon/informatiklexikon-detailansicht/meldung/23/ Becker J. et al. (2003) Forschungsmethodische Positionierung in der Wirtschaftsinformatik – epistemologische, ontologische und linguistische Leitfragen. Arbeitsberichte des Instituts für Wirtschaftsinformatik, Arbeitsbericht Nr. 93, Westfälische Wilhelms-Universität Münster, Institut für Wirtschaftsinformatik, 2003, www.wi.uni-muenster.de/inst/arbber/ab93.pdf Belhumeur, P.N., Hespanha, J. P., Kriegman, D.J. (1997) Eigenfaces vs. Fisherfaces: Recognition using class specific linear projection. In: IEEE Transactions on pattern analysis and machine intelligence, Vol 12, No. 7, July 1997 Bergenti, F., Poggi, A., Rimassa, G. (2000) Agent architectures and interaction protocols for corporate management systems. In: Proceedings of the ECAI Workshop on Knowledge Management and Organisational Memories, pp. 39–47, Berlin, 2000 Bergius, R. (1971) Psychologie des Lernens. Kohlhammer, Stuttgart, 1971 Bergmann, R. (2002) Experience Adaptation. In: Experience Management: Foundations, Development Methodology, and Internet-Based Applications, Lecture Notes in Computer Science, Springer, Berlin , Heidelberg, ISSN 0302-9743 (Print) 1611-3349 (Online), Volume 2432/ 2002 Berners-Lee, T., Hendler, J., Lassila, O. (2001) The semantic web - a new form of web content that is meaningful to computers will unleash a revolution of new possibilities, in: Scientific American, 284 (5), 2001, pp. 28-37 Bernus, P., Schmidt, G. (1998) Architectures of Information systems. In: Bernus, P.; Mertins, K.; Schmidt, G (Hrsg., 1998) Handbook on Architectures of Information Systems. Springer, Berlin, Heidelberg, 1998 Best, J. B. (1992) Cognitive Psychology. Third Edition, New York 180 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Birbaumer, N.; Schmidt, R.F. (1997) Lernen und Gedächnis. In: Schmidt, R.F.; Thews, G. (1997) In: Schmidt R.F., Thews G. (Hrsg) Physiologie des Menschen, Springer, Berlin Heidelberg New York, 27. Auflage, 1997, S. 154-166 Bizer, C., Seaborne, A. (2004) D2rq-treating non-rdf databases as virtual rdf graphs. In: Proceedings of the 3rd International Semantic Web Conference , ISWC2004, Japan, 2004. Zitiert in: Sauermann et al. (2005) Bochenski, I.M. (1993) Die zeitgenössischen Denkmethoden, UTB 6, 10. Auflage, Tübingen, 1993. Zitiert in: Teich (1996), S. 5 Boisot, M.H. (1999) Knowledge Assets: Securing Competitive Advantage in the Information Economy, Oxford University Press, New York, 1999 Boland, J., Tenkasi, R.V. (1995) Perspective Making and Perspective Taking in Communities of Knowing. In: Organization Science, 6(4), pp. 350-372, 1995 Bonifacio, M., Bouquet, P., Mameli, G. Nori, M. (2002) Kex: a peer-to-peer solution for distributed knowledge management. In: Proceedings of the Fourth International Conference on Practical Aspects of Knowledge Management (PAKM02), volume 2569 of Lecture Notes in AI, pp. 490–500. Springer, 2002. Zitiert in: Elst et al. (2004) Bontis, N., Crossan, M.M. (1999) Managing an Organizational Learning System by Aligning Stocks and Flows of Knowledge. In: Conference on Organizational Learning, UK, Lancaster, 1999. Zitiert in: Al-Laham (2003) Bortz, J., Döring, N. (2002) Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler, 3. Auflage, Springer-Verlag, Berlin, 2002 Bradford, J. (1999) New dimensions of international security: Information vulnerabilities. In: International security challenges in a changing world, Spillmann et al. (Hrsg.), Bern et al loc., 1999 Brand-Haushofer, R. (2005) Recommender Systeme in digitalen Bibliotheken. Dissertation, Universität Wien, 2005, http://epub.wu-wien.ac.at/dyn/openURL?id=oai:epub.wu-wien.ac.at:epub-wu-01_93d Brüning, H., Trenkler, G. (1994) Nichtparametrische, statistische Methoden, 1994 Brünken, R. (1998) Automatische Rekonstruktion von Inhaltsbeziehungen zwischen Dokumenten. Benutzeradaptives Informations-Retrieval in Wissensbasen. Shaker, 1998 Bryson, J. (2000) Cross-paradigm analysis of autonomous agent architecture. In: Journal of Experimental and Theoretical Artificial Intelligence, 12(2), pp.165-190, 2000, http://citeseer.ist.psu.edu/bryson00crossparadigm.html Bullinger, H.-J., Wörner, K., Prieto, J. (1998) Wissensmanagement – Modelle und Strategien für die Praxis. In: Bürgel, H.D. (1998) Wissensmanagement – Schritte zum intelligenten Unternehmen, Springer, Berlin, Heidelberg, S. 21-39, 1998 Burkhard, H-D (2003) Software-Agenten. In: Görz, G. (Hrsg., 2003) Handbuch der künstlichen Intelligenz, Oldenboug, 2003 S. 943 – 1017 Buttlar, J.v. (1992) Gottes Würfel: Schicksal oder Zufall, Weltbild, 1992, ISBN: 3776617497 Carlsson, S.A. (2006) Towards an Information Systems Design Reasearch Framework: A Critical Realist Perspective. In: First International conference on Design Science Research in Information Systems and Technology, 2006, http://wesrac.usc.edu/wired/bldg-7_file/6B_1.pdf Cherkaoui, S. Desrochers, A., Habhouba, D. (2003) A Multi-Agent Architecture For Automated Product Technical Specifications Verification In CAD Environments. In: Journal of Integrated Design & Process Science archive, Volume 7, Issue 2, pp. 21-38, April 2003 Chirita, P.A., Gavriloaie, R., Ghita, S., Nejdl, W., Paiu, R. (2004) Activity based metadata for semantic desktop search. 2004 Chomsky, N. (1996) The minimalist program. 2. Aufl., MIT Press., Cambridge, Mass. Zitiert in: Alber (2000) Chroust, G. (1992) Modelle der Software-Entwicklung. Oldenbourg, 1992 Cimiano, P. (2004) ORAKEL: A Natural Language Interface to an F-Logic Knowledge Base. In: Proceedings of the 9th International Conference on Applications of Natural Language to Information Systems, pp. 401–406, 2004. Zitiert in: Lei (2006), S. 3 Cohen, W.M., Levinthal, D. (1990) Absorptive Capacity: A Perspective and Learning an Innovation. In:Administrative Science Quarterly, Jg. 35 Heft 1, pp. 128-152, 1990 Corby, O., Dieng-Kuntz, R. Faron-Zucker, C. (2004) Querying the Semantic web with Corese Search Engine. In: Proceedings of 15th ECAI// PAIS, Valencia (ES), 2004. Zitiert in: Lei (2006), S. 3 Damasio A.R. (2005) Der Spinoza-Effekt. Wie Gefühle unser Leben bestimmen. List, 2005 Danner, H. (1979) Methoden geisteswissenschaftlicher Pädagogik. UTB, München, Basel, 1979 Davenport, T. (2005) Thinking for a Living, Harvard Business School Press, 2005 Debenham, J. (2000) Three Intelligent Architectures for Business Process Management. In: Proceedings of 12th International Conference on Software Engineering and Knowledge Engineering, SEKE2000, Chicago, 6-8 July 2000, Sydney, 2000, http://citeseer.ist.psu.edu/debenham00three.html Decker, S., Frank, M. (2004) The social semantic desktop. WWW2004 Workshop Application Design, Development and Implementation Issues in the Semantic Web, 2004. In: Sauermann et al. (2005) Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 181 Delp, M., et al. (2004) Pre-built information space: some observartions on the challenges of process-oriented Knowledge Management. In: Proceedings of I-KNOW 04, Graz, pp. 416-423, 2004 Dengel, A. (2006) Six thousand words about multi-perspective personal document management. In: Proceedings of First IEEE International Workshop on Electronic Document Management in an Enterprise Environment. IEEE International Enterprise Computing Conference (EDOC), HongKong, 2006 Dengel, A. (2007) Knowledge Technologies for the Social Semantic Desktop. In: Zhang, Z. und Siekmann, J. (Hrsgs.) Proceedings of International Conference on Knowledge Science Engineering and Management, Lecture Notes in Artificial Intelligence, LNAI 4798, Springer, 2007, pp. 2-9, http://www.springerlink.com/content/x74543973m0561t4/ Dengel, A. (2008) Methods and Models on AI, Lecture Script, University of Kaiserslautern, CS Dept., 2008 Dengel, A., Abecker, A., Bernardi, A., Elst, L. v., Maus, H., Schwarz, S., Sintek, M. (2002) Konzepte zur Gestaltung von Unternehmensgedächtnissen. In: KI- Künstliche Intelligenz, No. 1, arendtap Verlag, Bremen, 2002, pp. 5-11 Dengel, A., Abecker, A., Bahr, J.T., Bernardi, A., Dannenmann, P., van Elst, L., Klink, S., Maus, H., Schwarz, S., Sintek, M. (2002) Epos - evolving personal to organizational knowledge spaces, 2002, Project Proposal, DFKI GmbH Diederich, J. (1989) Instruction and High-level Learning in Connectionist Networks.Connection Science, 1, 1989, pp. 161-180. Zitiert in: Alber (2000) Dilger, W. (2004) Künstliche Immunsysteme, Vorlesungsskript, Technischen Universität Chemnitz, Sommersemester 2004, http://www.tu-chemnitz.de/informatik/KI/scripts/ss06/AIS-06-1-skr.doc, Abgerufen: 07. Juni 2006, 10:19 Uhr GMT+2 Dodero, J.M., Aedo, I., Díaz-Pérez, P. (2002) A Multi-Agent Architecture and Protocol for Knowledge Production: A Case Study for Participative Development of Learning Objects. In: Where Parallels Intersect, Informing Science InSITE, June 2002, pp. 357-370 Dorffner G.(1991) Konnektionismus. Teubner, Stuttgart, 1991 Dou, D., McDermott, D. Qi, P. (2002) Ontology Translation by Ontology Merging and Automated Reasoning, http://citeseer.ist.psu.edu/611915.html Drescher, G. L. (1988) Learning from Experience Without Prior Knowledge in a Complicated World, In: Proceedings of the AAAI Symposium on Parallel Models. AAAI Press, 1988. Zitiert in: Franklin (1997) Dreyfus, H.L., Dreyfus, S.E. (1986a) Mind over machine – The power of human intuition and expertise in the era of the computer, New York, 1986 Eberl, U., Theis, D. (2002) Siemens Pictures of the future, Siemens AG Corporate Communications und Corporate Technology, Herbst 2002, http://www.siemens.com/index.jsp?sdc_p=t15l0s5o1184101i1147359cd1187140fmu20n1184101pFEz2&sd c_sid=14235195103& Eckes, T. (1991) Psychologie der Begriffe. Hogrefe, Göttingen. Zitiert in: Alber (2000) Edelmann, G.M. , Tononi, G. (2000) Gehirn und Geist - Wie aus Materie Bewußtsein entsteht, C.H. Beck, München Ekström, M., Björnsson, H. (2000) Automation of AEC bidding using itelligent agents. In: Proceedings of Computing in Civil and Building Engineering, pp. 558-565, 2000 Elst L.v., Aschoff F.R., Bernardi A., Maus H., Schwarz, S. (2003) Weakly-structured workflows for knowledgeintensive tasks: An experimental evaluation. In: IEEE WETICE Workshop on Knowledge Management for Distributed Agile Processes: Models, Techniques, and Infrastructure (KMDAP 2003), IEEE Computer Press, 2003, http://www.dfki.uni-kl.de/~schwarz/docs/ElstAschoffBernardiMausSchwarz2003.pdf (213) Elst, L.v., Kiesel, M. Shadbolt, N. (Hrsg.), Motta, E. (Hrsg. 2004) Generating and Integrating Evidence for Ontology Mappings. In: 14th International Conference on Knowledge Engineering and Knowledge Management, EKAW 2004, 5--8th October 2004, Springer, Heidelberg, Berlin, 2004 Eraßme, R. (2002) Mensch und Künstliche Intelligenz, Diss., Universität Hannover, 2002 Firby, J. (1987) An investigation into reactive planning in complex domains. In: Proceedings of the National Conference on Artificial Intelligence (AAAI), pp. 202–207, 1987. Zitiert in: Bryson (2000) Fischer, H.P. (1991) Von der Herausforderung das Verlernen und Umlernen zu organisieren. In: Sattelberger, T. (Hrsg.) Die lernende Organisation, Wiesbaden, 1991, pp. 229-244 Fodor, J.A., Pylyshyn, Z.W. (1988) Connectionism and cognitive architecture: A critical analysis. Cognition, 28, pp. 3 – 71. Zitiert in: Alber (2000) Forbus, K.D., Gentner, D., Markmanoe, A.B., Ferguson, R.W. (1997) Analogy just looks like high level perception: why a domain-general approach to analogical mapping is right. In: J. Expt. Theoretical Artificial Intelligence, 10(1998), pp. 231-257, 1997 Förster, H.. (1993) KybernEthik, Merve, Berlin, 1993. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/b00036.html, Aktualisiert am 18.10.2002, Abgerufen am: 03.06.2007, 17:47 Uhr GMT+2 Franklin, S. (1997) Autonomous Agents as Embodied AI. In: Cybernetics and Systems, 28:6 (1997), pp. 499-520 182 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Gabriel, G. (1993) Grundprobleme der Erkenntnistheorie. Von Descartes zu Wittgenstein. Paderborn, 1993. Zitiert in: www.uni-koblenz.de/~odsjgroe/konstruktivismus/wahrheit.htm Gagné, Robert M. (1965). The Conditions of Learning. Holt, New York, 1965 Gemmell, J., Bell, G., Lueder, R., Drucker, S., Wong, C. (2002) Mylifebits: Fulfilling the memex vision. In: ACM Multimedia December 1-6, Juan-les-Pins, France, 2002, pp. 235–238. Zitiert in: Sauermann et al. (2005) Gentner, D. (1989). The Mechanisms of Analogical Learning. In: Vosniadou , S., Ortony, A. (Eds., 1989): Similarity and Analogical Reasoning. Cambridge University Press, Cambridge, pp. 199-241, 1989 Georgeff, M.P., Lansky, A.L. (1987) Reactive reasoning and planning. In: Proceedings of the Sixth National Conference on Artificial Intelligence (AAAI-87), pp. 677–682, Seattle, 1987. Zitiert in: Bryson (2000) Glaser, B. G., Strauss, A.L. (1998) Grounded Theory. Bern, Göttingen, 1998 (150) Glasersfeld, E.v. (1978) Die erfundene Wirklichkeit. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/pd00027.html, Aktualisiert am 21.05.07, Abgerufen am: 03.06.2007, 16:36 Uhr GMT+2 Glasersfeld, E.v. (1984) An introduction to radical constructivism, in Watzlawick, P. (Hrsg.) The invented reality, pp. 17-40, New York, 1984. Zitiert in Peschl (2001) und in deutsch zusammengefasst in: http://beat.doebe.li/bibliothek/t00057.html, Aktualisiert am 05.10.2003, Abgerufen am: 03.06.2007, 17:51 Uhr GMT+2 Glasersfeld, E.v. (1987) Wissen, Sprache und Wirklichkeit.: Arbeiten zum radikalen Konstruktivismus. Autorisierte dt. Fassung von Wolfram K. Köck. Braunschweig/ Wiesbaden: Vieweg, 1987 Glasersfeld, E.v. (1991) Knowing without metaphysics. Aspects of the radical constructivist poisition. In: Steiner F. (Hrsg.) Reasearch and reflexivity, pp. 12-29, SAGE, London, CA, 1991. Zitiert in: Peschl (2001) Glasersfeld, E.v. (1995) Radical Constructivism. A way of knowing and learning, Falmer Press, London, 1995. Zitiert in: Peschl (2001) Glasersfeld, E.v. (1996) Über Grenzen des Begreifens, Benteli, 1996, Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/b00663.html, Aktualisiert am 10.04.2001, Abgerufen am: 03.06.2007, 17:57 Uhr GMT+2 Goesmann, T. (2002) Ein Ansatz zur Unterstützung wissensintensiver Prozesse durch Workflow-ManagementSysteme. Dissertation, Technische Universität Berlin, 2002, http://edocs.tu-berlin.de/diss/2002/goesmann_thomas.pdf Goldstone, R. L, Son, J. (2005) Similarity. In: Holyoak K., Morrison, R. (Hrsg.) Cambridge Handbook of Thinking and Reasoning. Cambridge: Cambridge University Press, pp. 13-36, 2005, http://cognitrn.psych.indiana.edu/rgoldsto/pdfs/similarity2004.pdf Goldstone, R.L. (1993) The role of similarity in categorization: providing a groundwork. In: Cognition, International Journal of Cognitive Sciences, 52, 1994, pp.125-157, http://cognitrn.psych.indiana.edu/rgoldsto/pdfs/sim&cat.pdf Goodman, N. (1972) Seven strictures on similarity. In: Goodmann, N. (1972) Problems and projects. BobbsMerill, New York. Zitiert in: Goldstone (1993) Gordon, M.; Pathak, P. (1999) Finding information on the World Wide Web: the retrieval effectiveness of search engines. In: Information Processing & Management, 35(2), 1999, pp. 141-180 Goshen-Gottstein, Y. (2003) Learning and Memory. In: Encyclopedia of life sciences, John Wiley & Sons, Ltd, Chichester, 2003, http://www.els.net/ [doi: 10.1038/ npg.els.0000172 ] Govindaraju, V., Xue, H. (2004) Fast Handwriting recognition for indexing historical documents. In: Proceedings of the first International Workshop on Document Image Analysis for libraries (DIAL 04), 2004 Guha, R., McCool, R., Miller, E. (2003) Semantic Search. In: Proceedings of the 12th international conference on World Wide Web, pp. 700–709, 2003. Zitiert in Lei (2006), S. 3 Grochowiak, K. (2001) Philosophische Grundrichtungen und ihre Bedeutung für die Psychotherapie, 05.2001, Fachartikel der Creative NLP Academy, Wiesbaden, 2001, http://www.cnlpa.de/presse/philo-grund.html Gronau, N., Uslar, M., Winkler, T. (2005), M-Wise: Modellierung wissensintensiver Prozesse im Software Engineering. In: Wissensmanagement in der Softwareentwicklung (WMSE05), 35. Jahrestagung der Gesellschaft für Informatik (GI) in Bonn, 2005, http://www.mwise.de/blog/wp-content/bibtex/11_bmbf_2004.pdf Gruber, T.R. (1993) A translation approach to portable ontology specifications. KnowledgeAquisition, (5):199.220, 1993, in: Moench (2003) Grundy, J. (2000) Multi-perspective specification, design and implementation of software components using aspects. In: International Journal of Software Engineering and Knowledge Engineering, Vol 10, No. 6, 2000, pp. 713-734 Guha, R., McCool, R. und Miller, E. (2003) Semantic search. WWW ’03. Proceedings of the Twelth International Conference on World Wide Web, Budapest, Hungary, May 2003 Hagen, S. (1995) Face Recognition—A Novel Technique. Master thesis, University of Heidelberg, 1995. Zitiert in: Khuwaja (2002) Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 183 Hansen, T.H., Nohria, N., Tierney, T. (1999) What’s your strategy for Managing Knowledge ?. In: Harward Business Review, March-April, S. 106-116, 1999 Harmann, D.K. (Hrsg.) (1995) Proceedings of the Third Text Retrieval Conference (TREC 3), NIST Special Publication, pp. 200-225, 1995. Zitiert in: Junker, M., Abecker, A. (1996) Einsatz Maschineller Lernverfahren für die Dokumentklassifikation. In: Dilger, W. Schlosser, M. Zeidler, J. und Ittner A. (eds.) FGML-96 Fachgruppentreffen Maschinelles Lernen. Chemnitzer Informatik-Berichte CSR-96-06, TU ChemnitzZwickau, 1996 Hars, A. (2002) Wissenschaftstheorie für Wirtschaftsinformatiker. Tutorial bei der Multi-Konferenz Wirtschaftsinformatik, Nürnberg, 2002. Zitiert in: Becker et al. (2003) Harth, A. (2004) Seco: mediation services for semantic web data. In: Intelligent Systems, IEEE Volume 19, 2004, pp. 66 – 71. Zitiert in: Sauermann et al. (2005) Hebb, D.O. (1949) The organization of behavior. Wiley, New York, 1949, in: Alber (2000) Heflin J., Hendler, J. (2000) Searching the Web with SHOE. In: Proceedings of the AAAI Workshop on AI for Web Search, pp. 35 – 40, AAAI Press, 2000. Zitiert in Lei (2006), S. 3 Hees, H. (2004). Nextbot knowledge framework. brainbot Technologies AG, 2004, http://brainbot.com/resources/dokumente/nextbot_knowledge_framework_whitepaper.pdf Helscher, R.J. (1991) Über die Praktikabilität der Verfremdung. In: Peschl, M. (Hrsg., 1991) Formen des Konstruktivismus in Diskussion. Materialien zu den "Acht Vorlesungen über den Konstruktiven Realismus". WUV, Wien, pp. 166—183, 1991 Herbert, S. (1964) Information Processing in Computer and Man. In: Ruggles (1997) S. 11-29 Herbst, D. (2000) Erfolgsfaktor Wissensmanagement. Berlin, 2000 Herlocker, J.L., Konstan J.A., Terveen, L.G., Riedl, J. (2004) Evaluating Collaborative Filtering Recommender Systems. In: ACM Transactions on Information Systems, Vol. 22, No. 1, January 2004, pp 5-53 Herrmann, T., Grabowski, J. (1994) Sprechen. Psychologie der Sprachproduktion. Spektrum Akademischer Verlag, Heidelberg, 1994. Zitiert in: Alber (2000) Herweg, M. (Hrsg. 1992) Hamburger Arbeitspapiere zur Sprachproduktion – I, http://www.informatik.uni-hamburg.de/GRK/Schriften/HerwegHrsg1992.pdf Heutte, L., Nosary, A., Paquet, T. (2004) A multiple agent architecture for handwritten text recognition. In: Pattern recognition 37, University of Rouen, pp. 665-674, 2004 Hevner, A.R., March, S. T., Park, J. Ram, S. (2004) Design Science Research in Information Systems. In: Management Information Systems Quarterly, Vol. 28, No. 1, March 2004, pp. 75-105, http://proquest.umi.com/pqdlink?did=581599791&sid=1&Fmt=2&clientId=20178&RQT=309&VName=P QD Heylighen, F. (1993). Epistemology, introduction. Principia Cybernetica. Online-Artikel, verfügbar in: http://pespmc1.vub.ac.be/EPISTEMI.html. Zitiert in: Murphy, E., Constructivist epistemology. Onlinearticle, 1997, http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr GMT+2) Hildebrand M., Ossenbruggen J.R. v., Hardman L. (2007) An analysis of search-based user interaction on the Semantic Web. CWI Report, INS-E0706, ISSN 1386-3681 Hilgard E.R., Bower G.H. (1970) Theorien des Lernens I. Stuttgart, 1970, http://www.erzwiss.uni-hamburg.de/personal/grotlueschen/lernsite/seminar1.html Hinterhuber, H.H. (1992) Strategische Unternehmensführung. de Gruyter, Berlin, New York, 1992 Ho. T.K. (1992) A Theory of Multiple Classifier Systems and Its Application to Visual Word Recognition. PhD thesis, State University of New York at Buffalo, 1992. Zitiert in: Maus (2005), S. 99ff. Hofer-Alfeis, J (2003) Measuring Knowledge and KM in an organization with an explicit top-down Knowledge Strategy. in: Positionspapier Evaluation of KM projects. Für WM2003-Konferenz, Luzern, April 2003, http://wm2003.aifb.uni-karlsruhe.de/ Höhn, R. (1979) Die Technik der geistigen Arbeit: Bewältigen der Routine - Steigerung der Kreativität. Bad Harzburg, 1979 Holsapple, C.W. (2003) Handbook on Knowledge Management,Volume 2: Knowledge directions. Springer, Berlin, Heidelberg, 2003 Holyoak, K.J. (1985) The pragmatics of analogical transfer. In: Psychology of Learning and Motivation, No. 19, pp. 59–87, 1985 Honegger, B. D. (2007) Konstruktivismus. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/w00101.html, Aktualisiert am 23.01.07, Abgerufen am: 03.06.2007, 11:54 Uhr GMT+2 Hopperdietzel, H. (2005) Kognitive Leistungsdifferenzen nach Frontal- und Gruppenorientierten Unterrichtssequenzen. Dissertation, Universität Erlangen-Nürnberg, 2005, http://deposit.ddb.de/cgibin/dokserv?idn=976176556&dok_var=d1&dok_ext=pdf&filename=976176556.pdf Horster, B.; Schneider, B.; Siedentopf, J. (1993) Kriterien zur Auswahl konnektionistischer Verfahren für betriebliche Probleme. Arbeitsbericht Nr. 15, in: Becker, J. (Hrsg.). Arbeitsberichte des Instituts für Wirtschaftsinformatik, Münster, 1993, http://www.wi.uni-muenster.de/inst/arbber/ab15.pdf 184 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Howe, J. (2006) The Rise of Crowdsourcing, 2006 Huang, W.H., Beevers, K.R. (2004) Topological Map Merging. In: Proceedings of the 7th Intl. Symp. on Distributed Autonomous Robotic Systems (DARS 2004) Järvinen, P. (2007) Action Researh is Similar to Design Science. In: Quality & Quantity, No 41, Springer, 2007, pp. 37 - 54 Johnson, P., Johnson, H. (1992) Human Computer Interaction: Psychology, Task Analysis, and Software Engineering. London, McGraw-Hill, 1992 Jonassen, D. (1991). Objectivism vs. Constructivism. Educational Technology Research and Development, 39(3), 5-14, 1991. Zitiert in: Murphy, E., Constructivist epistemology. Online-article, 1997, http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 16:51 Uhr GMT+2) Josuttis, N.M. (2008) SOA in der Praxis. System-Design für verteilte Geschäftsprozesse, Dpunkt Verlag, 2008 Jung, C.G. (1998) Emergent Mental Attitudes in Layered Agents. In: Lecture Notes In Computer Science; Vol. 1555. In: Proceedings of the 5th International Workshop on Intelligent Agents V, Agent Theories, Architectures, and Languages, pp. 195-209, 1998 Jung, C.G., Fischer, K. (1998) Methodological Comparison of Agent models. Reasearch report, RR-98-01, Deutsches Forschungszentrum für Künstliche Intelligenz, Kaiserslautern 1998, http://citeseer.ist.psu.edu/jung98methodological.html Kagolovsky, Y., Moehr J.R. (2000) Evalution of Information Retrieval: old problems and new perspectives. IN: Proceedings of 8th International Congress on Medical Librarianship. Zitiert in Aschoff und v. Elst (2001) Kakabadse, N. K. (2001) From Tacit Knowledge to Knowledge Management: Leveraging invisible assets. In: Knowledge and Process Management, Vol 8, Nr. 3, 2001, pp. 137-154 Kalfoglou, Y., Schorlemmer, M. (2003) Ontology mapping: the state of the art. In: The Knowledge Engineering Review 18:1.31, 2003 Karagiannis, D. (2001)WissensManagement: Konzepte der KI und des Softcomputings. Wien, 2001 Kenny, A. (1989) Wittgenstein, 4. Aufl., Frankfurt a.M., 1989 Kenny V., Boxer, P. (1990) The Economy of discourses: a third order cybernetics, in: Human Systems Management, Volume 9, Number 4, pp205-224, 1990 http://www.oikos.org/discourses.htm Khuwaja, G.A. (2002) An Adaptive Combined Classifier System for Invariant Face Recognition. In: Digital Signal Processing 12, pp. 21–46, 2002, doi:10.1006/ dspr.2001.0413, http://www.idealibrary.com Kiczales, G. et al. (1997) Aspect-Oriented Programming. In: proceedings of the European Conference on ObjectOriented Programming (ECOOP), Finland, Springer, Berlin, 1997. Kiefl W. und Lamnek S. (1984) Qualitative Methoden in der Marktforschung. In: Planung und Analyse, 11/ 12,1984, pp. 474-480 Kikawada, K. (2001) Knowledge Revolution in Quest of Knowledge Dynamics- How Japanese KM Leading Companies Learn in the Knowledge Community. In Next-generation Knowledge Management: Enabling business processes; Proceedings from APQC's Sixth Knowledge Management Conference, 2001, p. 95 ff. Kim, D.H. (1993) The link between Individual and Organisational Learninig. In: Sloan Management Review, Fall 1993; pp. 37-50 Klix, F. (1992) Die Natur des Verstandes. Hogrefe, Göttingen. Zitiert in: Alber (2000) Knauf, R. (2004) Künstliche Intelligenz, Fakultät für Informatik & Automatisierung, Lehrveranstaltung Künstliche Intelligenz, Technische Universität Ilmenau, 2004, http://www.theoinf.tu-ilmenau.de/ki/ki/PDF/KI-Inf-4.pdf Kneer, G., Nassehi, A. (1997) Niklas Luhmanns Theorie sozialer Systeme. München, 1997 Kohonen, T. (1984) Self-Organization and Associative Memory. Springer, Berlin, 1984. Zitiert in: Franklin (1997) König, W. (Hrsg. 2003) Taschenbuch der Wirtschaftsinfomatik und Wirtschaftsmathematik, 2. Auflage, 2003 Koriche, F. (1998) Approximate Reasoning about combined knowledge, LIRMM, University of Montpellier, http://citeseer.ist.psu.edu/cache/papers/cs/22630/http:zSzzSzwww.lirmm.frzSz~korichezSzW-DocszSzK981.pdf/koriche98approximate.pdf Kotis, K., Vouros, G. (2004) The HCONE Approach to Ontology Merging. In: The Semantic Web: Research and Applications. First European Semantic Web Symposium (ESWS 2004), pp. 137-151, 2004 http://citeseer.ist.psu.edu/kotis04hcone.html Krause, O. (2005) Performance Measurement. Diss., Technische Universität Berlin, 2005 (1000) Kreßel, U., Schürmann, J. (1995) Universelle Approximatoren in der Musterklassifikation am Beispiel der Schriftzeichenerkennung, In: tm - Technisches Messen, 62, 1995, 3, Oldenbourg Verlag, S. 95 ff. Krogh, G.F.v., Ichijo, K., Nonaka, I. (2000) Enabling Knowledge Creation, Oxford university Press, New York, 2000 Kruse, H., Mangold, R., Mechler, B., Penger, O. (1991) Programmierung Neuronaler Netze. Eine Turbo Pascal Toolbox. Addison-Wesley , Bonn 1991. Zitiert in: Alber (2000) Lambrix P., Edberg, A. (2003) Evaluation of ontology merging tools in bioinformatics. In: Proceedings of Pacific Symposium on Biocomputing, Kauai, Hawaii, 2003, pp. 589-600, http://citeseer.ist.psu.edu/563040.html Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 185 Lamnek, S. (1988) Qualitative Sozialforschung, Band 1, München, 1988 Lang, I. (1999) Strategic Knowledge Management, Higher Level Systems Ltd., 1999 http://www.assistum.com/2002/solutions/knowledge_management/knowledge_management.htm Lefrancois, G.R. (1994) Psychologie des Lernens, Springer, 1994 Lei, Y., Uren, V., Motta, E. (2006) SemSearch: A Search Engine for the Semantic Web. In: Proceedings EKAW 2006, Managing Knowledge in a World of Networks, POdebrady, Czech Republic, pp. 238-245, 2006 Leong, T. Y. (1998) Multiple perspective dynamic decision making. IN: Artificial Intelligence, Vol. 105, pp.209-261, 1998 Levelt, W.J. (1989) Speaking: From Intention to Articulation. MIT Press, Cambridge, Mass, 1989. In: Herweg, M. (Hrsg. 1992) Lewis, C.I. (1991) Mind and the World Order. Outline of a Theory of Knowledge. Charles Scribner's sons, New York, 1991 (Nachdr.). Liaw, S.-S., Geeng-Neng, Y. (2003) How search engines can facilitate individual knowledge construction. In: Adavnces in Technology-based Education: Towards a knowledge-based society, Proceedings of the II International Conference on Multimedia and Information & Communication Technologies in Education, mICTE2003, Badajoz, Spain, December 3-6th 2003, pp. 350-355, http://www.todowebextremadura.com/papers/190.pdf Liaw, S.-S., Huang, H.-M., Chen, S.-B. (2007) Building a Mobile Learning System for Individual Knowledge Construction, In: Proceeding of Internet and Multimedia Systems and Applications, 2007, http://www.actapress.com/PaperInfo.aspx?PaperID=30068 Littlejohn, S.W. , Foss K. A. (1996) Theories of human communication, 5th edition, Wadsworth, 1996, verfügbar in Google Books: http://books.google.de/books?id=0Ndt6F_G6vsC&pg=PA3&dq=littlejohn+Theories+of+human+communic ation&psp=1&sig=hDI0Jef-URwQA6QPY-sh7lXaXnk#PPA3,M1 Lopez, V., Pasin, M., Motta, E. (2005) AquaLog: An Ontology-portable Question Answering System for the Semantic Web. In Proceedings of European Semantic Web Conference (ESWC 2005), 2005. Zitiert in: Lei (2006), S. 3 Lorenz, S. (2006) Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung. Dissertation, Universität Trier, Fachbereich 4 Wirtschaftswissenschaften, 2006, urn:nbn:de:hbz:385-3770, http://ubt.opus.hbz-nrw.de/volltexte/2006/377/index.html Luck, M., McBurney, P., Preist, C. (2004) A Manifesto for Agent Technology: towards Next Generation Computing. In: Autonomous Agents and Multi-Agent Systems, 9, Kluwer, 2004, pp. 203-252 Luhmann, N. (1995) Soziologische Aufklärung 6. Die Soziologie und der Mensch. Opladen, 1995 Madhvanath, S., Govindaraju, V. (2001) The role of holistic paradigms in handwritten word recognition. In: IEEE Transactions of pattern analysis and machine intelligence, Vol. 23, No. 2, 2001 Maes, P. (1994) Agents that Reduce Work and Information Overload. In: Communications of the ACM, Vol. 37, No. 7, pp. 31-40, ACM Press, 1994. Zitiert in: Franklin (1997) Magnini, B., Serafini, L., Speranza, M. (2002) Using NLP Techniques for Meaning Negotiation. In: Proceedings of VIII Convegno AI*IA, Siena, 11-13 September 2002, http://edamok.itc.it/documents/papers/meanNeg.pdf, und http://citeseer.ist.psu.edu/526412.html Maiden, N.A.M., Spanoudakis, G., Nissen, H.W. (1996) Multi-perspective requirements engineering within NATURE. In: Requirements Eng, 1996, pp. 157-169, Springer, London, 1996 Maier, R. (2002) Knowledge Management Systems. Information and Communication Technologies for Knowledge Management. Habilitationsschrift, Springer, Berlin, Heidelberg, 2002 (190) Maier, R. (2005) Modeling Knowledge Work for the Design of Knowledge Infrastructures. In: Journal of Universal Computer Science, vol. 11, no. 4, pp. 429-451, 2005, http://www.jucs.org/jucs_11_4/modeling_knowledge_work_for/Maier_R.pdf Mandl, H. (2001) Wissensmanagement lernen. Folienpräsentation, 1. Konferenz ProfessionellesWissensmanagement 2001, WM 2001, http://wm2001.aifb.uni-karlsruhe.de/InvitedTalks/Mandl-WM-lernen.ppt (Zugriff am 28.9.02). Zitiert in: Becker, T. (2003) Knowledge-Management – ein Instrument für Öffentliche Bibliotheken?. In: Bibliothek 27.2003, Nr. 3, http://www.bibliothek-saur.de/2003_3/181-188.pdf Mangold, C. (2007) A survey and classification of semantic search approaches. In: International Journal of Metadata, Semantics and Ontology, Vol. 2, No. 1, 2007, pp. 23-34 Mangold-Allwinn, R. (1993) Flexible Konzepte. Experimente, Modelle, Simulationen. Lang, Frankfurt a.M. 1993. Zitiert in: Alber (2000) Manning, C., Schütze, H. (1999) Foundations of Statistical Natural Language Processing, MIT Press, 1999 March, S.T., Smith, G.F. (1995), Design and natural science research on information technology. In: Decision Support Systems, 15, 1995, pp. 251-266 Maresch, R. (1998) Ein Mehr von Unterscheidbarkeit-Gespräch mit Sozioloigen Baecker, D. 1998, in: http://www.heise.de/tp/deutsch/inhalt/co/2522/1.html Maturana, H. R. und Varela, F. J. (1987) Der Baum der Erkenntnis - Die biologischen Wurzeln menschlichen Erkennens, Goldmann-Verlag, Bern, München, 1987 186 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Maus, H. et al. (2005) EPOS - Evolving Personal to Organisational Knowledge Spaces, BMBF Abschlussbericht, FKZ 01 IW C01, 2005 McClelland, J. L., Kawamoto, A. H. (1986) Mechanisms of Sentence Processing: Assigning Roles to Constituents. In: McClelland, J.L., Rumelhart, D.E. (Hrsg.), Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 2, Psychological and Biological Models, MIT Press, pp. 272-325, Cambridge, MA, .1986. Zitiert in: Alber (2000) Melnik, S., Garcia-Molina, H., Rahm, E. (2002) Similarity Flooding:AVersatile Graph Matching Algorithm and ist Application to Schema Matching. In: Proceedings 18th ICDE, San Jose, CA, February 2002. Zitiert in: Elst, L.v., Kiesel, M. (2004) Generating and Integrating Evidence for Ontology Mappings. In: Motta E. et al. (Eds.): EKAW 2004, LNAI 3257, Springer, Heidelberg, pp. 15–29, 2004. Melzer, I. (2007) Service-orientierte Architekturen mit Web Services. Konzepte - Standards – Praxis, Spektrum Akademischer Verlag, 2007 Merk, S.L. (2001) Softwareagenten – mobile Agenten – Aglets. Hauptseminar Client-Server Programmierung, Informatik, Universität München, 2001 Meyer, A., Seibert, G., Wendelberger, E. (1969) Enzyklopädie 2000. Das moderne Farb-Lexikon in Folgen. Wissen Verlag. Stuttgart, Zürich, http://www.fb12.uni-dortmund.de/wtheorie/JPEG/GLOSSAR.HTM Michael, C., Nowak, F. (1975) Kleines psychologisches Wörterbuch. Herder, Freiburg, 1975 Miller, T., Agne, S., Dengel, A. (2005) eFISK – eine aufmerksamkeitsbasierte Schlüsselwort-Extraktions- und Information Retrieval-Maschine. Abschlussbericht 15202-386261/ 659, Stiftung Rheinland-Pfalz für Innovation, 2005 Mitchell, T. (1997) Machine Learning. McGraw Hill, 1997 Moench, E. (2003) SemanticMiner: Ein Integratives Ontologie-basiertes Knowledge Retrieval System. In: Proceedings of the 2nd Conference on Professional Knowledge Management. Experiences and Visions, Luzern 2.-4. April 2003, Lecture Notes in Informatics, http://sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-68/WOW2003_Moench.pdf Moghaddam, B., Wahid, W., Pentland. A. (1998) Beyond eigenfaces: Probabilistic matching for face recognition. In: Proceedings of Int'l Conference. on Automatic Face and Gesture Recognition, Nara, Japan, pp. 30— 35, April 1998. http://citeseer.ist.psu.edu/moghaddam98beyond.html Möhrle, M.G., Kellerhals, R.A. (1992) Wissenschaftliches Arbeiten mit SOKRATARIS: interaktives Erstellen von Definitionen am Personal-Computer, München; Wien, Oldenbourg Verlag, 1992. Zitiert in: Teich (1996), S. 9f. Müller, H.F.J. (2000) Begriffs-Dynamik und geschichtliche Auffassungen von Realität, Subjekt und dem Umgreifenden, Karl Jaspers Forum, Deutsche Übersetzung zum englischen Originalartikel aus der Diskussion des Karl Jaspers Forums im Internet (http://www.mcgill.ca/douglas/fdg/kjf/); in: http://helmutwalther.privat.t-online.de/ta24_dt.htm Müller, J.P. (1996) The Design of Intelligent Agents: A Layered Approach. In: Lecture Notes in Computer Science, Vol. 1177, Springer, Heidelberg, Berlin, 1996 Müller, K.-R., et al. (2001) An Introduction to kernel-based learning algorithms. In: IEEE Transactions on neural networks, Vol. 12, No. 2, March, 2001, pp. 181-202 Müller, R.K. (1988) Betriebliche Netzwerke: Kontra Hierarchie und Bürokratie. Haufe, Freiburg i.Br., 1988 Müller-Koch, U. (2007) Bewusstsein. In: Microsoft Encarta Online-Enzyklopädie, 2007, http://de.encarta.msn.com/encyclopedia_761595678/Bewusstsein.html, abgerufen am: 11.04.2008, 13:07 Uhr, GMT+1 Myers, P. (Hrsg.) (1996) Knowledge Management and Organisational Design. Butterworth-Heinemann, Oxford, 1996. Zitiert in: Kakabadse, N. K. (2001), S. 141 Nelson, R., Winter, S. G. (1982) An Evolutionary Theory of Economic Change. Cambridge, Mass, Belknap Press of Harvard University, 1982 Nielsen J., Molich, R., Snyder, C., Farrell, S. (2001) E-Commerce User Experience. Nielsen Norman Group, 2001 Nonaka, I. , Takeuchi, H. (1995) The knowledge creating company, Oxford University Press, New York, 1995 Nonaka, I., Konno, N. (1998) The Concept of `Ba': Building a Foundation for Knowledge Creation. In: California Management Review, 40(3), pp. 40-54, 1998 Nonaka, I.; Takeuchi, H. (1997) Die Organisation des Wissens. Frankfurt; New York, 1997 North, K. (2005) Wissensorientierte Unternehmensführung. Wertschöpfung durch Wissen. Gabler, Wiesbaden, 2005 Novak, J., Cuel, R., Sarini, M., Wurst, M. (2004) A tool for supporting knwoledge creation and exchange in knowledge intensive organisations. In: Proceedings of I-KNOW 04, Graz, 2004, pp. 311-319 Novy A., Jäger, J. (2003) Internationale Politische Ökonomie, Online-Skript. Projekt Lateinamerika-Studien Online im Österreichischen Lateinamerika-Institut, Wien, 2003, http://www.lateinamerika-studien.at/content/wirtschaft/ipo/pdf/wisstheorie.pdf O’Reilly, T. (2005), What Is Web 2.0: Design Patterns and Business Models for the Next Generation of Software, Online-article, http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 187 Ofek, E.; Sarvary, M (2002) Knowledge Exchange and Knowledge Creation: Should the emphasis shift in a competitive environment; INSEAD Working paper, Fountainbleau, Februar 2002, http://ged.insead.edu/fichiersti/inseadwp2002/2002-21.pdf Ogston, E., Vassiliadis, S. (2001) Matchmaking Among Minimal Agents Without a Facilitator. In: Proceedings of the Fifth International Conference on Autonomous Agents, pp. 608-615, 2001, http://citeseer.ist.psu.edu/ogston01matchmaking.html Opielka, M. (2006) Gemeinschaft in Gesellschaft: Soziologie nach Hegel und Parsons, VS Verlag, 2006 Ostwald J. (1996) Knowledge Construction in Software Development: The Evolving Artifact Approach”, Diss, 1996, University of Colorado; http://l3d.cs.colorado.edu/~ostwald/thesis/theory.html Parunak, H., et al. (1998) The AARIA Agent Architecture: From Manufacturing - Requirements to Agent-Based System Design. In: Workshop on Agent-Based Manufacturing, ICAA’98, Minneapolis, MN, 10 May 1998. Pawlowsky, P. (1994) Wissensmanagement in der lernenden Organisation. Habilitationsschrift, Universität Paderborn, Paderborn, 1994 Pedersen, K.V. (2004) Context-based support for linical reasoning. In: Proceedings of I-KNOW 04, Graz, 2004, S.397-404 Peirce, C.S. (1976) Schriften zum Pragmatismus und Pragmatizismus. Frankfurt, Suhrkamp, 1976 Peirce, C.S. (1966) Collected Papers. Belknap Press of Harvard University Press, Cambridge 1958-1966 (Nachdr.) Peschl, F.-M. (2001) Constructivism, Cognition and Science - an investigation of its links and possible shortcomings, in: Foundations of Science, special issue on The impact of radical constructivism on science, edited by A. Riegler, vol. 6, no 1-3, pp. 125-161, 2001 Piaget, J. (1967) Psychologie der Intelligenz. Zürich, 1967 Piaget, J. (1973). Einführung in die genetische Erkenntnistheorie, Aus dem Amerikanischen von Friedhelm Herborth, Suhrkamp, 1973. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/pd00027.html, Aktualisiert am 21.05.07, Abgerufen am: 03.06.2007, 16:36 Uhr GMT+2 Pipek, V., Nuderscher, P., Won, M. (2003) Periphere Wahrnehmung von Expertise. In: Tagungsband: Mensch und Computer 2003, Stuttgart, pp. 219-228, 2003 (165) Pitasi, A. (2002) Constructing Communication. Interview with Ernst v. Glasersfeld, Published for the Radical Constructivism Homepage, by Alex Riegler, 2002, http://www.univie.ac.at/constructivism/papers/glasersfeld/glasersfeld01-interview.html Plato (1953) Phaedo. Zitiert in: Plato I (translated by Cowler H.N.). Harvard University Press, Cambridge, MA, pp. 117-124. Zitiert in: Kakabadse, N. K. (2001), S. 138 Pörksen B. (2001) Abschied vom Absoluten. Gespräche zum Konstruktivismus. Carl-Auer-Systeme Verlag, 2001 Prawat, R. (1996) Constructivisms, modern and postmodern. In Educational Psychology, 31(3/4), pp. 215-225. Zitiert in: Murphy, E., Constructivist epistemology. Online-article, 1997, http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr GMT+2) Preece, A.D., Hui,L. Gray, W.A. Marti, P., Bench-Capon, T.J.M. Jones, D.M. Cui, Z. (2000) The KRAFT architecture for knowledge fusion and transformation. In: Knowledge Based Systems, 13(2-3):113–120, 2000. Zitiert in: Elst et al. (2004) Primio, F. (1998) Roboterkognition, GMD Report 16, Sankt Augustin, 1998 Probst, G., Raub, S., Romhardt, K. (1997): Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen, Wiesbaden, 1997 Quan, D., Huynh, D., Karger, D.R. (2003) Haystack: A platform for authoring end user semantic web applications. In: International Semantic Web Conference, 2003, pp. 738–753. Zitiert in: Sauermann et al. (2005) Ramhorst, D. (2001) A Guided Tour through the Siemens Business Services Knowledge Management Framework. In: Journal of Universal Computer Science, vol. 7, no. 7, 2001, pp. 610-622 Ratzinger, J. (1968) Einführung in das Christentum; München, 1968, Kapitel der Einführung, Ich glaube Amen, ISBN 3-466-20455-0 Rehäuser, J., Krcmar, H. (1996) Wissensmanagement einer Unternehmung. In: Schreyögg, G., Conrad, P. (Hrsg.) Managementforschung 6, Berlin, New York, 1996, S. 1-40 Reidsma D., Kuper J., Declerck, T., Saggion H., Cunningham.H. (2003) Cross Document Ontology based Information Extraction for Multimedia Retrieval, http://citeseer.ist.psu.edu/reidsma03cross.html Reilly, T. (2002) Value-Added Selling: How to Sell More Profitably, Confidently, and Professionally by Competing on Value, Not Price, McGraw-Hill, New York, 2002 Reimer, U. Novotny, B. Staudt. M. (2001) Micro–modeling of business processes for just–in–time knowledge delivery. In: Roy, R. (Hrsg. 2001) Industrial Knowledge Management: A Micro–Level Approach. Springer, Heidelberg, Berlin, 2001. Zitiert in: Elst et al. (2004) Reinmann-Rothmeier, G. (2001) Wissen managen: Das Münchener Modell. Forschungsberichte Nr. 131, Lehrstuhl für Empirische Pädagogik und Pädagogische Psychologie, Ludwigs-Maximilians-Universität München, 2001, http://www.wissensmanagement.net/download/muenchener_modell.pdf 188 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Reinmann-Rothmeier, G., Mandl, H. (1996) Lernen auf der Basis des Konstruktivismus. Wie Lernen aktiver und anwendungsorientierter wird. In: Computer und Unterricht, 23, 1996, pp. 41-44 Rickheit, G., Strohner, H. (1993) Grundlagen der kognitiven Sprachverarbeitung.Francke, Tübingen, 1993. Zitiert in: Alber (2000) Riedl, R. (2000) Strukturen der Komplexität, Springer, Berlin, Heidelberg, New York, 2000. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/pd00178.html, Aktualisiert am 22.04.07, Abgerufen am: 03.06.2007, 16:25 Uhr GMT+2 Rieger B.B. (2002) Bedeutungskonstitution und semantische Granaluation. In: Pohl, I. (Hrsg., 2002) Prozesse der Bedeutungskonstruktion. Frankfurt u.a., pp. 407-444, 2002, http://www.ldv.unitrier.de/ldv_archiv/http/www/public_html/ldvpage/rieger/pub/aufsaetze/landau00/landau00.pdf.gz Riempp, G. (2004). Integrierte Wissensmanagement-Systeme. Architektur und praktische Anwendung (Business Engineering). Springer, Berlin, Heidelberg 2004 (179) Roche Lexikon Medizin (2003), 5.Aufl., Elsevier - Urban und Fischer, München, Jena 2003 Romhard, K. (1995) Das Lernanenakonzept – ein Ansatz zum Management organisatorischer Lernprozesse in der Unternehmenspraxis. Cahier de recherche, HEC, Genf, 1995 Roth G. (2001) Fühlen - Denken - Handeln. Wie das Gehirn unser Verhalten steuert, Suhrkamp, Frankfurt, 2001 Roth, G. (1994) Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen, Suhrkamp, Frankfurt, 1994 Routledge Encyclopedia of Philosophy (1998) Learning. Version 1.0, London, 1998 Ruggles, R.L. (1997) Knowledge Management Tools. Newton, 1997 Rumelhart, D. E., McClelland, J. L. (1986) On Learning the Past Tenses of English Verbs. In: J. L. McClelland & D. E. Rumelhart (Hrsg.), Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 2, Psychological and Biological Models (S. 216-271). MIT Press, Cambridge, MA, 1986. Zitiert in Alber (2000) Rumelhart, D. E., Smolensky, P., McClelland, J. L., Hinton, G. E. (1986) Schemata and Sequential Thought Processes in PDP Models. In: McClelland, J.L., Rumelhart, D.E. (Hrsg.), Parallel Distributed Processing. Explorations in the, Microstructure of Cognition. Volume 2, Psychological and Biological Models, MIT Press, pp. 272-325, Cambridge, MA, .1986. Zitiert in: Alber (2000) Runte, M. (2000) Personalisierung im Internet - Individualisierte Angebote mit Collaborative Filtering, Dissertation, Universität Kiel, Deutscher Universitätsverlag, Wiesbaden. http://www.runte.de/matthias/publications/personalisierung_im_internet.pdf Sachs, L. (1997) Angewandte Statistik, 1997, 8.Auflage, Springer, Berlin, Heidelberg. Salton, G. (1968) Automatic information organization and retrieval. McGraw Hill, New York, 1968. Zitiert in: Maus et al. (2005) Samaria, A. S. (1994) Face Recognition Using Hidden Markov Models. Ph.D. Dissertation, Trinity College, Cambridge University, Cambridge, UK, 1994. Zitiert in: Khuwaja (2002) Sauermann, L. (2003) The Gnowsis – using semantic web technologies to build a semantic desktop. Diploma thesis, Technical University of Vienna, 2003 Sauermann, L., Bernardi, A., Dengel, A. (2005). Overview and outlook on the semantic desktop, in: Stefan Decker, Jack Park, D.Q., Sauermann, L., eds.: Proceedings of the 1st Workshop on The Semantic Desktop at the ISWC 2005 Conference. Available: http://www.Gnowsis.org Sauermann, L., Dengel, A., van Elst, L., Lauer, A. Maus, H., Schwarz S. (2006) Personalization in the EPOS project. In: Proceedings of the Semantic Web Personalization Workshop at the ESWC Conference, 2006 Sauermann, L., van Elst, L., Dengel, A. (2007) PIMO – a Framework for Representing Personal Information Models. In: Pellegrini, T. und Schaffert, S. (2007) Proceedings of I-Semantics ’07, pp. 270-277, http://www.dfki.uni-kl.de/auermann/papers/sauermann+2007b.pdf Schamanek, A. (1998) Management & Umwelt, Skriptum zu Vorlesung des Intituts für Statistik, OR & Computerverfahren am BWZ der Universität Wien zum Thema Umwelt Management Austria: Einführung in Komplexe Dynamische Systeme, 26.01.1998, http://www.ams.smc.univie.ac.at/~schamane/kds/sth/sthov.htm, Abgerufen: 03. Juni, 11:46 Uhr GMT+2 Schischkoff, G. (1991) Philosophisches Wörterbuch. Alfred Kröner Verlag, 22. Aufl., Stuttgart 1991, in: http://www.fb12.uni-dortmund.de/wtheorie/JPEG/GLOSSAR.HTM Schlimmer, J, Granger R. (1996) Incremental learning from noisy data. In: Machine Leanring, 1(3), 1996, pp. 317-354. Zitiert in: Harries, M., Horn, K., Sammut, C. (1998). Extracting hidden context. In: Machine Learning, 32(2), August 1998, http://citeseer.ist.psu.edu/harries98extracting.html Schmid, U. (2002) Aus Erfahrung schlau. In: Gehirn und Geist, Nr. 3, 2002, pp.50-52 Schmidt, S. J. (1996) Kognitive Autonomie und soziale Orientierung. Konstruktivistische Bemerkungen zum Zusammenhang von Kognition, Kommunikation, Medien und Kultur. Frankfurt a.M., 1996 Schmidt, S. J.; Feilke, H. (1995) Denken und Sprechen: Anmerkung zur strukturellen Kopplung von Kommunikation und Kognition. In: Trabant, I. (Hrsg. 1995) Sprache denken. Positionen aktueller Sprachphilosophie. Frankfurt a.M., S. 269-297, 1995 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 189 Schmidt, S.J. (1995) (Radikaler) Konstruktivismus - Wie Wirklichkeit wirklich wird. In: Der blaue Reiter, Journal für Philosophie, Nr. 2, 1995, S. 30-33 Schmidt, S.J. (1998) Die Zähmung des Blicks. Konstruktivismus – Empirie – Wissenschaft. Suhrkamp, Frankfurt, 1998. Zitiert in: Peschl (2001) Schmidt-Salomon, M. (1997) Erkenntnis aus Engagement, Online-Artikel, Butzweiler/ Trier, 1997, http://www.schmidt-salomon.de/erk5.htm (abgerufen am: 03.06.2007, 12:47 Uhr GMT+2 Schnapp, K-U. (2004) Einführung in die Wissenschaftstheorie. Vorlesungsskript, Universität Halle-Wittenberg, Lehrbereich Methoden der Politikwissenschaft, 2004, http://www.politik.uni-halle.de/schnapp/lehre/M1/SkripteFolien/A_Einf_WissTheo/2_EinfWissTheorie.pdf Scholl, W. (1990) Die Produktion von Wissen zur Bewältigung komplexer orgnisatorischer Situationen. In: Fisch R., Boos, M. (Hrsg, 1990) Vom Umgang mit Komplexität in Organisationen, Universitätsverlag Konstanz, Konstanz, pp. 107-128, 1990 Schukat-Talamazzini, E.G. (1995) Automatische Spracherkennung - Grundlagen, statistische Modelle und effiziente Algorithmen. Vieweg, 1995, ISBN 3-528-05492-1 Schwarz, M. (1992) Einführung in die Kognitive Linguistik. Francke, Tübingen, 1992. Zitiert in: Alber (2000) Schwarz, S. (2006) A Context Model for Personal Knowledge Management Applications. In: Roth Berghofer, T., Schulz, S. und Leake, D.B. (2006) Modeling and Retrieval of Context. Lecture Notes in Computer Sciences, Second International Workshop MRC 2005, Springer, Edingurgh, UK, July 31 – August 1, 2005, pp. 18-33, http://www.springerlink.com/content/4526400657457v8t/ Shadbolt, N., O'Hara, K. Crow, L. (1999). The experimental evaluation of knowledge acquisition techniques and methods: history, problems and new directions. In: International Journal of Human-Computer Studies, 51, pp. 729-755. Zitiert in: Aschoff und van Elst (2001) Siebert, M. (2005) Knowledge Creation Framework enabling just-in-time information delivery. In: Althoff, K.D., Dengel, A., Bergmann, R., Nick, M., Roth-Berghofer, T., eds.: Wissensmanagement, DFKI, Kaiserslautern, pp. 642-647, 2005 Siebert, M., Smits P., Sauermann, L., Dengel, A. (2006) Increasing Search Quality with the Semantic Desktop in Proposal Development. In: Proceedings of the Practical Aspects of Knowledge Management (PAKM) conference, Wien, Springer, Berlin und Heidelberg, 2006 Siebert, M., Smits P., Sauermann, L., Dengel, A. (2006a) Personalized document retrieval in multi-party environments with the Semantic Desktop. In: Proceedings EDM, 10th IEEE Int. Workshop on the Electronic Document Management in an Enterprise Computing Environment, Hong Kong, China, 2006 http://doi.ieeecomputersociety.org/10.1109/EDOCW.2006.55 Siegel, S. (2001) Nichtparametrische statistische Methoden. Eschborn, 2001 Smith, R. G. (1980) The Contract Net Protocol: High-Level Communication and Control in a Distributed Problem Solver. In: IEEE Trans. On Computers, 29(12), pp. 1104-1113, December 1980. Zitiert in: Ogston und Vassiliadis (2001) Smith, R.G., Farquhar, A. (2000) The Road ahead for Knwoledge Management: An AI Perspective. In: AI Magazine, Vol 21; Nr. 4; Winter 2000, pp 17-40 Smolensky P. (1988) On the proper Treatment of Connectionism, Behavioral and Brain Sciences 11(88), 1988, S.1-74 Smolensky, P. (1986) Information Processing in Dynamical Systems: Foundations on Harmony Theory. In: Rumelhart D.E., McClelland, J.L. (Hrsg. 1986) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 1, Foundations, pp. 194-281, MIT Press, Cambridge, MA. Zitiert in: Alber (2000) Smolnik, S., Riempp G. (2006) Google vs. Semantic Web: Nutzenbetrachtungen von Technologien zur Strukturierung und zum Retrieval von Informationen. In: Mit Wissensmanagement besser im Wettbewerb!, Tagungsband zur KnowTech 2006, 8. Konferenz zum Einsatz von Wissensmanagent in Wirtschaft und Verwaltung, München, 25./ 26. Oktober 2006, S. 101-108, http://www.knowtech.net Smyth, M. M. et al. (1994) Cognition in Action, Second Edition, Hove Sowa, J.F (1984) Conceptual Structures. Addison-Wesley, Reading, 1984. Zitiert in: Lorenz (2006) Stahl, G. (1993) Interpretation in Design: The Problem of Tacit and Explicit Understanding in Computer Support of Cooperative Design. University of Colorado at Boulder, Ph.D. dissertation, 1993. Zitiert in: Ostwald (1996) Stangl, W. (1997) Grundformen des Lernens, Arbeitsblätter, Universität Linz, 1997, http://paedpsych.jk.unilinz.ac.at/INTERNET/ARBEITSBLAETTERORD/LERNTECHNIKORD/Lernen.html Starke, G., Tilkov, S. (Hrsgs. 2007) SOA-Expertenwissen, Dpunkt Verlag, 2007 Steffe, L., Gale, J. (Hrsg., 1995) Constructivism in education. New Jersey, Lawrence Erlbaum Associates. Zitiert in: Murphy, E., Constructivist epistemology. Online-article, 1997, http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr GMT+2) Steward T.A. (2001) The role of intellectual capital in economic success. in Next-generation knowledge Management: Enabling business processes. Proceedings from APQC's Sixth Knowledge Management Conference, 2001, p. 32ff. (12) 190 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Stormer, H., Knorr, K. (2001) AWA-eine Architektur eines agenten-basierten Workflow-systems, Universität Zürich, 2001, http://www.ifi.unizh.ch/~knorr/documents/p_wi2001.pdf Strauss, A., Corbin, J. (1990) Basics of Qualitative Research: Grounded Theory Procedures and Techniques. Newbury Park, CA: Sage Publications, 1990 Strecker, S., Schwickert, A.C. (2000) Künstliche Neuronale Netze. Arbeitspapiere WI, Lehrstuhl für allg. BWL und Wirtschaftsinfomatik, Universität Mainz, 2000 Studer, R. et al. (2001) Arbeitsgerechte Bereitstellung von Wissen - Ontologien für das Wissensmanagement. Technical Report , Institut AIFB, Universität Karlsruhe, 2001, http://www.aifb.unikarlsruhe.de/WBS/ysu/publications/2001_wiif.pdf (abgerufen am: 07.06.2007, 19:15 Uhr GMT+2) Stumme, G. (2005) Ontology Marging with Formal Concept Analsis. In: Dagstuhl Seminar Proceedings 04391, http://drops.dagstuhl.de/opus/volltexte/2005/49 Stumme, G., and Maedche, A. (2001) FCA-MERGE: Bottom-up merging of ontologies. In IJCAI, 225.234, 2001. Zitiert in: Hitzler, P., Krцtzsch, M., Ehrig, M., Sure, Y. (2006) What is ontology merging ? - a category-theoretical perspective using pushouts. In: Proceedings of C&O'06 Contexts and ontologies: theory, practice and applications', 2006 (705) Sweats, J.A. (1969) Effectiveness of Information Retrieval methods. In: Amer Doc. 20, 1969, pp. 72-89 Tani, J., Nolfi, S. (1999) Learning to perceive the world articulated: an approach for hierarchical learning in sensory-motor systems. In: Neural Networks 12, 1999, pp. 1131-1141. Zitiert in: Herlocker et al. (2004, S. 25) Tefas, A., Kotropoulos C., Pitas, I. (1998) Face verification based on morphological shape decomposition. In: Proceedings of 3rd Int. Workshop on Face and Gesture Recognition, pp. 36-41, 1998, http://citeseer.ist.psu.edu/tefas98face.html Teich, I. (1996) Wege zu lernenden Organisation: eine Literaturstudie auf Basis der Grounded Theory, Diss., Universität Erlangen-Nürnberg, 1996 Thomas, R. K. (1993) Squirrel Monkeys, Concepts and Logic. In Burton, R. G. (Hrsg.) Natural and Artificial Minds, State University of New York Press, 1993. Zitiert in: Franklin (1997) Trochim, W. (1985). Pattern matching, validity and conceptualization in program evaluation. In: Evaluation Review, Vol. 9, No. 5, 1985, pp. 575-604, http://www.socialresearchmethods.net/research/Pattern%20Matching,Validity,%20and%20Conceptualizatio n.PDF Turban, E.(1992) Experts Systems and applied artificial intelligence, McMillan, New York, 1992. Zitiert in: Kakabadse, N. K. (2001), S. 141 Uexküll, J.v. (1928) Theoretische Biologie. Springer, Berlin 1928. Zitiert in Ziemke (2000), S.7 Van der Spek R. und Spijkervet, A. (1997) Knowledge management dealing intelligently with knowledge. In Knowledge managemet and its integrative elements, Liebowitz J., Wilcox, L. (Hrsg.) CRC Press London, 1997, pp. 114-123. Zitiert in: Kakabadse, N. K. (2001), S. 141 Varnholt, A. (2004) semantikbrowser. mediaDIALOG, Siegen, 2004 Vierecke, A. (2007) Konstruktivismus (Philosophie). In: Microsoft Encarta Online-Enzyklopädie, 2007, http://de.encarta.msn.com/encyclopedia_721543633/Konstruktivismus_(Philosophie).html, abgerufen: 11.April 2008, 12:22 Uhr, GMT Vollmer G. (2002) Evolutionäre Erkenntnistheorie, 8. Aufl., Stuttgart, 2002 Vulkan, N., Jennings, N.R. (2000) Efficient Mechanisms for the Supply of Services in Multi-Agent Environments. In: Int. Journal of Decision Support Systems, 28(1-2), pp. 5-19, 2000. Zitiert in: Ogston und Vassiliadis (2001) Wadsworth, Y. (1998) What is Participatory Action Research ? in: Action research international, Southern Cross Institute of Action Research and Southern Cross University Press, ISSN 1445-6125, 1998, http://www.uq.net.au/action_research/ari/p-ywadsworth98.html Wagner, T., Göhner P., Paulo G. Urbano, A. de. (2003) Softwareagenten - Einführung und Überblick über eine alternative Art der Softwareentwicklung. Teil I: Agentenorientierte Softwareentwicklung. In: atp - Automatisierungstechnische Praxis 45, Heft 10, 2003 Watson, I., Marir, F. (1994) Case-Based Reasoning: A Review. In: The Knowledge Engineering Review, Vol. 9, No. 4, Cambridge University Press, pp. 355-381, 1994 Watzlawick, P., Beavin, J., Jackson, D. (1985) Menschliche Kommunikation. Bern, Stuttgart, Wien, 1985 Weick, K.E. (1985) Cosmos vs. Chaos: Sense and Nonsense in electronic contexts. In: Organisational Dynamics, New York, pp. 247-260, 1985. Zitiert in: Ruggles (1997) Wiig, K. (1993) Knowledge Management Foundation, Schema Press, New York, 1993. Zitiert in: Kakabadse, N. K. (2001), S. 141 Wilber, K. et al. (Hrsg. 1982) Das holographische Weltbild - Wissenschaft und Forschung auf dem Weg zu einem ganzheitlichen Weltverständnis - Erkenntnisse der Avantgarde der Naturwissenschaftler, 1982 Will, M., Lech, T., Klein, B. (2004) Pervasive Knowledge Discovery: continuous Lifelong Learning by Matching Needs, Requirements and Resources. In: Proceedings of I-KNOW 04, Graz, 2004, pp.361-377 Willke, H (2001) Wissensmanagement als Geschäftsprozess - Eine Einführung mit Beispielen aus der Finanzwirtschaft. In: Roßbach, H. (2001) Management der Ressource Wissen in Banken, 2001, pp. 13-30 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 191 Wilson, E.O. (1998) Die Einheit des Wissens, Siedler Verlag, Berlin, 1998 Wilson, G. (2001) Proposal Automation Tools, in: Proposal Management Journal, Spring 2001, pp. 67-73 Woitsch, R., Karagiannis, D. (2004) Process-oriented Knowledge Management: A service based approach. In: Proceedings of I-KNOW 04, Graz, 2004, pp. 408-415, http://www.know-center.tugraz.at/previous/iknow04/papers/woitsch.pdf Woolf, H. (1990) Webster’s New World Dictionary of the American Language. G. und C. Merriam, New York, 1990, in: Kakabadse, N. K. (2001), S. 141 Womser-Hacker, C. (1989) Der PADOK Retrievaltest. Zur Methode und Verwendung statistischer Verfahren bei der Bewertung von Information-Retrieval-Systemen. Hildesheim, 1989 Yin, R.K. (2003) Case study research – Design and methods, 3. Auflage, London, New Dehli, 2003 Zeilbeck, R., Franz , J. (2005) Siemens Scenarios. Semantically Enabled Knowledge Technologies. In: EU-IST Project IST-2003-506826 SEKT, September 2005 Zell, A. (1994) Simulation Neuronaler Netze, Addison-Wesley, 1994 - ISBN 3-89319-554-8 Zhang, P., (2000) Neural Networks for Classification: A Survey. In: IEEE Transactions on systems, man, and cybernetics – part C Applications and reviews, Vol. 30, No. 4, November 2000, pp. 451-462 Ziemke, T. (2000) Construction of reality in the robot: Constructivist Perspective on situated artificial intelligence and adaptive robotics. In Foundations of Science, special issue on The impact of radical contrcutivism on science, Riegler, A. (Hrsg.), vol. 6, no. 1-3, pp. 163-233 Zöfel, S. (2001) Statistik verstehen. 2001 192 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 193 Anhang: Einzelne Testergebnisse Suche mit Livelink Tabelle: Ergebnisse für „Cost Reduction“ Cost Reduction LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M 155 81 89 140 96 155 P (found) Q 14 7 9 11 10 14 141 74 80 129 86 141 1337 14 8 10 13 12 17 4327 200 Ma (correct accept) Qa (false accept) 10 7 9 10 9 12 11 12 4 1 1 3 3 5 9 8 (correct reject) 4 0 0 1 1 2 -11 -12 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 137 73 79 126 83 136 -9 1329 0,71 0,88 0,90 0,77 0,75 0,71 0,00 0,06 0,71 1,00 1,00 0,91 0,90 0,86 0,03 0,01 0,01 0,02 0,03 0,04 F-Wert 0,71 0,93 0,95 0,83 0,82 0,77 45,10 39,00 c/b measure 6 6 7 6 7 2 4 Tabelle: Ergebnisse für „Business Efficiency“ Business Efficiency LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N 155 81 89 140 96 155 1337 M P (found) Q 5 4 4 5 4 5 150 77 85 135 92 150 12 6 6 7 8 9 10505 122 Ma (correct accept) Qa (false accept) 5 4 4 5 4 5 9 9 7 2 2 2 4 4 11 11 (correct reject) 0 0 0 0 0 0 -9 -9 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 143 75 83 133 88 146 -11 1326 0,42 0,67 0,67 0,71 0,50 0,56 0,00 0,07 1,00 1,00 1,00 1,00 1,00 1,00 0,05 0,03 0,02 0,01 0,04 0,03 F-Wert 0,59 0,80 0,80 0,83 0,67 0,71 54,90 54,90 c/b measure -2 2 2 3 0 1 -2 -2 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 194 Tabelle: Ergebnisse für „Callcenter“ Callcenter LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M 155 81 89 140 96 155 P (found) Q 3 3 3 3 3 3 152 78 86 137 93 152 1337 12 4 5 5 5 6 971 160 Ma (correct accept) 3 3 3 3 3 3 13 12 Qa (false accept) 9 1 2 2 2 3 7 8 (correct reject) 0 0 0 0 0 0 -13 -12 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 143 77 84 135 91 149 -7 1329 0,25 0,75 0,60 0,60 0,60 0,50 0,01 0,08 1,00 1,00 1,00 1,00 1,00 1,00 0,06 0,01 0,02 0,01 0,02 0,02 F-Wert 0,40 0,86 0,75 0,75 0,75 0,67 32,50 39,00 c/b measure -6 2 1 1 1 0 6 4 Tabelle: Ergebnisse für „Helpdesk“ Helpdesk LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M 155 81 89 140 96 155 P (found) Q 4 2 2 4 2 4 151 79 87 136 94 151 1337 6 4 4 5 5 6 1184 96 Ma (correct accept) 3 2 2 3 2 3 15 17 Qa (false accept) 3 2 2 2 3 3 5 3 (correct reject) 1 0 0 1 0 1 -15 -17 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 148 77 85 134 91 148 -5 1334 0,50 0,50 0,50 0,60 0,40 0,50 0,01 0,18 0,75 1,00 1,00 0,75 1,00 0,75 0,02 0,03 0,02 0,01 0,03 0,02 F-Wert 0,60 0,67 0,67 0,67 0,57 0,60 19,50 8,50 c/b measure 0 0 0 1 -1 0 10 14 Tabelle: Ergebnisse für „Infrastructure“ Infrastructure LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N 155 81 89 140 96 155 1337 M P (found) Q 8 4 5 6 6 8 147 77 84 134 90 147 15 7 8 9 8 10 769 252 Ma (correct accept) 7 4 5 5 5 6 12 13 Qa (correct (false reject) accept) 8 3 3 4 3 4 8 7 1 0 0 1 1 2 -12 -13 (false Precision Recall (r) Fallout F-Wert reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 139 74 81 130 87 143 -8 1330 0,47 0,57 0,63 0,56 0,63 0,60 0,02 0,05 0,88 1,00 1,00 0,83 0,83 0,75 0,05 0,04 0,04 0,03 0,03 0,03 0,61 0,73 0,77 0,67 0,71 0,67 39,00 32,50 c/b measure -1 1 2 1 2 2 4 6 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 195 Tabelle: Ergebnisse für „Communication“ Communication Gesamtmenge N LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) M P (found) Q Ma (correct accept) Qa (false accept) (correct reject) (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) F-Wert c/b measure 155 81 89 140 96 8 5 6 8 5 147 76 83 132 91 15 5 6 10 7 4 4 4 6 4 11 1 2 4 3 4 1 2 2 1 136 75 81 128 88 0,27 0,80 0,67 0,60 0,57 0,50 0,80 0,67 0,75 0,80 0,07 0,01 0,02 0,03 0,03 0,35 0,80 0,67 0,67 0,67 -7 3 2 2 1 155 8 147 12 16989 129 6 7 15 6 13 5 2 -7 -15 141 -13 1332 0,50 0,00 0,12 0,75 0,04 0,60 59,50 19,50 0 -6 10 1337 Tabelle: Ergebnisse für „SAP R3“ SAP R3 Gesamtmenge N LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) M 155 81 89 140 96 155 P (found) Q 9 7 8 8 8 9 146 74 81 132 88 146 1337 18 5 6 10 11 16 18206 22 Ma (correct accept) 4 5 5 6 7 8 10 17 Qa (false accept) 14 0 1 4 4 8 10 3 (correct reject) 5 2 3 2 1 1 -10 -17 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 132 74 80 128 84 138 -10 1334 0,22 1,00 0,83 0,60 0,64 0,50 0,00 0,77 0,44 0,71 0,63 0,75 0,88 0,89 0,10 0,00 0,01 0,03 0,05 0,05 F-Wert 0,30 0,83 0,71 0,67 0,74 0,64 50,50 8,50 c/b measure -10 5 4 2 3 0 0 14 Tabelle: Ergebnisse für „RFID“ RFID LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N 155 81 89 140 96 155 1337 M P (found) Q 6 2 2 6 2 6 149 79 87 134 94 149 18 2 2 7 3 8 5906 185 Ma (correct accept) 4 2 2 5 2 5 9 16 Qa (false accept) 14 0 0 2 1 3 11 4 (correct reject) 2 0 0 1 0 1 -9 -16 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 135 79 87 132 93 146 -11 1333 0,22 1,00 1,00 0,71 0,67 0,63 0,00 0,09 0,67 1,00 1,00 0,83 1,00 0,83 0,09 0,00 0,00 0,01 0,01 0,02 F-Wert 0,33 1,00 1,00 0,77 0,80 0,71 54,90 13,60 c/b measure -10 2 2 3 1 2 -2 12 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 196 Tabelle: Ergebnisse für „Voice Data Solution“ Voice Data Solution LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M 155 81 89 140 96 155 P (found) Q 4 2 3 3 3 4 151 79 86 137 93 151 1337 7 3 4 3 4 4 4234 170 Ma (correct accept) 3 2 2 2 3 3 13 7 Qa (false accept) 4 1 2 1 1 1 7 13 (correct reject) 1 0 1 1 0 1 -13 -7 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 147 78 84 136 92 150 -7 1324 0,43 0,67 0,50 0,67 0,75 0,75 0,00 0,04 0,75 1,00 0,67 0,67 1,00 0,75 0,03 0,01 0,02 0,01 0,01 0,01 F-Wert 0,55 0,80 0,57 0,67 0,86 0,75 32,50 59,50 c/b measure -1 1 0 1 2 2 6 -6 Tabelle: Ergebnisse für „Outsourcing“ Outsourcing LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N M 155 81 89 140 96 155 P (found) Q 41 13 18 32 22 41 114 68 71 108 74 114 1337 46 15 21 31 25 41 20828 127 Ma (correct accept) 30 12 17 25 20 33 11 19 Qa (false accept) 16 3 4 6 5 8 9 1 (correct reject) 11 1 1 7 2 8 -11 -19 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 98 65 67 102 69 106 -9 1336 0,65 0,80 0,81 0,81 0,80 0,80 0,00 0,15 0,73 0,92 0,94 0,78 0,91 0,80 0,14 0,04 0,06 0,06 0,07 0,07 F-Wert 0,69 0,86 0,87 0,79 0,85 0,80 45,10 1,90 c/b measure 14 9 13 19 15 25 2 18 Tabelle: Ergebnisse für „Financial Market“ Financial Market LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) Gesamtmenge N 155 81 89 140 96 155 1337 M P (found) Q 24 12 13 22 14 24 131 69 76 118 82 131 7 10 11 22 13 25 293 154 Ma (correct accept) 3 10 11 19 12 21 12 12 Qa (false accept) 4 0 0 3 1 4 8 8 (correct reject) 21 2 2 3 2 3 -12 -12 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 127 69 76 115 81 127 -8 1329 0,43 1,00 1,00 0,86 0,92 0,84 0,04 0,08 0,13 0,83 0,85 0,86 0,86 0,88 0,03 0,00 0,00 0,03 0,01 0,03 F-Wert 0,19 0,91 0,92 0,86 0,89 0,86 39,00 39,00 c/b measure -1 10 11 16 11 17 4 4 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 197 Tabelle: Ergebnisse für „Kunde1“ Kunde1 Gesamtmenge N M 155 81 89 140 96 155 LL S1 S1 (PM) S2 S3 S4 LiveLink (Gesamt) brainFiler (Gesamt) P (found) Q 17 6 7 15 8 17 145 75 82 125 88 138 1337 Ma (correct accept) 13 9 10 17 11 19 14 20 Qa (false accept) 10 6 7 13 8 15 11 15 3 3 3 4 3 4 3 5 (correct reject) 7 0 0 2 0 2 -11 -15 (false Precision Recall (r) Fallout reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q) 135 72 79 121 85 134 -3 1332 0,77 0,67 0,70 0,76 0,73 0,79 0,79 0,75 0,59 1,00 1,00 0,87 1,00 0,88 0,02 0,04 0,04 0,03 0,03 0,03 F-Wert 0,67 0,80 0,82 0,81 0,84 0,83 7,86 19,50 c/b measure 7 3 4 9 5 11 8 10 Konzeptsuche mit Ontologien Suche über Gnowsis unter Einbeziehung der organisatorischen Ontologie. Tabelle: Ergebnisse für „Cost Reduction“ Cost Reduction S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 19 23 22 26 Q 367 422 379 434 Ma Qa (correct P (correct (false reject) (found) accept) accept) 11 16 15 20 26 9 12 11 14 16 2 4 4 6 10 10 11 11 12 -16 (false reject) 365 418 375 428 1632 Precision (p) (Ma/P) 0,818181818 0,75 0,733333333 0,7 0,615384615 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,473684211 0,52173913 0,5 0,538461538 0,005449591 0,009478673 0,01055409 0,013824885 F-Wert 0,6 0,61538462 0,59459459 0,60869565 0 c/b measure 7 8 7 8 6 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 198 Tabelle: Ergebnisse für „Business Efficiency“ Business Efficiency S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 13 14 13 14 Q 373 431 388 446 Ma Qa (correct P (correct (false reject) (found) accept) accept) 11 12 13 14 30 7 8 7 8 12 4 4 6 6 18 6 6 6 6 -12 (false reject) 369 427 382 440 1624 Precision (p) (Ma/P) 0,636363636 0,666666667 0,538461538 0,571428571 0,4 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,538461538 0,571428571 0,538461538 0,571428571 0,010723861 0,009280742 0,015463918 0,013452915 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,277777778 0,277777778 0,277777778 0,277777778 0,002717391 0,004683841 0,005221932 0,00678733 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,263157895 0,285714286 0,263157895 0,285714286 0,005449591 0,004716981 0,007853403 0,006833713 F-Wert 0,58333333 0,61538462 0,53846154 0,57142857 0 c/b measure 3 4 1 2 -6 Tabelle: Ergebnisse für „Callcenter“ Callcenter S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 18 18 18 18 Q 368 427 383 442 Ma Qa (correct P (correct (false reject) (found) accept) accept) 6 7 7 8 24 5 5 5 5 14 1 2 2 3 10 13 13 13 13 -14 (false reject) 367 425 381 439 1632 Precision (p) (Ma/P) 0,833333333 0,714285714 0,714285714 0,625 0,583333333 F-Wert c/b measure 4 3 3 2 4 0,41666667 0,4 0,4 0,38461538 0 Tabelle: Ergebnisse für „Helpdesk“ Helpdesk S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 19 21 19 21 Q 367 424 382 439 Ma Qa (correct P (correct (false reject) (found) accept) accept) 7 8 8 9 26 5 6 5 6 23 2 2 3 3 3 14 15 14 15 -23 (false reject) 365 422 379 436 1639 Precision (p) (Ma/P) 0,714285714 0,75 0,625 0,666666667 0,884615385 F-Wert 0,38461538 0,4137931 0,37037037 0,4 0 c/b measure 3 4 2 3 20 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 199 Tabelle: Ergebnisse für „Infrastructure“ Infrastructure S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 10 12 12 14 Q 376 433 389 446 Ma Qa (correct P (correct (false reject) (found) accept) accept) 8 10 9 11 22 4 5 5 6 13 4 5 4 5 9 6 7 7 8 -13 (false reject) 372 428 385 441 1633 Precision (p) (Ma/P) 0,5 0,5 0,555555556 0,545454545 0,590909091 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,4 0,416666667 0,416666667 0,428571429 0,010638298 0,011547344 0,010282776 0,011210762 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,411764706 0,45 0,411764706 0,45 0,005420054 0,011764706 0,010416667 0,015909091 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,470588235 0,5 0,555555556 0,578947368 0,002710027 0,011709602 0,01305483 0,020408163 F-Wert c/b measure 0 0 1 1 4 0,44444444 0,45454545 0,47619048 0,48 0 Tabelle: Ergebnisse für „Communication“ Communication S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 17 20 17 20 Q 369 425 384 440 Ma Qa (correct P (correct (false reject) (found) accept) accept) 9 14 11 16 28 7 9 7 9 21 2 5 4 7 7 10 11 10 11 -21 (false reject) 367 420 380 433 1635 Precision (p) (Ma/P) 0,777777778 0,642857143 0,636363636 0,5625 0,75 F-Wert 0,53846154 0,52941176 0,5 0,5 0 c/b measure 5 4 3 2 14 Tabelle: Ergebnisse für „SAP R3“ SAP R3 S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 17 18 18 19 Q 369 427 383 441 Ma Qa (correct P (correct (false reject) (found) accept) accept) 9 14 15 20 28 8 9 10 11 20 1 5 5 9 8 9 9 8 8 -20 (false reject) 368 422 378 432 1634 Precision (p) (Ma/P) 0,888888889 0,642857143 0,666666667 0,55 0,714285714 F-Wert 0,61538462 0,5625 0,60606061 0,56410256 0 c/b measure 7 4 5 2 12 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 200 Tabelle: Ergebnisse für „RFID“ RFID S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M Q 7 11 7 11 Ma Qa (correct P (correct (false reject) (found) accept) accept) 379 434 394 449 3 8 4 9 22 3 6 3 6 15 0 2 1 3 7 4 5 4 5 -15 (false reject) 379 432 393 446 1635 Precision (p) (Ma/P) 1 0,75 0,75 0,666666667 0,681818182 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,428571429 0,545454545 0,428571429 0,545454545 0 0,004608295 0,002538071 0,006681514 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,6 0,5 0,666666667 0,571428571 0,002624672 0,002277904 0,002531646 0,002207506 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,482758621 0,5625 0,578947368 0,614035088 0,008403361 0,01511335 0,013774105 0,019851117 F-Wert c/b measure 3 4 2 3 8 0,6 0,63157895 0,54545455 0,6 0 Tabelle: Ergebnisse für „Voice Data Solution“ Voice Data Solution S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N M 386 445 401 460 1642 Q 5 6 6 7 381 439 395 453 Ma Qa (correct P (correct (false reject) (found) accept) accept) 4 4 5 5 22 3 3 4 4 15 1 1 1 1 7 2 3 2 3 -15 (false reject) 380 438 394 452 1635 Precision (p) (Ma/P) 0,75 0,75 0,8 0,8 0,681818182 F-Wert c/b measure 2 2 3 3 8 0,66666667 0,6 0,72727273 0,66666667 0 Tabelle: Ergebnisse für „Outsourcing“ Outsourcing S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 29 48 38 57 Q 357 397 363 403 Ma Qa (correct P (correct (false reject) (found) accept) accept) 17 33 27 43 24 14 27 22 35 24 3 6 5 8 0 15 21 16 22 -24 (false reject) 354 391 358 395 1642 Precision (p) (Ma/P) 0,823529412 0,818181818 0,814814815 0,813953488 1 F-Wert 0,60869565 0,66666667 0,67692308 0,7 0 c/b measure 11 21 17 27 24 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 201 Tabelle: Ergebnisse für „Financial Market“ Financial Market S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 19 29 21 31 Q 367 416 380 429 Ma Qa (correct P (correct (false reject) (found) accept) accept) 11 23 14 26 22 11 20 13 22 14 0 3 1 4 8 8 9 8 9 -14 (false reject) 367 413 379 425 1634 Precision (p) (Ma/P) 1 0,869565217 0,928571429 0,846153846 0,636363636 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,578947368 0,689655172 0,619047619 0,709677419 0 0,007211538 0,002631579 0,009324009 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,344827586 0,447368421 0,387096774 0,475 0,008403361 0,00982801 0,008108108 0,00952381 F-Wert 0,73333333 0,76923077 0,74285714 0,77192982 0 c/b measure 11 17 12 18 6 Tabelle: Ergebnisse für „Kunde1“ Kunde1 S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 29 38 31 40 Q 357 407 370 420 Ma Qa (correct P (correct (false reject) (found) accept) accept) 13 21 15 23 28 10 17 12 19 18 3 4 3 4 10 19 21 19 21 -18 (false reject) 354 403 367 416 1632 Precision (p) (Ma/P) 0,769230769 0,80952381 0,8 0,826086957 0,642857143 F-Wert 0,47619048 0,57627119 0,52173913 0,6031746 0 c/b measure 7 13 9 15 8 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 202 Semantische Suche Zusätzliche Einbeziehung von Inferenzen in die Suche zur Ermittlung des Suchergebnisses. Tabelle: Ergebnisse für „Cost Reduction“ Cost Reduction S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 19 23 22 26 Q Ma Qa (correct P (correct (false reject) (found) accept) accept) 367 422 379 434 22 27 26 31 37 18 21 20 23 25 4 6 6 8 12 1 2 2 3 -25 (false reject) 363 416 373 426 1630 Precision (p) (Ma/P) 0,818181818 0,777777778 0,769230769 0,741935484 0,675675676 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,947368421 0,913043478 0,909090909 0,884615385 0,010899183 0,014218009 0,015831135 0,01843318 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,923076923 0,928571429 0,923076923 0,928571429 0,010723861 0,009280742 0,015463918 0,013452915 Recall (r) (Ma/M) Fallout (f) (Qa/Q) F-Wert 0,87804878 0,84 0,83333333 0,80701754 0 c/b measure 14 15 14 15 13 Tabelle: Ergebnisse für „Business Efficiency“ Business Efficiency S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 13 14 13 14 Q 373 431 388 446 Ma Qa (correct P (correct (false reject) (found) accept) accept) 16 17 18 19 35 12 13 12 13 17 4 4 6 6 18 1 1 1 1 -17 (false reject) 369 427 382 440 1624 Precision (p) (Ma/P) 0,75 0,764705882 0,666666667 0,684210526 0,485714286 F-Wert 0,82758621 0,83870968 0,77419355 0,78787879 0 c/b measure 8 9 6 7 -1 Tabelle: Ergebnisse für „Callcenter“ Callcenter S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 18 18 18 18 Q 368 427 383 442 Ma Qa (correct P (correct (false reject) (found) accept) accept) 24 25 25 26 42 18 18 18 18 27 6 7 7 8 15 0 0 0 0 -27 (false reject) 362 420 376 434 1627 Precision (p) (Ma/P) 0,75 0,72 0,72 0,692307692 0,642857143 1 1 1 1 0,016304348 0,016393443 0,018276762 0,018099548 F-Wert 0,85714286 0,8372093 0,8372093 0,81818182 0 c/b measure 12 11 11 10 12 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 203 Tabelle: Ergebnisse für „Helpdesk“ Helpdesk S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 19 21 19 21 Q 367 424 382 439 Ma Qa (correct P (correct (false reject) (found) accept) accept) 25 26 26 27 44 18 19 18 19 36 7 7 8 8 8 1 2 1 2 -36 (false reject) 360 417 374 431 1634 Precision (p) (Ma/P) 0,72 0,730769231 0,692307692 0,703703704 0,818181818 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,947368421 0,904761905 0,947368421 0,904761905 0,019073569 0,016509434 0,020942408 0,018223235 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,9 0,833333333 0,833333333 0,785714286 0,018617021 0,018475751 0,017994859 0,01793722 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,882352941 0,85 0,882352941 0,85 0,035230352 0,037647059 0,0390625 0,040909091 F-Wert 0,81818182 0,80851064 0,8 0,79166667 0 c/b measure 11 12 10 11 28 Tabelle: Ergebnisse für „Infrastructure“ Infrastructure S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 10 12 12 14 Q 376 433 389 446 Ma Qa (correct P (correct (false reject) (found) accept) accept) 16 18 17 19 30 9 10 10 11 18 7 8 7 8 12 1 2 2 3 -18 (false reject) 369 425 382 438 1630 Precision (p) (Ma/P) 0,5625 0,555555556 0,588235294 0,578947368 0,6 F-Wert c/b measure 2 2 3 3 6 0,69230769 0,66666667 0,68965517 0,66666667 0 Tabelle: Ergebnisse für „Communication“ Communication S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 17 20 17 20 Q 369 425 384 440 Ma Qa (correct P (correct (false reject) (found) accept) accept) 28 33 30 35 47 15 17 15 17 29 13 16 15 18 18 2 3 2 3 -29 (false reject) 356 409 369 422 1624 Precision (p) (Ma/P) 0,535714286 0,515151515 0,5 0,485714286 0,617021277 F-Wert 0,66666667 0,64150943 0,63829787 0,61818182 0 c/b measure 2 1 0 -1 11 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 204 Tabelle: Ergebnisse für „SAP R3“ SAP R3 S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 M Q 17 18 18 19 Ma Qa (correct P (correct (false reject) (found) accept) accept) 369 427 383 441 1642 (false reject) Precision (p) (Ma/P) 15 20 21 26 14 15 16 17 1 5 5 9 3 3 2 2 368 422 378 432 0,933333333 0,75 0,761904762 0,653846154 34 26 8 -26 1634 0,764705882 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,823529412 0,833333333 0,888888889 0,894736842 0,002710027 0,011709602 0,01305483 0,020408163 c/b measure F-Wert 0,875 0,78947368 0,82051282 0,75555556 13 10 11 8 0 18 Tabelle: Ergebnisse für „RFID“ RFID S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M Q 7 11 7 11 Ma Qa (correct P (correct (false reject) (found) accept) accept) 379 434 394 449 11 16 12 17 30 6 9 6 9 18 5 7 6 8 12 1 2 1 2 -18 (false reject) 374 427 388 441 1630 Precision (p) (Ma/P) 0,545454545 0,5625 0,5 0,529411765 0,6 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,857142857 0,818181818 0,857142857 0,818181818 0,013192612 0,016129032 0,015228426 0,017817372 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,8 0,666666667 0,833333333 0,714285714 0,007874016 0,006833713 0,007594937 0,006622517 F-Wert c/b measure 1 2 0 1 6 0,66666667 0,66666667 0,63157895 0,64285714 0 Tabelle: Ergebnisse für „Voice Data Solution“ Voice Data Solution S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M Q 5 6 6 7 381 439 395 453 Ma Qa (correct P (correct (false reject) (found) accept) accept) 7 7 8 8 25 4 4 5 5 16 3 3 3 3 9 1 2 1 2 -16 (false reject) 378 436 392 450 1633 Precision (p) (Ma/P) 0,571428571 0,571428571 0,625 0,625 0,64 F-Wert 0,66666667 0,61538462 0,71428571 0,66666667 0 c/b measure 1 1 2 2 7 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 205 Tabelle: Ergebnisse für „Outsourcing“ Outsourcing S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 29 48 38 57 Q 357 397 363 403 Ma Qa (correct P (correct (false reject) (found) accept) accept) 40 56 50 66 47 27 40 35 48 37 13 16 15 18 10 2 8 3 9 -37 (false reject) 344 381 348 385 1632 Precision (p) (Ma/P) 0,675 0,714285714 0,7 0,727272727 0,787234043 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,931034483 0,833333333 0,921052632 0,842105263 0,036414566 0,040302267 0,041322314 0,044665012 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,894736842 0,896551724 0,904761905 0,903225806 0,005449591 0,012019231 0,007894737 0,013986014 c/b measure F-Wert 0,7826087 0,76923077 0,79545455 0,7804878 0 14 24 20 30 27 Tabelle: Ergebnisse für „Financial Market“ Financial Market S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 M 19 29 21 31 Q 367 416 380 429 1642 Ma Qa (correct P (correct (false reject) (found) accept) accept) (false reject) Precision (p) (Ma/P) 19 31 22 34 17 26 19 28 2 5 3 6 2 3 2 3 365 411 377 423 0,894736842 0,838709677 0,863636364 0,823529412 30 20 10 -20 1632 0,666666667 c/b measure F-Wert 0,89473684 0,86666667 0,88372093 0,86153846 15 21 16 22 0 10 Tabelle: Ergebnisse für „Kunde1“ Kunde1 S1 S2 S3 S4 Gnowsis Ges Gesamtmenge N 386 445 401 460 1642 M 29 38 31 40 Q 357 407 370 420 Ma Qa (correct P (correct (false reject) (found) accept) accept) 36 44 38 46 51 28 35 30 37 36 8 9 8 9 15 1 3 1 3 -36 (false reject) 349 398 362 411 1627 Precision (p) (Ma/P) 0,777777778 0,795454545 0,789473684 0,804347826 0,705882353 Recall (r) (Ma/M) Fallout (f) (Qa/Q) 0,965517241 0,921052632 0,967741935 0,925 0,022408964 0,022113022 0,021621622 0,021428571 F-Wert 0,86153846 0,85365854 0,86956522 0,86046512 0 c/b measure 20 26 22 28 21 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen 206 Referenztabelle Wilcoxon-Test (Grenzwerte) Test zweiseitig 1% einseitig n 5% 0,1% 5% 6 0 2 7 2 3 0 8 3 0 5 1 9 5 1 8 3 10 8 3 10 5 11 10 5 0 13 7 12 13 7 1 17 9 13 17 9 2 21 12 14 21 12 4 25 15 15 25 15 6 30 19 16 29 19 8 35 23 17 34 23 11 41 27 18 40 27 14 47 32 19 46 32 18 53 37 20 52 37 21 60 43 21 58 42 25 67 49 22 65 48 30 75 55 23 73 54 35 83 62 24 81 61 40 91 69 25 89 68 45 100 76 26 98 75 51 110 84 27 107 83 57 119 92 28 116 91 64 130 101 Quelle: http://www.forst.tu-dresden.de/Biometrie/formeln/form07_2.html 1% Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Refernztabelle Wilcoxon-Test (explizite Signifikanzniveaus) Stichprobe: N = 12 Niedrigere Explizites Rangsumme Signifikanzniveau 0.0002441 0 0.0004883 1 0.0007324 2 0.001221 3 0.001709 4 0.002441 5 0.003418 6 0.004639 7 0.006104 8 0.008057 9 0.01050 10 0.01343 11 0.01709 12 0.02124 13 0.02612 14 0.03198 15 0.03857 16 0.04614 17 0.05493 18 0.06470 19 0.07568 20 0.08813 21 Quelle: http://comp9.psych.cornell.edu/Darlington/wilcoxon/wilcox51.htm 207 208 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Screenshots Screenshot (schematisch) Gnowsis für Szenario 1, eigene Darstellung Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Screenshot (schematisch) Gnowsis für Szenario 2, eigene Darstellung 209 210 Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Screenshot (schematisch) Gnowsis für Szenario 3, eigene Darstellung Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen Screenshot (schematisch) Gnowsis für Szenario 4, eigene Darstellung 211