Semantische Suche für die Wissensentwicklung in

Transcription

Semantische Suche für die Wissensentwicklung in
Semantische Suche für die Wissensentwicklung
in wissensintensiven Prozessen –
am Beispiel des Semantic Desktop in der Angebotsentwicklung
bei Siemens IT Solutions und Services
Vom Fachbereich Wirtschaftswissenschaften
der Universität Kaiserslautern genehmigte
Dissertation
vorgelegt von
Dipl.-Kfm.techn. Mark Siebert
aus München
D 386
(2010)
2
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
3
Vorwort des Autors
Wissensmanagement hat die Phase des Dokumenten- und Contentmanagements überwunden. Mit
dem Web 2.0 entstehen erneut Technologien für den Umgang mit Wissen und erinnern an die Communities of practice und Web-Communities der New-Economy-Zeit. Der kollaborative Umgang mit
Wissen löst langsam das Paradigma der Verteilung von Wissensobjekten ab. Es bricht die Vorstellungen auf, Wissen als ein festgeschriebenes Produkt in verschiedenen Kontexten eins zu eins wiederverwenden zu können. Es berücksichtigt vielmehr den dynamischen und subjektiven Charakter von
Wissen und überbrückt damit die künstliche Trennung zwischen Wissenstechnologien und Personalmanagement.
Meine Arbeit entstammt einer längeren Auseinandersetzung mit dem Phänomen „Wissen“ − zunächst aus Sicht des betrieblichen Managements und der Innovationsforschung, dann aus philosophischer und psychologischer Sicht. Meine Praxiserfahrungen im Wissensmanagement der Siemens AG
und in der Beratung anderer Unternehmen illustrierten die große Lücke zwischen Realität und Anspruch und motivierten ein vertieftes Hinterfragen. Zu wenig wissen wir noch über diese wohl wichtigste Ressource unseres 21. Jahrhunderts und über deren Voraussetzungen.
Die Diskussion des Konstruktivismus zeigte neue Perspektiven und die Möglichkeit, Wissen aus
sich heraus als dynamisch und entwickelnd zu untersuchen. Das Phänomen der Rekursivität und
Selbstähnlichkeit auf unterschiedlichen Abstraktionsebenen waren schließlich Anlass, die Künstliche
Intelligenz mit ihren Technologien auf die Probe zu stellen. Welche innovativen Technologien könnten einen solchen Gedankenansatz stützen und damit die Brücke zu einem neuen Umgang mit Wissen
bauen ?
Die Offenheit und Weitsicht von Prof. Dr. Dengel am DFKI (Deutschen Forschungszentrum für
Künstliche Intelligenz) in Kaiserslautern war es, die einen solchen interdisziplinären Gedankenansatz
und die unkomplizierte Projektbegleitung ermöglichte. Die Unterstützung meiner Vorgesetzten bei
Siemens IT Solutions und Services (Hr. Kapfenberger, Hr. Dr. Wagner, Hr. Dr. Tripp, Hr. Dr. Matzke)
und aus dem Wissensmanagement des Konzerns (insbesondere Hr. Ramhorst, Hr. Dr. Hofer-Alfeis)
erlaubte es, diesen Dialog praxisnah und anhand von realen, anonymisierten Daten aus dem Angebotsprozess durchzuführen. Sie ermöglichte mir die Rahmenbedingungen und beruflichen Freiräume,
mich dieser Diskussion neben der alltäglichen Arbeit zu widmen.
Mit der Bereitschaft von Prof. Dr. Wendt, sich in diesen Dialog einzubringen und die Arbeit verantwortlich mitzutragen, ließen sich die ersten Erkenntnisse in das wissenschaftliche Spektrum der
Wirtschaftsinformatik einflechten und mit dem Nachweis ihrer statistische Signifikanz festigen.
Viele Freunde, Bekannte, Betreuer, Studenten, Diplomanden und Interessierte haben mich in den
einzelnen Arbeitsphasen und auf Workshops und Konferenzen begleitet. Sie haben durch ihre Fragen,
Anregungen, Kommentare, Korrekturen und Erfahrungen wesentliche Gedankenanstöße gegeben.
Ganz besonders möchte ich mich hier bei Heiko Maus, DFKI, und Pierre Smits, asknet, bedanken.
Heiko stand mir als DFKI-Betreuer jederzeit mit Rat und Tat zur Seite und erlaubte mir, Schritt für
Schritt die Welt der semantischen Technologien zu entdecken. Mit Pierre gelang es, die technischen
Tests im komplexen Systemrahmen eines Großkonzerns durchzuführen. Ich hoffe, dass unser Dialog
über die Zeit der Dissertation hinausreichen wird.
Begeistert hat mich das Interesse und der Einsatz der Studenten Oliver Schon, Thomas Ruegg, Jens
Hauser und Maik Keppel von der Bundeswehr-Universität München. Sie haben sich in ihrem Praxisprogramm für das Thema Wissensentwicklung eingesetzt. Sie waren in der Findungs- und Recherchephase eine wertvolle Hilfe.
Im Rückblick sehe ich mit Freude, dass sich der Aufwand des Zusammenspiels zwischen Universität und Wirtschaft sowie Technologie und Philosophie ausgezahlt hat. Auf diese Weise wurden nicht
nur neue Erkenntnisse für die Domäne der Wissensentwicklumg gewonnen, sondern auch innovative
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
4
Technologien in der Praxis getestet und Anregungen für den dynamischen Umgang mit den sich transformierenden CRM-Prozessen im Siemens-Konzern gegeben.
Die Arbeit zeigt damit, dass semantische Technologien die Möglichkeitsgrenze der Technologie
zwar verschieben können, die Wissensentwicklung aber erst am Anfang ihres eigenen Erkenntnisprozesses steht. Mehr denn je und gerade in diesem Feld bin ich daher überzeugt, dass der interdisziplinäre Dialog uns hilft, voneinander zu lernen und neues Wissen zu entwickeln. Oft ist es nur die Semantik, die uns trennt.
In diesem Sinne danke ich auch ganz herzlich meinen Eltern. Schon früh haben sie mich in meinen
neugierigen Fragen unterstützt und Einblicke in die interdisziplinäre wissenschaftliche Diskussion ermöglicht. Das Andenken an meinen Vater hat mich in meinem Forschungsprozess begleitet.
Vielen Dank !
München, Januar 2010
Mark Siebert
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
5
Abbildungsverzeichnis
Abb. 1. Individuelle Wissensentwicklung im Angebotsprozess
Abb. 2. Treibende Faktoren für die Diskussion der Wissensentwicklung
Abb. 3. Forschungsvorgehen
Abb. 4. Iterativer Ablauf und Werdegang der Arbeit
Abb. 5. Grad der Datenstruktur in Bezug auf Datenhaltung
Abb. 6. Wissenstreppe nach North
Abb. 7. Komponenten des Wissensmanagements
Abb. 8. Kreislauf der Wissensentwicklung
Abb. 9. Boisot’s Social Learning Cycle (SLC)
Abb. 10. Mapping der Modelle von Boisot und Nonaka
Abb. 11. Wissensmodell der Siemens AG
Abb. 12. Einflussfaktoren im Umgang mit Wissensprodukten
Abb. 13. Konnektionistisches Modellsystem
Abb. 14. CBR Kreislauf
Abb. 15. Technologieintegration zur schrittweisen Abbildung von Wissen
Abb. 16. Gnowsis Architektur
Abb. 17. Indexierung unterschiedlicher Datenquellen und –formate
Abb. 18. Zusammenspiel individueller und organisatorischer Wissensräume
Abb. 19. Vergleich der Folderstrukturen von Sales und Proposal Manager bei SIS
Abb. 20. Bausteine der Semantischen Suche
Abb. 21. Schema und Abgrenzung der Qualität von Suchergebnissen
Abb. 22. Testszenarien in Abhängigkeit von Rolle und Wissensobjekt
Abb. 23. Ontologie - Informationsmodell
Abb. 24. Ontologie - Kundenmodell
Abb. 25. Ontologie - Organisationsmodell
Abb. 26. Ontologie - Produktmodell
Abb. 27. Ontologie - Rollenmodell
Abb. 28. Ontologie - Prozessmodell
Abb. 29. Screenshot (schematisch) Gnowsis für Szenario 1
Abb. 30. Screenshot (schematisch) Gnowsis für Szenario 2
Abb. 31. Screenshot (schematisch) Gnowsis für Szenario 3
Abb. 32. Screenshot (schematisch) Gnowsis für Szenario 4
Abb. 33. Verteilung Precisionwerte nach Suchbegriffen
Abb. 34. Verteilung Recallwerte nach Suchbegriffen
Abb. 35. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink
Abb. 36. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink mit erweiterter
Datenbasis
Abb. 37. Verteilung F-Werte nach Suchbegriffen
Abb. 38. Precision/ Recall Häufung LiveLink
Abb. 39. Precision/ Recall Häufungen Gnowsis S1
Abb. 40. Modell der Wissensentwicklung (Knowledge Creation Framework)
Abb. 41. Vernetzung von Wissenssystemen über Interaktionssysteme
Abb. 42. Wissensentwicklung als Prozess des „perspective taking und making“
Abb. 43. Anwendung des KCF auf den Semantic Desktop zur Erstellung von
Suchergebnissen
Abb. 44. Inhalte im kommunikativen Dialog zwischen Abstraktionsebenen
Abb. 45. Rolle als Hebel zum Paradigmenwechsel der Wissensentwicklung aus
individueller Sicht
Abb. 46. Informationstechnische Modellierung der Rolle in der Verknüpfung von Prozess
und Architektur
Abb. 47. Mögliche Integration der semantischen Suche in Standardsoftware SAP CRM
Abb. 48. Weiterentwicklung des Semantic Desktop auf Basis des KCF
Abb. 49. Beitrag des Semantic Desktop zur Produktivitätssteigerung des Wissensarbeiters
16
21
31
32
41
48
58
60
61
61
62
70
82
90
104
112
113
116
117
118
120
122
124
125
125
125
125
126
128
129
131
133
135
136
140
141
143
144
144
150
154
156
157
161
162
163
164
166
171
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
6
Tabellenverzeichnis
Tabelle 1.
Tabelle 2.
Tabelle 3.
Tabelle 4.
Tabelle 5.
Angewandtes Vorgehen der Grounded Theory
Ansatz der Design Sciences auf bekannte Aktefakte
Übersicht der Arten wissensintensiver Prozesse
Übersicht Angebotsprozess und informationstechnische Unterstützung bei SIS
Mögliche Entwicklung eines neuen Management Summaries (MS) aus
bestehenden Management Summaries
Tabelle 6. Rollen-Vergleich Sales und Proposal Manager
Tabelle 7. Einordnung der Erstellung von Management Summaries in die Prozessarten
Tabelle 8. Unterschiede zwischen Objektivismus und Konstruktivismus
Tabelle 9. Lernarten nach Gagné
Tabelle 10. Übersicht Systemtheorien als Basis der Künstlichen Intelligenz
Tabelle 11. Übersicht über diskussionsrelevante Verfahren der Künstlichen Intelligenz
Tabelle 12. Mögliche Verfahren zur Realisierung der technologischen Hebel
Tabelle 13. Technologiebausteine des Semantic Desktops
Tabelle 14. Einordnung beispielhafter semantischer Verfahren (hellgrau) als
Weiterentwicklung bestehender KI-Verfahren (dunkelgrau)
Tabelle 15. Beitrag der Technologien und der semantischen Suche in wissensintensiven
Prozessen
Tabelle 16. Wirkung verschiedener Optimierungsverfahren im Information Retrieval
Tabelle 17. Optimierungsverfahren des Information Retrieval auf verschiedenen
Abstraktionsebenen
Tabelle 18. Entwicklungspfad von der Volltextsuche zur Semantischen Suche
Tabelle 19. Beispielhafte Suchergebnisse für brainfiler und LiveLink
Tabelle 20. Ordnerstruktur eines Proposal Managers
Tabelle 21. Ordnerstruktur eines Sales Managers
Tabelle 22. Systemvoraussetzungen
Tabelle 23. Gesamtverbesserung gegenüber bisheriger LiveLink Suche (ohne Regeln)
Tabelle 24. Gesamtverbesserung gegenüber bisheriger Livelink Suche (mit Regeln)
Tabelle 25. Ergebnisse gegenüber Laborbedingungen
Tabelle 26. Ergebnisse Szenario 2 gegenüber Szenario 1
Tabelle 27. Ergebnisse Szenario 3 gegenüber Szenario 1
Tabelle 28. Ergebnisse Szenario 4 gegenüber Szenario 1 und Livelink
Tabelle 29. Ergebnisse Standardabweichung für Precision über die Szenarien
Tabelle 30. Ergebnisse Standardabweichung für Recall über die Szenarien
Tabelle 31. Übersicht möglicher Signifikanztest
Tabelle 32. Wilcoxon-Test für Precision – Szenario 1
Tabelle 33. Wilcoxon-Test für Recall – Szenario 1
Tabelle 34. Aufbereitete LiveLink-Ergebnisse für ROC-Kurve
Tabelle 35. Aufbereitete Gnowsis (S4)-Ergebnisse für ROC-Kurve
Tabelle 36. Ergebnisse des Wilcoxon-Tests der ROC-Kurven
Tabelle 38. Ergebnisse Standardabweichung für F-Werte über die Szenarien
Tabelle 39. Wilcoxon-Test für F-Werte
Tabelle 40. Zusammenfassung der Literaturdiskussion
Tabelle 41. Vergleich der Charakteristika von qualitativer Sozialforschung und
Wissensentwicklung
Tabelle 42. Mapping von Dokumententyp auf Storyline und Value proposition
27
29
37
38
42
43
45
52
65
73
75
96
101
102
105
108
109
110
121
124
124
126
126
127
127
129
130
132
135
136
137
138
138
140
140
141
143
145
149
165
167
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
7
Abkürzungsverzeichnis
ARIS
BDI
bzw.
CBR
CKAT
CMS
CRM
DFKI
d.h.
DMS
etc.
engl.
FIPA
ggfs.
KCF
KI
KNN
LL
MAS
MS
MIT
NLP
OWL
PAT
P2P
PIMO
PLM
pp.
PRS
RAP
RDF(S)
S.
S1, S2, S3, S4
SECI
SIS
SLC
sog.
v.a.
W3C
WM
WMS
z.B.
Architecture integrierter Systeme
Believe-Desire-Intention (Architekturen)
beziehungsweise
Case-based reasoning
Coinstructive Knowledge Analysis of Tasks
Content Management System
Customer Relationship Management
Deutsches Forschungszentrum für Künstliche Intelligenz, Kaiserslautern
das heißt
Dokumenten Management System
et cetera
Englisch/ english
Foundations of Intelligent Physical Agents
gegebenenfalls
Knowledge Creation Framework
Künstliche Intelligenz
Künstliche Neuronale Netze
LiveLink
Multi-Agenten-Systeme
Management Summary
Massachusetts Institute of Technology
Natural Language Processing
Web Ontology Language
Proposal Automation Tools
peer-to-peer
Personal Information Model
Product Lifecycle Management
pages
Procedural Reasoning System
Reactive Action Packages
Resource Description Framework (Schema)
Seite
(Test-)Szenario 1, 2, 3, 4
Socialisation, Externalization, Combination, Internalisation (Nonaka)
Siemens IT Solutions and Services
Social Learning Cycle (Boisot)
sogenannt
vor allem
World Wide Web Consortium
Wissensmanagement
Wissens Management System
zum Beispiel
Abkürzungen von Programmiersprachen werden im Text direkt erläutert
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
8
Inhaltsverzeichnis
Vorwort des Autors
3
Abbildungsverzeichnis
5
Tabellenverzeichnis
6
Abkürzungsverzeichnis
7
Inhaltsverzeichnis
8
Zusammenfassung
12
Summary (engl.)
13
1
15
Motivation
1.1
1.2
1.3
1.4
1.5
1.6
Wissensverteilung ist nicht ausreichend für aktive Unterstützung
wissensintensiver Prozesse
Fehlende Prozesse und statische Tools erlauben keine aktive Prozessunterstützung
Leistungsfähigkeit neuer, intelligenter und semantischer Technologien
noch nicht hinreichend deutlich
Repräsentation des subjektiven Charakters von Wissen derzeit nicht
technologisch abgebildet
Hoher Redaktionsaufwand für Einsatz von WissensmanagementTechnologie
Monodisziplinäre Ansätze der Wissenstheorie blockieren das Verständnis
der individuellen Wissensentwicklung
15
16
18
19
19
20
2
Ziel und Beitrag der Arbeit
21
3
Forschungsansatz und -methode
23
3.1
3.2
3.3
3.4
3.5
3.6
Wissenschaftstheorie – Forschungsansatz oder
Wissensentwicklungsprozess
Besonderheiten naturwissenschaftlicher Ansätze
Besonderheiten sozialwissenschaftlicher Ansätze
Besonderheiten betriebswirtschaftlicher Ansätze
Besonderheiten kombinierter Ansätze
3.5.1 Action Research
3.5.2 Design Sciences
3.5.3 Grounded Theory
Wahl der Forschungsmethode
23
24
24
25
25
26
26
27
28
4
Anwendung der Forschungsmethode als Forschungsvorgehen
31
5
Forschungsfragen und Aufbau der Arbeit
33
6
Wissensintensive Prozesse
37
6.1
6.2
6.3
Angebotsprozess der SIS
Erstellung von Management Summaries
Value selling und value proposition
38
40
41
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
6.4
6.5
7
9
Bedeutung der Rollen im Prozess
6.4.1 Rolle Sales Manager
6.4.2 Rolle Proposal Manager
Zwischenfazit
43
44
44
44
Verständnis von Wissen
7.1
7.2
7.3
47
Wissen – Begriffliche Abgrenzung als wiederverwendbare Ressource
Wissen − Wissensentwicklung und Konstruktion
Exkurs − Konstruktivismus
7.3.1 Grundlagen und Vertreter des Konstruktivismus
7.3.2 Der Realismus als Abgrenzung des Konstruktivismus
7.3.3 Kernelemente des Konstruktivismus aus der Erkenntnistheorie
7.3.3.1
7.3.3.2
47
49
50
50
51
52
Realität und Wirklichkeit im neurobiologischen Konstruktivismus
bei Maturana und Roth
52
Wissen
als
anwendbare
Konstruktivismus
53
Wirklichkeit
im
Radikalen
7.3.3.3
7.4
8
Realität als Konsens individueller Wirklichkeiten im sozialen
Konstruktivismus
7.3.4 Kernaussagen Kritik und Schlussfolgerung
Zwischenfazit
Wissensentwicklung – begriffliche Einordnung
8.1
8.2
8.3
8.4
8.5
8.6
9
Wissensentwicklung – im betriebswirtschaftlichen, organisationalen
Rahmen des Wissensmanagements
8.1.1 Wissensentwicklung im Modell von Probst
8.1.2 Wissensentwicklung bei Nonaka und Takeuchi
8.1.3 Wissensentwicklung bei Boisot
8.1.4 Wissensentwicklung im Modell der Siemens AG
8.1.5 Zwischenfazit betriebswirtschaftlicher Diskussion
Wissensentwicklung – eine Frage der Kommunikation
Wissensentwicklung – lerntheoretische Grundlagen
8.3.1 Lernen als Wissenserwerb
8.3.2 Lernen als Verhaltensänderung
8.3.3 Lernen als (neuro-)biologische Veränderung
Wissensentwicklung – psycho-linguistische Sprachproduktion
Wissensentwicklung – psychologische Diskussion der Bewusstseinsbildung
Zwischenfazit
Relevante Methoden und Technologien der Künstlichen Intelligenz
für die Wissensentwicklung
9.1
Repräsentation
9.1.1 Feature-Maps und Netze als symbolische Repräsentation auf Signalebene
9.1.2 Ontologien als symbolische Repräsentation auf Bedeutungsebene
53
54
55
57
57
59
59
60
62
62
63
63
64
66
67
67
69
69
73
75
77
77
9.1.2.1
Resource Description Framework (Schema) – RDF (S)
78
9.1.2.2
Web Ontology Language − OWL
79
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
10
9.2
9.3
9.4
10
9.1.3 Konnektionistische Netze als subsymbolische Repräsentation auf
Konzeptebene
Mustererkennung
9.2.1 Stochastik und überwachtes Lernen als symbolische Mustererkennung auf
Signalebene
9.2.2 Ontology mapping und merging als Mustererkennung auf Bedeutungsebene
9.2.3 Holistische Ansätze als subsymbolische Mustererkennung auf
Konzeptebene
Problemlösung
9.3.1 Reasoning als allgemeines, symbolisches Problemlösen auf Signalebene
9.3.2 Multi-perspective und case-based reasoning als symbolisches Problemlösen
auf Bedeutungsebene
9.3.3 Agent-based solving als subsymbolisches Problemlösen auf Konzeptebene
Zwischenfazit
Semantic Desktop im Applikationsumfeld
10.1
10.2
10.3
10.4
10.5
11
Wissensmanagementsysteme (WMS) und Portale
Proposal Automation Tools
Recommendersysteme
Semantic Desktop
Zwischenfazit
Gnowsis − Semantische Suche im Semantic Desktop
11.1
11.2
11.3
11.4
11.5
11.6
11.7
11.8
Kontext des Information Retrievals
Formen und Arten semantischer Suchen
Besonderheiten von Gnowsis
11.3.1 Aufbau von Gnowsis
11.3.2 Klassifikation mit dem brainfiler
11.3.3 Ontology mapping und matching
11.3.4 Personal Information Model (PIMO) als Katalysator für Peer-to-Peer
Gnowsis im Spektrum semantischer Suchen
Testansatz
11.5.1 Testmethode
11.5.2 Testszenarien
Testbasis
11.6.1 Datenbasis und Ordnerstrukturen
11.6.2 Organisatorische Ontologie
11.6.3 Systemvoraussetzungen
Testergebnisse
11.7.1 Erfahrungsberichte werden bestätigt
11.7.2 In homogenen Gruppen wirkt die Rolle auf die Ergebnisschärfe
11.7.3 In heterogenen Gruppen wirkt die Rolle auf die Zugänglichkeit relevanter
Objekte
11.7.4 In unstrukturierten Gruppen wirkt die Rolle eher ergebnisschärfend
11.7.5 Insgesamt wirkt die Rolle, aber gruppenspezifisch
Testgüte
11.8.1 Signifikanzanalyse der Testergebnisse
79
83
85
86
87
88
89
89
91
94
99
99
100
100
100
103
107
107
110
112
112
113
114
115
118
119
120
121
123
123
124
126
126
127
128
130
132
133
134
134
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
11.8.1.1 Standardabweichung und Varianz
134
11.8.1.2 Wilcoxon-Test für paarweise Stichproben
11.8.2 Relevanzanalyse der Testergebnisse
137
139
11.8.2.1 ROC-Kurve mit Signifikanz- und Einflußanalyse
11.9
12
12.3
12.4
12.5
13
Erkenntnisse aus der Literatur und dem Technologietest
Knowledge Creation Framework (KCF)
12.2.1 Sammeln und Inkubation
12.2.2 Einsehen und selektieren
12.2.3 Verifizieren
12.2.4 Formen
12.2.5 Vergessen und speichern
12.2.6 Fragen und zerlegen
Beitrag und Einordnung des KCF
Anwendung des bewussten, symbolischen KCF
Zwischenfazit
Auswirkungen und Ausblick
13.1
13.2
13.3
13.4
14
11.8.2.2 F-Maß und Cost-benefit Kennzahl
Zwischenfazit
Modell der Wissensentwicklung
12.1
12.2
11
Auswirkungen auf die Wissensentwicklung
Auswirkungen auf organisationale wissensintensive Prozesse
Auswirkungen auf den Semantic Desktop
13.3.1 Optimierung bestehender Funktionalitäten für höhere Abstraktionen
13.3.2 Ergänzung und Weiterentwicklung neuer Funktionen zu einer agentenbasierten Architektur
Auswirkungen auf das Semantic Web
Zusammenfassung und Fazit
139
142
146
149
149
150
151
151
152
152
152
153
153
155
157
159
159
162
165
166
168
170
173
Literaturverzeichnis
179
Anhang: Einzelne Testergebnisse
193
Suche mit Livelink
Konzeptsuche mit Ontologien
Semantische Suche
Referenztabelle Wilcoxon-Test (Grenzwerte)
Refernztabelle Wilcoxon-Test (explizite Signifikanzniveaus)
Screenshots
193
197
202
206
207
208
12
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Zusammenfassung
Die Arbeit erweitert mit dem Modell der Wissensentwicklung (Knowledge Creation Framework)
bestehende Ansätze der Wissensverteilung im betriebswirtschaftlichen Wissensmanagement. Es
beschreibt den Entwicklungsprozess von Wissen. Die optimale Nutzung der Ressource Wissen beruht
damit auf der Unterstützung ihrer ständigen kontextspezifischen Entwicklung und situationsspezifischen Bereitstellung von Informationen.
Die Arbeit fordert, Wissen nicht mehr nur als Zustand und Objekt zu verstehen, sondern als Prozess und Perspektive auf eine Situation. Die Diskussion berücksichtigt den subjektiven Charakter
von Wissen. Sie ergänzt bestehende organisatorische Ansätze des Wissensmanagements um die Perspektive und Intention des Individuums. Sie ermöglicht und fordert damit die Weiterentwicklung
von Modellen im Hinblick auf expliziten Umgang mit heute noch implizitem Wissen als Basis zielgerichteten Einsatzes von Technologien.
Die Bedeutung der semantischen Suche (Gnowsis) des Semantic Desktop für die Wissensentwicklung liegt in der Fähigkeit, individuelle Kontextinformationen nutzbar zu machen. In Form von Prozessrollen wird die Intention und Perspektive einer Person repräsentiert. Die subjektive Sicht wird
technologisch nutzbar gemacht.
Die Arbeit bestätigt die Wirkung der am DFKI in Kaiserslautern entwickelten Prototyps Gnowsis
im Semantic Desktop, als Vertreter semantischer Suchen, diesem Anspruch unter betrieblichen Bedingungen gerecht zu werden. Die Technologie eignet sich, explorative, wissensintensive Prozesse
und die Charakteristika von Wissen zu unterstützen.
Diese Erkenntnisse werden im iterativen Vorgehen der Grounded Theory mit der Theorie der Wissensentwicklung verknüpft. Sie zeigen Prozessschritte auf, die sich technologisch unterstützen und
ersetzen lassen. Die Wahl der Grounded Theory entsteht aus einem Diskurs verschiedener beschreibender Forschungsansätze, wie Action research oder Design Sciences.
Wissen ist nicht nur Forschungsgegenstand der betriebswirtschaftlichen und technischen Disziplinen. Andere Disziplinen geben Anleihen, um als Kontrainduktion zu prüfen, inwieweit ein Verständnis der individuellen Wissensentwicklung einen Beitrag zur aktiven Prozessbegleitung und Produktivitätssteigerung wissensintensiver Prozesse leisten kann.
Operativ erspart die automatische Ermittlung der individuellen Perspektive einer Rolle aus den nativen Strukturen den manuellen Verschlagwortungsaufwand. Sie erzielt bei gleichem Redaktionsaufwand deutlich bessere Ergebnisse. Der Wissensarbeiter erspart sich langfristig den Prozess der
Suchanfrage.
Die Semantik ermöglicht bessere Ergebisse im bestehenden induktiven Suchvorgehen. In Kombination mit dem Peer-to-peer-Ansatz des Semantic Desktops ermöglicht sie durch einen Perspektivenwechsel eine Annäherung an eine automatisierte, deduktive Wissensentwicklung.
Sie leistet ihren Beitrag zur Produktivitätssteigerung und unterstützt den Paradigmenwechsel von
der Wissensverteilung zu einer Wissensentwicklung. Sie dient als Grundlage für weitere Entwicklungen im Rahmen agenten-orientierter Architekturen hin zu einer aktiveren Prozessunterstützung.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
13
Summary (engl.)
The thesis expands with the Knowledge Creation Framework existing approaches of knowledge re-use and distribution in the knowledge management practice. It describes the development
processes of knowledge. With this the impact of knowledge grounds on the support of its contextspecific development and situation-specific provision of information.
The thesis demands to view knowledge not only as a status and object, but as a process and
perspective on a situation. The discussion aknowledges the subjective character of knowledge. It
adds to existing organisational approaches of knowledge management a perspective and intention of
the individual. With this it enables and fosters the development of models for an explicit handling of
still implicit knowledge as a base for technology application.
The impact of semantic search (Gnowsis) for knowledge creation is the capability to harness individual context information. Intention and perspective of a person is represented in form of process
roles. The subjective view becomes technologically usable.
The thesis examines how the DFKI-developed prototyp Gnowsis within the Semantic Desktop embraces as representative of semantic search technologies these expectations within operational environments at SIS. The results will be linked with theory of knowledge creation based on a Grounded
Theory research approach.
These insights are iteratively linked with the theory of knowledge development applying the
reasearch principles of the Grounded Theory. It illustrates process steps, suitable for technological
support. The selection of the Grounded Theory as research method results from a discussion on different prescriptive reaserach approaches, like Action research and Design Sciences.
Knowledge is not only research object of business administrative and technical disciplines. Other
disciplines give hints to proof by counter-induction how this understanding of individual knowledge
creation adds value for active process support and productivity increase in knowledge-intensive
processes.
Operationally, the automatic retrieval of individual perspectives of a role from native structures
reduces the manual tagging efforts. It achieves higher result quality with the same editorial efforts. In
the long run the knowledge worker spares the active search and retrieval process.
Semantic concepts allow better results in inductive search processes. In combination with the
peer-to-peer approach of the Semantic Desktop they allow an approximisation to automated deductive
knowledge creation based on perspective taking and making. They thus contribute to the increase
of productivity and support the paradigm shift in knowledge distribution and re-use to knowledge development and creation. This research is base for further developments on agent-oriented architectures towards a more active and automated process support.
14
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
15
1 Motivation
Im Vergleich zum verarbeitenden Gewerbe sind individuelle oder kollaborative Wissensarbeit und
wissensintensive Prozesse in Dienstleistungen Kernprozesse mit Wissensprodukten (Steward 2001).
Bisheriges Wissensmanagement konzentrierte sich auf unternehmensweite Stützprozesse.
Informationsverarbeitende Dienstleistungen (Engineering, Forschung, Beratung, SoftwareEntwicklung, etc.) gewinnen immer weiter an Bedeutung, um sich durch Innovation und Qualität im
Wettbewerb zu differenzieren. Sie umfassen komplexe Zusammenhänge im Vergleich zur Abwicklung von Routineaufgaben.
Eine Vielzahl an Fallbeispielen findet sich als Anwendungsfelder für aktive Prozessunterstützung durch intelligente Technologien in wissensintensiven Prozessen:
• Buchung von Dienstleistungen, automatische Verfügbarkeiten
• Automatisierte Call-Center und deren Unterstützung
• Lösungsentwicklung in Service-Angeboten
• Entscheidungsunterstützung in Professional Services (juristische, betriebswirtschaftliche,
technologische, medizinische)
• Szenarioentwicklung in Planungsprozessen
• Papers und Abstracts im Forschungsprozess
• Modelle in der Entwicklung
• Programmcode in der Softwareentwicklung
Einige sind Standard-Dienste mit klar definierten, wissensintensiven Produkten und bekanntem
Kontext. Online-Reisebuchungen konnten durch ihre klare Definition bereits durch bestehende Technologien und Methoden des Wissensmanagements optimiert werden. Andere Innovationsprozesse arbeiten mit unbekannten, wissensintensiven Produkten und weitgehend unbekanntem Kontext. Sie sind
zu unspezifisch, um eine technologische Weiterentwicklung zu erforschen. Im Vordergrund der Arbeit
stehen daher die Angebotsentwicklung mit ihrem Bezug auf flexible Wissensobjekte und vagen oder
komplexen Kontexten.
Solche Prozesse sind derzeit personal- und wissensintensiv und wirken durch den fokussierten
Einsatz hoch qualifizierter Mitarbeiter im Vergleich zum breiten Einsatz von geringer qualifizierten
Arbeitskräften in Standardprozessen. Diese wissensintensiven Prozesse sollen durch aktive und intelligente Prozessunterstützung und Automatisierung produktiver werden.
1.1
Wissensverteilung ist nicht ausreichend für aktive Unterstützung wissensintensiver Prozesse
Schnelle Reaktionszeiten und geringe Erstellungskosten sind Erfolgsfaktoren im IT Service Markt.
Wesentlich sind diese bei der effizienten Angebotserstellung im zunehmenden Wettbewerb.
Davenport (2005) fordert zur Steigerung der Produktivität von Wissensarbeitern die ergänzende Berücksichtigung ihrer Netzwerke und physischen Arbeitsumgebung in Ergänzung zu ihren Prozessen
und Fähigkeiten.
Bestehende und etablierte Ansätze des Wissensmanagements sind Nonaka und Takeuchi (1995),
Boisot (1999) oder Probst (1997). Sie erklären die Bereitstellung von Wissen durch Verteilung und
Nutzung organisationalen Wissens. Sie stellen Methoden, Infrastruktur und Gedankenmodelle für die
kontinuierliche Prozessverbesserung und das Unternehmensverständnis aus der Wissensperspektive
zur Verfügung. Sie erreichen damit zwar eine Transparenz über die organisationale Wissensbasis, aber
keine ausreichende aktive technologische Unterstützung des Individuums und seiner Arbeitsumgebung.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
16
Sie konzentrieren sich nur auf die Verteilung von vorhandenem organisationalen Wissen, in der
Praxis unterstützt durch meist zentrale Wissensmanagementsysteme. Das Management von Wissen
hatte daher zunächst die Aufgabe, die konkurrierenden Sichtweisen zu koordinieren, zu balancieren
und situationsgerecht einzusetzen. Die sprachliche Verwirrung beginnt schon bei der Definition von
Wissen selbst. Es gibt verschiedene Definitionen, die in der Praxis dazu führen, dass zunächst das gemeinsame Verständnis zu definieren ist, bevor eigentliches Wissen transferiert oder entwickelt werden
kann.
Verarbeitendes Gewerbe (Industrie)
Informationsverarbeitendes Gewerbe (Medien)
Ebene
Dienstleistungen
Individuum
Innovationsprozess
(Wissensverteilung)
Angebotsprozess
Wartungsprozess
Produktion
Gruppe
Projektmanagement
Bisher
Unternehmen
Jetzt
(Wissensentwicklung)
arbeitsintensiv
wissensintensiv
WissensIntensität
Abb. 1. Individuelle Wissensentwicklung im Angebotsprozess
Wissensmanagement (WM) etablierte sich in der betrieblichen Praxis, wie die eigene Darstellung in
Abbildung 1 zeigt, mit dem Fokus auf die Wiederverwendung und -verteilung vorhandenen Wissens auf Unternehmensebene. Best practice sharing ist ein etablierter Ansatz, erfolgreiches Wissen auf
ähnliche Situationen zu übertragen. Es gelingt damit, Erfolgsansätze statt Probleme im Unternehmen
zu verbreiten, ggfs. Methoden zu übernehmen und Ansprechpartner zu identifizieren, die weiterhelfen
können. Hierfür wurden unternehmensweite Wissensportale aufgebaut und Wissen kodifiziert. Wissensmanagement wurde als Stützprozess im Unternehmen betrachtet. Aus technologischer Sicht wurde
WM als erweitertes Informationsmanagement und aus personalpolitischer Sicht als Erfahrungsaustausch verstanden. Alle Perspektiven greifen ineinander und bilden ein sozio-technisches System.
Nicht genutzte Wissensbausteine stellen hohe Opportunitätskosten dar. Der Schatz des verfügbaren
Potentials an Bausteinen wird im Unternehmen nicht gehoben. Die entgangenen Möglichkeiten werden unter Investitionsgesichtspunkten als rechnerische Kosten betrachtet.
In jüngster Zeit wurden die etablierten Ansätze der Wissensverteilung durch Ansätze einer organisatorischen Wissensentwicklung ergänzt, wie van Krogh (2000) mit „enabling knowledge creation“.
Sie beschränken sich aber auf die organisatorische Ebene. Sie sind damit in ihrer Komplexität technologisch schwer abbildbar. Als Dokumentenmanagementsysteme leisten sie nur passive Prozessunterstützung.
1.2
Fehlende Prozesse und statische Tools erlauben keine aktive Prozessunterstützung
Die servicebezogene, wissensintensive Wertschöpfung ist in sich komplex und bringt Wissen selbst
als verkaufsfähige Leistung in Form von Beratung, Softwareentwicklung, Reisedienstleistungen, Forschung oder Entwicklung hervor (Horster 1993, S.5). Kennzeichnend für wissensintensive Prozesse
sind schwach strukturierte Probleme. Ihre dezentrale Entstehung machen sie komplex und erfor-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
17
dern häufig kreative Leistungen zur Lösung. Ihre Ergebnisse im Sinne von Wissensobjekten sind flexibel.
Dienstleistungen, verstanden als knowledge service, sind personengebunden und schlecht skalierbar. Je spezifischer und individueller, desto teurer wird die Leistung. Entscheidend im Wettbewerb ist
aber zunehmend die Fähigkeit, kundenspezifische Anforderungen mit günstigen Konditionen intelligent zu kombinieren.
Allen Beispielen ist gemeinsam, dass Wissen nicht nur ein unterstützender Faktor ist, sondern die
Kernressource darstellt. In einer Produktion kann es unterstützend zur Reduzierung der Fehlerquote
dienen, während es in der Angebotsentwicklung Kern des Wissensproduktes Angebot ist (Hofer-Alfeis
2003, Ofek 2002). In der Beratung können Projekterfahrungen zwar in Wissensportalen für den Austausch dokumentiert werden, sie stiften aber nur bedingt Nutzen, da Lösungen kundenspezifisch entwickelt werden. In der Beratungspraxis bedarf es personenbezogener, aber zeitaufwendiger Best Practice- oder Debriefing-Foren, um die Erkenntnisse weiterzugeben.
Zur Optimierung dieser Prozesse stellt sich die Frage nach Ersatz teurer Wissensarbeiter durch intelligente Technologien. In der Praxis sind Prozesse zwar weitestgehend über Prozessarchitekturen
beschrieben, allerdings mangelt es dabei an relevanten Informationen und Informationsmodellen. Ohne diese Verknüpfung zwischen Prozess und Systemen lässt sich der Informations- und Wissensprozess nur schwer systemgestützt verbessern.
Nach Maier (2005) können wissensintensive Prozesse beim Inhalt, den Personen oder dem Prozess
selbst ansetzen. Für die inhaltsbezogenen Prozesse gibt es Methoden wie lessons learned. Für personenbezogene Prozesse werden kommunikationsorientiere Formen, wie communities, eingesetzt. Für
die Prozesskomponente an sich existieren erst wenige etablierte Ansätze. Bestehende Workflow-,
Wissensmanagement- oder Proposal-Automation-Systeme behandeln Wissen als Informationsobjekte
und nicht als Wissensprozess. Dieser würde Informationen aus einem in den Workflow integrierten
Kommunikationsprozess kontinuierlich bereitstellen (Wilson 2001). Die Unterstützung von Arbeitsprozessen wäre leichter, wenn es starre Workflows gäbe. Sie eignen sich in der Praxis aber nur für statische Prozesse. Lebende und dynamische Prozesse, die individuelle Kundenbedürfnisse adressieren,
bedürfen einer Assistenz und aktiven Unterstützung.
Heutige Entscheidungsunterstützungssysteme stellen lediglich entscheidungsrelevante Daten
nach vordefinierten Kriterien bereit und versuchen, Informationen zugänglich zu machen. Sie stellen
nur einen passiven Support durch Retrieval-Technologien oder Abruf von Wissen aus Datenbanken.
Im Anwendungsbeispiel der Angebotserstellung bei Siemens IT Solutions (SIS) suchen Sales Manager beim Beantworten von Kundenanfragen nach ähnlichen und erfolgreichen Angeboten. Wenn sie
selbst nicht schnell fündig werden, beauftragen sie meist einen Vertriebsassistenten, einen Entwurfsvorschlag zu machen.
Das Entstehen eines solchen Angebots ist zwar in seiner Vorgehensweise, nicht aber in seiner inhaltlichen Entstehung prozessual beschrieben. Bestehende Proposal Automation Tools können daher
nur statische Inhaltskomponenten zusammensetzen (Dokumentenhandhabung und Erzeugung mit
Textbausteinen), aber nicht in dynamischer Abhängigkeit zu den Kundenanforderungen.
SAP (www.sap.com) bietet in seinem neuen CRM-Rahmen einen „Sales Assistant“, der den Nutzer schrittweise durch den Angebotsprozess führt. Dieser stellt ihm individualisierte Informationen bereit. Auch wenn er eine bessere Prozessintegration anbietet, müssen die Informationen vorher nutzerspezifisch definiert und designed werden. Es wäre daher hilfreich, diese automatisch aus dem
Nutzerverhalten oder der Rolle dynamisch und anlassbedingt ableiten zu können. In der Praxis müssen
Berichte und Abfragen in Abhängigkeit des Kunden oder seiner hypothetischen Anforderungen aufwendig vordefiniert werden. Nach wie vor bedarf es einer Umformulierung des Informationsbedarfs in
Suchanfragen und Schlagworte.
18
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Interviews mit SIS Vertriebsmitarbeitern konkretisieren die Problemstellung in der Praxis und damit
die Anforderungen an einen dynamischen Informationsassistenten:
• Heterogene Ablagestrukturen und -systeme zwischen Mitarbeitern sowie zu starre Inhaltsstrukturen in Vertriebscommunities auf zentralen Systemen.
• Begriffsdifferenzen in der Verschlagwortung und Bezeichnung (Call-Center vs. Help-Desk)
• Fehlende, qualitätsgesicherte Wissensobjekte in zentralen Systemen ohne Verschlagwortung.
Informationen werden häufig lokal gehalten und wegen hohem Redaktionsaufwand nicht veröffentlicht.
• Gefundene Information ist meist allgemein (Templates) und zu unspezifisch, um ihren Wert
einzuschätzen („wurde das alte Angebot gewonnen oder verloren ?“, „sind die Preise noch aktuell ?“, „war dies eine Standard- oder Individuallösung ?“). Ihre Qualität ergibt sich aus der
Anwendbarkeit und dem stiftbaren Nutzen in den Anwendungssituationen. Ihre Einschätzung
bedarf nach Smith einer realistischen Validierungszeit (Smith 2000, S. 26).
• Geringer Dialog zwischen beteiligten Rollen (Proposal Manager und Sales Manager) führt zu
Missverständnissen und Informationsdifferenzen. Ergebnisse von Kundengesprächen werden
zu spät weitergegeben, da sie vom Sales Manager als nicht relevant erachtet, für den Proposal
Manager aber vielleicht eine wichtige Kontextinformation sind.
• In den Rollen werden nur ihre Aufgaben modelliert und berücksichtigt, aber nicht ihr Intentionen und Erfahrungslevel (Experte oder Junior).
Fraglich ist also, warum eine aktive Prozessunterstützung derzeit nicht möglich ist.
1.3
Leistungsfähigkeit neuer, intelligenter und semantischer Technologien noch
nicht hinreichend deutlich
Die Entwicklungen des Semantic Web und Web 2.0 zeigen neue technologische Möglichkeiten, wie
semantische Suche, Vernetzung von Mitarbeitern und durch die Bereitschaft der Nutzer, mehr Daten
von sich bereitzustellen, weitere virtuelle Formen der Zusammenarbeit (O’Reilly 2005). Intelligente
Technologien versprechen einen flexiblen Umgang mit komplexen und wissensintensiven Prozessen,
in denen Agenten Preise vergleichen oder Informationen suchen. Das Semantic Web nach Berners-Lee
verfolgt technologische Ansätze, um die Bedeutung von Informationen mit geringerem Redaktionsaufwand zugänglich zu machen (Berners-Lee 2005).
Diese Möglichkeiten der Technologien verleiten, Visionen als Zielrichtungen zu artikulieren.
„Technologien entwickeln Wissen situationsspezifisch aus vernetzten Wissensquellen“ oder „Technologien betten sich automatisch in die individuelle Arbeitsumgebung ein“ sind vielleicht zu hoch gegriffen, aber dennoch Ansporn, ihnen einen Schritt näher zu kommen.
Der Wettbewerb um die Schach-Weltmeisterschaft zwischen Mensch und Maschine erneuert daher
die Frage, ob das Ziel von Maschinen ist, den Menschen zu ersetzen oder ob sich nicht unterschiedliche Fähigkeiten besser ergänzen. Für manche Situationen eignet eine sequentielle Logik, für andere
bietet die Parallelität der Rechnerlogik Vorteile.
Es ist deshalb in jedem Prozess zu unterscheiden, ob personenabhängige, wissensintensive Prozesse
durch Automatisierung von Teilprozessen unterstützt werden oder als ganzer Prozess ersetzt werden
sollen (Lang 1999). Es ist ein Unterschied, ob ich einen Prozess durch verbesserte Suchen unterstütze
oder den Reiseberater beim Preisvergleich von Reiseangeboten ganz ersetze.
Aus der Summe der unterstützten Teilprozesse ergibt sich der „Grad der Ersetzbarkeit“. Je arbeitsund wissensintensiver ein Prozess, desto bedeutender die Schnittstelle zwischen Mensch und Maschine (Siemens 2002, S.55). Die Rolle der Technologie ist abhängig vom Mehrwert durch den Mitarbeiter, der sich aus der Wissensstrategie ergibt. So kann ich zwar automatisch ein Angebot erstellen, der
Auftragserfolg hängt aber von der persönlichen Beziehung ab. Hierüber lassen sich Wettbewerbsvorteile herausarbeiten. Die Automatisierung ermöglicht Wettbewerbsvorteile nur durch Optimierung von
Standardprozessen. Je wissensintensiver die Prozesse, desto höher der Nutzen durch eine technologische Abbildung, desto geringer aber das aktuelle Verständnis. Die Kreativität in Innovationsprozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
19
ist technologisch schwerer zu fassen als standardisierte Versicherungsangebote im Internet. Der betriebswirtschaftliche Nutzen der Technologie liegt damit in seiner Abbildbarkeit und Fähigkeit der
Wertschöpfung.
Die mangelnde Einbindung von Wissensplattformen in den Arbeitskontext und die fehlende Beobachtungsfähigkeit und Abbildung von Intentionen von Systemen könnten Gründe sein, warum derzeit
noch händische Pflege von Metadaten nötig ist.
Trotz Forschung auf den Gebieten des ubiquitous und pervasive computing, der location-based services und der Ontologien besteht noch keine hinreichende Einigung über die Parameter von Kontexten und Situationen in Dokumenten. Zur Berücksichtigung von Kontexten ist ein Gesamtkonzept nötig, das die Stärken der Einzeltechnologien zielgerichtet kombiniert. Es könnte für Standards sorgen,
die die Kommunikation zwischen dezentralen Einheiten erlaubt. Damit verbunden ist die Frage, ob
sich solche Standards nur in zentralen Systemen etablieren lassen oder ob dies auch oder gerade in dezentralen Systemen möglich ist (Eberl und Theis 2002, S.11).
Die Rolle des Menschen verlagert sich zunehmend in die Rolle der Koordination und Balancierung
unterschiedlicher Technologien. Offen ist, bis zu welchem Grad (in welchen Situationen und Prozessen) künstliche Intelligenz und intelligente Technologien ein geeigneter Einsatz sind, und wo und
wann der Mensch seine Stärken einsetzen kann.
1.4
Repräsentation des subjektiven Charakters von Wissen derzeit nicht technologisch abgebildet
Der Versuch, die Erfahrungen und zugrundeliegenden Rahmenbedingungen zu dokumentieren und
über Wissensplattformen allgemein verfügbar zu machen, wird durch die Kontextabhängigkeit von
Wissen erschwert. Die Erfahrungen mit organisationaler Wissensentwicklung zeigen, dass Wissen einen subjektiven Charakter besitzt. Nach North (2005) erlangen Informationen erst durch ihre Anwendung Relevanz und werden zu Wissen.
Technologisch müsste damit zur Unterstützung der Wissensentwicklung weniger der organisationale Rahmen mit seiner Vielzahl an Kontexten als vielmehr der einzelne Wissensarbeiter mit einem dynamischen und individuellen Umfeld im Vordergrund stehen. Die Steigerung der Relevanz von Informationen sollte als kontextspezifische Wissensentwicklung verstanden werden.
Der Versuch, Situationen und Erfahrungen sprachlich zu explizieren, um sie weitergeben zu können, unterliegt dem Trugschluss, dass alle unter den sprachlichen Begriffen das Gleiche verstehen und
nach einmaliger Explikation eine 1:1-Übertragung stattfinden kann. Sprache ist eine Repräsentationsform.
1.5
Hoher Redaktionsaufwand für Einsatz von Wissensmanagement-Technologie
Der Nutzung der Wissensressourcen steht damit, operativ gesehen, ein hoher Redaktionsaufwand
zur Pflege und Qualitätssicherung gegenüber. Die Verschlagwortung von Textbausteinen in Proposal
Automation Tools als Explizierung des Kontextes erfordert viel Aufwand und deckt letztlich den Bedarf der neuen Situation nur bedingt ab. Allein der Dialog ermöglicht den Austausch und die Einbettung der Erfahrungen in den neuen Sachverhalt. Oft ist die Herkunft von Wissen unbekannt und nur
zeitintensiv zugänglich (Einholen unterschiedlicher Perspektiven, Expertengespräch, Anwendung von
Methoden, Selbstreflexion, Explikation, Kapazitätsgrenzen von Systemen (Abdecker et al. 2000)). In
seiner expliziten Form bedarf die Bereitstellung dieser Art von Wissen eines hohen Pflegeaufwandes,
um dem stetigen Verfallsprozess entgegenzuwirken. Systemen fällt es noch schwer, den Kontext selbst
zu erfassen. Dieser muss über aufwendiges Design der Meta-Daten bereitgestellt werden.
Grund hierfür ist eine aufwändige Standardisierung und Qualifizierung von Wissensbausteinen
außerhalb des Anwendungsprozesses. Dies gelingt für grundlegende Arbeitsmittel, wie Vorlagen oder
wenig dynamische Inhalte.
Die detailliertere Modellierung von Prozesssituationen und deren Unterstützung von situationsgerechten Informationen erzielt zwar in (teil-)standardisierbaren Prozessen Fortschritte, bedarf aber zur
20
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Steigerung der Informationsrelevanz einer individuellen Perspektive des Nutzers. Sie wird heute nicht
berücksichtigt.
1.6
Monodisziplinäre Ansätze der Wissenstheorie blockieren das Verständnis der
individuellen Wissensentwicklung
Das Verständnis von Wissen, Intelligenz und Erkenntnis sowie deren technologische, künstliche
Abbildung und Nutzung beschäftigt seit Jahrhunderten verschiedene wissenschaftliche Disziplinen,
wie Neurobiologie, Soziologie, Psychologie, Philosophie, Betriebswirtschaft und Technologie.
Philosophen und die theoretische Physik haben schon frühzeitig versucht, das „Weltwissen“ zu erklären. Pädagogen suchen nach Wegen, die Aufnahme und Vermittlung von Wissen in Lern- und Bildungsprozessen zu verbessern. Mediziner und Neurobiologen sind der Frage auf der Spur, wo und
wie das Wissen im Gehirn gespeichert wird. Psychologen versuchen hinter die Geheimnisse des Bewusstseins zu kommen und Kognitionsprozesse zu verstehen.
Hinzu kommt in jüngster Zeit das Interesse der Betriebswirte für komplexe Organisationsformen
und Netzwerke.
Der Versuch, „Wissen“ aus einer Disziplin heraus zu erklären und zugänglich zu machen, ist bisher
nicht oder nur unter der Perspektive der eigenen Disziplin gelungen. Letztlich befasst sich die Wissenschaftstheorie als Meta-Wissenschaft und Teilgebiet der Philosophie damit zu untersuchen, mit welchen Methoden der Bildung, Bewährung und Anwendung wissenschaftlicher Theorien und Begriffe
größte Erfolge zu erzielen seien (Lamnek 1988, Bochenski 1993, Schnapp 2004). Sie ist damit fast
selbst eine Erkenntnistheorie (Epistemologie). Im vorliegenden Forschungsvorgehen bietet sie wertvolle Anregungen und Vorgehensweisen für die Wissensentwicklung.
Für den Erkenntnisgewinn bedient sich die Wissenschaftstheorie Methoden, wie Beobachtung, Aufzeichnung, Dokumentation, Versuch und Irrtum, Experiment, Messung, Vergleich, Befragung oder Interview (Maturana und Varela 1987). Diese Methoden finden sich als deduktive, logische Ableitung
des Besonderen vom Allgemeinen und als induktive Ableitung des Allgemeinen vom Besonderen
(Meyer et al. 1969, S. 1449). Als deduktiv wird die menschliche Heuristik betrachtet. Heuristik ist das
Prinzip auf methodischem Wege, Neues zu finden (Schischkoff 1991, S. 277). Sie basiert auf Hypothesen und Modelldarstellungen als Hilfsmittel und findet in der Mathematik Anwendung.
So unterschiedlich die Disziplinen und Blickwinkel sind, so ist ihnen doch allen gemein, dass erst
die Verknüpfung der Erkenntnisse und Zusammenschau der Perspektiven eine erweiterte Erkenntnis
von „Wissen“ und seinen Prozessen ermöglicht (Wilson 1998).
All dies können Ansätze sein, Wissen und seine Kontextabhängigkeit handhabbarer zu machen. Offen ist, wie diese Erkenntnisse in einem Zusammenhang stehen und miteinander wirken.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
21
2 Ziel und Beitrag der Arbeit
Mit Hilfe der Wissensentwicklung soll die Arbeit eine Balance zwischen treibenden und fordernden Herausforderungen finden. Wie die eigene Darstellung in Abbildung 2 zeigt, lassen sich
hieraus neue Dimensionen der betrieblichen Erfolgsfaktoren „Beherrschung von Komplexität“ und
„fokussierter Personaleinsatz“ erzielen.
Push
• Möglichkeiten intelligenter
Technologien
• Neurologische
Erkenntnisse über
Kognitionsprozesse
Beherrschung von
Komplexität
Wissensentwicklung
Fokussierter
Personaleinsatz
Pull
• Optimierungsbedarf
wissensintensiver
Prozesse, v.a. bei
Dienstleistungen
• Grenzen des
Wissensmanagements,
mit der Fokussierung
auf Wissensaustausch
Abb. 2. Treibende Faktoren für die Diskussion der Wissensentwicklung
Die Arbeit legt dabei ein konstruktivistisches Verständnis von Wissen zugrunde. Sie leitet daraus
das Verständnis von Wissensentwicklung als situations- und intentionsgebundene, aktive Prozessunterstützung auf individueller Ebene ab. Zugleich beschreibt die Wissensentwicklung im Sinne der
Selbstähnlichkeit auf organisatorischer Ebene die Entwicklung von Wissensprodukten und -services
als Ergebnis wissensintensiver Prozesse.
Damit will die Arbeit bisherige Ansätze des organisatorischen Wissensmanagements unter Nutzung
neuer interdisziplinärer Erkenntnisse und technologischer Möglichkeiten weiterentwickeln.
Die Arbeit zeigt im Praxisrahmen am Beispiel der Angebotsentwicklung bei Siemens IT Solutions
(SIS) einen Ansatz auf, sich dem subjektiven Charakter von Wissen technologisch mit Hilfe des
Semantic Desktop zu nähern. Dafür werden insbesondere die Auswirkungen von Rollen in homogenen und heterogenen Arbeitsumgebungen getestet.
Die Erkenntnisse sollen zusammen mit Auswertungen der Literatur einen Rahmen der individuellen Wissensentwicklung (Knowledge Creation Framework) bilden. Es ordnet die Erkenntnisse und Erklärungen in die Diskussion über Wissensentwicklung ein und stellt sie strukturiert einer weiteren wissenschaftlichen Diskussion und Forschung zur Verfügung. Es fasst damit den Ansatz der
Wissensentwicklung zusammen und grenzt ihn zur organisationellen Wissensverteilung ab.
Die Arbeit leistet mit der Erweiterung bestehender Ansätze der Wissensverteilung um Szenarien
der Wissensentwicklung einen Beitrag zum betriebswirtschaftlichen Wissensmanagement. Die optimale Nutzung der Ressource Wissen beruht damit nicht mehr nur auf ihrer Verteilung und Wiederverwendung, sondern vor allem auf der Unterstützung ihrer ständigen kontextspezifischen Entwicklung. Die Arbeit fordert, Wissen nicht mehr nur als Zustand und Objekt zu verstehen, sondern als
Prozess und Perspektive auf eine Situation. Die Diskussion ergänzt bestehende organisatorische Ansätze des Wissensmanagements um Aspekte des Individuums. Sie ermöglicht und fordert damit die
Weiterentwicklung von Modellen im Hinblick auf expliziten Umgang mit heute noch implizitem Wissen als Basis zielgerichteten Einsatzes von Technologien.
Im Forschungsrahmen der Informatik trägt die Arbeit dazu bei, semantische Technologien, am
Beispiel des Semantic Desktop, durch Praxistests auszureifen. Ein iterativer Dialog zwischen Entwicklung und Praxis prägt die Forschungsarbeit. Sie stellt die nicht repräsentativen Erfahrungsberichte
aus der Entwicklungsumgebung mit Hilfe eines Recall/ Precision-Tests im Praxisumfeld auf ein
nachweisbares und wiederholbares Fundament. Darüber hinaus erweitert sie die Ergebnisse um die
Konkretisierung, in welchen Anwendungsfällen sie welche Verbesserung erfahren.
22
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Der Bezug zu praxisnahen Anwendungsfeldern und betrieblichen Prozessmodellen verankert aus
Sicht der Wirtschaftsinformatik die strukturierte Darstellung der Zusammenhänge beider Erkenntnisfelder im Modell der Wissensentwicklung. Auf dieser Basis lassen sich semantische Technologien
auf die Erstellung von Forschungsarbeiten oder das Projektmanagement übertragen. Das Modell bietet
eine Leitlinie für die Weiterentwicklung prozessunterstützender Technologien und ihrer Integration in
Applikationen und Architekturen. Als integrierendes und verbindendes Element wird die Rolle um
informationstechnische Definitionen in ihren heute sehr aktivitäts- und verantwortungsorientierten Definitionen erweitert. Sie ermöglicht die Modellierung von Informations- und Wissensflüssen entlang der Aufgaben im Prozess. Die Arbeit erweitert bekannte situationsspezifische Kontextinformationen um intentionsspezifische Aspekte aus der Perspektive des Wissensarbeiters. Dies
vermeidet für den Wissensarbeiter den Sprung aus dem Prozess der Angebotsentwicklung in einen
Suchprozess unter Reformulierung der Anfragen. Er kann im Gegensatz dazu dann aus Vorschlägen
wählen, statt sich diese erst suchen zu müssen.
Wissen ist ein interdisziplinäres Forschungsfeld mit Beiträgen aus den Bereichen philosophischer
Erkenntnistheorie, bio-medizinischer Neurologie, individueller Psychologie, betrieblichen Managements und technologischer Repräsentation. Die Ergebnisse können reziprok auf die Erkenntnisbereiche zurückwirken und diese anregen. Die Arbeit stellt keinen Anspruch auf wissenschaftliche Erkenntnisse in diesen Bereichen. Ihr Fokus liegt auf der Rolle der Semantik.
Tests im betrieblichen und praxisnahen Umfeld sind mit umfangreichen Datenschutzauflagen und
Dateninkonsistenzen zwischen wissensintensiven Prozessen verbunden. Es wurde für den Test daher
mit der Angebotserstellung bei SIS ein homogener Untersuchungsbereich herausgegriffen. Innerhalb
dessen erfolgt der Vergleich und Test zwischen differenzierenden Situationsausprägungen und Szenarien. Die Arbeit erhebt keinen Anspruch auf eine Allgemeingültigkeit des Modells über wissensintensive Prozesse hinweg (Modell der Wissensentwicklung). Sie postuliert für weitere Forschungen,
dass eine Anwendung des Modells und der Technologie zu ähnlichen Test-Ergebnissen führt
und als Modellierungs- und Planungshilfe für ähnliche Prozesse dient.
Trotz der praxisnahen Untersuchung leitet sich aus der Arbeit keine finale Empfehlung für den
Einsatz im untersuchten Praxisrahmen bei Siemens IT Solutions and Services ab. Eine derartige
Entscheidung wäre im Spiegel betrieblicher Rahmenbedingungen von Applikationsstrategie, Systemlandschaft und -strategie sowie der Kosten oder Sicherheitskonzepte zu bewerten. Sie ist nicht Untersuchungsgegenstand der Arbeit. Die Testergebnisse ermuntern jedoch zu dieser Prüfung.
Inhaltlich konzentriert sich die Arbeit auf Dokumente als derzeit technologisch fassbare Abstraktionsebene von Dokumenten. Auch wenn es für die Unterstützung der Angebotsentwicklung sehr
hilfreich wäre, berücksichtigt die Arbeit keine Strukturanalysen von Dokumenten, um Storylines oder
andere Abstraktionsebenen von Informationen miteinander zu vergleichen. Zur späteren Untersuchung
dieser Ebenen kann dann auf das zu entwickelnde Modell der Wissensentwicklung zurückgegriffen
werden.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
23
3 Forschungsansatz und -methode
Nach Becker et al. (Becker et al. 2003) wirkt „die Forschung in der Wirtschaftsinformatik (...) im
Spannungsfeld der sich unterscheidenden Forschungsansätze der Mutterdisziplinen“ Wirtschaftswissenschaften und Informatik.
Hinzu kommt die Herausforderung in der Wahl des Forschungsansatzes, Ansatz und Objekt zu
trennen. Zum einen sind Wissen und seine Entwicklung in dieser Arbeit Erkenntnisobjekt per se, zum
anderen streben alle Ansätze, ob natur- oder sozialwissenschaftlich, danach, Wissen zu schaffen. Fraglich ist also, aus welcher dieser Perspektiven sich die Arbeit dem Erkenntnisobjekt Wissen am besten
nähern kann.
Die Autoren empfehlen eine „weitreichende Offenlegung der wissenschaftlichen Grundannahmen
und Vorgehensweisen“. Im Folgenden sollen daher mögliche Forschungsansätze für die Forschung
der Wissensentwicklung diskutiert werden. Sowohl der theoretische Diskurs als auch die Einzelergebnisse der technologischen Evaluationen werden offengelegt und systematisch miteinander in Beziehung gesetzt.
3.1
Wissenschaftstheorie – Forschungsansatz oder Wissensentwicklungsprozess
Die Wissenschaftstheorie verallgemeinert und beschreibt die Wesen dieser Ansätze aus erkenntnistheoretischem Streben. Nach Lamnek bestimmt sie, „wie wissenschaftliche Erkenntnis zu gewinnen
ist“ (Lamnek 1988, S. 50). Sie versucht zu erklären, wie Erkenntnis überhaupt entsteht. Ihre Kernfrage
ist, welche Methoden zu anerkannten wissenschaftlichen Erkenntnissen führt.
Nach Bochenski ist Wissenschaft das Wissensgebiet und besteht aus einem subjektiven und einem
objektiven Teil (Bochenski 1993): Subjektiv ist Wissenschaft, wenn sie systematisch ist, wenn also
der Mensch das Gebiet methodisch durchforstet und neben Sachverhalten auch die Zusammenhänge
erkennt. Objektiv ist Wissenschaft, wenn es nicht um das Wissen per se, sondern um seine Repräsentation („in Zeichen dargestellt“) geht, um sie anderen Menschen zugänglich zu machen.
Novy und Jäger bezeichnen, stellvertretend für viele weitere Autoren, den subjektiven Teil als verstehend-induktiv und den objektiven Teil als erklärend-deduktiv (Novy und Jäger 2003). Diese Unterteilung gilt für verschiedene Wissensgebiete. Der Erkenntnisprozess unterscheidet sich dabei in quantitative und qualitative Methoden und einer Annäherung von innen (Soziologie) oder von außen
(Naturwissenschaft).
Eine Annäherung aus wissenschaftstheoretischer Sicht wäre damit eine philosophische Auseinandersetzung. Für die Untersuchung des Beitrags einer Technologie in betrieblichem Prozessumfeld erscheint dies nur bedingt geeignet und erkenntnisstiftend. Nichtsdestotrotz bietet die Wissenschaftstheorie interessante Aspekte für die Wissensentwicklung, ihre Prozessen und Methoden. Die
Erkenntnisse aus dem Praxisfall und Technologietest sollen in der Diskussion von Wissensentwicklung hierzu in Bezug gebracht werden.
Alle Forschungsansätze verfolgen das Ziel, Ansätze zu entwickeln und kontextspezifische Informationen bereitzustellen. Klassische, quantitative Forschungsansätze, wie sie aus den Naturwissenschaften bekannt sind, sind qualitativen Ansätzen, wie sie in den Sozialwissenschaften angewandt
werden, in ihrem Ziel, Gesetzmäßigkeiten zu finden und mit Hilfe dieser Phänomene zu erklären, ähnlich. Sie unterscheiden sich im Verständnisansatz ihrer Untersuchungsobjekte. Sozialwissenschaftliche Ansätze sind intentional, das heißt, sie basieren auf mit Absichten handelnden Subjekten.
Naturwissenschaftliche Ansätze bemühen sich um subjekt- und intentionsunabhängige Gesetzmäßigkeiten.
Fraglich bleibt also, welcher Forschungsansatz für den vorliegenden Erkenntnisrahmen an der
Schnittstelle naturwissenschaftlicher (technischer) und soziologisch-betriebswirtschaftlicher Diszipli-
24
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
nen geeignet erscheint. Hars (2002, S. 42) gibt einen guten Überblick über verschiedene Ansätze der
Informationssystemforschung. Im Folgenden sollen mögliche Ansätze als Entscheidungsbasis kurz
diskutiert werden.
3.2
Besonderheiten naturwissenschaftlicher Ansätze
Charakteristisch für die naturwissenschaftliche Tradition ist die Isolation, Mathematisierung und
Reproduzierbarkeit der Ergebnisse. Sie versucht durch Experiment, Gesetzmäßigkeiten in der Natur
zu identifizieren. Sie löst damit Problemstellungen aus dem Zusammenhang, abstrahiert die gewonnenen Erfahrungen und prüft sie durch Wiederholung in einer objektiven und vom Forscher getrennten
Welt.
Die Zielsetzung allgemeingültiger Gesetzmäßigkeiten und eines einzelnen Sachverhalts greift bei
der Erklärung sozialer Phänomene zu kurz (Lamnek 1988, S. 7 und Teich 1996, S. 5-7). Sie unterrepräsentiert mit der deterministischen Wahrnehmung der Wirklichkeit Zusammenhänge, wie den Charakter von Wissen als soziales Phänomen, repräsentiert durch die Interpretationen einer Gruppe. Je
nach Situation ist der Bedeutungsinhalt anders und in Abhängigkeit des Beobachters zu deuten.
Die experimentelle Bestätigung komplexer Modelle setzt, wie beschrieben, eine Bekanntheit und
Isolierbarkeit stabiler Einzelaspekte voraus. Wissen als soziales Phänomen birgt in seinem konstruktivistischen Verständnis eine Konnektivität mit dem Prozess, die derzeit schlecht experimentell
isoliert fassbar ist. Sie beschreibt den Komplex weniger von außen unter verschiedenen Bedingungen,
als vielmehr aus einer Innensicht auf Basis selbstorganisierender Prozesse. Einzelne Prozessstufen der
Wissensentwicklung innerhalb eines Individuums wären nur psychologisch-neurobiologisch fassbar.
Diese Erkenntnisse sollen zwar genutzt, aber nicht psychologisch-neurobiologisch entwickelt werden.
Fassbar sind jeweils nur seine Repräsentationsformen in Form von Dokumenten, deren Wert aber
nicht in der Isolation, sondern im Zusammenspiel entsteht.
3.3
Besonderheiten sozialwissenschaftlicher Ansätze
Die Untersuchungsobjekte der Sozialwissenschaften sind vielmehr intentional, das heißt mit Absichten handelnde Einheiten. Der sozialwissenschaftliche Ansatz versucht also, aus subjektivem
Wissen objektive, systematisch geordnete Sätze zu machen (Teich 1996). Eine quantitative Sozialforschung trifft Aussagen über Häufigkeiten, Lage- und Verteilungsparameter und entwickelt Maße für
Sicherheit und Stärke, um Zusammenhänge (Korrelationen) und theoretische Modelle zu überprüfen
(Lamnek 1988, S.4).
Eine qualitative Sozialforschung bemüht sich das "Wie" von Zusammenhängen, vor allem aus der
Sicht des Betroffenen, zu erforschen (Lamnek 1988). Damit differenziert sie sich von der quantitativen
Sozialforschung durch den Anspruch, „Prozesse zu rekonstruieren, durch die soziale Wirklichkeit in
ihrer sinnhaften Strukturierung hergestellt wird“, anstatt existente Zusammenhänge zu überprüfen
(Lamnek 1988, S.41 und S21ff.).
Sie ist durch zentrale Prinzipien wie Offenheit, Prozessbezug, Reflexivität und Explikation geprägt. Diese Prinzipien legen nahe, ihnen für die Verarbeitung der Erkenntnisse zu folgen. Der Ansatz
ist bemüht, den Wahrnehmungstrichter gegenüber Person, Situation und Methode so offen wie möglich zu halten und nicht durch Kategorien und Standards einzuengen. Nach Teich entsteht eine Explorationsfunktion mit Verzicht auf eine Hypothesenbildung ex ante (Teich 1996). Das bestehende Vorwissen hat nach Glaser und Strauss lediglich Orientierungscharakter (Glaser und Strauss 1998).
Qualitative Sozialforschung soll den Konstitutionsprozess von Wirklichkeit dokumentieren, analytisch rekonstruieren und schließlich nachvollziehbar erklären können. Die Explikation der Einzelschritte des Untersuchungsprozesses und Regeln der erhobenen "Daten" (hier Testergebnisse) sichert
die Nachvollziehbarkeit der Interpretation, nicht die Nachbildbarkeit im Sinne einer quantitativen Untersuchung. Im Gegensatz zu quantitativen Analyse ergibt sich nach Lamnek daraus ein positiver Zirkel von Sinnzuweisung und Sinnverstehen (Lamnek 1988).
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
25
Sollte ein rein sozialwissenschaftlicher Ansatz in Frage kommen, könnte die individuelle Wissensentwicklung im Vordergrund stehen und anhand von Befragungen im Unternehmen belegt werden.
Befragungen zur Technologienutzung würden wieder nur die Interaktion mit der Technologie herausarbeiten. Sie gäben keine Aufschlüsse auf die Funktionsweise der Technologie. Die rein empirische
Konzentration auf auf die individuelle Wissensentwicklung würde zu einer psychologischen Sicht führen. Hier soll bewusst eine Sichtweise an der Schnittstelle von Technik und Wirtschaft beleuchtet
werden, um die Bedeutung und das Potenzial der Technologie im betrieblichen Rahmen abschätzen zu
können.
3.4
Besonderheiten betriebswirtschaftlicher Ansätze
Neben den beschriebenen Ansätzen wäre alternativ ein in der betriebswirtschaftlichen Forschung
üblicher fall-basierter Forschungsansatz denkbar (Yin 2003). Er könnte sich zum Vergleich von betrieblichen Anwendungsfällen eignen. Er würde aber nicht in die Tiefe der individuellen Wissensentwicklung vordringen und auf dieser Tiefe wenig vergleichbare Szenarien zur Verfügung haben. Außerdem lägen keine mehrfachen Implementierungen des verwendeten Semantic Desktop Prototypen
vor. Sie wären aus Gründen der Zugänglichkeit zu vergleichbaren Datenbeständen und Systemumgebungen nicht mit vertretbarem Aufwand installierbar. Die betrieblichen Rahmenbedingungen und der
subjektive Charakter von Wissen sowie der Entwicklungszustand und -prozess des Semantic Desktops
stellen den Forschungsansatz vor Herausforderungen.
Nachdem sich keiner der Ansätze in seiner Reinform für diese interdisziplinäre Diskussion zu eignen scheint, ist fraglich, ob nicht eine geeignete Kombination der Ansätze möglich wäre, um der
Komplexität und Interdisziplinarität von Wissen gerecht zu werden.
3.5
Besonderheiten kombinierter Ansätze
Die meisten Ansätze verstehen Wissen als eine objektivierte Wirklichkeit und als einen Zustand.
Sie setzen ausreichende Praxisfälle (cases) oder Datenbasis voraus. Im vorliegenden Fall geht es nicht
um das Überprüfen der besten Form der Wissensverteilung im Sinne von präzisen Hypothesen. Genauso wie soziale Phänomene nicht außerhalb des Individuums existieren, kann Wissen nicht losgelöst
vom Individuum betrachtet werden. Es bedarf der Berücksichtigung der sozialen Gruppe.
Mangels gegebenem Forschungsrahmen könnten top-down-Anleihen in anderen Disziplinen gemacht und bottom-up explorativ aus technologischen Möglichkeiten hergeleitet werden. Zur Zusammenführung beider Erkenntnisstränge in den Themenfeldern Technologie und Wissen böte sich ein
kombinierter Ansatz auf Basis qualitativer Methoden an. Er könnte Ansätze der Wissensentwicklung
untersuchen, die dem subjektiven Charakter von Wissen gerecht werden, um damit verstehen zu
wollen, wie sich personenabhängiges Wissen in allgemein verfügbares Wissen verwandeln lässt.
Für Wilson (1998) vermitteln Geistes- und Sozialwissenschaften nur Kunst und Kultur und addressieren die Gefühlsebene des Betrachters. Naturwissenschaften dagegen seien in der Lage, unsere Sinnessysteme so zu studieren, um neue Erkenntnisse und Informationen zu gewinnen (Wilson 1998, S.
158). Kultur bedient sich der Sprache, um Informationen auszutauschen (Wilson 1998, S. 176). Sie
kann sich selbst weiterentwickeln und neue Repräsentationen der Wirklichkeit hervorbringen. Die Sozialwissenschaften haben es nicht geschafft, ein „Kausalnetz (...) von der Gesellschaft bis zum
Verstand“ zu ziehen (Wilson 1998, S. 253). Sie bedienen sich vielmehr der Hermeneutik im Sinne der
Textauslegung aus Sicht von Beziehungen und Kulturen.
Beide Aspekte erscheinen Wilson in seiner Suche nach der Einheit des Wissens notwendig. Die
Ökonomie betrachtet er als beste Brücke zwischen den Disziplinen, da sie bereits den Dialog mathematischer Modelle mit den Komplexitäten menschlichen Verhaltens aufgenommen hat (Wilson 1998,
S.261). Er fordert aber ein neues psychobiologisches Verständnis für die Weiterentwicklung der in der
Ökonomie etablierten rationalen Entscheidungstheorie. Sie ist ihm zufolge keine „adäquate Wiedergabe der menschlichen Denkungsart“ und vernachlässigt Heuristiken (Wilson 1998, S.275).
26
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Es wird bestätigt, dass sich die Frage nach einer der beiden Forschungsrichtungen hinsichtlich des
Erkenntnisobjekts Wissen nicht eindeutig beantworten lässt, wenn dem interdisziplinären Charakter
von Wissen Rechnung getragen werden soll. Ein rein betriebswirtschaftlicher Ansatz dürfte mangels
vergleichbarer oder empirisch belegbarer Anwendungsfälle schwerfallen.
Bei Glaser und Strauss (1998, S. 8 und Teich 1996) finden sich mit der Grounded Theory, bei
Wadsworth (1998) mit der Action Research und bei March und Smith (1995) mit den Design Sciences drei kombinierte Forschungsansätze. Sie machen sich für die Erklärung der Erkenntnisse und zur
Entwicklung eines Modells der Wissensentwicklung die Erfahrungen der Sozialwissenschaften nutzbar und kombinieren sie mit den quantitativen Testmethoden für Technologien als Datenbasis. Im Folgenden werden die Ansätze kurz umrissen und gegeneinander abgewogen.
3.5.1
Action Research
Aufgrund der Intention, Ansätze des Wissensmanagements zu verändern und weiterzuentwickeln,
bietet die Action Research einen ähnlichen Ansatz (Wadsworth 1998). Sie stellt eine hohe Reaktionsfreudigkeit („responsiveness“) und Beteiligung in den Vordergrund. Sie versteht den Forschungsprozess als Lernzyklus, um durch systematische Reflektion direkt in der Praxis des Forschungsgebiets
zu lernen (Schön 1983 und 1987 oder Kolb 1984). Wie auch die Grounded Theory versucht sie mit
nicht-standardisierbaren, quantitativ erfass- und vergleichbaren Situationen umzugehen. Auch sie
braucht nicht wie klassische, quantitative Methoden fest definierte Hypothesen, die zu belegen oder zu
widerrufen sind. Es reichen vage Vermutungen, die sich über einen iterativen Prozess und Dialog konkretisieren. Es handelt sich um exploratives Forschen.
Action Research entstand nach Krause (2005) zu Anfang des 20. Jahrhunderts aus der Erkenntnis,
dass „statistische Auswertungen nur eine Scheingenauigkeit“ sind. Sie beruht nach Wadsworth
(1998) auf verschiedenen Vorarbeiten und Methoden: der Bewertungsansatz von Patton (1990) oder
Checklands (1981) soft systems analysis, Argyris’ (1985) action science, und Kemmis’ critical action
research (Carr and Kemmis, 1986). Action Research verspricht einen praxisnahen, dialektischiterativen Ansatz mit Hilfe unterschiedlicher Quellen. Dennoch erscheinen die Kernanforderungen −
Beteiligung und Reaktionsfreudigkeit − im vorliegenden Testfall des Semantic Desktop weniger bedeutend als der Ansatz der Grounded Theory, aus den Testdaten und Literaturerkenntnissen ein Modell abzuleiten.
3.5.2
Design Sciences
Design Sciences ist ein junger Forschungsansatz aus den 90er Jahren. Er hat seine Wurzeln bei
March und Smith (1995). Er entstammt dem Engineering und konzentriert sich auf Problemlösungen und Artefakte. Er will die Schwächen bestehender Forschung im Bereich der IT beheben und
dem Design-Aspekt in der Forschung Rechnung tragen. Für die Anwendung auf IT-Systeme kombinieren ihn Hevner et al. (2004) mit einem klassischen, verhaltensbasierten Forschungsansatz, der sich
aus den Naturwissenschaften ableitet. Aus dem Dialog beider Ansätze entfaltet sich nach Havner et al.
(2004, S. 2) das Potential für die Forschung der Informationstechnologie.
Die naturwissenschaftliche Verhaltensforschung ist bestrebt, Systeme im oganisationellen Rahmen und seine Wirkung im Hinblick auf ein definiertes Geschäftsproblem hin zu rechtfertigen und zu
erklären. Hierfür werden unterschiedliche Artefakte betrachtet: Konstrukte, Modelle, Methoden und
Systeme (Instantiations). Mit Hilfe der Feldforschung soll auf empirischer Datenbasis die Wahrheit ihrer Wirkung aufgezeigt werden.
Design Sciences dagegen erstellt Artefakte zur Problemlösung und testet sie auf ihre Nützlichkeit
mit Hilfe von mathematischen Methoden, wie Recall und Precision (Kapitel 11). Die Autoren unterscheiden Design, ähnlich wie Wissen in dieser Arbeit, in Prozess und Produkt. Sie verstehen den
Design-Prozess als Aktivitätenfolge zur Erstellung von Artefakten. Dies ähnelt dem Verständnis wissensintensiver Prozesse aus Kapitel 6. Artefakte werden erstellt, bewertet, verallgemeinert und gerechtfertigt und bewiesen. Nach Hevner et al. (2004, S. 3) gibt es in der Literatur einige Forschung zu
Instantiations (Systemen), Constructs und Methoden. Die Forschung an Modellen war ihnen zufolge
der Managementforschung überlassen. Hevner et al. (2004) geben einen Überblick (Hever et al. 2004,
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
27
S.18) über Design Evaluierungsmethoden. Hieraus erscheint für die Diskussion des Semantic Desktop der Test als Simulation und durch Szenarien hilfreich.
Carlsson (2006) unterstützt diese Haltung und Forderung nach einer Kombination verhaltensund designbasierter Ansätze für Information Sciences aus einer Perspektive des kritischen Realismus. Er fordert Designwissen und „grounded technological rules“ als Ergebnisse der Designforschung.
Von Aken (2004) überträgt diese Forderung auf die Managementforschung. Diese beruhte ihm zufolge mit den Organisationstheorien auch lange Zeit auf erklärenden Ansätzen. Mit Hilfe von beschreibenden Ansätzen möchte er dem Relevanzproblem der Managementtheorien begegnen.
3.5.3
Grounded Theory
Der Begriff bezeichnet nach Glaser und Strauss (1998) den Prozess einer gegenstandsverankerten,
realitätsnahen Theoriebildung. Hiernach stellt sie „keine einzelne Methode dar, sondern eine Reihe
von ineinandergreifenden Verfahren“. Sie entstammt qualitativen Methoden der Chicagoer Schule. Sie
betrachtet Wandel als konstantes Merkmal sozialen Lebens und erfasst den Standpunkt des Handelnden ausreichend. Nach Glaser und Strauss (1998, S. 15) ist herausstechendes Merkmal der Grounded
Theory, dass Hypothesen und Konzepte im Laufe der Forschung systematisch „mit Bezug auf die Daten ausgearbeitet“ und in Beziehung gebracht werden. Sie folgt einem induktiven Prozess mit dem
existenzphilosophischen Ziel, das Wesen der interessierenden Phänomene zu erkunden“ (Teich 1996,
S. 6). Sie kann nicht mehr von dem Prozess ihrer Entstehung getrennt werden, weil alle Interpretationsversuche an das gesammelte Datenmaterial herangetragen und präzisiert werden. Die Grounded
Theory beansprucht daher Plausibilität und nicht die Wahrheit allgemeingültiger Gesetze. Dies
spiegelt das typische Vorgehen der Grounded Theory nach Strauss und Corbin (1990) in Tabelle 1 wider:
Tabelle 1. Angewandtes Vorgehen der Grounded Theory
Vorgehen
Datensammlung
Sampling und Vergleichen
Beispielhafte Methoden
Sammlung, Atomisierung,
Kontrainduktion
Hermeneutische Betrachtung aus
Perspektiven anderer Disziplinen
Komparative Analyse
Theoriebildung
Iteratives Hypothesenbilden
Kodierung und Kategorisierung
Anwendung in der Arbeit
Test des Semantic Desktop, Literaturanalyse
Wissensentwicklung im Diskurs
Testszenarien, Diskussion im
Projektteam und Forschungscommunity
Knowledge Creation Framework
Die Zielsetzung verschiebt sich von der naturwissenschaftlichen Verifikation von Fakten hin zu
einer sozialwissenschaftlichen Erklärung von Fakten. Durch Kontrainduktion kann die Grounded
Theory ein Durchbrechen der bisherigen Analysen (Paradigma der Wissensverteilung) erreichen, indem erst einmal das Gegenteil (Wissensentwicklung) angenommen wird (Teich 1996, S. 8). Die Atomisierung (Teich 1998) und Reduktion von abstrakten Begriffen auf messbare Ebenen versucht Komplexitäten zu reduzieren. Der Begriff Wissen muss auf ein fassbares Dokument oder eine
beschreibbare Rolle reduziert werden. Durch die hermeneutische Betrachtung unterschiedlicher Perspektiven anderer Disziplinen, wie der Linguistik mit der Sprachentwicklung, gelingt es mit der
Grounded Theory, ein Netz von Kategorien (Bortz und Döring 2002) als Basis für ein Modell zu
knüpfen. Dies dient als Basis, um die aus den Daten hergeleiteten Erkenntnisse auf andere Situationen
zu übertragen und damit dem Risiko subjektiver Deutungen zu begegnen (Bortz und Döring 2002, S.
225). Dabei wird der erste Eindruck durch komparative Analyse in Form unterschiedlicher Testszenarien (theoretisches Sampling) mit der semantischen Suche des Semantic Desktops (Gnowsis) überprüft. Dabei steht in der Fallauswahl nach Glaser und Strauss (1998) weniger die Repräsentativität
im Vordergrund, sondern ihr Potential neuer Erkenntnisse. Ein interpersoneller Konsens kann
28
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
im Projektteam und in der internationalen Forschungsgemeinschaft durch Workshops hergestellt werden (Glaser und Strauss 1998, S. 31ff.).
Die Grounded Theory beruht unter anderem auf der Logik der Abduktion nach Peirce (1976). Sie
ist ein Erkenntnisverfahren in der sequentiellen Kombination aus zufälliger Ideenfindung aus überraschenden Ereignissen, deduktiver Hypothesenbildung und induktiver Verifizierung. Dabei wird eine
Regel konstruiert, die das überraschende Ereignis zu erklären sucht. Gäbe es diese schon und wäre
sie nur zu entdecken, wäre das Ereignis nicht überraschend gewesen. Abduktion führt die Entstehung
neuer Ideen formalistisch in den Wissensentwicklungsprozess ein.
3.6
Wahl der Forschungsmethode
Aus dem Spannungsfeld um die Wahreheit streitender traditioneller Forschungsansätzen wurden
mit den Design Sciences, Action Reserach und der Grounded Theory junge Mischformen und disziplinübergreifende Ansätze vorgestellt. Sie sind in ihrem allgemeinen Charakter ähnlich, unterscheiden
sich jedoch in ihrer Herkunft und damit in einzelnen Aussagen.
Gemeinsam sind ihnen der iterative Prozesscharakter und die beteiligte Rolle des Forschers am
Wissensentstehungsprozess. So wirkt sich in der vorliegenden Arbeit die Entwicklung des Modells der
Wissensentwicklung und die zugrundeliegende Literaturanalyse iterativ auf die Teststellung (Szenarien) aus. Zu Beginn der Forschung sind die zu untersuchenden Einflussfaktoren (Rolle, Dokumente)
nur teilweise bekannt.
Da sich die Definition der Testszenarien nicht direkt auf die Suchergebnisse auswirkt und die Auswahl der Daten davon unberührt blieb, kann der Einwand einer sich selbsterfüllenden Prophezeihung durch die Anpassung der Testdaten an ein intendiertes Ergebnis negiert werden. Nichtsdestotrotz
bringt es ein iterativer Prozess mit sich, die Auswahl der Testszenarien den Vermutungen aus der
theoretischen Erarbeitung des Modells so lange ohne Veränderung der Testdaten anzupassen, wie sich
Ergebnisse erzielen lassen, die die Vermutungen stützen.
Mit diesem Vorgehen und Ansatz leidet zwar die in klassischen Ansätzen geforderte Replizierbarkeit auf andere wissensintensive Prozesse, nicht aber die Replizierbarkeit des Tests in den definierten
Szenarien innerhalb eines wissensintensiven Prozesses. Aufgrund der spezifischen Datenbasis aus dem
Anwendungs- und Praxisrahmen und der hohen Hürden, eine vergleichbare Datenbasis aus anderen
wissensintensiven Prozessen im gleichen Charakter nachzustellen, ist eine Verallgemeinerung
schwierig. Für die Untersuchung der Subjektivität und Kontextspezifität des Forschungsgegenstandes
Wissen ist der Ansatz allerdings besonders geeignet.
Für die Forschung von spezifischen Fällen könnte sich insbesondere Action Research und Design
Sciences eignen, da die Forderung nach Generalisierbarkeit einer starken Einschränkung und Reduktion der Situation bedürfte.
Tabelle 2 wendet in Anlehnung an March und Smith (1995) hierfür die Vorgehensweise der Design Sciences auf die bekannten Artefakte an und zeigt diese als Kombinationsmöglichkeiten der Forschung mit dem Versuch, die Aspekte der vorliegenden Arbeit darin einzuordnen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
29
Tabelle 2. Ansatz der Design Sciences auf bekannte Aktefakte
B u ild
E v a lu a te
T h e o r iz e
C o n s tru c ts
EPOS
E n t w ic k lu n g
SD
Test
D is k u s s io n
d e r W ir k u n g
v o n R o lle n
M odel
( V e r s t ä n d n is
v o n W is s e n )
( W is s e n s in t e n s iv e
P ro z e s s e )
( W is s e n s e n t w ic k lu n g )
M e th o d
( K n o w le d g e
C r e a t io n
F ra m e w o rk )
J u s tif y
In s ta n tia tio n
Deutlich wird dabei, dass es sich für den technischen Teil sehr gut anwenden lässt. Die Arbeit leistet mit dem Praxistest des Semantic Desktop eine Evaluierung des im EPOS-Projekt hergestellten Artefakts. Die Ergebnisse werden in Beziehung zum betrieblichen Anwendungsrahmen theoretisiert und
in Bezug gestellt.
Beim Versuch, die wissenstheoretischen Aspekte und das Knowledge Creation Framework in die
Matrix einzubringen, zeigen sich Schwierigkeiten, da es sich nicht um technische Artefakte handelt, deren Nützlichkeit es zu testen gilt. So erscheint es schwierig die Diskussion um wissensintensive Prozesse als Evaluation der Eigenschaften von Wissen zu betrachten. Es sind vielmehr erklärende
Ansätze, um im Dialog mit den Testergebnissen die Nützlichkeit der Artefakte einzuordnen.
Da sich Information Sciences an der Schnittstelle zwischen Organisation, Menschen und Technologie bewegt, fordern Hevener et al. (2004) die Kombination von verhaltensbasierter und designbasierter Forschung. In ihrer Balance beheben sie die jeweiligen Schwächen. Verhaltensbasierte Ansätze erscheinen passiv in Bezug auf Technologien und tendieren dazu, Kontexttheorien überzubetonen.
Designbasierte Ansätze erscheinen aktiv in Bezug auf Technologie und tendieren dazu, zwar gut designed, aber im Anwendungsfall nutzlos zu sein. Action Research ist nach van Aken (2004, S. 233)
nicht unbedingt an der Entwicklung von übertragbarem Wissen interessiert. Nach Järvinen
(2007, S. 51) ist Action Research Design Sciences im Charakter sehr ähnlich. Besonders hervorzuheben sind die Übereinstimmungen in der teilnehmenden und initierenden Rolle des Forschers und der
Produktion von nützlichem Wissen aus dem laufenden, iterativen Prozess. Beide Aspekte finden sich
auch in der Grounded Theory wieder.
In der vorliegenden Arbeit sollen die Erkenntnisse und Daten aus dem Technologie-Test als beschreibende Basis für theoretische, erklärende Überlegungen der betrieblichen, wissensintensiven
Prozesse und der Wissenstheorien genutzt werden. Die von Hevner et al. (2004) geforderte Kombination soll mit der Grounded Theory gelingen. Für die Evaluation der Technologie werden Aspekte aus der Designforschung aufgegriffen und als Szenarien und Simulation angewandt. Die Erkenntnisse und Erfahrungen werden jedoch stärker als bei Design und Action Research in einen
erklärenden Theorierahmen eingebettet.
Die vorliegende Arbeit greift auch die Fundierung der Diskussion in philosophischen Theorien von
Carlsson (2006) auf. Durch den stärkeren Bezug zu Wissenstheorien statt reiner Informationstheorie
wird aber ein gemäßigtes Verständnis des Konstruktivismus als Grundlage gewählt. Es liegt wissenschaftstheoretisch sehr nah an den Vorstellungen des kritischen Realismus. Die Bezugnahme zum
Konstruktivismus wird von Carlsson (2006, S. 194) als „increased and fruitful use of alternative philosophies, for example, the use of constructivism“ bezeichnet. Durch Anwendung der Grounded Theory
kommt die Arbeit auch seiner Forderung nach „grounded technological rules“ (Carlsson 2006) nach.
30
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Auch Carlsson (2006, S. 209) wendet sein Framework in CRM-Systemen an. Dies ist zwar kein Beweis, aber ein Indikator, dass der gewählte Forschungsansatz für dieses Anwendungsfeld geeignet ist,
auch wenn er auf Basis der Grounded Theory und des Konstruktivismus leicht an die Herausforderungen der Wissenstheorien angepasst ist.
Zusammenfassend lässt sich festhalten, dass ein Forschungsvorgehen im Sinne der qualitativen Sozialforschung auf Basis der Grounded Theory als geeigneter Ansatz erscheint. Er berücksichtigt die
meisten Forschungsherausforderungen, trägt dem Charakter von Wissen als soziales Phänomen Rechnung, berücksichtigt den abduktiven, explorativen Charakter und greift für die Erhebung der Testdaten
auf bekannte statistische, quantitative Testverfahren für Suchmaschinen (Precision und Recall) zurück:
• Die notwendige Datenbasis im vorliegenden Forschungsrahmen ergibt sich aus spezifischen
Praxisszenarien bei Siemens IT Solutions und Services.
• Charakteristika von Wissen und Wissensentwicklung gleichen den Ansprüchen und Merkmalen des Forschungsansatzes.
• Modellentwicklung steht im Vordergrund der Grounded Theory und passt gut zum Forschungsziel: Erklärung des Beitrags des Semantic Desktop für die Wissensentwicklung in
wissensintensiven Prozessen.
• Der Ansatz stellt zugleich einen Anwendungsfall (Forschung als wissensintensiver Prozess)
im Sinne der Wissensentwicklung (Theoriebildung) dar.
Für den vorliegenden Fall zeigen sich zwei Ebenen der Untersuchung: Ein Vergleich wissensintensiver Prozesse oder Untersuchung verschiedener Szenarien innerhalb eines Prozesses. Fraglich ist,
ob ein Vergleich der Angebotsentwicklung mit dem Projektmanagement gelingen kann oder ob verschiedene strukturierte Varianten des Angebotsprozesses nicht greifbarere Ergebnisse versprechen.
Für eine hinreichend genaue, technologisch fassbar und pragmatisch zugängliche Teststellung
erweisen sich Varianten innerhalb der Angebotsentwicklung als geeignet. Sie erlauben eine methodische Vergleichbarkeit auf dem aktuellen Stand der Technik und unter Berücksichtigug der Datensicherheit beim Praxistest. Sie werden im Folgenden näher ausgeführt. Eine weitere, verallgemeinerndere Forschung im Sinne der klassischen Forschungsansätze könnte sich in weiteren Arbeiten zur
tieferen Beweisführung anschließen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
31
4 Anwendung der Forschungsmethode als Forschungsvorgehen
Die Grounded Theory lässt sich nach Krause (2005) als modellbildende Methode auf theoretische
Konzepte der Wissensentwicklung anwenden. Es entsteht, wie in Abbildung 3 illustriert, ein Dialog
zwischen hermeneutischen Erkenntnissen aus der Literatur und Ergebnissen aus Tests und Daten. Er
entwickelt und prüft iterativ, Forschungsfragen, Hypothesen und Gedanken im Hinblick auf die Datenbasis. Er synthetisiert die Erkenntnisse in einem Modell, dem Knowledge Creation Framework.
Aus den Tests und Daten
Rolle hat Einfluss auf Ergebnisrelevanz
Knowledge Creation Framework
Grounded
Theory
Wissensentwicklung kann als ein Prozess
von perspective taking und making verstanden werden
Wissen ist konstruktivistisch und hat
subjektiven Charakter
Aus der Literatur
Abb. 3. Forschungsvorgehen
Die Arbeit fordert mit Hilfe der Kontrainduktion, als ein Hilfsmittel der Grounded Theory, die Praxiserfahrungen und Theorien des Wissensmanagement der letzten Jahre aus Sicht einer konstruktivistischen Wissensentwicklung heraus.
Für den Dialog zwischen Daten und Theorien werden Ausschnitte der Wissensentwicklung betrachtet. Sie werden auf ihre einzelnen Sinnbausteine zurückgeführt und atomisiert. Ihre Voraussetzungen
und Rahmenbedingungen werden expliziert. Im vorliegenden Fall wird der subjektive Charakter von
Wissen auf die Repräsentationsform der Rolle reduziert. Dieser Aspekt lässt sich experimentell mit
der zur Verfügung stehenden Technologie testen.
Es ist es nicht Ziel der Arbeit, das Modell der Wissensentwicklung als Ganzes zu testen. Eine
isolierte, experimentelle Verifikation eines Modells der Wissensentwicklung erscheint aufgrund seiner
Komplexität nicht möglich. Das Modell soll vielmehr aus der Diskussion und Tests im Diskurs der
Grounded Theory vorgeschlagen werden. Es dient der Verknüpfung und Illustration der identifizierten
Zusammenhänge. Es postuliert keine zu verifizierende Theorie. Für die weitere, verfeinernde und verifizierende Forschung wären hier statt des Experiments, analog der Linguistik (Alber 2000), Simulationen einsetzbar. Vorteilhaft dabei wäre die Berücksichtigung von Lernprozessen, bei denen selbst Daten für die Simulation erzeugt werden. Dies trüge dem potenziell rekursiven Charakter von Wissen
Rechnung.
Der Erkenntnisgewinn resultiert aus dem iterativen Dialog zwischen Theorie und Technologietest vor dem Hintergrund von real-betrieblichen Daten und Erfahrungen. Konkret sind dies:
• Einbindung in das Forschungsprojekt EPOS (http://www3.dfki.uni-kl.de/epos) für die technologische Basis
• Einbindung in die betriebliche Praxis bei Siemens IT Solutions and Services für die Diskussion mit Vertriebsmitarbeitern und Zugang einer realen Datenbasis
• Veröffentlichung von Teilergebnissen auf internationalen Konferenzen für die Validierung
und Herausforderung der Ansätze in der internationalen Forschungscommunity:
o „Knowledge Creation Framework“ auf der WM 2005 (Siebert 2005)
o „Increasing Search Quality with the Semantic Desktop in Proposal Management“
(Siebert et al. 2006) auf PAKM in Wien, Österreich
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
32
o
Personalized document retrieval in multi-party environments (Siebert et al. 2006a)
Nachfolgende Grafik skizziert den Diskussionsverlauf zwischen Möglichkeiten der Künstlichen
Intelligenz und Modellen der Wissenentwicklung hin zu einem Modell der Wissensentwicklung.
Organisational
(Situation)
SIS
Angebotsprozess
Wissensentwicklung
6
Zusammenfassung
2
1
Wissensintensive
Prozesse
8
Andere
Prozesse
(Intention)
4
10
Grounded Theory
Forschungsmethode und
Aufbau der
Arbeit 5
Dokumente
9
Künstliche
Intelligenz
Individuell
(P2P)
11 Test und Dissertation
2009
12 Ausblick
Multi-Agenten
Systeme
7
x
Knowledge
Creation
Framework
Organisational
(KM-System)
EPOS
Projekt
am DFKI
Angebotsprozess
Rolle
Individuell
Motivation
und Ziel 3
der Arbeit
Veröffentlichung
KCF,
2005
Aufgaben
Semantic Desktop
Semantische
Technologien
PIM
Veröffentlichung
Test Sem.
Desktop,
2006
...Kapitel
Abb. 4. Iterativer Ablauf und Werdegang der Arbeit
Exemplarisch wird darin der Dialog anhand von wissensintensiven Prozessen und semantischen
Technologien geführt. Die Erkenntnisse münden in einem Modell der Wissensentwicklung (Knowledge Creation Framework). In ihrer chonologischen Verbindung von links nach rechts wird der Dialog
als „Gespräch“ zwischen Wissenstheorie und technologischer Praxis vom Allgemeinen ins Konkrete und zurück deutlich. Damit wird im Sinne der Grounded Theory deduktives und induktives
Vorgehen kombiniert und eine Modellentwicklung mit Verbindung zur Datenbasis erreicht. Deduktiv werden Hypothesen und Testszenarien aus der allgemeinen Literaturdiskussion für einen Paradigmenwechsel zur subjektiven Wissensentwicklung erarbeitet. Induktiv werden diese aus der Datenbasis
bestätigt und verfeinert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
33
5 Forschungsfragen und Aufbau der Arbeit
Die Arbeit orientiert sich an Ausgangsfragen. Sie werden über den Dialog in den Zwischenfazits
der Kapitel immer wieder verfeinert, justiert oder beantwortet. Sie bleiben aber in ihrem Kerninteresse und der anwendungsnahen Ergebniszielsetzung beständig. Mit dem Fazit der Arbeit werden die
Ergebnisse der Diskussion in Bezug zu den Ausgangsfragen gestellt und damit der Beitrag der Arbeit
illustriert. Zur durchgängigen Identifikation und Zuordnung der Diskussionsbeiträge werden die Fragen und ihre Verfeinerungen mit F-1 bzw. F-1.1. gekennzeichnet und ihre schlussfolgernden Antworten mit A-1 bzw. A-1.1.
Die Fragen entstammen der betrieblichen Praxis und der aktuellen Forschungsdiskussion in den beteiligten Disziplinen.
(F-1)
Wie kann die semantische Suche die Produktivität in der Wissensentwicklung von
wissensintensiven Prozessen steigern ?
Der direkte Nutzen des Wissens (auch aus organisatorischer Sicht) entsteht bei der Nutzung des
Wissens beim Individuum. Bisherige Prozessunterstützung erfolgt passiv auf Anfrage des Nutzers.
Fraglich ist daher, inwieweit der Wissensarbeiter bei der Wissensentwicklung am besten aktiv unterstützt werden kann. Abzuwägen wären dazu die Potentiale der zu untersuchenden Technologien
auf ihre Fähigkeit, eine aktive Prozessunterstützung bereitzustellen (F-1.1). Bekannt ist dies in Ansätzen bei durchstrukturierten Prozessen und Workflows. Inwieweit dies für wissensintensive, dynamische und unstrukturierte Prozesse gelingt, wäre abzugrenzen (F-1.2). Schlussfolgernd wäre zu
prüfen, welchen Beitrag die Diskussion der grundlegenden Prozesse der Wissensentwicklung auf
die Theorien des Wissensmanagements im betrieblichen und betriebswirtschaftlichen Rahmen haben (F-1.3).
Die gewonnen Erkenntnisse rühren aus dem skizzierten Forschungsvorgehen der Grounded Theory
her. Welchen Einfluss und Beitrag dieser Ansatz für die Erkenntnisse hat, wäre im Rückblick im Sinne
einer Methodenkritik zu besprechen (F-1.4)
Kapitel 1 hat die betrieblichen und technologischen Problemstellungen als Motivation in wissensintensiven Prozessen aufgezeigt. Kapitel 2 hat mit der Zielsetzung und dem Fokus der Arbeit auf die
semantische Suche in der Wissensentwicklung die zu untersuchenden Ansatzpunkte verdeutlicht. Kapitel 14 wird die Schlussfolgerungen und Ergebnisse der Diskussion wieder in den betrieblichen
Handlungsrahmen einbetten. Es leitet hieraus Empfehlungen und Ausblicke für die Organisation,
Technologie und den Semantic Desktop ab. Es gibt Anregungen, welche Aspekte die weitere Forschungsarbeit vertiefen könnten, und fasst die Gesamtdiskussion überlicksartig zusammen.
(F-2)
Was sind wissensintensive Prozesse und ihre Besonderheiten ?
Aus der Vielzahl an betrieblichen Prozessen werden die wissensintensiven Prozesse betrachtet.
Wissen stellt in diesem Umfeld die Kernressource dar. Wissen ist zugleich auch das Produkt und Ergebnis des Prozesses. Offen ist damit, ob ein wissensintensiver Prozess nicht selbst als organisationale Wissensentwicklung verstanden werden kann (F-2.1). Zu klären wäre dabei, was wissensintensive Prozesse von anderen betrieblichen Prozesstypen unterscheidet (F-2.2) und warum dies für
bestehende Lösungen und Technologien eine Herausforderung darstellt (F-2.3).
Kapitel 6 arbeitet für eine Prozessoptimierung und -unterstützung die Besonderheiten wissensintensiver Prozesse heraus. Dies wird am Beispiel des Angebotsprozesses bei Siemens IT Solutions and
Services illustriert und diskutiert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
34
(F-3)
Was sind die Charakteristika von Wissen ?
Falls wissensintensive Prozesse selbst Wissen entwickeln, sollte zunächst erklärt und definiert werden, was Wissen ist. In allen wissenschaftlichen Disziplinen wird Wissen entwickelt. Eine synoptische
und einheitliche Sicht ist derzeit nicht bekannt. Übergreifende Beschreibungen dürften sich in der
Wissenschaftstheorie und anhand unterschiedlicher Forschungsmethoden finden lassen. Die Herausforderung dabei besteht in einer Fassung, die dem betrieblich-technologischen Anwendungskontext gerecht wird, jedoch die Perspektiven anderer Wissenschaftsdisziplinen respektiert und einbezieht (F-3.1). Darauf aufbauend wäre zu spezifizieren, mit welchen Besonderheiten von Wissen
umzugehen ist (F-3.2).
Kapitel 7 gibt daher eine Übersicht zu bekannten Definitionen und Besonderheiten des Wissensbegriffs. Dabei wird besprochen, inwieweit Wissen als Substantiv oder Verb bzw. als Objekt oder
Prozess verstanden werden kann.
(F-4)
Was ist Wissensentwicklung ?
Zur Diskussion einer technologischen Unterstützung der Wissensentwicklung müssen dieser Prozess und seine Einflussfaktoren verstanden werden (F-4.1). Dabei wäre zu klären, ob sich bestehende
Ansätze der organisationellen Wissensentwicklung und Lerntheorie auf die individuelle Wissensentwicklung übertragen und anwenden lassen (F-4.2). In Summe bleibt fraglich, welchen Beitrag das
Verständnis der Wissensentwicklung leisten kann, um den heute hohen Redaktionsaufwand im Umgang mit Wissen zu reduzieren (F-4.3) und mit ihm einen größeren Mehrwert zu erzielen.
In Bezug auf die Eigenschaften von Wissen wäre fraglich, wie sich die Vergänglichkeit von Wissen berücksichtigen (F-4.4) lässt und inwieweit ein konstruktivistisches Verständnis von Wissen für
die Wissensentwicklung hilfreich ist (F-4.5). Dabei wäre zu untersuchen, inwieweit Wissensentwicklung zur Lösung des Kontextproblems beitragen kann (F-4.6).
Kapitel 8 disktutiert und vergleicht dazu Ansätze verschiedener Disziplinen. Im Rahmen der betriebswirtschaftlichen Sicht werden verschiedene Modelle als Basis für ein Modell der Wissensentwicklung untersucht. Es soll im Diskurs mit anderen Disziplinen um deren Aspekte erweitert werden.
Die Kernelemente stehen für die Forschung zu intelligenten Technologien zur Unterstützung und Abbildung zur Verfügung.
(F-5)
Welche intelligenten Technologien können den Redaktionsaufwand reduzieren und
mit welchen Herausforderungen ist dies verbunden ?
Die inhaltliche Pflege von technologischen Systemen wird immer Aufwand erfordern. Eine kontinuierliche Produktivitätssteigerung kann erzielt werden, wenn dieser einen höheren Mehrwert stiftet
oder für die gleichen Aufgaben sinkt. Der Redaktionsaufwand, ausgedrückt in operativen Kosten, ist
damit ein Maßstab für den betrieblichen Nutzen von Technologien. Herauszuarbeiten wäre, welche
technologischen Ansätzen und Verfahren mit den Charakteristika von Wissen am besten umgehen können (F-5.1.1-5.1.3). Sie sollten Antwort geben auf die Frage, warum hierdurch eine Verbesserung zu bestehenden Ansätzen, wie Metadaten, erzielt werden soll (F-5.2) und warum bisherige
Ansätze dies nicht schon eingesetzt haben (F-5.3). Nachdem bereits Applikationen bestehen, um den
Nutzer in wissensintensiven Prozessen zu unterstützen, wäre zu klären, wie sich der Semantic Desktop hier einfügt und was ihn von diesen unterscheidet (F-5.4).
Kapitel 9 strukturiert Verfahren der Künstlichen Intelligenz nach den wesentlichen Einflussfaktoren aus der Diskussion von Wissen und Wissensentwicklung. Es beschreibt examplarisch Verfahren,
um deren Wirkungsweise zu verdeutlichen und zu verstehen. Kapitel 10 bietet mit drei wesentlichen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
35
Applikationen einen betrieblichen Rahmen für die Einordnung semantischer Technologien, die in dieser Arbeit explizit betrachtet werden.
(F-6)
Ist die semantische Suche des Semantic Desktops leistungsfähiger und intelligent er
als bestehende Suchen im Spektrum des Information Retrievals ?
Im Fokus der Diskussion steht der Beitrag von semantischen Suchtechnologien für die Fragestellungen. Bestehende Suchverfahren weisen Probleme in der Bestimmung und Verbesserung der Ergebnisrelevanz auf. Ursächlich ist Unkenntnis oder Nicht-Verfügbarkeit des Informationsbedürfnisses eines Nutzers. Unklar sind auch seine subjektive Einschätzung der Relevanz und das fehlende
Allgemein- und Hintergrundverständnis. Zu diskutieren wäre, welche dieser spezifischen Probleme
durch eine semantische Suche verbessert werden können (F-6.1).
Der Semantic Desktop kombiniert einige Technologien für den Praxiseinsatz. Darzustellen wäre,
welche Kombination er verwendet (F-6.2) und inwieweit mögliche Erfolge aus der reinen Technologie oder aus der Vernetzung bestehender Technologien resultieren (F-6.3). Zu untersuchen wäre, inwieweit diese nicht nur unter Laborbedingungen, sondern auch unter Praxisbedingungen erfolgreich ist (F-6.4).
Kapitel 11 stellt dazu das Konzept des Semantic Desktops vor und ordnet es in die strukturierte
Landschaft der KI-Technologien ein. Anhand von Praxisdaten und in der Systemumgebung von Siemens IT Solutions and Services werden die Suchergebnisse mit den Beobachtungen aus dem Entwicklungslabor verglichen. Mit Hilfe von Szenarien auf Basis unterschiedlicher semantischer Konzepte
und Datenbasis werden Praxissituationen simuliert, um den Einfluss der Rolle nachzuweisen. Mit
Hilfe statistischer Signifikanzanalysen wird die Datenbasis auf ihre Aussagekraft hin geprüft.
(F-7)
Welchen Beitrag leistet die semantische Suche im Rahmen der Wissensentwicklung
und wo liegen die Grenzen bzw. Entwicklungsmöglichkeiten der Technologie ?
Die semantische Suche deckt ein bestimmtes Wirkungs- und Leistungsspektrum ab. Sollte sie sich
als performant und einsatzfähig erweisen, wäre der Beitrag dieser Technologie im Spektrum der Wissensentwicklung abzustecken. Es stellt sich die Frage, welche Teilprozesse sich mit ihr automatisieren lassen (F-7.1) und wie sich dies auf die Diskussionsbereiche (Wissensentwicklung, wissensintensive Prozesse, Semantic Desktop und Semantic Web) auswirkt.
Interessant wären dabei die Aspekte
• des Redaktionsaufwands in induktiven und deduktiven Vorgehen (F-7.2),
• der Übertragbarkeit auf andere wissensintensive Prozesse (F-7.3),
• der spezifischen Weiterentwicklungsmöglichkeiten aus dem Spektrum der Künstlichen Intelligenz (F-7.4),
• der generellen Entwicklungsoptionen im Rahmen der aktuellen Technologieentwicklungen
im Semantic Web und Web 2.0 (F-7.5).
In Summe wäre zu klären, wie sich semantische Technologien und die Theorie der Wissensentwicklung in Bezug auf wissensintensive Prozesse verknüpfen lassen (F-7.6).
Jede Technologie bringt Grenzen der Einsatzmöglichkeiten mit sich. Aufzuzeigen wären die technischen und sozialen Voraussetzungen für einen effizienten Einsatz (F-7.7).
Kapitel 12 greift die Erkenntnisse und Anforderungen der Wissensentwicklung aus den Kapiteln 7
und 8 auf und fügt diese zu einem Vorgehensmodell zusammen. Anhand dessen kann der Beitrag der
semantischen Suche in Kapitel 13 aufgezeigt werden.
36
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
37
6 Wissensintensive Prozesse
Im praxisnahen Verständnis von Wissen als Begriff für Wissensobjekte (Knowledge-assets) werden
zwei Arten der Wissensentwicklung unterschieden: Unterstützung wissensintensiver Prozesse und
der eigentliche wissensintensive Prozess zur Entwicklung von Knowledge-assets oder Wissensprodukten selbst. Letztere bezeichnet Allweyer (1998) auch als Wissenprozesse. Sie unterteilen sich wiederum in operative, klassische Geschäftsprozesse wie Kundenakquisition und in Prozesse, deren
Hauptzweck die Verarbeitung von Wissen selbst ist, wie die Aufbereitung von in Projekten angefallenem Wissen. Unterstützung im ersten Fall bedeutet Anwendung von Knowledge-assets, wie Templates, als Supportprozess im Unternehmen. Als Knowledge-assets gelten Angebote, Theorien oder Modelle. Ihre Entwicklung ist ein Kernprozess, wie er bei Professional Service Firms, Consulting und
Rechtsanwälten zu finden ist. Technologie ist im ersten Fall als Unterstützung verstanden, während sie
im zweiten Fall Teile des Kernprozesses ersetzt und selbst übernimmt.
Grundsätzlich lassen sich Prozesse als verbundene Aktivitäten oder regel-basierte Zustände begreifen. Je einzigartiger Prozesse sind, um so schwieriger lassen sie sich im Vorhinein modellieren. Prozesse lassen sich nach Debenham (2000) zum einen nach ihrem Level in der Organisation als „production“ und „emergent“ Prozesse unterscheiden, zum anderen nach ihren technischen Eigenschaften als
aktivitäts-, ziel- und wissensorientierte Prozesse unterscheiden. Produktionsworkflows sind vordefinierte Routineprozesse, meist am operativen Ende der Organisation. Emergente workflows sind opportunistisch, einmalige Prozesse, meist auf Managementebene (Debenham 2000). Sie unterscheiden sich
nach ihren technischen Eigenschaften in der Festlegung der Zielerreichung und Form der Zerlegung in Teilprozesse und Aktivitäten.
Nach Debenham (2000) ist für einen aktivitätsorientierten Prozess das nächste Unter-Ziel bekannt
und die nächste Aktivität dient zur Erreichung dieses Ziels. Ein zielorientierter Prozess besitzt eine
Wahl in der Tiefengliederung des Prozesses, so dass die nächste Aktivität nicht zwangsweise das Ziel
erfüllt. Ggfs. macht diese Unsicherheit einen Planungsagenten nötig, der schon frühzeitig erkennt, um
was für einen Prozess es sich handelt. Ein wissensorientierter Prozess kann darüber hinaus die Terminierung mindestens eines Teil-Prozesses nicht gewährleisten, da die Prozessziele selbst vage und
veränderlich sind. Er kann mit einer vagen Aussage, wie „zusammen mit ein paar Leuten Alternativen
für das Marketing von Zahnbürsten aufzeigen“ umgehen. Solche Prozesse fordern eine Technologie,
die mit Unschärfe und Fehlern umgehen kann und fähig ist, die besten nächsten Schritte derart auszuwählen, dass der Wert zwischen Prozesserfolg und Prozesskosten positiv ist.
Wissensorientierte Prozesse definieren sich damit über das für die Ausführung der Aktivität notwendige Wissen, wie Planungs- und Entscheidungskomponenten. Wissensintensive Prozesse dagegen beschreiben Prozesse, deren Ergebnis ein Wissensprodukt ist. Damit liegen beide diskriminant zueinander. Wissensintensive Prozesse können, wie in Tabelle 3 in der Struktur nach Debenham (2000)
dargestellt, sowohl aktivitäts- als auch wissensorientiert sein.
Tabelle 3. Übersicht der Arten wissensintensiver Prozesse
Prozessart
gering
wissensintensiv
Wissensintensiv
Aktivitätsorientiert
RohstoffVerarbeitung
Formular
ausfüllen
Zielorientiert
Systemproduktion
Entwurf Angebot/
Informationssammlung
Wissensorientiert
High-Tech Produktion
Erstellung einer
Value proposition
Nach Gronau et al. (2005) zeichnen sich wissensintensive Prozesse durch folgende Eigenschaften
aus: Quellen- und Medienvielfalt, Varianz und dynamische Entwicklung der Prozessorganisation, viele Prozessbeteiligte, unterschiedliche Expertise, Einsatz von Kreativität, hoher Innovationsgrad und
verfügbarer Entscheidungsspielraum.
Für Goesmann (2002) ist ein wissensintensiver Prozesse ein Prozess, „der ein oder mehrere wissensintensive Aktivität(en) enthält“. Im Gegensatz zu Gronau et al. (2005) betrachtet diese im Hinblick auf
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
38
seine geplante workflow-Unterstützung als Routineprozesse mit unterschiedlicher Ausführung. Die
Unterschiede in der Ausführung resultieren ihm zufolge aus einem hohen Wissenstransfer zwischen
Geschäftsfällen.
Für Elst et al. (2003) sind wissensintensive Aktivitäten ihrer Natur nach explorativ, nicht wiederholbar im Detail und zuvor unbekannt und damit keine Routine. Vor diesem Hintergrund haben sie
die klassische, statische Workflow-Unterstützung, wie unter anderem von Goesmann untersucht und
vorgeschlagen, als weak-workflows weiterentwickelt.
Die Angebotserstellung dürfte in die Kategorie der wissensintensiven Prozesse fallen, da sie vom
Inhalt her kundenindividuell ist, seine Anforderungen die Ausführung des Prozesses im Wie beeinflussen und von einer Vielzahl unstrukturierter Informationen abhängig ist. Wissensintensive Aktivitäten sind weiterhin schwer zu standardisieren (Preise, Commitment, Aktualität, lokale Formatierung
und Formulierung, Landessprache, etc.) (Ekström 2000). Im Gegensatz zu bisherigen Bestellangeboten sind mehr Faktoren variabel als nur Menge, Preis und Konditionen. Heute spielen im Lösungsgeschäft Präferenzen, Liefer- und Informationszeit eine wichtige Rolle (Parunak 1998).
Dies macht Lösungs- und Serviceangebote komplex. Sie haben Alternativen abzuwägen, Probleme
zu klassifizieren und sind in ihrer Abstraktionshierarchie (Detaillierungslevel) flexibel, ggfs. sogar rekursiv verknüpft. Sie beziehen sich auf sich selbst auf einem anderen Abstraktionslevel.
Im Hinblick auf ihre technologische Unterstützung unterscheiden sich aktive und passive Prozessunterstützungen. Heutige Prozessunterstützung ist passiv. Dies führt dazu, dass vorhandene Information nicht gefunden und genutzt wird (Abecker 1999). Aktive Prozessunterstützung beinhaltet, dass
ähnliche und verbundene Handlungen oder Content vorgeschlagen werden. Für die Handlung ist eine
Planung nötig, die ein Verständnis des vorhandenen Workflows und des nötigen Workflows oder der
nächsten Schritte beinhaltet. Dies erhöht die Komplexität und verlangt informationstechnische Spezifikationen im Workflow. Zielorientierte Prozesse lassen sich über weak-workflows (Elst 2003) unterstützen, da diese zwar in ihrer Zielsetzung stabil, aber in der Form der Zielerreichung variabel sind.
6.1
Angebotsprozess der SIS
SIS steht vor der Herausforderung, die Erstellung von Angeboten, vor allem von aufwendigen Standardangeboten, zu optimieren. Hierdurch sollen langfristig Angebotsanfragen schneller, aber in gleicher Qualität beantwortet werden und die Angebotserstellung dahingehend unterstützt werden, dass
späte Änderungen und Anpassungen im Angebot ohne großen Aufwand durchzuführen sind.
Wie Tabelle 4 am Beispiel der SIS zeigt, werden Prozesse meist über dokumentenbasierte zentrale
Wissenssysteme (Referenzen, Debriefings, Knowledge-assets) unterstützt. Es wird ergänzt durch ein
einheitliches, aktuelles und konsistentes Datenmanagement über CRM-systeme. Das Intranet bietet aktuelle Kontakte und allgemeine Informationen. Die Angebotserstellung selbst wird durch standardisierte Portfolio- und Vertragsbausteine unterstützt.
Tabelle 4. Übersicht Angebotsprozess und informationstechnische Unterstützung bei SIS
Prozeß
Angebotsprojekt aufsetzen
Entwicklung der Angebotskomponenten
Lieferumfang und Lösungsmodell
Information
Projektplan, Templates
Kundenanforderungen
Finanzmodell
Lösungsmodelle, Architekturmodelle, Datenblätter zu Lösungsbausteinen
Kosten
Rechtliche Komponenten
Lieferablauf
Demos, Prototypen, Referenzen
Vertragskomponenten
Ablaufpläne
Referenzen
Tool
CRM-Tool
Zentrale knowledgebase, lokale
Desktops
Zentrale knowledgebase, Sales
Service (Intranet)
Lokale Desktops, Zentrale
knowledgebase
Angebotskonfigurator
Zentrale knowledgebase
Sales Service
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
aufbereiten
Risiko analysieren
Angebot erstellen
Angebot verifizieren
Freigabe einholen
Bewertungskriterien
Draft-Angebot
Angebot
Freigegebenes Angebot
39
Assessment-Tool (XLS)
Die Prozesse liegen modelliert in ARIS vor. Jeder Prozessschritt lässt sich als eine Kombination aus
Aktivität, Information und Rolle verstehen. Angebotserstellung ist ein komplexer Prozess mit häufiger
Interaktion der Beteiligten. Technologische Unterstützung eignet sich daher bei der Zusammenstellung
eines ersten Drafts auf Basis verfügbarer und relevanter Informationen im Hinblick auf Kundenanfragen oder Ausschreibungen. Begriffsbasierte, algorithmische und nutzerinduzierte Suchfunktionalitäten
sind heute Standard. Untersucht werden soll die Auswirkungen semantischer Suche. Aufgezeigt wird
der Prozess und die Potenziale intelligenter Technologien zur Erstellung des ersten Drafts und der
Verwendung der Suchergebnisse.
Die meisten dieser Schritte können bereits heute auf top-down strukturierte Experten-Datenbanken
zurückgreifen, die ihnen allgemein unterstützende Informationen als Methoden, Templates, Kalkulationstools oder Argumentationshilfen zur Verfügung stellen. Meist fehlen relevante Inhalte und Texte,
die wiederverwendet werden können (ähnliche Angebote, Preisinformationen, etc.). Diese finden sich
über persönliche Netzwerke oder müssen jedes Mal aufs Neue hergeleitet und entwickelt werden.
Hierzu werden meist Angebots-Teams eingesetzt. Vertriebler und Proposal Manager sollen daher unterstützt werden, die Ergebnisqualität ihrer Erstanfragen zu steigern, die sie heute über ein Back-office
oder Research Center zusammentragen lassen.
Dies soll noch einmal an folgendem Beispiel illustriert werden:
Kollege Fischer ist Account Manager. Zu seinen Aufgaben gehört die Pflege der Kundenbeziehung,
Beantwortung von Anfragen und die Entwicklung von neuen Themen mit dem Kunden. Hr. Fischer
war selbst früher bei seinem Kunden beschäftigt und verfügt über ausgezeichnete Kenntnisse der
Kundensituation. Er erhält eine Anfrage, inwieweit sein heutiger Arbeitgeber für ein internes Projekt
zur IT-Konsolidierung beitragen könnte, und wird um ein Angebot gebeten. Gewöhnlich bittet er ein
Angebotsteam, dies zu erarbeiten. Er benötigt im Vorfeld einen ersten Entwurf, um sich hierfür die
Ressourcen genehmigen zu lassen. Er möchte sehen, was zu seiner Anfrage (Kunde, Branche, Thema,
Größenordnung) existiert und welche Referenzen die Firma in diesem Thema schon vorzuweisen hat.
Da die Suchergebnisse im Intranet nur Bruchstücke zu Tage fördern, wenige Anhaltspunkte für weitere Kontakte beinhalten und seine eigenen Dokumente auf seinem Desktop unzureichend für diese Anfrage sind, beauftragt er einen Assistenten mit der Recherche und Erstellung des Entwurfs. Am liebsten würde er auf der Basis eines ähnlichen Dokuments die neuesten Technologien und
Preisentwicklungen einarbeiten, um für das nächste Kundengespräch gerüstet zu sein. Das finale Angebot wird im weiteren Verlauf aus der gemeinsamen Diskussion verfeinert und ausgearbeitet.
Für die reine Beantwortung und Gesprächsvorbereitung bedarf es nicht nur eines Research-Centers
als Assistenten oder mühevoller Eigenrecherche, sondern auch eines dedizierten Angebots-Teams zur
Erstellung des Angebots. Der Ersatz des Assistenten oder die bessere Unterstützung in der Erstellung
des ersten Entwurfs würden Kosteneinsparungen und eine Fokussierung der Ressourcen (Acc. Mgr.
auf den Kunden und Research-Center auf schwierige Fragestellungen) ermöglichen.
Neben der Verfügbarkeit und den Lieferkonditionen können im Produktverkauf direkt vorgefertigte
Textbausteine zusammengesetzt werden. Im value und solution selling bedarf es einer individuellen
Lösung durch Experten im Hinblick auf die Kundenanforderungen und Rahmenbedingungen.
Im SIS Angebotsprozesses stellt sich also die Frage, welche Aktivitäten sich realistisch unterstützen oder ersetzen lassen. Im Hinblick auf den zu untersuchenden Semantic Desktop wären folgende
Aktivitäten und Leistungen denkbar:
40
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
a) Push-Unterstützung des Verfassens von E-Mails durch aktive Text-, Dokumenten- und
Themenvorschläge in Abhängigkeit des Adressaten, Betreffs und Texts.
b) Rezeptive Unterstützung beim Erhalten von E-Mails durch Klassifizierung und Sortierung
der E-Mails in aktuelle Arbeitsumgebungen und Themen.
c) Erstellung von Angebotsbausteinen, wie der Kalkulationen durch Anwendung bestehender
Formen auf die aktuellen Daten.
d) Ausfüllen des Templates eines Management Summaries durch relevante Informationen aus der Wissensbasis durch ähnliche Angebote, Prozesshilfen oder Marktinformationen.
Optionen a) und b) sind technologische Möglichkeiten als Support für einen Kernprozess. Die Optionen c) beschreibt ein Szenario, wo Technologie wissensintensive Prozessschritte auf Content-Ebene
ersetzt. Option d) bezieht sich auf die Dokumentenebene. Es repräsentiert das Angebot in Kurzform
und kann über ein Template vorstrukturiert werden, um die Storyline grob vorzugeben. d) adressiert
über die Relevanzfrage die Subjektivität von Wissen. Technologien erscheinen selbst noch nicht in
der Lage, eine solche zu entwickeln. Dies würde ein Textverständnis voraussetzen.
6.2
Erstellung von Management Summaries
Management Summaries repräsentieren die Argumentationsstruktur im Sinne einer Story. Sie umfasst das Verständnis der Kundensituation und den dazugehörigen Lösungsvorschlag. Ihre Darstellung
und Struktur kann über Vorlagen bis zu einem gewissen Grad vorgegeben werden. Die Inhalte sind
spezifisch auf der Basis der Lösungselemente und Informationen einzupassen. Die Argumentationsstruktur repräsentiert damit das Wissen eines Angebots im Sinne einer Perspektive. Die beste Lösung
am Markt oder das überzeugendstes Kosten-Nutzen-Verhältnis bezieht sich auf die Anfrage, Kundenund Verkaufssituation oder den Hintergrund der Value proposition.
In der praktischen Erstellung finden sich induktive, deduktive und eine Kombination beider (intuitiv) Vorgehensweisen wieder.
1) Asset-basiert (induktiv)
Der Asset-basierte Ansatz entwickelt aus vorhandenen, ähnlichen Ergebnissen, wie Management
Summaries, Modifikationen. Dabei fügt er Informationsbausteine hinzu und verändert leicht die Argumentationsstruktur im Hinblick auf die Anforderungen. Templates dienen als Qualitätscheck. Dieser
Ansatz eignet sich für wiederverwendbare Standardlösungen und wird gern als Startpunkt für komplexe Entwicklungen genommen. Aufgrund vager Zielvorgaben und Strukturen sind große Informationsmengen zu verarbeiten und oft manuell vorzuselektieren.
2) Vorlagen-basiert (deduktiv)
Der Vorlagen-basierte Ansatz folgt einem deduktivem Vorgehen, indem er einen vorgegebenen
Rahmen und eine Struktur mit Informationen füllt. Dieser Ansatz eignet sich vor allem für neue Themen, zu denen nur eine kleine oder keine Wissensbasis vorliegt. Mit dem Template bietet er eine Entwicklungsrichtung und Darstellungsstruktur. Inhaltliche Einflüsse auf die Argumentationslinie werden
wenig unterstützt.
3) Methoden-basiert (intuitiv)
Der Methoden-basierte Ansatz unterstützt und fördert ein intuitives Vorgehen, indem er die Kreativität des Wissensarbeiters stärker nutzt und einfließen lässt. Er eignet sich damit vor allem für neue
und komplexe Themen. Er bedarf der Transferleistung von Wissen und Anwendung von Methoden
aus anderen Zusammenhängen.
Im Folgenden wird der Vorlagen-basierte Ansatz verwendet, der ein hinreichendes Maß an organisationaler Struktur vorgibt. Er muss mit einer geringeren Wissensbasis auskommen. Im konstruktivistischen Sinne auf organisationaler Basis hingegen wäre der Asset-basierte Ansatz zu bevorzugen. Dieser bedarf, wie auch der Methoden-basierte Ansatz, eines besseren technologischen Verständnisses
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
41
und technisch höherer Problemlösungsfähigkeiten als der aktuelle Forschungsstand der Künstlichen
Intelligenz (vgl. Kap. 9) zu bewältigen angenommen wird. Diese sollen daher zurückgestellt werden.
Im Vordergrund des Vorlagen-basierten Ansatzes steht die Frage nach der Informationsrelevanz
für die Vorlage. Wenige Informationen liegen im Unternehmen strukturiert vor. Vielmehr finden sich
viele Informationen auf lokalen Desktops in individueller Strukturierung. Zentrale Daten sind aus ihrem Anwendungskontext entkoppelt worden, indem sie für die allgemeine Verwendung als Templates
abstrahiert wurden oder in unterschiedlichen Rollen entstanden sind. Für strukturierte Informationen
liegt die Intelligenz schon in der Struktur, so dass effiziente Systeme ausreichen. Für unstrukturierte
Informationen, wenn traditionelle Redaktionssysteme und -prozesse zu aufwendig sind, eignen sind
nach Dreyfus und Dreyfus (1986) intelligente Systeme. Folgende Grafik fasst diesen Zusammenhang
in eigener Darstellung zusammen:
Grad der
Informationsstruktur
Nutzen
Dezentrale
Daten/Themen
Top-down
Zentrale
Daten/Themen
Bottom-up
Intelligente
Systeme
Effiziente
Systeme
Time
Anfang des
Projektes
Ende des
Projektes
Abb. 5. Grad der Datenstruktur in Bezug auf Datenhaltung
Fraglich ist also, inwieweit sich unstrukturierte, verfügbare, aber nicht zugängliche Information
nutzbar machen lässt und inwieweit diese eine höhere Relevanz für den Anwendungskontext bietet.
Für den Umgang mit unstrukturierten Daten und Informationen auf betrieblicher Prozessebene gibt
es bereits erste Ansätze. Im Rahmen von Überlegungen zum Organizational Memories (Dengel et al.
2002, Aschoff und van Elst 2001) wird ein Framework for Distributed Organizational Memories und
die daraus folgende Unterstützung wissensintensiver, schwach-strukturierter Prozesse erstellt. Hierfür
werden Ansätze des Knowledge Engineering, Human Computer Interaction, Information Retrieval und
Software development angewendet. Das Projekt FRODO (www.dfki.uni-kl.de/frodo) untersuchte den
technologischen Umgang mit nicht immer klar definierten weak-workflows (van Elst et al. 2003) von
betriebswirtschaftlichen und administrativen Prozessen. Als Ergebnis beschreibt FRODO eine verteilte
Architektur zur Informationsunterstützung in wissensintensiven Prozessen, wie Consulting, Projektdurchführung oder Forschung.
Im Folgenden werden Management Summaries stellvertretend für die Erstellung von Angeboten
verwendet. Sie repräsentieren die Kernaussagen und Argumentationsstruktur (Storyline) im Sinne des
im Angebot gebundenen Wissens.
6.3
Value selling und value proposition
Im Produktgeschäft wird meist über den Preis, Leistungsfähigkeit und Rabatte im Sinne einer Bestellung oder technischen Spezifikation verkauft. Die vertriebliche Leistung konzentriert sich auf die
Preisverhandlungen (Rabatte, Konditionen, etc.). Mangels Replizierbarkeit von Qualität und Leistung
verkaufen sich Dienstleistungen im Unterschied dazu über die Fähigkeit, Probleme des Kunden zu lösen. Diese Lösungskompetenz muss im Verkauf/ Vertrieb über Referenzen, erprobte Vorgehensweisen
42
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
und die Darlegung eines grundlegenden Verständnisses des Kundenproblems bewiesen werden, um
das Vertrauen in den Dienstleistungs-Partner aufzubauen und zu entwickeln. Im Vordergrund steht der
Mehrwert (value) für den Kunden aus der Partnerschaft. Sie geht über den reinen Mehrwert der technischen Lösung hinaus.
Zum Beispiel soll mit dem Verkauf einer Customer-Relationship-Lösung die Reaktionszeit zur Beantwortung von Endkunden-Fragen (value) reduziert werden und nicht nur eine neue Suchfunktionalität (Produktnutzen) verkauft werden.
"Value-based selling" bezeichnet diese Verkaufs-Methode (Reilly 2002). Das Angebot entwickelt
sich dabei von einer dokumentierten, vertraglichen technischen Spezifikation zu einem eigenständigen
Verkaufselement und damit zu einem Kostenblock (Ekström und Björnsson 2000). Es beschreibt den
Mehrwert der Dienstleistungs-Partnerschaft auf Basis der Vertriebsstrategie in einer Value proposition, um sich gegenüber dem Wettbewerb mit dem Gesamtangebot zu differenzieren. Aus preislicher
Sicht ist dabei das Ziel, die Gesamtkosten über den Produktlebenszyklus zu optimieren und nicht nur
die Kosten für die Lösung selbst.
Das Management Summary fasst hierin nicht mehr nur die Kernfunktionalitäten der Lösung zusammen, sondern verdeutlicht die eigene Argumentationslinie im Sinne der Value proposition in einer
kurzen Übersicht.
Eine Value Proposition ist damit, im Sinne einer Perspektive auf die Problemlösung beim Kunden,
Ausdruck des Wissens im Angebot. Sie beschreibt die Wettbewerbssituation und Lösungsvorteile im
Markt in Abhängigkeit der jeweiligen Kundenbeziehung und Vertriebssituation. Eine Preisstrategie
benötigt eine andere Argumentationslinie als eine Qualitäts- und Differenzierungsstrategie. Folgende
Tabelle zeigt abstrahiert und annonymisiert in Anlehnung an SIS exemplarisch verschiedene Elemente
der Storylines von Management Summaries.
Tabelle 5. Mögliche Entwicklung eines neuen Management Summaries (MS) aus bestehenden Management Summaries
Klassen
Rahmendaten
Kunde
Branche
Kundengröße
Opportunity-Größe
Kundentyp
Strategisch
Operativ
Sales-Strategie
Sales-Taktik
Customer situation
Trends and issues
Gewichtung der Opportunity Treiber
Kostenreduzierung
Qualitätsverbesserung
Kostentransparenz sonstiges (e.g. flex.)
Kundenanforderungen
Compelling event
Business topic/ scenario
Cost driver
Fields of action
Neues MS
MS 1
MS2
MS3
Test
Banking
Großkonzern
Groß
XXX
Industry
Großkonzern
Groß
XXX
Utilities
Großkonzern
Groß
XXX
Banking
Großkonzern
Groß
A
Neukunde
Preis
Full value chain
A
Bestandskunde
Preis
Installed base
A
Bestandskunde
Solution
Full value chain
A
Neukunde
Solution
Commercial models
Price pressure
Price pressure
Price pressure
Price pressure
0,8
0,7
0,1
0,2
0,6
0,2
0,1
0,1
0,1
0,1
Security compliance
Keep standard level of qual- Single service provider
Flexibility in service pro- ity
Harmonize
solution
vision
Global technical standard
model
Global technical standard
Local competitive prices
Smooth transition
Flexibility in service provision
0,5
0,1
0,1
0,3
Smooth transition
Cost reduction
Maintaining
service
levels
Compliance with security standards
KostenoptimierungsProgramm
IT Outsourcing
KostenoptimierungsProgramm
IT Outsourcing
Concentration on core
business
IT Outsourcing
KostenoptimierungsProgramm
IT Outsourcing, Outtasking
Personalkosten
Personalkosten
Dezentralität
Transition, staff transfer, Transition, Transformation, Service Desk
asset management, WAN/ staff transfer, assets, hosting Desktop Support
WAN/ LAN
LAN
of non-SAP
Unix support
Asset management
Lotus
Personalkosten
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
43
Poject planning
Voice and Video
Solution
Solution
Server consolidation
Global Help-Desk
Standard workstations
Central data center
Governance model
Pricing
Benefits of SBS (in Abhängigkeit der Anforderungs-Gewichtung)
Server consolidation
Global Help-Desk
Standard workstations
Central data center operations
Governance model (contract
management, service delivery, contract commercials,
escalation
procedures,
change control)
10% Savings with initial asset take-over
Solution toolset
Global Help-Desk
Consolidation of operations
Standardize technical
infrastructure
Organisational governance model
SIS purchasing power
Access to leading edge
technologies
Individual regional so- Forward pricing
lution in terms of as- Benchmarking
sets
Service measurement
Asset transfer
Existing relationship
Part of Siemens
ITIL framework
Global solution
Whole value chain
ISO 9001
Proven expertise and referISO 17799
ences
Security, privacy and
Similar processes and culquality
management
tural fit
system
Guaranteed cost savings
HR Practice manageGeographical coverage
ment
Die graue Markierung zeigt, welche Inhaltselemente sich im Ziel MS wiederfinden sollten, um dem
new case und den Kundenanforderungen gerecht zu werden. Dabei sind zwei Szenarien denkbar:
1) Gleiche Kundensituation, unterschiedliche Lösungen
Hier sollte MS 3 die höchste Ähnlichkeit aufweisen und durch Elemente aus MS1 (Solution und
Portfolio) ergänzt werden.
2) Ungleiche Kundensituationen, gleiches Thema
Hier sollte MS 1 die höchste Ähnlichkeit aufweisen und durch Elemente aus MS2 (single service
provider with full value chain) und MS3 (bankenspezifische Security issues) ergänzt werden.
Die Informationen werden in der Praxis während des Angebotsprozesses im Team zwischen Sales
und Proposal Manager ermittelt und zusammengefügt. Für die automatische Abbildung der Szenarien
wäre entweder eine aufwendige Explizierung der Meta-Daten in Bezug auf die Kundenanforderung
notwendig oder eine ausreichend intelligente Technologie auf Textebene.
Im Folgenden soll untersucht werden, welche Bedeutung die unterschiedlichen Rollen in diesem
Prozess spielen, um mögliche Ansatzpunkte für die technologische Unterstützung zu finden.
6.4
Bedeutung der Rollen im Prozess
Die Erstellung eines Management Summaries ist Teil des SIS Sales Prozesses. Der Vertriebs- oder
Customer-Relationship-Prozess gehört neben dem Product-Life-Cycle- und dem Supply-ChainProzess zu den Kernprozessen bei SIS.
Das Management Summary ist Ergebnis der Zusammenarbeit zwischen Sales Manager und Proposal Manager. Beide Rollen unterscheiden sich in ihrem Arbeitsstil und Charakter, wie folgende eigene
Darstellung in Tabelle 6 zusammenfasst:
Tabelle 6. Rollen-Vergleich Sales und Proposal Manager
Sales Manager
Individueller Arbeitsstil
Event-getrieben
Auftragseingang-getrieben
Wechselnde Rahmenbedingungen
Unstrukturierte Ablage
Proposal Manager
Kollaborativer Arbeitstil
Systematisch, organisatorisch
Kosten-getrieben („Angebots-Fabrik“)
Klarer Auftrag, Arbeitsrahmen
Strukturierte Ablage
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
44
Im Folgenden werden die zu betrachtenden Rollen beispielhaft, wie in der Praxis, über ihre Verantwortungen und Aufgaben beschrieben. Erfahrungs- und Kompetenzlevel würden die Relevanz von Informationen einer Rolle noch weiter konkretisieren (Johnson und Johnson 1992).
6.4.1
Rolle Sales Manager
Der Sales Manager übersetzt die Kundenbedürfnisse in Serviceangebote unter Berücksichtigung der
unternehmerischen Ziele und Strategie. Im Sales-Prozess ist der Sales Manager für Verkaufsstrategie
und Marketing verantwortlich.
Seine Verantwortlichkeiten sind Definition, Erstellung und Pflege der Angebote, Berücksichtigung
der Kundenbedürfnisse sowie organisatorischen Möglichkeiten und Vorgaben. Zu seinen Aufgaben
zählen, Kunden Services anzubieten und verkaufen, Kundenbedürfnissen darstellen und vertreten,
Möglichkeiten entwickeln und priorisieren, Definition des Angebotswertes, der Verkaufsstrategie und
-taktik sowie der Unterscheidungsmerkmale zu Wettbewerbern, Management des Budgets, Pflege der
Beziehung, des Kontakts und der Kommunikation mit dem Kunden, Management des Sales-Prozesses
entsprechend den Unternehmensrichtlinien.
6.4.2
Rolle Proposal Manager
Der Proposal Manager leitet das Angebotsteam und führt das Angebotsprojekt zum erfolgreichen
Abschluss. Er koordiniert den Prozess, damit Informationen aus unterschiedlichen Quellen, in geeigneter Form Eingang ins Angebot finden.
Seine Verantwortlichkeiten sind Erstellung eines Angebots, mit einer Win-Win-Situation für den
Kunden und SIS, Management von Zeit, Budget und Qualität des Angebotsprojekts. Zu seinen Aufgaben zählen Koordination, Führung, Planung und Steuerung des Angebotsprojekts, Erfassung und Validierung von Kundenbedürfnissen, Entwicklung von Angebotsstrategie und Lösungskonzepten, Möglichkeit und Fähigkeit zur Auslieferung und Risiken, Management, Planung, Report, Prognose und
Überwachung von Kosten, Ressourcen, Aufgaben und Arbeitspaketen des Angebotsprojekts, Ausarbeitung vertraglicher Vereinbarungen und Verpflichtungen mit allen beteiligten Parteien für das Gesamtprojekt.
Dies mündet in unterschiedlichen Arbeitsstilen und Umgang mit Informationen. Es spiegelt sich in
ihren Ablagestrukturen wider. Ablagestrukturen sind eine Überlagerung unterschiedlicher Einflussfaktoren, darunter persönliche Präferenzen, Arbeitsstile, etc. Die Untersuchungen vernachlässigen die
Persönlichkeit des Mitarbeiters, um zunächst die Wirkung der Rollen zu untersuchen.
6.5
Zwischenfazit
Das Kapitel hat den Angebotsprozess bei Siemens IT Solutions and Services am Beispiel zweier
Rollen mit der Erstellung eines Management Summaries dargestellt. Es illustriert damit die Besonderheiten wissensintensiver Prozesse. Sie wurden zuvor in ihrer Abgrenzung und Besonderheit eingeführt. In Bezug auf die Forschungsfrage (F-2) ergeben sich Antworten (A-2.1 – A-2.3):
Ein wissensintensiver Prozess kann als Wissensentwicklung auf organisationaler
(A-2.1) Ebene verstanden werden. Wissensintensive Prozesse können aktivitäts-, ziel- oder
wissensorientiert sein.
Wissensintensive Prozesse liefern als Ergebnis ein Wissensprodukt. Die Literaturdiskussion bestätigt damit die Vermutungen, dass wissensintensive Prozesse hierüber definiert und selbst als organisationale Wissensentwicklung betrachtet werden können. Sie differenzieren sich in Abhängigkeit ihrer a
priori Festlegung von Zielen und Prozesschritten in aktivitäts-, ziel- oder wissensorientierte Typen.
Die weiteren Erkenntnisse lassen sich damit auf die Prozesse anwenden.
(A-2.2)
Wissensintensive Prozesse sind explorativ, nicht im Detail wiederholbar und zuvor
unbekannt.
Wissensintensive Prozesse unterscheiden sich in ihrer Dynamik und mangelnden Planbarkeit. Sie
stellen damit neue Herausforderungen an unterstützende Technologien.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
(A-2.3)
45
Die Herausforderung für unterstützende Technologien liegt in der notwendigen Fähigkeit, Pläne zu erstellen und Entscheidungen im dynamischen Umfeld zu treffen.
Die Beschreibung des Angebotsprozesses und die Auseinandersetzung mit Management Summaries
illustrieren die unterschiedlichen Herangehensweisen in der Erstellung eines Angebots.
Tabelle 7. Einordnung der Erstellung von Management Summaries in die Prozessarten
Prozessart
Charakteristikum
Wissensintensiv
Erstellung eines Management Summaries
Redaktionsaufwand
AktivitätsorienZielorientiert
tiert
Folgeaktivitäten und Gesamtziel definiert,
Ziele sind definiert.
Aktivitäts-ziele nur
vage erkennbar, Folgeaktivitäten sind offen.
Formular
Terminplanung
ausfüllen
Deduktiv
Induktiv
Detaillierung der Vorlagen (z.B. Template)
und Ziele auf verarbeitbare Größen
Wissensorientiert
Offene Ziele und
Aktivitäten
Erstellung einer
Value proposition
Intuitiv
Festlegung und Defi- Erfassung und Explinition von Konzepten zierung
versteckter
und Regeln zur Ziel- Konzepte
erreichung
Spigelt man die Herangehensweisen an den Prozessarten, lassen sich diese idealtypisch den Prozessarten zuordnen. In ihrer weitesten Ausprägung sind wissensintensiver Prozesse wissensorientiert.
In dieser kommen die Eigenschaften wissensintensiver Prozesse (A-2.2) besonders deutlich zum Ausdruck.
Technologisch gesehen spezifiziert sich damit die Frage (F-2.3): Inwieweit beeinflusst eine semantische Suche aktivitätsorientierte, deduktive Prozesse und zielorientierte, induktive Prozesse (F2.3.1) ? Deduktive Prozesse dergestalt, dass weniger Informationen über die Zielstruktur vorgegeben
werden müssen und damit der Redaktionsaufwand a priori sinkt. Induktiv dergestalt, dass eine höhere
Informationsqualität erzielt werden kann, ohne die Regeln zur Zielerreichung detaillierter zu spezifizieren, so dass mit gleichem Redaktionsaufwand mehr erreicht werden kann.
Mit Hilfe der ersten beiden ergibt sich auch eine verbesserte Unterstützung wissensorientierter
Prozesse. Die Erstellung von value propositions erscheint jedoch nicht ohne zusätzlichen Redaktionsaufwand möglich. Dieser müsste im Vorfeld weitergehende Konzepte, wie Akquisestrategien und
Kundenanforderungen, explizieren oder zugänglich machen.
Das Mehr an Aufwand bringt zwar auch mehr Wert, jedoch kann hierbei nicht von einer Produktivitätssteigerung ausgegangen werden. Sollte sich der Nutzen für erste beide Prozesse bestätigen, könnte
überlegt werden, welche Schritte für die weitere Forschung notwendig wären, um sich intuitiven,
wissensorientierten Prozessen zu nähern (F-2.3.2).
Welche Technologien sich hier konkret eignen, wird in Kapitel 9 zu (F-5) diskutiert. Eine finale
Antwort auf diese Frage wird Kapitel 10 mit der Antwort auf (F-6) vor dem Hintergrund der Leistungsfähigkeit des Semantic Desktop geben.
46
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
47
7 Verständnis von Wissen
Ziel des Kapitels ist es, einen Überblick über den aktuellen Stand der Forschung zu den Themen
Wissen, Wissensmanagement und Wissensentwicklung zu geben. Auf dieser Basis wird eine für die
Arbeit nutzbare Arbeitsdefinition der Begriffe festgelegt. Sie wird im Spiegel bestehender Modelle
und im Dialog mit Erklärungsansätzen anderer Disziplinen abgegrenzt und ihre Einflussgrößen, Annahmen, Rahmenbedingungen, Forschungsperspektiven herausgearbeitet. Ein besonderes Augenmerk wird auf die Unterscheidung von individuellem und organisatorischem Wissen gelegt.
Es existieren bereits unzählige festsetzende Definitionen von Wissen aus unterschiedlichen Disziplinen. Eine gute Übersicht hierzu geben Kakabadse (2001) und Romhard (1995). Im Sinne von Möhrle
und Kellerhals (1992) soll in diesem Kapitel weniger eine neue festsetzende Definition gegeben
werden, um einen neuen Begriff einzuführen. Vielmehr soll nach einer kurzen Übersicht eine feststellende Definition als Forschungsgrundlage herausgearbeitet werden, um den Begriff einfacher verständlich zu machen. Auf dieser Basis soll er aus unterschiedlichen Perspektiven als regulierende Definition präzisiert werden (Möhrle und Kellerhals 1992, S. 78). Ein besonderes Augenmerk liegt dabei
auf der Untersuchung und Detaillierung der individuellen Perspektive in der Wissensentwicklung.
7.1
Wissen – Begriffliche Abgrenzung als wiederverwendbare Ressource
Entwicklungsbedingt sind nach Teich (1996, S. 10) wirtschaftswissenschaftliche Definitionen meist
Anleihen in anderen Wissenschaften (Dispositionsbegriffe), und damit meist unvollständig bestimmt.
Im Sinne einer intentionalen Definition lässt sich Wissen grob in eine theoretische, weit gefasste und
eine angewandte, eng gefasste Definition unterscheiden (Möhrle und Kellerhals 1992, S. 81).
Die theoretische Definition orientiert sich an Platons Grundverständnis von Wissen als „justified
true belief“ und ihren folgenden philosophischen Interpretationen und Ausprägungen (van der Spek
und Spijkervet, 1997, Wiig 1993, Plato 1953). Sie integriert Gefühle als wahrheits- und wertstiftendes
Element. In der Betriebswirtschaft wird dieses Verständnis vor allem im personalorientierten Wissensmanagement zugrunde gelegt.
Die angewandte Definition orientiert sich an der praktischen Anwendbarkeit und versteht Wissen
als anwendbare, organisierte Information und als Handlungspotenzial (Turban 1992, Myers 1996,
Woolf 1990, Herbst 2000, S. 11, Boisot 1999). Auch Maturana und Varela bezeichnen Wissen eines
kognitiven Systems als die im System gespeicherte Information, um eine bestimmte Handlungsweise
zu ermöglichen (Maturana und Varela 1987, S. 29). Eine solche Definition konzentriert sich auf den
Umgang und die Handhabung von Informationen.
Nonakas (1995) Unterscheidung in implizites und explizites Wissen hat in der Praxis viel Erfolg
und hat sich weitestgehend etabliert. Explizites Wissen bezeichnet die Kodifizierung von implizitem
Wissen aus Sicht des Wissensgebers. Information bezeichnet diese Kodifizierung aus Sicht des „Wissens“nehmers. Ein Beispiel kann diesen Sachverhalt verdeutlichen: A bittet B, eine reife Tomate zu
kaufen. A weiß, was er unter einer reifen Tomate versteht und beschreibt dies B durch Farbe, Form
oder Festigkeit und expliziert damit sein Wissen über den Reifegrad einer Tomate. Für B sind die
Aussagen Informationen, die er mit seinen Erfahrungen verknüpfen muss, um die passende Tomate
auszuwählen.
Wissen im Sinne einer Wissensrepräsentation nach Scholl (explizites Wissen) kann in deskriptiv
(Was; Know-what) oder prozedural (Wie; Know-how) unterteilt werden (Scholl 1990, S. 109). Diese
Unterscheidung vereinfacht das Verständnis zwischen Content und Deployment und im technischen
Sinne zwischen Contentmanagement und Wissensmanagement. Für Computer ist damit Wissensrepräsentation im Rechner die Abbildung der Abbildung mit Hilfe von Symbolen, Zeichen, Frames,
Scripten, etc.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
48
Jede Repräsentation ist eine gewisse Abstraktion. Damit entsteht für die zu repräsentierende Wirklichkeit eine Komplexität und inhaltliche Reduktion. Deutlich wird dies in der Schwierigkeit einer
wirtschaftlichen Bewertung von Wissensobjekten.
Missverständnisse treten durch fehlende Differenzierung nach dem Grundverständnis auf (theoretische oder angewandte Definition). Manch einer verwendet „Wissen“ nur für die allgemeine Definition. Im angewandten Fall spricht er von „Information“. Für andere hingegen ist die allgemeine Definition für den betrieblichen Alltag nicht anwendungsnah. Sie unterscheiden zwischen Wissen und
Information innerhalb der angewandten Definition je nach Perspektive oder verwenden beide Begriffe
weitestgehend synonym.
Al-Laham (2003, S. 25) gibt einen guten Überblick über die Vielfalt der Wissensdefinitionen
und fasst diese als drei „Zugangswege“ zu Wissen zusammen: a) Wissen als Problemlösungspotential,
b) als Verarbeitung von Informationen und als c) Ergebnis von Lernprozessen. Er entspricht mit a)
dem theoretischen Ansatz, mit b) dem angewandten Ansatz und weist mit c) auf den Zusammenhang
von Wissen als Prozess im Sinne einer Wissensentwicklung hin. Letzteres wird im folgenden Kapitel
erörtert.
Der Dialog zwischen explizitem und implizitem Wissen konzentriert sich auf die Verfügbarmachung von orts- und zeitunabhängigen Informationen. Dabei entsteht Wissen aus organisatorischer
Sicht durch Kommunikation der Wissensarbeiter. Direkt wird dabei nur der Kommunikationsprozess, nicht aber der Prozess der Wissensentwicklung unterstützt. Die Wissensentwicklung im engen Sinne würde erst durch die Aufnahme und Einordnung der kommunizierten Information im Individuum geschehen. Dies kann im Sinne des personalzentrierten Wissensmanagements nur durch die
Gestaltung des Umfelds angeregt, aber nicht direkt beeinflusst werden.
Im technikorientierten Wissensmanagement wird aus Machbarkeitsgründen gerne auf die explizite Form des Wissens als angewandte Form und damit quasi als qualitative Information verwiesen, da
dies technologisch in Form von Dokumenten fassbar ist. Als hilfreiche Strukturierung hat sich dazu in
der Praxis die Wissenstreppe, basierend auf North (2005), durchgesetzt, die die Begriffe einfach und
verständlich miteinander in Beziehung stellt (North 2005 und Bradford 1999)
W e ttb e w e rb s fä h ig k e it
K o m p e te n z
+ E in z ig a rtig k e it
H a n d e ln
Können
W is s e n
In fo rm a tio n
D a te n
Z e ic h e n
+ ric h tig h a n d e ln
+ W o lle n
+Anw endung
+ K o n te x t
+ B e d e u tu n g
+ S y n ta x
Abb. 6. Wissenstreppe nach North
Sie verdeutlicht die Kontext- und Situationsabhängkeit als Kerneigenschaft von Wissen im Vergleich zur Information. Als Beispiel: Daten: 100; Information: 100 m Laufstrecke; Wissen: 100 m
Laufstrecke sind nicht ausreichend für die gegebene Beschleunigung. Kontext und Situation sind nach
der extensionalen Definition von Ziemke (2000) Erfahrungen, Erwartungen, wechselnde Gefühle, Bedenken oder Selbstverständnis. Dabei wird der Begriff über eine Reihe ähnlicher Beispiele abgegrenzt,
ohne ihn intensional in eine Begriffshierarchie einzuordnen oder über Eigenschaften zu beschrieben.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
49
Die Künstliche Intelligenz spricht in diesem Zusammenhang von „Situatedness“ oder „Situated Action“ (Ziemke 2000, S. 2 und S. 15).
Die Treppe zeigt die zwei Denkrichtungen bottom-up und top-down zur Abgrenzung von Wissen
auf: Wissensrepräsentation und Wissenskonstruktion.
Die technologische Abbildung und Repräsentation von Wissen versteht damit Wissen, historisch
gewachsen, auf Basis der Informationstheorie unter Anreicherung neuerer Erkenntnisse der Neurobiologie, als stabilen Zustand und Informationsobjekt, das sich speichern und benennen lässt.
Informationstheoretische Modelle und Technologien setzen auf einem rationalistischen, naturwissenschaftlichen Verständnis auf (Ziemke 2000). Ziel ist es, durch Wissen die Wirklichkeit zu repräsentieren und technologisch abbildbar zu machen. Es ist das aus der Betriebswirtschaft und Technologie bekannte Bild von Wissen. Es eignet sich, um mit dem betrieblichen Prozess aus
organisatorischer Sicht der Wissensentwicklung umzugehen.
Weniger die Unterscheidung der Wissensprodukte dürfte für die Abgrenzung helfen als vielmehr
die Frage nach dem Wert von Wissensprodukten. Wissensprodukte und Wissensdienste unterscheiden sich in ihrer Art der Vermarktung. Der Wert eines solchen lässt sich mangels objektivierbarer
Kriterien im Vergleich zu physischen Produkten erst nach Konsum des Produkts oder Nutzung des
Services aus dem Bedeutungsgehalt für den Nutzer festlegen.
Auch wenn dies nicht direkt der Definition des Begriffes dient, so führt ihre Gemeinsamkeit, der sie
hervorbringende wissensintensive Prozess, auf die Frage, ob Wissen per se nicht schon Wissensentwicklung ist. Nachdem neue Erkenntnisse für einen technologisch-betrieblichen Rahmen gefunden
werden sollen, ist fraglich, ob Anleihen aus anderen Disziplinen den Verständnisprozess nicht anregen
könnten. Damit verbunden ist die Frage, welchen Beitrag ein konstruktivistisches Verständnis von
Wissen für die Forschungsfragen leisten kann.
Der Wert von Wissen besteht in seiner Wiederverwendung. Wissensobjekte wie Methoden, Analysen oder Prozesse werden in der Praxis als Knowledge-assets oder Wissensbausteine bezeichnet
(Ramhorst 2001, Kikawada 2001). Sie werden über einen dedizierten organisatorischen Explizierungsund Reifeprozess erstellt (Lessons learned, Methodenentwicklung, etc.).
7.2
Wissen − Wissensentwicklung und Konstruktion
Entsteht Wissen situationsspezifisch und ist Information mit Bedeutung, dann ergibt sich die Bedeutung aus einem Prozess der Interpretation von Informationen. Dabei stellt sich die Frage, woher
dieses Wissen kommt und wie es zu Wissen wird. Die Frage ist also die nach dem Speicher und Bewusstsein. Im Speicher werden Wissen oder Informationsbausteine aufbewahrt, um kontextgerecht
zusammengesetzt zu werden. Das Bewusstsein verleiht Informationen über den Entwicklungsprozess
Bedeutung (Edelmann und Tononi 2002). Nach Edelmann und Tononi ergibt sich Bewusstsein aus einer hinreichenden Unterscheidung einer Vielzahl von Bewusstseinszuständen durch subjektive Entscheidung. Sie bezeichnen die assoziative Verknüpfung dieser Vielzahl von parallelen Bewusstseinszuständen als „re-entry“ (Edelmann und Tononi 2002, S. 117), eine Art Bereitschaftspotenzial.
Medizinisch-biologisch ist die Frage nach dem Bewusstsein noch nicht eindeutig zu beantworten
(Birbaumer 1997, S. 157). Birbaumer beschreibt Teilaspekte verschiedener Autoren, die es an der
Schnittstelle zur linken Hemisphäre des Gehirns oder an bestimmten Synapsentypen dingfest machen
und den Geist als physikalische Eigenschaft erscheinen lassen. Sie gehen von Mikrotubulie, dem Interdendritenwasser oder den dendrischen Spins der Neuronen aus. Allerdings lässt sich keine wissenschaftliche Einigung oder abschließende Aussage erkennen.
So müssen sich auch die Naturwissenschaften nach Grochowiak (2001) der Diskussion des Konstruktivismus stellen. Sogar die Existenz von realen Gegenständen werden ihm zufolge durch radikale
Konstruktivisten in Frage gestellt. Denn spätestens seitdem der Physiker Heisenberg entdeckte, dass
die Position von Beobachtern und die Art ihrer Fragen darüber entscheidet, ob es sich bei dem Beo-
50
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
bachteten um ein Teilchen oder eine Welle handelt (Heisenberg’sche Unschärferelation), setzte sich
die Erkenntnis durch, dass auch die physische Welt ein Konstrukt ist: „Die Welt ist ein Prozess. Sie
ist nicht, sie geschieht!“ Der konstruktive Ansatz versteht Wissen nicht als Ergebnis, sondern damit
als (Wissensentwicklungs-)Prozess. Er geht im Radikalen Konstruktivismus sogar so weit, dass die
Existenz von Wissen per se in Frage gestellt wird. Wissen entsteht dann immer situationsspezifisch
und wird nicht nur als objektives Abbild der Realität wahrgenommen (Pörksen 2001), sondern leitet
sich aus der Handlung ab (Ziemke 2001, S. 12 und S. 20). Auch wenn vielleicht die radikalen Ausprägungen sehr weit reichen, mag eine allgemeine, theoretische Grundlage dennoch für die Weiterentwicklung dieser Ansätze, vor allem im Verständnis der Wissensentwicklung auf individueller Ebene
hilfreich sein. Mit einem Exkurs in die Grundlagen des Konstruktivismus soll der Hintergrund für eine
solche Erörterung vertieft werden.
7.3
Exkurs − Konstruktivismus
Ein konstruktivistisches Wissensverständnis hinterfragt das bestehende Paradigma der Wissensverteilung. Ziel des Exkurses ist es, den Konstruktivismus in seinen Ausprägungen abzugrenzen und seine Kern-Charakteristika herauszuarbeiten. Sie sollen Anstöße für das Modell der Wissensentwicklung geben und helfen, den Prozess der Wissensentwicklung auf individueller Ebene abzubilden.
Die klassischen Naturwissenschaften beruhen auf dem Gedankenmodell des Realismus. Er steht zunächst im direkten Gegensatz zum Konstruktivismus. Während der Realismus „entdeckt“, „gestaltet“ der Konstruktivismus. Die Rolle des Beobachters differenziert beide Strömungen in eine konstruktivistische Subjektivität und realistische Objektivität (Vierecke 2007).
Beide Denkrichtungen lassen sich in verschiedene Teiltheorien unterteilen, die jede für sich versuchen, Schwachstellen in den Grundlagen zu nivellieren (naiver, hypothetischer Realismus; gemäßigter
und radikaler Konstruktivismus, etc.). Hierdurch ergeben sich Annäherungen und Überlappungen. Sie
können durch die Anwendung auf spezifische Forschungsfragen weiterentwickelt und abgewandelt
werden (Empirismus, Positivismus, etc.). Diese werden hier nicht weiter betrachtet.
Im Folgenden werden beide Pole des Spektrums in ihren Kernaussagen kurz umrissen und die für
die Arbeit relevanten Kernaspekte des Konstruktivismus herausgearbeitet.
7.3.1
Grundlagen und Vertreter des Konstruktivismus
Allgemein gesprochen ist der Konstruktivismus ein philosophisch-psychologisches Gedankenmodell und zählt zu den Systemtheorien (Schamanek 1998). Sie untersuchen komplexe dynamische Systeme. Ihre Theorielandschaft entwickelt sich nach wie vor auf neueren Erkenntnissen physiologischer
Entdeckungen der Hirnforschung der letzten Jahre und die Vernetzung unterschiedlicher Disziplinen
wie Neurobiologie, Kognitionspsychologie, Linguistik und Informatik.
Das Modell beruht auf Vorstellungen u.a. von Ernst von Glasersfeld (Entwicklungspsychologe),
Heinz von Foerster (Kybernetiker), Humberto R. Maturana (Neurobiologe, Erkenntnistheoretiker),
Gerhard Roth (Neurobiologe) und anderen wie Jean Piaget, Francisco J. Varela, Paul Watzlawick, Vico, Immanuel Kant und Maria Montessori (Honegger 2007).
Gemäß den philosophischen Grundlagen der Antike (Platon, Sokrates, etc.) in den Themen Wahrheit, Wissen und Wirklichkeit unterschied Vico Anfang des 18. Jahrhunderts zwischen Wahrheit, Wissen und Handeln: „Wissen ist Machen, wahr ist das Gemachte (verum quia factum)“ (Ratzinger 1968).
Demnach zählt nur, was die Menschen machen. Von Glasersfeld ersetzt dabei die Wahrheit als Ziel
der Überlegungen durch Viabilität oder Anwendbarkeit („funktional fitness“) (Schmidt 1998, v. Glasersfeld 1984, 1991 und 1995).
Verwandte Erklärungsmodelle wie der Existenzialismus von Kierkegaard gehen vom Wesen des
Menschen als einer anderen Erklärungsperspektive aus (Grochowiak 2001). Im Sinne des Idealismus
entsteht beim Konstruktivismus die Wirklichkeit zwar aus den individuellen Ideen und Gedanken, aber die Welt ist mit den Sinnen erfahrbar, was der erkenntnistheoretische Idealismus bestreitet. Für
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
51
ihn kann wahres Wissen nur aus dem Geist und der Vernunft selber kommen. Sie unterscheiden sich
demnach in ihren Variationen der zugelassenen Wahrnehmungsform (Roth 1994). Sie bleiben vor dem
Forschungshintergrund des Wissens dieser Arbeit unberücksichtigt.
Der Konstruktivismus findet sich insgesamt in einer agnostischen Tradition, die entgegen der materialistischen eine Erkenntnis des Wesens der objektiven Wirklichkeit prinzipiell ausschließt (SchmidtSalomon 1997). Über die Zeit entstanden aus diesem philosophisch-theologischen Dialog unterschiedliche Ausprägungen des Konstruktivismus (Steffe und Gale 1995, Prawat 1996 und Heylighen 1993).
Sie reichen vom dogmatischen, skeptischen über das relativierende bis hin zum reflexiven Erklärungsmodell in unterschiedlichen Disziplinen.
7.3.2
Der Realismus als Abgrenzung des Konstruktivismus
Allen Strömungen des Realismus ist die Akzeptanz einer Wirklichkeit außerhalb des Bewusstseins gemeinsam. Der Realismus hält die Erfahrung der Dinge der Außenwelt für die einzige Quelle
gesicherten Wissens (Roth 1994). Der naive Realismus geht von einer realen Welt aus. Sie ist so beschaffen, wie sie wahrgenommen wird (Vollmer 2002). Leicht einschränkend hält der erkenntnistheoretische Realismus objektives Wissen nur für möglich und geht davon aus, dass die Sachverhalte der
bewusstseinsunabhängigen Welt zumindest teilweise so zu erkennen sind, wie sie tatsächlich sind
(Roth 1994).
Der kritische Realismus akzeptiert zwar die Existenz der realen Welt, gesteht aber zu, dass sie
nicht in allen Zügen so beschaffen ist, wie sie uns erscheint (Vollmer 2002). Im hypothetischen Realismus wird die reale Welt nur noch als zu prüfende Hypothese mit der Forderung nach einer Ähnlichkeit unserer Interpretation mit der außersubjektiven Wirklichkeit angenommen (Riedl 2000, S. 36).
In der Frage nach der Erkenntnis postuliert der Empirismus, dass alle Erkenntnis der Erfahrung
entstammt (Vollmer 2002). Für den Rationalismus und Positivismus existiert ein apriorisches Wissen, das nicht durch Sinneswahrnehmungen erklärt werden muss. Die absolute Wahrheit und Erkenntnis wird mit Hilfe der exakten Naturwissenschaften ohne Theologie oder Metaphysik, aber durch logisches Denken erschlossen, das auf Axiomen beruht. Das klassische Beispiel für diese Art von Denken
ist die Logik und Mathematik als spezielle sprachliche Strukturen (Nonaka 1997 und Piaget 1973, S.
15). Nach Müller (2000), der ebenso eine erfahrungsbasierte Auffassung vertrat, können Menschen
nur das wissen, was sie für sich selbst erstellt haben, etwa Mathematik, aber nicht Natur.
Die vier Grundmerkmale des Positivismus sind:
1. Es existiert nur eine einzige Art von Wirklichkeit
2. Die einzige Erkenntnisquelle ist die sinnliche Erfahrung
3. Das Postulat von der „Einheit der Wissenschaft“
(Es müssen nicht unbedingt verschiedene Methoden der Wissenschaft existieren).
4. Die Ablehnung aller nicht-deskriptiven Aussagen
Der Neopositivismus fügte nun zwei Aspekte hinzu
1. Die mathematische Logik als Ordnungsprinzip und als Instrument zur Analyse
(weshalb auch vom logischen Positivismus oder logischen Empirismus gesprochen wird).
2. Die Sprachkritik
Positivismus wird oft als logischer Empirismus oder logischer Positivismus bezeichnet und damit
zu einer Spielart des Rationalismus und Objektivismus (Jonassen 1991). Im Objektivismus haben Objekte eine eigene Bedeutung, Wissen ist eine Reflexion ihrer Beziehung zur Realität.
Littlejohn und Foss (1996) bieten in Tabelle 8 eine zusammenfassende Übersicht der Unterschiede beider Denkmodelle:
52
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Tabelle 8. Unterschiede zwischen Objektivismus und Konstruktivismus
objektivistische Sicht
konstruktivistische Sicht
Reality is outside of and independent of human beings Human beings construct what is for them reality, they apply meaning and interpretations
Reality can be known as rationally (logically) and Reality is known through a culture's sign,
empirically (through senses)
stories, conceptual frames
Reality exists independently of contexts
What constitutes or passes for reality is dependent on context
Humans are essentially re-active
Humans are pro-active
(they adapt and respond to the environment)
(they build their own reality)
There are structures of knowledge "hard-wired" in the Meaning is a matter of convention, usage
human mind
and cultural signs
One can know "the truth"
The "truth" is variable, contextual, constructed
Theory can be value-free
Theory always reflects the values, imagination and structures of its social context
Theory can assist but does not demand social action
It necessarily entils social responsibility
Die Kernelemente der konstruktivistischen Sicht werden nachfolgend näher betrachtet.
7.3.3
Kernelemente des Konstruktivismus aus der Erkenntnistheorie
Im Hinblick auf die Wissens-Forschung kann der Konstruktivismus als Erkenntnistheorie (Epistemologie) bezeichnet werden. Die Erkenntnistheorie setzt sich mit den Voraussetzungen, Prinzipien
und Grenzen des Erkennens auseinander. Sie untersucht dabei insbesondere die Verschiebung vom
Erkenntnisobjekt zum Erkenntnisprozess (Schmidt 1995 und Glasersfeld 1987).
Der Konstruktivismus stellt keinen ontologischen Absolutheitsanspruch, sondern hilft zu differenzieren (Lamnek 1988, S. 77). Ontologie erklärt die Beschaffenheit der Welt, doch wer ontologisch argumentiert, bedient nach Maresch (1998) den Glauben an die Unterscheidung von Denken und Sein
und an die Zweiwertigkeit der Logik. Dies wird vom Konstruktivismus relativiert.
Epistemologie erklärt die Beschaffenheit unserer Erfahrung von dieser Welt oder nach v. Förster
(1993, S.102) ausgedrückt: „Erfahrung ist die Ursache, die Welt ist die Folge, Epistemologie ist die
Transformationsregel“. Sie beschreibt nach v. Glasersfeld (1984), wie Menschen Kenntnis von der
Wahrheit erlangen und ob diese Kenntnis verlässlich und „wahr“ ist. Er bevorzugt dabei, von Wissenstheorie zu sprechen, um vom Begriff der Erkenntnis zu differenzieren, der eine außerhalb des Individuums liegende, zu erkennende Wirklichkeit suggeriert (Glasersfeld 1996, S. 34).
Dass für ein Phänomen unterschiedliche theoretische Erklärungen vorliegen, ist eine bekannte Tatsache (Peschl 2001). Beobachten (Wahrnehmen und Erkennen) ist eine Konstruktion des Beobachters,
die uns eher widerfährt, als dass sie bewusst vollzogen wird. Dies geschieht bis zu unserer Beobachtung, wie beobachtet wird. Nach Schmidt (1995) sollte der Konstruktivismus daher als „Theorie der
Beobachtung“ (2.Ordnung) bezeichnet werden. Beobachtung lebt von der Unterscheidung und Benennung von Differenzen. Besonders dabei ist, dass das jeweils benutzte Unterscheidungsmerkmal im
Beobachtungsprozess nicht zugleich mit der beobachteten Differenz wahrgenommen werden kann.
Hieraus könnte sich ein rekursiver Prozess des Bewusstseins erklären lassen (Schmidt 1995).
Aus den unterschiedlichen Strömungen ergeben sich hilfreiche Ansatzpunkte für ein Verständnis
der Wissensentwicklung, die kurz illustriert werden sollen.
7.3.3.1 Realität und Wirklichkeit im neurobiologischen Konstruktivismus bei
Maturana und Roth
Aus der neurobiologischen Tradition betrachtet, begründet Roth (1994) den Konstruktivismus, ähnlich wie Maturana (1987), als Erkenntnis eines neuronalen Konstruktionsprozesses. Die dabei erkannte
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
53
Welt ist das Produkt dieser Konstruktionen, also ein Konstrukt des Gehirns. Dem Vorwurf, die Theorie leugne damit ihre eigene Gültigkeit, begegnet Roth mit zwei gedanklichen Brücken. Zum einen ist
er nicht bestrebt, ein „absolutes Sein (...), was in der Philosophie als Ontologie gezeichnet wird“ zu
erkennen, zum anderen differenziert er zwischen Realität und Wirklichkeit. Wirklichkeit ist für Roth
dabei die phänomenale Welt, die Welt der Erscheinungen, die von uns konstruiert ist. Auf sie allein
kann sich Wissenschaft beziehen. Realität ist die transphänomenale Welt. Sie ist unerfahrbar und eine
rein gedankliche Setzung. Damit grenzt sich Roth, als Neurobiologe, etwas von der Philosophie, als
objektivistische, rationale und logisch fundierte Wissenschaft ab.
Diese Trennung von Wirklichkeit und Realität wird von verschiedenen Autoren aufgegriffen und
aus ihrem Anliegen heraus interpretiert. Bei Watzlawick (1985) ist sie eine hinreichende Erklärung für
ein vertiefendes Verständnis von Kommunikation. Für Kant könnte Wirklichkeit das „Ding an sich“
(Gabriel 1993, S. 122f.) sein, welches die Realität hervorbringt, wenn sie sich, wie bei Schopenhauer,
als Wille und Vorstellung verhalten.
Auch Hegel bedient sich der Unterscheidung von Wirklichkeit und Realität. Er ergänzt das Bewusstsein, welches die Wirklichkeit durch die Gedanken beeinflussen kann (Opielka 2006, S. 373). Es
zeigt sich dabei eine Eignung, der rationalen Sicht des per se existent oder nicht existent, die Differenzierungsstufe des Geistes und Bewusstseins hinzuzufügen. Dies könnte Ansatzpunkt für eine Diskussion des subjektiven Charakters auf Basis des individuellen Bewusstseins sein. Es würde kontextspezifische Aussagen wie „unter diesen Umständen“ oder „mit diesem Ziel“ erlauben.
7.3.3.2 Wissen als anwendbare Wirklichkeit im Radikalen Konstruktivismus
Wissen wird im Konstruktivismus situationsbezogen konstruiert und nicht nur als objektives Abbild
der Realität wahrgenommen (Pörksen 2001). Der Radikale Konstruktivismus bemüht sich in seiner
Weiterentwicklung des Konstruktivismus nach Ernst von Glasersfeld (1987 und 1995), den Begriff
des Wissens von seiner traditionellen Verknüpfung mit der objektiven Wahrheit zu befreien. Er beschreibt die Entstehung und Konstruktion der Wirklichkeit als ein „Passen“. Sie richtet sich nach der
Brauchbarkeit und Anwendbarkeit im „weiteren Fluss unserer Erlebnisse“. Er betont damit eine
Kernaussagen des Konstruktivismus, die „Viabilität“, die er nach Ziemke (2000) auf Basis der Arbeiten von Piaget wie folgt zusammenfasst:
1) Knowledge is not passively received
2) Knowledge is actively build up by the cognizing subject
3) Function of cognition is adaptive; tending towards fit or viability
4) Cognition serves the subject's organization of the experimental world, not the discovery of an objective ontological reality
Das Radikale an dieser Form ist die Konsequenz und die Betonung, mit der das Verständnis einer
konstruierten Welt vertreten wird. Der Radikale Konstruktivismus geht so weit zu sagen, dass Menschen die Welt nie verstehen oder wissen können, da die Welt "konstruiert" wird und dies nur auf der
Basis eines eigenen, individuellen Bedeutungsrahmens geschieht (Kenny 1990).
7.3.3.3 Realität als Konsens individueller Wirklichkeiten im sozialen Konstruktivismus
Der Konzentration des Radikalen und neurobiologischen Konstruktivismus auf das Individuum und
die Negierung einer abschließenden Erfassbarkeit der Realität versucht der soziale Konstruktivismus
nach Heylighen (1993, S. 2) zu begegnen. Er postuliert, dass die Realität erklärbar werden kann, wenn
durch Kommunikation Subjekte in sozialen Gemeinschaften kommunikativ interagieren und hierüber
eine Multi-Welten-Sicht schaffen. Bei Konsens entsteht eine für alle akzeptable Realität, auch wenn
diese im Sinne des Radikalen Konstruktivismus nach wie vor nicht objektiv nachgewiesen werden
kann, aber so doch in gemeinsamer Abstimmung als solche akzeptiert werden kann. Dieser Ansatz ließe sich auf Wissen übertragen, wenn von organisationalem und verbreitetem Wissen gesprechen wird.
Wissen würde dabei, im Sinne einer geteilten, für wahr gehaltenen, Realität durch Konsensbildung
immer wieder neu erfunden werden. Maturana und Varela (1987) bezeichnen diese Konsensbildung
als koordinierte Verhaltensweisen zwischen den Systemen oder Ko-Evolution. Ihnen nach koppelt
54
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
sich der autopoietische Organismus strukturell an die Umwelt, um die „zirkuläre Produktion seiner
Komponenten“ fortzusetzen (Maturana und Varela 1987, S. 210).
Deutlich wird der konstruktivistische Charakter von Wissen bei Gochowiak (2001) am Beispiel einer Klient-Therapeut Beziehung. Wissen wird dabei im Sinne einer Problemlösung als gemeinsame
Neu-Konstruktion des Problems verstanden. Wichtig ist, dass die Lösung zum gemeinsam geschaffenen neuen Problemverständnis das Ursprungsproblem des Klienten löst.
Gemeinsam ist diesen Betrachtungsweisen, dass sie von geschlossenen Systemen ausgehen, die nur
durch Kommunikation, nicht aber direkt in Beziehung treten (Schmidt 1995). Weil Menschen, durch
Sozialisation, gemeinsame Begriffsbildung und Wahrnehmungsmodelle, offensichtlich sehr ähnlich
wahrnehmen, erkennen und ständig miteinander umgehen, ähneln sich die behandelten Gegenstände
so hinreichend, dass deren Produziertheit und deren Gebundenheit an selbstständige kognitive Systeme nicht in den Blick gerät. Menschen schaffen es ihm zufolge, als kommunizierende, sprachbegabte
Wesen, die „Weltentrennung“ durch „Medien im gemeinsamen Rückgriff auf symbolische Ordnungen
der Kultur miteinander zu vermitteln“. Für diese gemeinsamen Ordnungen bedürfte es nach wie vor
eines top-down Meta-Rahmens, wie im betrieblichen Umfeld einer Unternehmens-Ontologie.
7.3.4
Kernaussagen Kritik und Schlussfolgerung
Die Einordnung des Wissensbegriffs und der Wissensentwicklung vor dem Hintergrund der Erfahrungen in betrieblicher Praxis und Technologie führen zu einer konstruktivistischen Sicht des Begriffs.
In Abwägung der unterschiedlichen Modelle finden sich einige interessante Eigenschaften und Ansätze als Arbeits- und Verständnisgrundlage, um sich dem subjektiven Charakter von Wissen zu nähern.
1) Erweiterung der Realität um die subjektive Wirklichkeit
Im Sinne eines gemäßigten Konstruktivismus sollen die Ausprägungen des Radikalen Konstruktivismus nur Leitgedanke, aber nicht Verständnisgrundlage sein. Damit wird für die Arbeit eine physikalische Realität, vor allem für die Makro-Ebene einer Organisation anerkannt. Für Betrachtungen der
Mikro-Ebene und des Individuums dürfte das Verständnis einer subjektiven Wirklichkeit erkenntnisbringend sein.
2) Viabilität statt ontologischer Realität
In diesem Hinblick wird der Anspruch des Konstruktivismus nach einem Anwendungsbezug, und weniger einer ontologischen Realität, als geeignet zugrunde gelegt.
3) Erkenntnis ist ein Einordnen
Wieder aus individueller Sicht dürfte das Verständnis des Erkenntnisprozesses für die Wissensentwicklung weniger ein Entdecken der Realität (im Sinne Maturanas und Roths) als vielmehr die Entdeckung ihres Platzes in der Ordnung des Geistes sein (Schnapp 2004). Durch das Einordnen entsteht individuelle Bedeutung in Abhängigkeit der Rolle des Beobachters. Sprache dient uns als Benennung
der Differenzen.
4) Sprache als Abbild der Wahrnehmung
Nach Wittgenstein sind für Kenny (1989) Denken und Sprache untrennbar miteinander verbunden.
Das heißt, wer philosophiert, muss zwangsläufig über Sprache sprechen. Philosophische Probleme zu
verstehen, heißt wesentlich, die Funktionsweise der Sprache zu verstehen. Der Kern von Wittgensteins
Frühphilosophie besteht in einer Abbildtheorie der Erkenntnis. Sie besagt, dass die Bedeutung eines
Wortes in seinem Bezugsgegenstand besteht. Sprache wird benötigt, um die Konzepte und Ideen
der Wirklichkeit darzustellen und auszudrücken. Sie dürfen nicht als die Dinge an sich verstanden
werden (Gochowiak 2001). Die Repräsentation der Wirklichkeitsmodelle dient zum Austausch im
Sinne der Erzeugung eines gemeinsamen Zustandes und Verständnisses. Fraglich ist, ob damit Sprache nicht erst das Abbild der Abbildung ist, sprich die als gemeinsam verstandene Symbolik und Repräsentation der Wirklichkeit als Abbild der Realität.
Ontologien sind die sprachliche Struktur für die Beschreibung der Welt und Realität. Für einen konstruktivistischen Umgang wären sie selbst Teil der Wirklichkeit und ständiger Erneuerung ausgesetzt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
55
Auf organisatorischer Makro-Ebene dürfte die Veränderung langsam genug sein, um sie als zeitweise
statisch anzunehmen. Auf individueller Mikroebene hingegen unterliegen sie einer hohen Dynamik,
die sich nicht a priori festlegen lässt.
5) Nicht nur der Geist darf Erkenntnisquelle sein
Die Berücksichtigung der Tatsache, dass die Karte nicht die Gegend ist, von der sie eine Karte ist,
kommt leider häufig zu kurz (Gochowiak 2001). Es ist daher wichtig, herauszustellen, dass die Gedanken der Abbildung und Wirklichkeit wiederum Teil der Wirklichkeit sind und sich hieraus ein rekursiver Prozess ergeben kann. Er liefert keine finale Aussage, sondern nur Annäherungen. Dazu ist
wichtig, nicht nur den Geist als Erkenntnisquelle zu nutzen, sondern den ganzen Körper und mit ihm
seine Wahrnehmungs- und Handlungsmöglichkeiten.
7.4
Zwischenfazit
Das Kapitel hat den Wissensbegriff aus unterschiedlichen Disziplinen beleuchtet und die überlappende Eigenschaft der Subjektivität mit Hilfe des Konstruktivismus näher untersucht. Die Diskussion
führte zu folgender feststellender Definition als Arbeitsdefinition für diese Arbeit:
(A-3.1) Wissen ist ein Zustand subjektiver Wirklichkeit.
Wissen lässt sich aus einer theoretischen oder angewandten Sicht definieren. Das theoretische
Verständnis von Wissen ist bemüht, alle Perspektiven (philosophische und technische; rationale und
emotionale, etc.) zu integrieren. Das angewandte Verständnis ist bemüht, eine einfache und pragmatische Definition im Sinne von kontextspezifischer Information zu nutzen.
Gemeinsamkeiten zwischen theoretischem und angewandtem Verständnis zeigen sich aus dem
Diskurs über festsetzende Definitionen des Begriffs „Wissen“ in den Punkten Subjektivität (Kontextbezug) und Handlungsbezug (Viabilität und Potenzial zum Handeln).
Zu unterscheiden ist die Konstruktion eines Zustands und der andauernden Verfügbarkeit und
Festhalten des Zustands. Hilfreich dabei ist die konstruktivistische Differenzierung zwischen Wirklichkeit und Realität. Sie ermöglicht mit Hilfe der maturanischen Ko-evolution (vgl. auch KlientTherapeut-Beispiel) ein vertieftes Verständnis der Entwicklung einer organisationalen Wissensbasis
und einer Viabilität aus dem Dialog zwischen Individuen.
Wissen als Zustand bedeutet, dass Wissen nicht gleich dem Prozess der Wissensentwicklung sein
kann. Je nach Dauer des Zustands kann dieser dem Zustand sehr ähnlich werden. Wissen im angewandten Sinne heißt Wissen als Wissensobjekt oder Knowledge asset zu verstehen. Dabei kann von
einer längeren Haltbarkeit ausgegangen werden, jedoch unter Verfall des Nutzens. Die Kontexte des
Wissensobjekts verändern sich und es verliert an Wert.
Da für den technologischen Umgang mit Wissen bestimmte Zustände festgehalten werden müssen, liegt es nahe, von Wissen als Objekt mit geringer Haltbarkeit und nicht nicht von Wissen als
reinem Prozess auszugehen. Der Prozess der Zustandsentstehung wird jedoch verallgemeinert als Wissensentwicklung bezeichnet und genutzt, um ihn immer wieder neu technologisch anzuwenden. Er beschreibt den Prozess zum Aufbau und Festhalten dieses Zustands im Sinne eines wiederkehrenden,
explizierbaren Einzelfalls, als rekursive Konstruktion.
Der Exkurs des Konstruktivismus konnte dafür wichtige Elemente eines konstruktivistischen Verständnisses herausarbeiten, wenn auch der radikale Konstruktivismus als zu dogmatisch für den aktuellen Anwendungsfall erscheint. Der Exkurs zeigt einige Ansatzpunkte, sich dem subjektiven Charakter von Wissen zu nähern. Der Konstruktivismus stellt der bisherigen organisationellen Makro-Sicht
im Sinne einer gegebenen Realität Zugang zu einer individuellen Mikro-Sicht im Sinne einer eigenen
und dynamischen Wirklichkeit zur Verfügung.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
56
(A-3.2)
Die Eigenschaften von Wissen sind Viabilität, Subjektivität, Vergänglichkeit und
rekursive Konstruktion.
Obiges Verständnis und feststellende Definition berücksichtigt folgende Charakteristika aus der
Diskussion:
• Vergänglichkeit und Konstruktion im Sinne eines Verblassens des Wahrheitsgehalts und
der Notwendigkeit eines ständigen Wiederaufbaus des Zustands.
• Viabilität, im Sinne eines Anwendungsbezugs oder Situationskontexts.
• Subjektivität, im Sinne einer individuelle Perspektive mit Intention.
Ein Zustand ist vergänglich. Er verblasst. Erst seine Repräsentation und sein Anwendungsbezug
(Viabilität) frieren die Zusammenhänge in Sprache ein und verleihen ihm durch die Einordnung in
bestehende Wirklichkeitsgebäude Bedeutung. Wissen ist die ständige Re-konstruktion des Zustandes
subjektiver Wirklichkeit. Nach außen hin erscheint es als ein festes Gebilde oder Objekt. Mit seiner
Vergänglichkeit ist es jedoch in einer ständigen Veränderungen begriffen. Betrachtet man es nur als
Objekt, so ist es der leblose Panzer, mit dem umgegangen wird. Der Zustand, das Wissen selbst, hat
sich verändert und weiterentwickelt.
Die Viabilität kennzeichnet den in der Definition enthaltenen Anwendungsbezug. Als Kontext
werden heute schon Situationsbedingungen expliziert und in Workflow-Umgebungen genutzt. Als
technologisch neue Herausforderung gilt die Ergänzung dieses Kontexts um die Intention und individuelle Perspektive.
Die Subjektivität von Wissen konzentriert das Verständnis der Wissensentwicklung weniger auf
die Kommunikation und Informationsübermittlung zwischen Subjekten, sondern vielmehr auf die
Einordnung übermittelter Informationen in den subjektiven Erfahrungsrahmen. Wissensentwicklung im vorliegenden Sinne entspricht damit einer individuellen Bedeutungsentwicklung mit
eigener Intention. Mit Hilfe der Kommunikation entsteht aber erst eine über das Individuum hinausgehede, gemeinsame Wirklichkeit.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
57
8 Wissensentwicklung – begriffliche Einordnung
Der Prozess des ständigen Aufbaus von individuellen Zuständen ist die Wissensentwicklung.
Sie wird in diesem Kapitel gegenüber ähnlichen Modellen und Prozessen abgegrenzt und eingeordnet. Fraglich dabei ist, inwieweit ähnliche Begrifflichkeiten nicht besser für die Bezeichnung geeignet wären und inwiefern dieser Begriff für die Arbeit als feststellende Definition genutzt wird.
Wissenserwerb: Im Sinne von Probst et al. (1997) soll hierunter der Bezug von meist explizitem
Wissen und Informationen wie Marktstudien, Konkurrenzanalysen oder Methoden verstanden werden.
Als englische Übersetzung soll der Begriff der „Knowledge creation“ verwendet werden. Aufgrund der praxisorientierten Handhabung und des Verständnisses von Wissensmanagement wird der
Begriff in der englischsprachigen Literatur meist schon in einem technologischen Zusammenhang betrachtet (Nonaka und Takeuchi 1995).
Der Begriff Wissensgenerierung eignet sich weniger für einen allgemeinen Entstehungsprozesses
von Wissen als vielmehr für eine betonte Darstellung von Neuheiten und neuen Wissensobjekten aus
innovatorischer, betrieblicher Sicht.
Mit Wissensentstehung wird der gleiche Sachverhalt wie mit Wissensentwicklung aus passiver
Sicht ausgedrückt. Entstehung geht im Gegensatz zur Entwicklung von einen schlecht beeinflussbaren
Prozess aus.
Die Übertragung konstruktivistischer Ansätze führte zu technologischen Ansätzen, wie Knowledge
Construction von Ostwald (1996) oder Coinstructive Knowledge Analysis of Tasks (CKAT) von
Liaw et al. (2007, Liaw und Geeng-Neng 2003). Knowledge construction basiert auf den Schritten
Aktivierung, d.h. Explizierung des impliziten Wissens, Kommunikation, d.h. Bildung eines gemeinsamen Verständnisses und Envisioning, d.h. Entwicklung einer Veränderungsvorstellung. Nach Stahl
(1993) ist die Explizierung dabei eine temporäre Interpretation. CKAT formuliert die Wissensentwicklung als: knowledge objective; knowledge gathering; knowledge analysis; knowledge construction.
Gemeinsam ist ihnen das Grundverständnis von Wissen als Knowledge-asset oder Informationsobjekt.
Nach Aschoff und van Elst (2001) ist Knowledge Acquisition der Prozess der Wissensakquisition
für Expertensysteme. Fünf Problembereiche zeigen die Schwierigkeiten dieses Ansatzes: Verfügbarkeit von Experten, Bedarf eines „gold standards“ für Wissen, Frage nach der Anzahl der relevanten
Wissensdomänen, Isolierung des Mehrwertes einer bestimmten Methode und Quantifizierung des
Aufbereitungsaufwands (Shadbolt et al. 1999).
Wissensgewinnung suggeriert die Existenz von Wissen per se, das nur geborgen werden muss (im
Sinne von Rohstoffen). Dies mag für Knowledge-assets zutreffen, berücksichtigt aber nicht ausreichend die beschriebenen Charakteristika von Wissen im Sinne einer Konstruktion.
Wissensentwicklung bezeichnet einen aktiven, technologie-unabhängigen Prozess, der nicht zu
einseitig auf den Neuigkeitscharakter abstellt und offen ist für eine individuelle Perspektive.
8.1
Wissensentwicklung – im betriebswirtschaftlichen, organisationalen Rahmen
des Wissensmanagements
Im Hinblick auf ein tragfähiges Modell für die Wissensentwicklung ist die Frage, inwieweit bestehende und oben beschriebene Modelle als Basis dienen können. Nach Teich (1996, S. 8f.) dient ein
Modell grundsätzlich dazu, die Theorie in ein Bild zu bringen, das mit der Wirklichkeit verglichen
werden kann. Es fasst den Sachverhalt allgemeingültig zusammen und bildet ein Strukturierungsgerüst.
58
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Die heutige Struktur und das Verständnis von Wissensmanagement (WM) wurde wesentlich durch
die Ansätze von Nonaka und Takeuchi (1995 und 1997) und Probst (1997) geprägt. Nonaka und Takeuchi führten das Verständnis von Wissen als implizit und explizit ein. Probst beschrieb die Module
des Wissensmanagements. Andere WM-Konzepte wie Rehäuser und Krcmar (1996), Bullinger et al.
(1998), Pawlowsky (1994) ergänzen Gedankenelemente, haben sich als Modell aber nicht nachhaltig
durchgesetzt. Sie haben nach Rothmann-Reimann (2001) keine weite Verbreitung oder Praxisakzeptanz. Nach Mandel (2001) lässt sich WM in Abbildung 7 vereinfacht als Schnittmenge unterschiedlicher betrieblicher Systeme umreißen. Wissensentwicklung ist ein wesentlicher Bestandteil darin.
T e c h n ik
O r g a n is a tio n
W is s e n s m anagem ent
M ensch
G e s e lls c h a ft
Abb. 7. Komponenten des Wissensmanagements
Al-Laham (2003) stellt die verschiedenen Ansätze als einen wissensbasierten Ansatz für das strategische Wissensmanagement in Beziehung. Er erweitert damit die bekannten Strategieansätze des resource-based und market-based views zu einem knowledge-based view. Diesen belegt er durch Anwendung auf Praxisszenarien, wie Akquisitions-, Markteintritts- oder Desinvestitionsstrategien. Der
Ansatz „präzisiert (…) die Kausalzusammenhänge zwischen der Ressourcenausstattung einer Unternehmung und entstehenden Wettbewerbsvorteilen“ (Al-Laham 2003, S. 173). Das in Kapitel 7 vorgestellte Wissensverständnis der Arbeit folgt damit seiner Forderung nach einer stärkere Verbindung von
Content- und Process-Forschung im strategischen Management. Er charakterisiert Wissen (Al-Laham
2003, S. 172) aus organisatorischer Sicht als nicht-limitierbare, nicht-handelbare und nichtsubstituierbare Ressource. Er bricht mit dem organisationalen Verständnis von Wissen als Objekt
und entwickelt es hin zu einem prozessualen Verständnis von Wissen. Zur Umsetzung der Strategien
beschreibt er Wege der Wissensakquisition, -ausschöpfung, -transfers und -sicherung und skizziert
Auswirkungen auf eine wissens- und lernfördernde Organisationsstruktur.
Kakabadse (2001) beschreibt drei grundlegende Modelle des WM, deren Fokus sich im Laufe der
Zeit von Wissensbewahrung (Cognitive model of KM) über Wissenserwerb (Network model of
KM) zu Wissensentwicklung und -nutzung (Community Model of KM) entwickelte. Nachdem
Communities in der Praxis bereits eine etablierte Form des WM sind, ist die Frage, wie sich die technologische Unterstützung dieser otpimieren lässt.
Das uneinheitliche Verständnis von Wissen im Alltag beeinflusst das Wissensmanagement negativ
im Aufbau einer systematischen Wissensentwicklung. Das Management von Wissen hat daher zunächst die Aufgabe, die konkurrierenden Sichtweisen zu koordinieren, zu balancieren und situationsgerecht einzusetzen. Die Wahrnehmung der Organisation als Organismus im Sinne einer Lernenden Organisation (Herbst 2000) und eines ganzheitlichen, sozio-technischen Systems vereinfachen den
Umgang mit zunächst paradoxen und sich scheinbar widersprechenden Zusammenhängen.
Im Folgenden werden einzelne Modelle in ihren Kernelementen kurz beschrieben, um die jeweiligen Ansätze und Grundlagen für die Wissensentwicklung zu extrahieren.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
8.1.1
59
Wissensentwicklung im Modell von Probst
Das Modell von Probst (1997) überträgt fallstudien-basiert und praxisnah Managementansätze auf
die Ressource Wissen. Es gliedert das Management von Wissen in Prozesse wie Wissensdokumentation, Wissensverteilung, Wissensbewahrung und Wissensentwicklung. Diese lassen sich technologisch
und soziologisch unterstützen und abbilden. Als Beispiele gelten best-practices-Datenbanken, Bewahrung von Expertenwissen durch Interviews, verteilter Zugriff auf Wissensbanken, abteilungsübergreifende Communities.
Wissensverteilung erleichtert das Auffinden des richtigen Wissens und dessen individuelle Anpassung und wirkt primär effizienzsteigernd und damit Kosten senkend.
Wissensentwicklung oder -aufbau bezeichnet die Vertiefung des Verständnisses von Prozessen,
Produkten, Kunden, etc. In Industrieunternehmen wird die Wissensentwicklung institutionalisiert in
speziellen Prozessen wie Softwareentwicklung, Engineeringprozessen und allgemeiner Forschung und
Entwicklung betrieben.
Handelt es sich um strategisch wichtige und wettbewerbskritische Wissensbereiche, so sollte eigenes Wissen aufgebaut werden, um es zu Kernkompetenzen auszubauen. Organisationales Lernen und
Netzwerkprozesse bergen mit ihren virtuellen und flexiblen Strukturen und wegen ihrer Flexibilität
und überdurchschnittlichen organisationalen Lernfähigkeit großes Potenzial, Wettbewerbsvorteile zu
erzielen (Mueller 1988, S. 58). Die Lernfähigkeit hängt nach Nelson und Winter (1982, S. 171f.,
247ff.) entscheidend von den Erfahrungen der Unternehmung, ihren Such- und Problemlösungsverfahren und ihrer Zugänglichkeit zu Wissensquellen ab.
Durch Vergleich zwischen Anforderung und Ist-Situation kommt der Wissensbedarf zum Vorschein. Wissen kann intern entwickelt oder extern aus Datenbanken von Universitäten oder Beratern
erworben werden. Als Schlüsselqualifikation steht hier das Scanning des Unternehmensumfeldes im
Vordergrund, um rechtzeitig auf Entwicklungen aufmerksam zu werden und geeignete Informationen
aufnehmen zu können. Es können dafür spezielle Stellen eingerichtet werden oder über Selektionsmaschinen eine Auswahl aufbereitet werden. Personengebundenes Wissen, wie bei hochqualifizierten
Spezialisten kann über Personalberater oder Headhunter vermittelt werden. Explizites Wissen, wie Patente, Lizenzen oder Studien, lässt sich in Unternehmen über Aufkäufe akquirieren. Bei der gezielten
strategischen Einbindung von Strategischen Geschäftseinheiten in das Netzwerk ist besonders auf die
Integrationsfähigkeit zu achten (Hinterhuber 1992, S. 96). Cohen und Levinthal (1990) bezeichnen
diese als absorptive capacity. Erfolgreich ist die Wissensaufnahme nach Scholl (1990, S. 109), je mehr
Wissen assimiliert werden kann und je weniger akkomodiert werden muss. Dabei geht es letztlich um
die Differenzierung und Integration kognitiver Elemente und mentaler Modelle.
Das Modell von Probst vernachlässigt den subjektiven Charakter von Wissen. Verfahren, Strukturen, Informationsquellen, Integrationsformen, Rechte und Rollen spielen eine wichtige Rolle für die
Wissensentwicklung. In den meisten Fällen geht es um ein qualifiziertes Informationsmanagement. Information wird aufgrund seiner strategischen Bedeutung im Unternehmen zu Wissen.
8.1.2
Wissensentwicklung bei Nonaka und Takeuchi
Für Nonaka und Takeuchi (1995 und 1997) ist, nach ihrem SECI-Modell, die Entwicklung von
Wissen ein kontinuierlicher Prozess aus Explikation und Sozialisation. Der Zuwachs an Wissen erzeugt darin eine Spiralbewegung.
Sie unterscheiden den Zustand von Wissen als explizit und implizit. Das Modell beschreibt die organisationale Wissensentwicklung als Interaktion zwischen explizitem und implizitem Wissen. Es unterscheidet zwischen rationalem (Kombination) und emotionalem (Sozialisation) Umgang zwischen
Individuen.
60
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Abbildung 8 veranschaulicht die Phasen ihres Modells. Dabei gehen sie davon aus, dass implizites
Wissen vorliegt, das der Gruppe zugänglich gemacht werden muss, um in der Diskussion geprüft und
expliziert zu werden. Durch Verteilung und Kombination an andere Mitarbeiter entsteht ein Wissensnetzwerk, das zur Wissensentwicklung beiträgt (Nonaka und Takeuchi 1995, S. 61f.). Die Entwicklung
von explizitem Wissen wird dabei vor allem als Explikation im Sinne eines Diskussionsprozess verstanden. Die Entwicklung von implizitem Wissen kann mit Lernen als Wissensaufnahme beschrieben
werden.
Implizit Sozialisation Artikulation
Explizit
Von
Nach
Internalisierung
Kombination
Implizit
Explizit
Abb. 8. Kreislauf der Wissensentwicklung
Die Strukturierung von Nonaka und Takeuchi eignet sich in der Praxis besonders für die Bestimmung geeigneter Unterstützungsformen, je nach Form des Wissens. Methoden wie Debriefing für
Leaving experts als Artikulation ließen sich technologisch oder personalpolitisch einordnen. Die
Strukturierung ist eine erste und gute Basis dafür, Wissensentwicklung auf organisationaler Ebene als
zwei Phasen im Sinne einer Explikation und des Lernens zu verstehen.
8.1.3
Wissensentwicklung bei Boisot
Das Modell von Boisot (1999) erweiterte zum einen den Prozess der Wissensentwicklung von Nonaka und verankert zum anderen Wissen als betriebliche Ressource im mikroökonomischen Verständnis.
Boisot versteht Wissen als „set of expectations“ im Hinblick auf die Handlung des Subjekts. Wissen
ist für ihn ein Produktionsfaktor auf der Basis von Daten und Informationen. Damit greift er das Verständnis von Wissen als Ressource im Unternehmen auf und lässt es, mikroökonomisch betrachtet,
physischen Faktoren substituieren. Dies ergibt eine Isoquante, eine Produktionsfunktion. Daten und
Informationen können zu einer Bewegung auf dieser führen und physische Faktoren ersetzen. Echter
Erkenntnisgewinn führt zu einem Isoquantensprung in Richtung des Ursprungs (Boisot 1999, S.
30ff.) und damit zu anderen Substitutionsverhältnissen zu physischen Faktoren. Dieser Sprung lässt
sich mit Nonakas Spiralbewegung im SECI-Modell vergleichen.
Das Verständnis von Wissen als Ressource führt somit zu einer Wertigkeit von Informationsobjekten im Vergleich zu anderen Faktoren. Es sagt zunächst nichts über die Entwicklung höherwertiger
Ressourcen oder Objekte an sich aus. Es ist vielmehr eine Ex-post-Betrachtung.
Die Form von Wissen qualifiziert Boisot als Element eines Informationswürfels mit den Eigenschaften Codification, Diffusion und Abstraction. Ähnlich wie bei Nonaka und Takeuchi beschreibt
Boisot (1999, S. 60) in Abbildung 9 die Wissensentwicklung als einen Datenfluss in diesem Informationsraum, den Social Learning Cycle (SLC): Scanning, Problem-solving, Abstraction, Diffusion, Absorption und Impacting.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
61
4
5
codified
3
1 Scanning
2 Problem-solving
ab
st
ra
2
ct
uncodified
6
co
nc
re
t
e
1
undiffused
3
Abstracion
4
Diffusion
5
Absorption
6
Impacting
diffused
Abb. 9. Boisot’s Social Learning Cycle (SLC)
Der SLC beinhaltet mit Scanning und Diffusion Nonakas Elemente Internalisierung und Externalisierung. Beim Versuch, beide Prozesse zur Deckung zu bringen, fällt auf, dass Boisot für die Bereiche
Sozialisierung und Kombination zwei Schritte der Verallgemeinerung und Konkretisierung in Form
von Abstraktion und Impacting ergänzt. Eine mögliche Erklärung wäre, dass hierin der Übergang und
Systemgrenze
explizit
implizit
4
Externalisierung
5
6
Sozialisierung
Kombination
3
bewusst
2
unbewusst
Internalisierung
explizit
1
implizit
1= Scanning
2= Problem-Solving
3= Abstraction
4= Diffusion
5= Absorption
6= Impacting
Boisot: Social
Learning Process
das Zusammenspiel von bewussten und unbewussten Prozessschritten zum Tragen kommt, wie in eigener Darstellung mit Abbildung 10 verdeutlicht.
Abb. 10. Mapping der Modelle von Boisot und Nonaka
Aus organisationaler Sicht besteht in keinem der Modelle die Notwendigkeit, diese Unterscheidung
näher zu untersuchen. Aus dem Wissensverständnis eines subjektiven Zustandes liegen hierin Ansatzpunkte, die subjektive Wirklichkeit als einen Bewusstseinszustand zu verstehen, der aus bewussten
62
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
(expliziten) und unbewussten (impliziten) Prozessen (Zusammenhänge, Abstraktionen etc) situationsspezifisch entsteht.
8.1.4
Wissensentwicklung im Modell der Siemens AG
Die Siemens AG baut ihr Verständnis für den Umgang mit Wissen in Anlehnung an Boisot (1999)
und seinem Wissensraum mit den drei Dimensionen Proficiency (Expertise und Leistungsfähigkeit),
Diffusion (Verbreitungsgrad) und Codification (Dokumentation) auf. Es umfasst alle systematischen
Aktivitäten zur Wissensentwicklung und -verteilung und beschreibt in Abbildung 11 damit die systematische Anpassung von Proficiency, Codification und Diffusion an die Unternehmensziele (HoferAlfeis 2003).
World-class
expert
Collaborative
teams
Loosly
coupled
units
on
Communities
of practice
Di
ffu
si
Skilled&
trained
Proficiency
Expert
Beginner
Codification
Thinking,
mental
models, etc.
Discussions,
reports,
notes
Structured
objects
(guidelines,
models, etc.)
Best
practice
Abb. 11. Wissensmodell der Siemens AG
Bei der Optimierung der Ressource Wissen im Unternehmen erleichtert die Wissensverteilung das
Auffinden des richtigen Wissens und dessen individuelle Anpassung. Sie wirkt primär effizienzsteigernd und damit kostensenkend. Wissensentwicklung oder -aufbau bezeichnen die Vertiefung des
Verständnisses von Prozessen, Produkten, Kunden, etc. in Form von Proficiency (implizites Wissen)
und Codification (explizites Wissen). Letztere zwei decken sich mit den von Hansen et al. (1999) unterschiedenen WM-Strategien: computer-based codification und personalization. Bei Ersterem wird
versucht, möglichst viel implizites Wissen zu explizieren und systemtechnisch zugänglich zu machen.
Bei Letzterer muss implizites Wissen durch persönlichen Kontakt genutzt werden.
Wissensentwicklung wird in Industrieunternehmen als Innovationsprozess verstanden und institutionalisiert in speziellen Prozessen wie Softwareentwicklung, Engineeringprozessen und allgemeiner
Forschung und Entwicklung betrieben. Innovation ist der Einsatz von Wissen für neue, noch unbekannte Lösungen und damit viele kleine Prozesse der individuellen Wissensentwicklung (Herbst
2000). Kakabadse (2001, S. 143) beschreibt Innovation als komplexen Design- und Entscheidungsprozess durch Kreation, Verteilung, Anwendung und Nutzung neuer Ideen von Mitarbeitern in einem institutionalisierten Kontext. Dieser Kontext wird im Sinne wissensintensiver Prozesse in Kapitel 0 vertieft.
Proficiency (Reifegrad) kann nach wie vor nur über Training und individuelles Lernen abgedeckt
werden. Außer der methodischen Unterstützung von Kreativprozessen wird die Wissensentwicklung
derzeit nur unzureichend unterstützt.
8.1.5
Zwischenfazit betriebswirtschaftlicher Diskussion
Betriebswirtschaftlich betrachtet fällt auf, dass Informationen als anwendbare Ressource ex post an
ihrer Bedeutung für das Unternehmen als Wissen qualifiziert werden. Sie können nach Al-Laham
(2003) im Sinne eines knowledge-based views Grundlage für ein Strategisches Wissensmanagement
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
63
sein. Aufgrund der Ex-post-Betrachtung lassen sich jedoch für die Wissensentwicklung nur Ansatzpunkte aus der Kommunikation ableiten. Dies soll im Folgenden noch einmal vertieft betrachtet werden.
Betriebswirtschaftliche Diskussionen enden mit der Institutionalisierung von unterstützenden Maßnahmen oder Prozessen, lassen aber die Rolle des Individuums bei der Wissensentwicklung sträflich
außer Acht. Sie behandeln es eher als eine black box unter dem Label „implizit“ oder personal knowledge und proficiency. Da sich dies meist nicht weiter technologisch unterstützen lässt, enden hier viele Ansätze und verweisen auf personalpolitische, motivatorische Maßnahmen des lebenslangen Lernens und Wissenteilens. Die Untersuchung lerntheoretischer Grundlagen im nächsten Kapitel soll
versuchen, hieraus weitere Aspekte zu gewinnen.
Für eine aktive technologische Unterstützung wissensintensiver Prozesse scheint sich die Notwendigkeit einer Betrachtung von Wissen a priori aus individueller Perspektive zu bestätigen.
8.2
Wissensentwicklung – eine Frage der Kommunikation
Die bisherige Analyse hat die Bedeutung der Kommunikation in der Wissensentwicklung aus organisatorischer Sicht aufgezeigt. Fraglich ist, inwieweit die Kommunikationstheorie Ansätze und Erklärungen zur Vertiefung bereithält.
Für Luhmann (1995) können Menschen (psychische Systeme) nicht kommunizieren, nicht einmal ihre Gehirne können kommunizieren, nicht einmal das Bewusstsein kann kommunizieren. Das
Bewusstseinssystem operiert autopoietisch, weil es immer wieder Gedanken aus Gedanken erzeugt
(selbstreferenziell) und so die Einheit des Systems aufrechterhält, indem es sich selbst aus den ihm inhärenten Komponenten erzeugt (Schmidt 1995, Kneer und Nassehi 1997). Nur die Kommunikation
kann kommunizieren (Luhmann 1995). Kommunikation ,,[...] entsteht durch eine Synthese von drei
verschiedenen Selektionen − nämlich Selektion einer Information, Selektion der Mitteilung dieser Information und selektives Verstehen oder Missverstehen dieser Mitteilung und ihrer Information
(Luhmann 1995).
Kognitive Erwartungen und Unterstellungen von bestimmten Verhaltens- und Handlungsmustern
bilden nach Schmidt und Feilke (1995, S. 279) die Grundlage von Kommunikation. Für sie wird die
Kommunikation von Individuen organisiert. Sie sehen deshalb im Gegensatz zu Luhmann die Kommunikation selbst nicht als ein selbstreferentiell geschlossenes System an. Kommunikation existiert
und operiert daher nur auf der materialen Grundlage von Kommunikatoren, Texten und Medien
(Schmidt 1996, S. 74).
Infolge dieser Interpretationen und der operationalen Geschlossenheit des Gehirns dürfte Kommunikation nach Kneer und Nassehi (1997, S. 81) nicht mehr im Sinne der Übertragung einer Botschaft vom Sender zum Empfänger verstanden werden. Es würden reine Signale, keine Bedeutungen übertragen. Bedeutungen entstünden erst wieder beim Empfänger (Pitasi 2002).
Unabhängig davon, ob Kommunikation seinerseits ein System darstellt und ob Systeme offen oder
geschlossen sind, weisen alle Autoren darauf hin, dass Kommunikation nicht Teil des Primärsystems
ist, sondern einer Fixierung, Explikation von Daten bedarf, die übertragen werden können. Inwieweit hierin bereits Informationen, Mitteilungen und Botschaften enthalten sind, dürfte eine Frage der
Radikalität der Systemabgrenzung und damit des Abstraktionsgrades der Datensprache sein. Deutlich
wird, dass die Daten beim Empfänger entschlüsselt, verstanden und eingeordnet werden müssen. Dies
kann wiederum Anstoß für die Weiterentwicklung des eigenen Systems und damit der Wissensentwicklung, im Sinne eines neuen Zustandes, sein. Wichtig herauszustreichen ist, dass Kommunikation
nicht die Wissensentwicklung selbst ist, sondern ggfs. zu ihr beiträgt.
8.3
Wissensentwicklung – lerntheoretische Grundlagen
Im Gegensatz zur betriebswirtschaftlichen Auseinandersetzung mit der Wissensentwicklung beschäftigen sich Pädagogik, Medizin und Psychologie schon seit geraumer Zeit mit den Fragestellungen
des Lernens aus Sicht des Individuums und aus Sicht des Lehrenden sowie den dabei zugrundeliegenden Gehirnfunktionen. Entsprechend umfangreich ist die Literatur. Im Folgenden sollen die wesentlichen Ausschnitte für die Diskussion der Wissensentwicklung hervorgehoben werden.
64
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
„Lernen ist wie Rudern gegen den Strom. Sobald man aufhört, treibt man zurück“ (Benjamin Britten, Komponist, 1913-1976). Dieser Spruch beschreibt sehr treffend den dynamischen Charakter des
Lernens und der Wissensentwicklung. Nach Piaget (1967) wird Entwicklung und Lernen ausgelöst
durch das Streben des Individuums, seine Sinneseindrücke auf Grundlage von Schemata zu ordnen,
ihnen Bedeutung zu verleihen und ein mentales Gleichgewicht zwischen seiner wahrgenommen Umwelt und seinen kognitiven Strukturen herzustellen. Das Individuum erreicht hierdurch eine Komplexitätsreduktion, die ggfs. im Sinne von Boisot zu einem Erkenntnisgewinn und damit zu einem Isoquantensprung führen kann. Ordnung bezeichnet einen Sachverhalt, in dem Objekte miteinander in
Beziehung stehen. Gemachte Ordnung (bewusstes Handeln und Wissensentwicklung) lässt sich von
gewachsener Ordnung (spontanes, unbewusstes Handeln und Wissensentwicklung) unterscheiden.
Komplexität entsteht durch Verschiedenartigkeit von Systemelementen und ihrer Beziehungen
(Kompliziertheit) mit einer Veränderung über die Zeit (Dynamik).
Lernen wird vielfach synonym mit der Wissensentwicklung verwendet. Im Folgenden soll untersucht werden, inwieweit eine synonyme Begrifflichkeit gerechtfertigt ist und welche Anleihen aus diesen Disziplinen für die diskutierten Forschungsfragen hilfreich erscheinen.
Pädagogisch gesehen, ist nach Hilgard und Bower (1970, S. 16) Lernen der „Vorgang, durch den
eine Aktivität im Gefolge von Reaktionen des Organismus auf eine Umweltsituation entsteht oder verändert wird“. Philosophisch betrachtet, ist Lernen die Akquisition von „true belief“ oder Fähigkeiten
durch Erfahrung (Routledge Encyclopedia 1998). Biologisch gesehen, ist Lernen und Gedächtnis die
Fähigkeit eines Organismus, von früheren Erfahrungen zu profitieren (Goshen-Gottstein 2003). Medizinisch betrachtet, ist Lernen die „Aufnahme von Informationen zum Zweck der Reproduzierbarkeit,
Stiften bedingter Reflexe mit dem Ziel einer besseren Einpassung in die materielle und soziale Welt“
(Roche Lexikon Medizin 2003). Birbaumer spezifiziert dies mit den Aussagen, dass neben der genetisch gesteuerten Reifung synaptischer Verbindungen die Ausbildung spezifischer synaptischer Verbindungen unter dem Einfluss früherer Umweltauseinandersetzungen unabdingare Voraussetzung für
Lernvorgänge aller Art ist (Birbaumer 1997, S.154). Dem Lernen liegen elektrochemische Vorgänge
der Dendriten zugrunde. Auf zelluärer Ebene kommt es zu verstärkter Ausschüttung der Transmitter in
den am Lernen beteiligten Neuronen.
Übergreifend lassen sich zwei Arten und Ebenen von Lernen in der Literatur erkennen:
1) Lernen als Wissenserwerb und Verständnisbildung
2) Lernen als Verhaltensänderung
8.3.1
Lernen als Wissenserwerb
Lernen als Wissenserwerb zielt auf die Speicherung von Informationen und deren Verarbeitung zu
Wissen. Es kann nach Birbaumer (1997, S. 157) als der Aufbau und die fortlaufende Modifikation von
Wissensrepräsentationen als eine Suche nach Bedeutung definiert werden. Nach Herbst (2000, S. 98)
wird es als Erwerb, Änderung oder Bestätigung von kognitiven Strukturen verstanden.
Lernen berücksichtigt nach Herbst zum einen das bereits gespeicherte Wissen einer Person; zum
anderen Prozesse, die zu Erkenntnissen führen wie Wahrnehmen, Schlussfolgern, Erinnern, Denken,
Problemlösen, Entscheiden, etc. (Herbst 2000, S. 98f.) Dabei werden Informationen in bestehende
Strukturen integriert oder kognitive Strukturen geändert und zu Gunsten von Neuem aufgegeben.
Aebli (1981) unterscheidet drei Prozessschritte beim Lernen als Wissenserwerb:
1. Verknüpfen und wieder Zerlegen
2. Verdichten und wieder Auseinanderfalten
3. Strukturieren und Restrukturieren
Dabei sind zwei wichtige Prozesse zu berücksichtigen. Zur Aktivierung von Vorwissen durch Erregungsausbreitung werden vorhandene Wissensstrukturen zugänglich gemacht, Knoten werden geöffnet und das darin enthaltene Wissen aktiviert. Zum anderen erfolgt eine Auseinandersetzung mit
neuen Informationen, die Schritt für Schritt mit altem Wissen verknüpft werden und dabei zu neuen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
65
Verknüpfungen entstehen (kausale, temporale, modale, finale Relationen). Nach Birbaumer (1997, S.
154ff.) wird in der Gedächtnisforschung bewusstes deklaratives von nichtbewussten prozeduralem
Gedächtnis (Lernen von Fertigkeiten) unterschieden. Beiden Gedächtnisformen liegen unterscheidbare
Hirnsysteme zugrunde.
Für das Lernen heißt dies, dass es kein passives Aufnehmen und Abspeichern von Informationen
und Wahrnehmungen ist, sondern ein aktiver Prozess der Wissenskonstruktion (Herbst 2000, S.
98). Er besteht aus den Bestandteilen Verstehen, Speichern und Abrufen (Birbaumer 1997, S. 157). In
letzter Konsequenz bedeutet dies, dass die Vermittlung von Lernstoff oder Wissen im Sinne einer
Übertragung nicht möglich ist. Damit referenziert es auf die Erkenntnisse aus der kommunikationswissenschaftlichen Sicht (Kapitel 8.2).
Zur Verdeutlichung der Komplexität des Lernprozesses soll folgende Übersicht von Gagné (vgl. in
Stangl 1997) dienen. Sie zeigt acht verschiedene Lernprozesse in hierarchischer Form und dem Problemlösen als komplexesten Prozess. Sie macht insbesondere die begrifflichen Abstraktionslevel
(Signal vs. Regel) deutlich. Die Diskussion bei Boisot zeigte, sowohl den Schritt der Abstraktion als
einen wichtigen Baustein weiterzuverfolgen als auch die Diskussion über Kommunikation, Signale
und Daten von Botschaften und Bedeutungen getrennt zu untersuchen.
Tabelle 9. Lernarten nach Gagné
Lernprozess
Beschreibung
Vertreter
Signallernen
Einfaches Pawlow’sches Konditionieren
Pawlow, Watson
Reiz-Reaktions-Lernen
Bildung einer einzelnen Verbindung zwischen Skinner,
Thorndike,
einem Reiz und einer Reaktion.
Hull, Spence
Lernen motorischer Ketten
Die Verbindung einer Abfolge motorischer Guthrie,
Reiz-Reaktions-Verhaltensweisen
Skinner
Lernen sprachlicher Assoziationen
Die Verbindung einer Abfolge verbaler Reiz- Hebb, Bruner
Reaktions-Verhaltensweisen. Beispiel: eins,
zwei, drei, vier, fünf
Lernen multipler Diskrimination
Lernen, zwischen hochgradig ähnlichen Reizin- Bruner,
puts zu unterscheiden. Das Lemen von Diskri- Hebb
minationen ist im Wesentlichen eine Sache der
Bildung einer Reihe verschiedener Ketten
Begriffslernen
Begriffslernen ist das Gegenteil von Diskrimi- Hebb, Bruner, Skinner
nationslernen. Es umfasst das Ordnen von Din- und Piaget.
gen zu Klassen und das Reagieren auf Klassen
als Ganze.
Regellernen
Erwerb von Wissen, Erwerb von Regeln.
Thorndike,
Skinner
und
Bruner, Piaget
Regeln sind Begriffsketten oder Kombinationen
von Begriffen, die sich aufgrund ihrer Komplexität unterscheiden. Sie sind eine erschlossene
Fähigkeit, die das Individuum befähigt, auf eine
Klasse von Reizsituationen mit einer Klasse von
Leistungen zu reagieren
Problemlösen
Die Anwendung von Regeln bringt Regeln hö- Bruner, Piaget
herer Ordnung hervor. Das ist das unausweichliche Ergebnis der Anwendung von Regeln auf Probleme.
Problemlösen als Lernart könnte als Wissensentwicklung verstanden werden und nicht nur als ein
Teilprozess, wie bei Boisot beschrieben („Problem-solving“), denn Höhn (1979, S. 93ff.) beschreibt
den kreativen, wissensschaffenden Prozess zur Lösung eines Problems als vierstufig: Vorbereitung,
Inkubation, Illumination, Verifikation. Er betont dabei den Unterschied zwischen wirklicher Problemlösung durch Kreativität und Beseitigung von Schwierigkeiten durch Anwendung bekannter Prob-
66
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
lemlösung. Die Lösung liegt fest, nur die Nachvollziehbarkeit und Anwendbarkeit fehlen. Das Vorgehen beschreibt das Handwerk des Wissensarbeiters. Kreativität durchbricht diese Regeln und kann zu
Innovationen führen.
Weitere Autoren stimmen darin überein, dass ein Problem immer in einem bestimmten sozialen und
inhaltlichen Kontext gelöst wird (Koriche 1998 oder Maier 2002). Das dabei entstehende Wissen wird
damit assoziiert. Um die Problemlösungsstrategie dieser „alten“ Aufgabe auf eine neue mit unterschiedlichem Kontext anzuwenden, müssen die Bedingungen für die Anwendbarkeit und ihre Anwendungsgrenzen bewusst gemacht werden. Der Lernende übernimmt dabei Steuerungs- und Kontrollprozesse (Reinmann-Rothmeier und Mandl 1996).
Lernen als Wissenserwerb scheint eine Verknüpfung von Kommunikation und Informationsverarbeitung im System zu sein. Individuelle Wissensentwicklung wäre damit als systemimmanenter Vorgang Teil des Lernprozesses. Die Übersicht der Lernprozesse könnte, unter Trennung der systemimmanenten von den kommunikativen Aspekten, hilfreich sein, die technologischen Möglichkeiten zu
testen. Zwar ist die Handhabung und Konditionierung von Computern auf Signalebene inzwischen
möglich, aber schon das Begriffslernen ist derzeit nicht hinreichend ausgereift, geschweige denn das
selbständige Problemlösen, im Sinne von Entwicklung neuer Regeln aus der Problemlösung.
8.3.2
Lernen als Verhaltensänderung
Nach Birnbaumer (1997, S. 157) ist Lernen aus medizinischer Sicht der Erwerb neuer Verhaltensweisen und wird von der Reifung, bei der genetisch programmierte Wachstumsprozesse zu Veränderungen des zentralen Nervensystems führen, unterschieden. Michael und Nowak (1975, S. 200)
heben die Differenzierung von der Reifung in ihrer Definition noch einmal hervor: „Mit dem psychologischen Begriff ‚Lernen’ wird jede Verhaltensänderung bezeichnet, die nicht durch Reifung sondern
Erfahrung bewirkt wird und länger andauert.“ Lernen ist nach Bergius (1971, S. 9f.) der „Sammelname für Vorgänge, Prozesse oder nicht unmittelbar beobachtbare Veränderungen im Organismus, die
durch ‚Erfahrungen’ entstehen und zu Veränderungen des Verhaltens führen“.
Vom Lernen abgegrenzt werden biologische und physiologische Vorgänge wie Wachstum, Ermüdung, Altern, Einwirkung von Pharmaka oder Verletzungen, die ebenfalls latente Verhaltensänderungen bewirken. Beide lassen sich auf der Ebene des a) Individuellen oder des b) Organisationalen
Lernens diskutieren. Den Prozess des Individuellen Lernens versteht Kim (1993) im Sinne eines single-loop learnings als Kreislauf von Bewerten, Entwerfen, Umsetzen, Beobachten. Den Prozess des
organisationalen Lernens versteht Fischer (1991) als Auftauen (verfestigter Denkschemata), Bewegen
(mentaler „Realitätskonstruktionen“) und Festigen (neuer geteilter mentaler Modelle).
Als eine der Formen, Verhaltensänderungen zu erforschen, gilt der Behaviorismus (Lefrancois
1994). Er untersucht, Kontrolle und Voraussage von Verhalten. Er wurde vom amerikanischen Psychologen John Broadus Watson begründet und entsprechend weiterentwickelt. Er basiert auf der genauen Nachweisbarkeit des Verhaltens, um Verstärkungsmechanismen festlegen zu können. Didaktische Gestaltung und Anreize wie Verstärkung, Strafen oder Feedback sind bekannte Mittel hierfür.
Verhalten beruht nach Birbaumer (1997, S.157) dabei schwerpunktmäßig auf prozeduralem, implizitem Wissen und lässt sich über nicht assoziatives Lernen (Habituation und Sensitivierung) beeinflussen. Habituation ist die Form der Anpassung an einen wiederholten, für den Organismus aber als unwichtig erkannten Reiz. Durch Habituation lernen Menschen, Reize zu ignorieren, die keinen
Neuigkeitswert oder keine Bedeutung mehr haben, so dass sie ihre Aufmerksamkeit wichtigeren Ereignissen zuwenden können. Habituation ist ungleich der Adaption. Diese bezeichnet die Erhöhung
der Reizschwelle eines Sinnesorgans bei kontinuierlicher Reizung. Sensitivierung ist der Lernvorgang, bei der eine Zunahme einer physiologischen Reaktion oder eines Verhaltens auf Reize nach
Darbietung eines besonders intensiven Reizes zu beobachten ist.
Im Hinblick auf die Wissensentwicklung ist festzuhalten, dass implizites Wissen (das Verhalten)
durch die Erfahrung ohne Mitwirkung des Bewusstseins und ohne bewussten Zugriff auf einen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
67
bestimmten Gedächtnisinhalt verändert werden kann. Aus Sicht der Verhaltensänderung lässt sich
erkennen, dass ein Aufbrechen, ein Bewegen für eine Änderung notwendig ist. Vermutlich dürfte dies
nur ein Teilaspekt der Wissensentwicklung sein, da nicht jede Entwicklung aufbrechen muss, manche
kann auch ergänzen oder kombinieren. Darüber hinaus zeigt sich der Aspekt der Längerfristigkeit. Da
aber Wissen als Basis für eine Verhaltensänderung gilt, dürfte dieser Aspekt für die weitere Diskussion nicht ins Gewicht fallen.
8.3.3
Lernen als (neuro-)biologische Veränderung
Neurobiologische Forschung geht nach Dilger (2006) von der Charakterisierung von Gehirnprozessen aus, dringt aber bei dem Versuch ihrer funktionellen Beschreibung kaum bis zur Erklärung kognitiver Leistungen vor. Danach können Wissensentwicklung und Lernen (im Sinne von Wissensentwicklung und Kommunikation) mit den Veränderungen durch Immunreaktionen assoziiert und
beschrieben werden. Wissen entsteht dabei durch Veränderungen des Organismus in Form von Leiterbahnen, Konzentrationen, Rezeptoren oder anderen physischen Merkmalen.
Lernen im Immunsystem bedeutet, die Anzahl und die Affinität derjenigen Lymphozyten zu
erhöhen, die sich bei einer antigenen Reaktion als nützlich erwiesen haben. Das Immunsystem als
Ganzes ist also nicht statisch, es hat vielmehr eine Tendenz, sich von einem zufälligen Anfangszustand
aus sich zu einem Repertoire an Mechanismen, die an die aktuelle antigene Umgebung angepasst sind,
zu entwickeln. Da aber die Gesamtzahl der Lymphozyten im Körper reguliert ist und nicht beliebig
wachsen kann, hat das Anwachsen der Größe eines Klons (als Menge von Lymphozyten verstanden)
die Reduzierung eines anderen Klons zur Folge. Die Gesamtzahl der Lymphozyten ist allerdings nicht
konstant, sie kann in gewissen Grenzen schwanken. Wenn das Immunsystem nur lernt, indem es die
Population spezifischer Lymphozyten vergrößert, dann hat es drei Möglichkeiten zum Ausgleich: Es
kann früher gelernte Antigene „vergessen“, es kann wachsen, oder es kann den Teil seines Repertoires gleichmäßig verringern, der zufällig erzeugt wird und für das Erkennen neuer Antigene zuständig ist.
Lernen im biologischen Sinne bedeutet eine Veränderung des Mischungsverhältnisses, Anwachsen
einer spezifischen Population oder Affinitätssteigerung des antigenen Rezeptors. Diese Erfahrungen
werden über lange Zeit in ruhenden Lymphozyten gespeichert oder das System bedient sich einer Auffrischung durch sog. low-grade chronische Infektion, einem Ausgesetztsein ohne akute Infektion.
Auch durch Punktmutationen, Löschung kurzer Abschnitte oder Vertauschung der Sequenz als Folge
einer Genkonversion verändert sich das System. Wichtig ist, dass es immer zwei gegenläufige Mutations- und Optimierungsprozesse gibt, um ein Steckenbleiben in lokalen Optima zu vermeiden und
eine ausreichende Vielfalt zu gewährleisten.
Charakteristika für das Lernen und den Umgang mit Wissen, wie Erkennung von Eindringlingen,
im Immunsystems sind die Begrenztheit der verfügbaren Objekte (hier Lymphozyten) und die Gesamtbalance zur Vermeidung lokaler Optima.
Aus der Übertragung der dargestellten Funktionsweise bei der Erkennung von Eindringlingen auf
die Wissensentwicklung wächst die Erkenntnis, dass Wissen durch Mischverhältnisse, also Zustände, repräsentiert werden. Für eine Beschleunigung des Denkens müssten sich Problemlösungen
multiplizieren lassen. Wissen entstünde, wo sich die Anzahl ähnlicher Problemlösungen erhöht.
8.4
Wissensentwicklung – psycho-linguistische Sprachproduktion
Nachdem Sprache Explikation eines Systems ist und damit Basis für die Kommunikation, soll in
diesem Kapitel die Besonderheiten des bewussten Lernens zum Wissenserwerb aus linguistischer
Sicht vertieft werden. Der Entstehungsprozess von Sprache könnte Modelle für die Entstehung von
Wissen beisteuern, indem er Erkenntnisse der Bedeutungsentwicklung auf die Wissensentwicklung
überträgt und Bedeutung als ein Wissensprodukt auf einer anderen Abstraktionsebene begreift.
68
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Die Explikation wird von Linguistikern als wissensbasierter Planungsprozess im Sinne einer
Überführung von vorsprachlichen konzeptuellen Repräsentationen in grammatische Repräsentationen
mit einer abschließenden lautsprachlichen Realisierung verstanden (Herweg 1992). Der elaborierteste
Modellentwurf, der die Resultate einer Vielzahl dieser psycholinguistischen Untersuchungen zu einem
Gesamtbild zusammenführt, wurde von Levelt (1989) vorgelegt. Er beschreibt einen dreistufigen Prozess mit einer Konzeptualisierungs-, Formulierungs- und Artikulationskomponente. Sprachproduktionsmodelle unterscheiden für gewöhnlich drei Hauptbereiche der Verarbeitung: einen pragmatischkonzeptuellen, einen syntaktisch-semantisch formulativen und einen sensomotorisch artikulatorischen.
Fraglich bei der Sprachproduktion ist, wie die hohe Erzeugungsgeschwindigkeit realisiert wird. In
Levels Modell bearbeiten die Komponenten nicht vollständige Strukturen, sondern bearbeiten fragmentarische Eingaben sequentiell, während die Komponenten selbst parallel arbeiten. Sie trennen
dabei die semantische Information vom Konzept in eine eigenständige Komponente ab und erlauben
einen geringeren Informationsgehalt in der Konzeptualisierungsphase. Dies bewirkt eine Beschleunigung, da nicht alle Informationen in jeder Komponente zur Verfügung stehen müssen.
Linguistiker unterscheiden die vorsprachliche Konzeptionsphase (lemma) von der Artikulation (lexeme). Alber (2000) reicht für die Erklärung Wissensentwicklung die sequentielle regelgeleitete Manipulation von Symbolen nicht mehr aus. Auf Basis distributierter subsymbolischer Repräsentationen
lassen sich am Beispiel der Adjektivkonstruktion kognitive Prozesse aus einem inneren Konstruktionsprozess ableiten.
Die Besonderheit der subsymbolischen Repräsentation besteht darin, dass dasselbe Sprachprodukt
in seiner Erscheinung von zwei vollkommen verschiedenen kognitiven Fähigkeiten entwickelt
worden sein kann. Dabei können verschiedene Produkte auf dem gleichen Prinzip beruhen. Alber
lehnt die Annahme einer Universalgrammatik als „minimalist program“ ab, da sie von einfachen
Grundeinheiten der Sprache ausgeht und diese von der symbolischen Theorie ausgeht. Sie orientiert
sich an den Erscheinungen und Produkten (Chomsky 1996).
Für die technologische Modellbildung ist daher zu überlegen, ob und wie subsymbolische Strukturen abgebildet werden können. Alber nutzt simulative Manipulationen als Mittel zur Hypothesenbildung, was experimentell nicht möglich ist. Das Modell basiert auf der Methode der BindingvektorRepräsentation und nutzt als Interpretationsmethode das Conjunctive-Coding (McClelland und Kawamoto 1986, Fodor und Pylyshyn, 1988). Dabei wird die Rolle von Konzepten anhand von ihren
Mikrofeatures bestimmt. Im Gegensatz zu konnektionistischen Modellen ist dies in der Lage, Beziehungen zwischen Konzepten in Form von Strukturen eindeutig darzustellen, und könnte Anregung
für semantische Technologien sein.
Eine wichtige Rolle für die spätere Kommunikation spielt der „Zustand oder Status“ von Informationsbausteinen (Alber 2000, S. 157). Der Status beruht auf dem (Langzeit-)gedächtnis und modelliert
die Dynamik der Informationsverarbeitung im Sprecher (vgl. Bewertung von Information aufgrund der
Quelle, Aktualität, damaligem Kontext, etc.). Der temporäre Aufbau von Status und damit einem Verständnis von Zusammenhängen bedarf einer (temporären) Speicherung. Nach Hermann und Grabowski (1994) können die temporären Konzeptualisierungen der psychologischen Theoriebildung als Bewusstsein bezeichnet werden. Demnach wird Wissen nicht in festen Konzeptgedächtnissen
gespeichert, sondern als Bedingungen und Regeln zur Wissensentwicklung. Induktiv betrachtet entstehen aus den Bedingungen erste vage Begriffe, Prototypen oder Anker, um die Wissen im Sinne von
Konzepten entstehen kann. Deduktiv betrachtet bilden theoretische Vorgaben oder Templates die Anker. Ein Anker ist die Fixierung einer Merkmalsausprägung oder eines -pfades innerhalb eines konzeptuellen Rahmens. Er ist der Übergang von paralleler Informationsverarbeitung in Sequenzen
im Hinblick auf die Perspektive. Anker sind damit Konzeptualisierungspunkte. Der um den Anker entstehende Prototyp stellt die Basis dar für die Regulierung des Spezifitätslevels.
Auch wenn an dieser Stelle nur die wesentlichen Aspekte herausgegriffen werden konnten, wird
deutlich, dass eine weitere Unterteilung der Sprachproduktion bis hin zu subsymbolischen Elementen
die Entstehung von Sprache als Artikulation von Konzepten und Informationszuständen ermöglichen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
69
Auch sie gehen von einer konstruktivistischen Form aus und kombinieren sequentielle und parallel
Verarbeitungen. Induktiv betrachtet wirken Anker als Kristallisationspunkte für Konzepte. Neue Begriffe entstehen als Hypothesen durch die Verwendung von Begriffen als Anker in leicht veränderte Zusammenhänge und Ähnlichkeiten mit späterer Bestätigung.
8.5
Wissensentwicklung – psychologische Diskussion der Bewusstseinsbildung
Für die Eigenschaft des Zustandes von Wissen könnten psychologische Betrachtungen des Bewusstseins Anleihe sein. Eine finale Definition von Bewusstsein scheint es nicht zu geben. Lexikalisch
ist damit nach Müller-Koch (2007) die Fähigkeit gemeint, über mentale Zustände, also etwa Gedanken, Emotionen, Wahrnehmungen oder Erinnerungen, zu verfügen und sich deren gewahr
zu sein. Die Rolle des Bewusstseins findet sich ebenso in der philosophischen Diskussion des Konstruktivismus. Die biologische Diskussion wird im folgenden Kapitel in stark reduzierter Form geführt. Sie zeigt lediglich die Perspektive auf.
Oft wird Bewusstsein als Selbstbewusstsein verstanden und damit als die Fähigkeit, sich seiner
selbst gewahr zu werden. Grundlage ist eine gewisse Selbstähnlichkeit der Systeme, eine Redundanz
von Informationen und eine selbst-referentielle, zirkuläre Entwicklung (Primio 1998, S. 24ff.). Das
heißt nicht nur eine Lösung bereitzustellen, sondern auch die Werkzeuge und Anleitung, diese herzustellen und zu verstehen.
Die Forschung unterscheidet zwei Problemstellungen: das Qualiaproblem und das Intentionalitätsproblem. Das Qualiaproblem beschreibt den subjektiven Erlebnisgehalt (Qualia) eines mentalen Zustandes und damit die unklare Verbindung zwischen objektiv messbaren, naturwissenschaftlichen Erkenntnissen des Gehirns und dem Erleben (Peirce 1966 und Lewis 1991). Das
Intentionalitätsproblem beschreibt den Bezug des Erlebten und Erlebbaren auf ein Handlungsziel
unter einer Intention oder Absicht.
Als weiterer Aspekt im Zugang der Erklärung des Bewusstseins wird herausgestellt, dass das Bewusstsein nur durch die eigene Erfahrung und damit durch eine subsymbolische Form zugänglich
wird. Diese Zugänge wurden von Spinoza als Intuition und Intellekt differenziert.
Fraglich bleibt in diesem Zusammenhang also, inwieweit eine symbolischer Herangehensweise Zugang zur subsymbolischen Ebene erlangt. In einem rationalistisch-naturwissenschaftlichen Gedankengebäude müsste Bewusstsein reduktionistisch erklärbar sein. Auch wenn folgendes Kapitel den Stand
der Forschung hierzu kurz darlegen soll, ist dies bisher nicht abschließend möglich. Für die Entwicklung von Wissen auf der Verständnisbasis von Wissen als Zustand können also das Qualiaproblem und
sein subsymbolischer, unbewusster Charakter nicht außer Acht gelassen werden.
8.6
Zwischenfazit
Das Kapitel hat die Wissensentwicklung und seine Modelle in verschiedenen Disziplinen untersucht und dargestellt. Insbesondere die lerntheoretische Perspektive wurde dabei vertieft, da sie die
höchste Ähnlichkeit zum Konzept der kontinuierlichen Zustandsbildung aufwies.
(A-4.1)
Wissensentwicklung ist ein Prozess der individuellen Bedeutungsbildung im Rahmen eines Lernprozesses.
In Anlehnung an die Kommunikationstheorie von Luhmann (1995) wird Wissen beim Empfänger in
seinen Erfahrungskontext gestellt. Dieser Vorgang kann im Sinne eines Lernprozesses mit Hilfe der
Kommunikation wiederholt werden. Er ist Teil des Lernens, jedoch nicht der Gesamtprozess selbst.
Die Wissensentwicklung und der Umgang mit Wissensprodukten wird durch die drei in Abbildung 11
dargestellten Faktoren bestimmt.
70
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Governance
Wissensprodukt
Schlussrichtung
Abstraktionslevel
Abb. 12. Einflussfaktoren im Umgang mit Wissensprodukten
Die Governance beschreibt den Grad der möglichen Vielfalt an Semantik. Organisatorische Vorgaben schränken diesen auf ein Minimum ein und lassen sich manuell vorgeben. Die Schlussrichtung
beschreibt die Art der Wissensentwicklung. Ein Proposal Manager arbeitet deduktiv in vorgegebenen
Folderstrukturen. Ein Sales Manager arbeitet induktiv basierend auf vorhandenen Informationen.
Ein Dialog zwischen den beiden ist abhängig vom Abstraktionslevel. Abstraktion ist allgemein gesprochen das Weglassen von Einzelheiten. Sie dient der Ordnung durch Klassifizierung. Durch Abstraktion entstehen Gattungen und Klassen. Bei der Suche wirkt Abstraktion auf die Ergebnisrelevanz.
Für eine subjektiv hohe Relevanz braucht es ein Mehr an Details. Diese widersprechen aber der Vereinfachung durch Abstraktion. Die Herausforderung der KI ist damit, den aufwendigen Umgang mit
Informationsdetails dem Nutzer abzunehmen und sie ihm nur situationsgerecht bereitzustellen.
Organisationelle Modelle der Wissensentwicklung beziehen sich ex post auf den
(A-4.2) Gebrauchswert von Wissen. Sie können nicht direkt, aber über Abstraktionsebenen
auf die individuelle Sicht übertragen werden.
Bisherige Modelle der organisationellen Wissensentwicklung grenzen Wissen als relevante Information im Sinne einer Unternehmensressource ab und verstehen Wissen als Objekt im organisationellen Rahmen. Sie beschreiben zwar die Bedeutung des Kontextes, erklären diese jedoch nur unzureichend. Sie gehen auf die Viabilität, den Anwendungsbezug, ein, lassen jedoch seine
Vergänglichkeit und Subjektivität weitgehend unberücksichtigt. Ausgehend von den Grundlagen des
Learning Cycle von Boisot (siehe Kapitel 8.1.3) und linguistisch-konstruktiven Aspekten aus der
Konzeptbildung bei Individuen lassen sich die Besonderheiten des zugrunde gelegten Wissensverständnisses in ein Modell der individuellen Wissensentwicklung (Kapitel 11) integrieren.
Individuelle und organisationelle Perspektive können über verschiedene Abstraktionsstufen in
einen Dialog oder ein „kommunikatives Spiel“ treten. Dazu werden Wissensobjekte in der Praxis in
fünf Abstraktionsebenen gegliedert. Im klassischen Ansatz der Wissensverteilung kodifizieren Dokumente Wissen und repräsentieren auf der Wissenstreppe die Wissensebene. Aus organisationeller
Sicht besteht auf Folderebene eine geringe Begriffs-Varianz mit hoher Governance. Folderstrukturen
werden zentral vorgegeben und Nomenklaturen für die Bezeichnung von Dokumenten aufgestellt. Erst
die darin enthaltenen Informationen und Daten repräsentieren die Vielfalt der Mitarbeiter und Meinungen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
71
Sub-symbolik
Organisationelle
Perspektive
Folder
ded
ukt
iv
Semantik
Statistik
iv
ukt
ind
Gliederung
Abstraktionsebenen
Dokument
Wissensprodukt
Inhalt und Text
(Information)
Daten
Individuelle Perspektive
Abb. 13. Induktive und deduktive Wissensentwicklung als „Dialog“ zwischen organisationeller und individueller Perspektive
Wissensentwicklung erfolgt, wie die eigene Darstellung in Abbildung 12 zeigt, induktiv (bottomup) oder deduktiv (top-down) als Dialog zwischen den Perspektiven. Die meisten schließen naturwissenschaftlich, induktiv aus einer (empirischen) Datenbasis über begriffliche und symbolische Methoden. Deduktives Schließen ist stark durch manuelle, organisatorische Vorgaben geprägt und schließt
vom Allgemeinen ins Spezielle. Fraglich ist, ob semantische Verfahren die manuellen Vorgaben dynamisieren können und damit einen neuen Zugang zur Wissensebene ermöglichen. Der Aufwand für
manuelle Vorgaben ist in dynamischen Umgebungen immer weniger vertretbar.
(A-4.3)
Wissensentwicklung zeigt Teilprozesse auf, die mit Hilfe intelligenter Technologien
ersetzt oder besser unterstützt werden können.
Der Redaktionsaufwand entsteht bei induktiver Wissensentwicklung aus dem Explizierungsbedarf an Konzepten, um die aus Daten abgeleiteten Informationen zusammenzuführen. Bei der deduktiven Wissensentwicklung erwächst der Bedarf zur Explizierung und Detaillierung der Vorgaben und Ziele, um Daten spezifisch und genauer auszuwählen und zu identifizieren. Zur Senkung des
Redaktionsaufwands in der induktiven Wissensentwicklung wäre eine aufwandsarme Erhebung von
Situationsbedingungen hilfreich, in der deduktiven Wissensentwicklung eine Paketierung und Standardisierung von Zielen und Vorgaben. Kapitel 10 wird mit Hilfe nativer Informationsstrukturen
und peer-to-peer-Strukturen im Rahmen des Semantic Desktop Ansätze dazu aufzeigen.
Als Lernprozess begegnet Wissensentwicklung der Vergänglichkeit und den explo(A-4.4) rativen Eigenschaften wissensintensiver Prozesse durch ein rekursives Verhalten
(Vergänglichkeit).
Wissensentwicklung ist als rekursive (basierend auf den Erfahrungen und Zielen) Entwicklung die
ständige Konstruktion des individuellen Zustandes. In der induktiven Wissensentwicklung ist dies der
Weg zu höheren Abstraktionsebenen. In der deduktiven Wissensentwicklung sind die Zustände explizit und top-down vorgegeben, bedürfen aber einer kontinuierlichen Erneuerung.
Zuvor unbekannte, explorative und nicht im Detail wiederholbare Prozesse erfordern jedes Mal eine
neue Lösung. Wissen entsteht dabei als Lösung aus dem Prozess. Der Konstruktivismus versteht Wis-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
72
sen per se schon als einen sich ständig neu konstruierenden Zustand. Er bietet damit eine sehr gute
philosophische und theoretische Basis zur Untersuchung der Einzelaspekte im Hinblick auf ihre
technologische Unterstützung.
(A-4.5)
Die Psychologie addressiert mit der Bewusstseinsbildung im Rahmen der Bedeutungsbildung die Intention des Subjekts (Subjektivität).
Disziplinen, die Lern- und Wissensprozesse beim Individuum untersuchen, wie Psychologie, Linguistik oder Kommunikationstheorie, respektieren die Subjektivität und die Beteiligung des Individuums mit seiner Intention am Prozess. Sie ist Teil der individuellen Bedeutungsbildung und müsste
in einer technologischen Abbildung Niederschlag finden.
Der subjektive Charakter von Wissen unterteilt sich weiter in einen bewussten, symbolischen Teil
des Wissenserwerbs und einen subsymbolischen, unbewussten Teil der Verhaltensänderung, da es
sich nicht rein reduktionistisch erklären lässt. Betrieblich herausfordernd ist der Umgang mit implizitem, unbewußtem und subsymbolischem Wissen.
(A-4.6)
Wissensentwicklung stellt eine Lösung des Kontextproblems durch Umgang mit
Subsymbolik in Aussicht (Viabilität).
Grundsätzlich mangelt es der Technologie nach Dreyfus (1986) an einem common-senseVerständnis. Es wird über semantische Technologien nur in dem Maße adressiert, wie ihre zugrundeliegenden Ontologien verfügbar sind. Würde es gelingen, dem System eine direkte subsymbolische,
system-immanente Kommunikation zu ermöglichen, könnten Teilprozesse nicht nur unterstützt, sondern vollständig abgebildet werden.
Der induktive Umgang mit Konzepten wird derzeit auf der Basis von manuell vergebenen MetaDaten genutzt. Die Internet-Gemeinschaft versucht, dem großen manuellen Aufwand durch sog.
Crowdsourcing (Howe 2006) zu begegnen. Dabei trägt jeder Teilnehmer einen kleinen Teil zur manuellen Beschreibung bei. In Summe ergibt sich eine wichtige Beschreibungsbasis. Aus betriebswirtschaftlicher Sicht ist dies eine effiziente Methode. Fraglich ist, inwieweit dies auf die Dauer kostentechnisch tragfähig ist. Hierin liegt gleichzeitig der Anreiz, technologische Abhilfe zu schaffen.
Eine automatische Erfassung des Kontextes ist ein Beitrag zur Reduktion dieses Redaktionsaufwands. Ein technologischer Umgang mit Subsymbolik würde eine direkte Kommunikation auf Konzeptebene ermöglichen (F-4.4.1). Kapitel 9 wird auf die Diskussion eingehen, wie wie sich subsymbolische Konzepte erfassen und verarbeiten lassen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
73
9 Relevante Methoden und Technologien der Künstlichen Intelligenz für die Wissensentwicklung
Im Vordergrund der Überlegungen dieses Kapitels steht die Frage, wie weit sich wissensintensive
Prozesse und -schritte automatisieren lassen und wie sich der Redaktionsaufwand für das Information-Retrieval senken lässt.
Bei wissensintensiven Prozessen liegt das Wissen im Prozess, während bei einer rein technologischen Unterstützung das Wissen in den Tools und Methoden zu finden ist. Begrifflich lassen sich nach
Chroust (1992) folgende Aspekte unterscheiden: Methoden werden dabei als eine systematische
Handlungsvorschrift (Vorgehensweise) verstanden, um Aufgaben einer bestimmten Klasse zu lösen.
Verfahren sind darauf aufbauend Wege zur Lösung bestimmter Probleme oder Problemklassen im
Sinne von ausführbaren Vorschriften oder Anweisungen zum gezielten Einsatz von Methoden. Eine
Methode kann durch mehrere Verfahren unterstützt werden. Technologien sind Verfahren im Anwendungskontext und die Anwendung von Technik. Diese operationalisieren Prinzipien, um vorgegebene
Ziele leichter, schneller, sicherer, präziser oder in sonstiger Hinsicht günstiger erreichen zu können.
Das Arbeitsfeld der Künstlichen Intelligenz (KI) stellt seit Jahrzehnten Technologien zur Verfügung mit dem Versuch, menschliche Intelligenz als Fähigkeit durch „Mechanisierung von Denkprozessen“ (Knauf 2004) künstlich zu simulieren und nachzubilden (König 2003, S. 175, Karagiannis
2001). 1956 prägte J. McCarthy den Begriff „artificial intelligence“. Nach Dreyfus und Dreyfus (1986,
S. 79) krankt sie am Problem des Allgemeinwissens und sich ständig verändernder Relevanz.
Intelligenz im Allgemeinen beschreibt in Abgrenzung zu Wissen eine rationale (im Sinne der Emotionalen Intelligenz auch emotionale) Fähigkeit, Wissen und damit den Zustand der subjektiven Wirklichkeit, zu entwickeln. Diese basiert nach Karagiannis (2001, S. 14) auf der Fähigkeit zur Zerlegung
komplexer Probleme, Erkennen von Zusammenhängen, Verstehen von mehrdeutigen Sachverhalten,
Fähigkeit zur Vorhersage, Bewerten von Alternativen, Fähigkeit zur Selbstreflexion, Fähigkeit zur
Abstraktion, Fähigkeit zur Wissensaufnahme und Kommunikation. Luhmann (1995) und Wilke
(2001, S. 52) ergänzen hierzu die Entscheidungsfähigkeit als das eigentliche Kriterium effektiver
Systeme und nicht die Rationalität per se. Nach Eraßme (2002) ist daher Verhalten dann intelligent,
wenn es in dynamischen, komplexen und intransparenten Zuständen brauchbare Orientierung vermittelt. Struktur und Verhalten dynamischer Systeme untersucht bereits die Kybernetik, die der KI als Basis dient und in in Tabelle 10 nach Schamanek (1998) dargestellt ist.
Tabelle 10. Übersicht Systemtheorien als Basis der Künstlichen Intelligenz
SystemTheorien
Kybernetik
Kybernetik 2.
Ordnung
Systemtheorie
Chaostheorie
Fraktale Geometrie
Synergetik
Systeme
Vertreter
Einfache Systeme, L.v. Bertalanffy, F.
Vernetzte Systeme Vester, G. Bateson
Verwandtschaft
Zugehörigkeit
Allgemeine Systemtheo- Logik, Mathematik,
rie
Informationstheorie
Anwendungsbereiche
Ökologie, Systemanalyse, Nachrichtentechnik
Selbstorganisie- H.v. Foerster, S.A.
Kybernetik, Konstrukti- Grundlagenforschung, Management, Ökolorende und beoUmpleby, J. Casti, R. vismus, Systemische An- Kommunikations- und gie, Soziologie, Polibachtende Systeme Ashby, P. Pangaro, G. sätze
Komplexitätstheorie, tologie, FamilienthePask, u.v.m.
Philosophie
rapie
Selbstorganisie- H. Maturana, F.
Theorie der Autopoiese Soziologie, Biologie Soziologie, Jurisprurende und funktio- Varela, N. Luhmann
denz
nal geschlossene
Systeme
Strukturell einfa- E. Lorenz, R.M. May, Theorie dissipativer Sys- Physik, Mathematik Populationsdynamiche, determinierte A. Goldberger, P.
teme, Katastrophentheoken, Hydro- und
Systeme
Schuster, W. Ebeling, rie
Thermodynamik,
P. Crutchfield
Zeitreihenanalyse,
Medizin
Chaotische Syste- B. Mandelbrot, Fei- Chaostheorie
Physik, Geometrie, Geometrie, Zeitreime und Iterierte
genbaum, H.O. PeitBildbearbeitung
henanalyse, BildFunktionen- Sys- gen, G. Julia
komprimierung
teme (IFS)
Komplexe Systeme H. Haken, I.
Chaostheorie, Theorie Physik, Chemie
Physik (Laser), Mus-
74
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
mit globalem Ver- Prigogine, I. Stengers selbstorganisierender
halten
Systeme, Theorie dissipativer Systeme
KonstruktiErkenntnis- theore- E.v. Glasersfeld, H.v. Skeptizismus, (Amerika- Philosophie, Grundlavismus
tische Systeme
Foerster, P. Watzla- nischer) Pragmatismus, genforschung
wick, F. Wallner
Konstruktiver Realismus
Artificial Neu- Komplexe und
P. Maes, C. Langton, Cognitive Science, Zellu- Informatik, Kognitiral Nets and stark vernetzte
J.J. Hopfield, M.
läre Automaten, Multi- ons- Wissenschaften,
Artificial Life Systeme
Minsky, S. Papert,
Agenten- Systeme
Biologie
u.v.m.
tererkennung, Wahrnehmungspsychologie, Soziologie
Psychotherapie, Pädagogik, Wissenschaftstheorie
Künstliche Intelligenz, Mustererkennung, Computersimulationen
Nach Schamanek (1998) ist die Kybernetik eine Theoriebais für einfache Systeme. Er illustriert in
seiner Übersicht die Zusammenhänge zwischen der Systemtheorie und den abgeleiteten Systemen, je
nach Diziplinzugehörigkeit. Er vertieft damit die Einleitung zum Konstruktivismus und ordnet diesen
in die Systemtheorie für erkenntnistheoretische System ein.
Hierauf aufbauend, lässt sich die Entwicklung der KI nach Karagiannis (2001 S. 26ff.) grob in
sieben Phasen gliedern:
1. Phase (1943-1956): Erste Schritte mit der Entwicklung eines künstlichen Neurons. Anwendung und Weiterentwicklung der Hebb’schen Regel.
2. Phase (1952-1969): Aufbruch und Begeisterung durch Programmiersprache LISP und Mikrowelten, um isolierte Probleme zu lösen
3. Phase (1966-1974): Ernüchterung durch die Erkenntnis des Kontextbezugs von Wissen und
der Komplexität der „wirklichen Welt“
4. Phase (1969-1979): Wissensbasierte Systeme und PROLOG als objektorientierte Programmiersprache
5. Phase (1980-1988): Wirtschaftliche Erfolge durch Expertensysteme
6. Phase (ab 1982): Weiterentwicklung der künstlichen Neuronalen Netze (KNN)
7. Phase (ab 1987): Anwendungsorientierte Forschung und Wissens“verwaltung“
Die weitere Entwicklung ist geprägt durch den Einfluss und Erkenntnisse verschiedener anderer
Disziplinen, wie die Linguistik, Neuro-Medizin, Psychologie u.a. Sie betreffen, wie in Kap. 1 dargelegt, die Diskussion um die Wissensentwicklung. Dann kann sogar von einer „knowledge intelligence“ gesprochen werden. Es würde die Fähigkeit ausdrücken, Wissen zu entwickeln. Problematisch erscheint, dass das unvollständige Verständnis menschlicher Intelligenz und von Denkprozessen zu einer
Begrenzung durch das technisch Machbare führt (Karagiannis 2001). Maschinen handeln nach Uexküll (1928) nach Plänen, während Menschen wie Pläne selbst sind.
Die KI beruht auf der Basis der Logik und der Bool’schen Aussagenlogik sowie der von u.a. Gödel,
Turing und Church entwickelten Prädikatenlogik (Karagiannis 2001, S. 25). Ihm zufolge lässt sich
die kognitive Ebene über die Gedankenformulierung repräsentieren (Verfahren), bevor sie in der Implementierungsebene für technische Abläufe formalisiert wird (Technologien).
Die strukturierte Analyse der methodischen und technologischen Grundlagen Künstlicher Intelligenz illustrierte die Vielfalt an Verfahren auf unterschiedlichen Abstraktionsstufen. Sie helfen, geeignete Verfahren für wissensintensive Prozesse zu wählen und semantische Technologien, wie Gnowsis,
einzuordnen. Ebenso können die in der KI bereits enthaltenen Erkenntnisse als technologische Sicht
in die Untersuchung der Wissensentwicklung einfließen.
Daraus ergibt sich ein deklarativer und prozeduraler Erklärungsrahmen für Technologien in
den Verfahren Repräsentation, Mustererkennung und Problemlösung. Deklarative Verfahren setzen manuelle Erfassungen und Definitionen voraus und lassen sich durch eine prozedurale Abbildung
automatisieren. Nach Primio (1998, S. 24) verfügen die wenigsten KI-Systeme über ein Modell von
sich selbst und kennen nicht ihre eigenen Grenzen. Eine Verbesserung der Verfahren zur Annäherung
an die Sub-Symbolik könnte über rekursive, prozedurale Verfahren erreicht werden.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
75
Tabelle 11 zeigt exemplarisch eine Auswahl von Verfahren. Pro Methode lassen sich verschiedene
Verfahren anwenden und kombinieren. Die Technologieübersicht erhebt keinen Anspruch auf Vollständigkeit, sondern dient primär der späteren Einordnung des Semantic Desktop.
Tabelle 11. Übersicht über diskussionsrelevante Verfahren der Künstlichen Intelligenz
deklarativ
prozedural
Feature-Maps
Kohonen-Map
MultiAgentenperzeptoren
Ontologien,
semantische
Netze
Kontextbeobachtung
Konzepte
Methoden
nach Abstraktionsebene
Symbole
Repräsentation
Bedeutungen
und Klassen
Verfahren
Neuronale
Netze
Backpropagation
Mustererkennung
deklarativ
prozedural
Überwachtes
Lernen, wie
Vektormodelle
BayesKlassifikatoren
Ontology
mappings
Ontology matching
Unüberwachtes Lernen,
Eigen-/ Fisherwie constraintfaces Methode
satisfaction
Netzwerke
Problemlösung
deklarativ
prozedural
Entscheidungsbäume,
Heuristiken
Expertensysteme
Case-based
reasoning
Multiperspective
reasoning
Natural language processing
Multi-agent
Architektuen
Die Übersicht macht deutlich, dass für einen technologischen Umgang mit einem Wissensprodukt
eine Vielzahl an technischen Verfahren in Frage kommt. Als Beispiel zur Illustration: Ein Angebot
lässt sich als Wissensprodukt in fünf Abstraktionsebenen zerlegen. Jede Ebene wird durch mindestens
vier Methoden deduktiv und induktiv nach oben und unten verknüpft. Jede Methode lässt sich nach
obiger Tabelle durch mind. sechs Verfahren beschreiben. Unbeschrieben bleiben hier die Varianten an
Programmiersprachen, die für die Verfahren denkbar sind. Daraus folgt, dass für ein Wissenprodukt,
rein rechnerisch, 120 Verfahren (5 Ebenen x 4 Methoden x 6 Verfahren) anwendbar und zu verknüpfen wären.
Im Folgenden werden die aufgezeigten Beispieltechnologien zur Illustration der wesentlichen Aspekte eines Verfahrens vorgestellt. Jedes Verfahren betrachtet dabei die drei methodischen Ebenen
Symbole, Bedutungen und Konzepte. Am Ende werden die wesentlichen Erkenntnisse für als Grundlage für den Semantic Desktop zusammengefasst und dieser in die Landschaft eingeordnet.
9.1
Repräsentation
Repräsentation ist, allgemein gesprochen, die Beschreibung und Abbildung von etwas. Information
ist die Repräsentation einer Bedeutung. Diagramme, als eine Repräsentationsform, dienen der Darstellung von Konzepten wie Prozessen (Debenham 2000). Sie dient der Vereinfachung, Übersetzung zur
Kommunikation oder allgemein gesprochen, dem Umgang mit dem Inhalt.
Die Theorien zur Repräsentation werden nach Rickheit und Strohmer (1993) als mentale Modelle
bezeichnet. Nach Schwarz (1992) sind mentale Repräsentationen eines kognitiven Systems systeminterne Zustände, die systemexterne Zustände abbilden und quasi als solche einfrieren. Sie folgen nach
Alber (2000) dem ökonomischen Speicherprinzip in ihrer optimalen Abstraktionsstufe. Demnach wird
die Repräsentationsform gewählt, die ein Optimum zwischen Speicherbedarf und Detailgenauigkeit
erlaubt. Dabei wird die Repräsentation des eigentlichen Inhalts als symbolisch begreifbar von der
Repräsentation des Konzepts als subsymbolisch und nicht mit den Sinnen fassbar unterschieden.
76
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
In der Linguistik verwendet Alber für die Beschreibung der Adjektivkonstruktion Repräsentationen
weniger im Sinne von Abbildungen, sondern als innere individuelle Konstruktion auf der Basis von
semantischen Netzwerken. Diese können in Form von kognitiven topologischen Karten vorliegen. Die
Erzeugung von Sätzen kann als Vorgang der Symbolmanipulation beschrieben werden. Sie wendet
Regeln auf der Grundlage von Wörtern an, die den Status von Symbolen haben (Alber 2000).
Symbole sind begriffliche, konzeptuelle Zuordnungen zu bestimmten Merkmalsausprägungen
und Mustern von Signalen. Sie repräsentieren bestimmte Zustände, die über Sensoren erfasst werden
(Frequenzen, Wellen, etc.). In Form von Modellen, Formeln und Algorithmen lassen sich diese digitalisiert repräsentieren. In ihrer Grundform basieren Computer auf Nullen und Einsen, die per se schon
nur eine bestimmte Repräsentation der Wirklichkeit ermöglichen. Eraßme (2002) bezeichnet dies als
Symbolismus. Er basiert auf begrifflichen Konzepten und nutzt heuristisches Problemlösen durch gezielte Einschränkung des Lösungsraums der zu testenden Thesen und systematische Symbolmodifizierung auf der Basis von Regeln. Die Schwierigkeit, wie in der Gesichtserkennung, ist die mangelnde Formalisierbarkeit der Probleme und lange Lösungszeiten.
Symbole hängen in ihrer Form nicht mit dem Konzept zusammen. Sie sind eindeutig, atomar und
haben Tokenfunktion. Sie sind in einem System also unersetzbar. Das Entfernen eines Symbols aus
einem System führt zum Verlust des ganzen Konzeptes, auf welches das Symbol referiert. Da Konzepte ihrerseits eine Repräsentation eines Wirklichkeitszustandes sind, könnten sie als interne Symbole
verstanden werden, die dem Nutzer nicht bewusst zugänglich sind, sondern nur in der Interaktion der
„Units“ temporär existieren. Als subsymbolisches Modell geben sie somit nur die symbolische Repräsentation auf, nicht aber die Grundlage symbolischen Denkens: Konzepte und Kategorien.
Karagiannis unterscheidet als Repräsentationsmethoden deklarative (objektorientierte Modelle,
Datenmodelle, lexikalische und regelorientierte Repräsentation) und prozedurale (Methoden und
Programme) (Karagiannis 2001, S. 54f.)
Diese finden sich nach Knauf (2004) in unterschiedlichen Programmiersprachen wieder. Prozedurale, objekt-orientierte Sprachen sind explizite Problemlösungsalgorithmen, während deklarative Sprachen eine funktionale Beschreibung des Problems vornehmen. Als Beispiele deklarativer Sprachen
gelten PROLOG, LISP, C++, Corba IDL oder Algernon, KQML (Knowledge Query and Manipulation
Language) und KIF (Knowledge interchange format). Prozedurale Lösungsalgorithmen werden als
Backtrack-Methode bezeichnet und erraten oder testen eine Lösung im Gegensatz zu deklarativen
Heuristiken.
Die Sprachen umfassen eine höhere ontologische Abstraktion und bauen auf tieferen Abstraktionen
und Repräsentationen auf. So baut Basic auf Assembler auf, etc. Sie folgen einer manuellen Explikation der Abstraktionsebenen und einer formalen Ontologie. Sie basieren auf einer euklidischen Geometrie.
Neben der reinen Sprache verbreitern Programmiertechniken wie JBoss AOP, Nanning, and
Aspectwerkz (aspect-oriented development) und Architekturen durch Kapselung (wrapping) oder verallgemeinerte Prozeduren die Anwendungsbasis der symbolischen Repräsentationen (Franklin 1997,
Grundsy 2000, Kiczales 1997, Merk 2001). Für die Erstellung zugrundeliegender Algorithmen können
höherwertige, wissensbasierte Sprachen verwendet werden. Damit lassen sich rekursiv weitere Abstraktionsebenen abbilden. Programmiersprachen sind somit ein wichtiges Hilfsmittel, um die gewonnenen Erkenntnisse aus der Komplexitätsanalyse verfügbar zu machen. Interessant dabei ist, wie
viel Komplexität und Intelligenz im System und in der einzelnen Einheit wie einem Objekt, Agent
oder Aspekt liegt.
Für die Repräsentation auf unterschiedlichen Komplexitätsstufen und semantischen Ebenen sind
unterschiedliche Repräsentationsmethoden bekannt. Die Ebenen sind selbst-ähnlich und rekursiv miteinander verknüpft, so dass sich die Repräsentationsform der Signalebene auf die weiteren semantischen Ebenen auswirken und umgekehrt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
9.1.1
77
Feature-Maps und Netze als symbolische Repräsentation auf Signalebene
Der Hebb’schen Lernregel nach entstehen Verbindungen durch Verstärkung, wenn zwei Einheiten
gleichzeitig aktiviert sind (Hebb 1949, Alber 2000). Sie beruht auf der Theorie der Zellverbände, die
bestimmte Aktivierungsmuster repräsentieren. Für die Repräsentation dieser Muster existieren wiederum verschiedene Modelle, wie MLPs (Multi-Layer-Perzeptrons), Kohonen-maps, Mangold-Alwin
Musterassoziator, Expertennetze, Jordan- und Elman-Netze, rekurrente Experten (Tani 1999) und Netze oder Hopfield-Netze.
Die Kohonen-Feature-Map ist aufgebaut wie ein zweischichtiger Musterassoziator. Dabei wird ein
mehrdimensionaler Merkmalsraum so auf eine zweidimensionale Ausgabeschicht abgebildet, dass die
Ähnlichkeitsbeziehungen zwischen den wichtigsten Merkmalen durch räumliche Distanzen als Vektoren repräsentiert auf der Karte abgebildet werden (Kruse et al. 1991). Dieser Lernvorgang ist eine
Abstraktion.
Der Mangold-Allwinn Musterassoziator nutzt für den Lernvorgang ein MultiLayer-Perzeptron
(MLP) (Mangold-Allwinn 1993). Dabei existieren neben der Ein- und Ausgabeschicht verdeckte Ebenen. Sie ordnen Merkmale den Eingangsknoten zu. Diese codieren die Bezeichnungen der zu vergleichenden Signale. Interessant bei den Studien von Mangold-Allwinn ist, dass die Zusammensetzungen
der konzeptuellen Repräsentationen mit den situationalen Gegebenheiten variieren, woraus unterschiedliche Ähnlichkeitseinschätzungen in Abhängigkeit von der jeweiligen Situation resultieren.
Diese Beispiele zeigen bereits die Repräsentation von Signalen und Symbolen als eine Einordnung
auf das vorherige Bezugssystem. Sie hängt damit subjektiv vom Sensor oder Betrachter ab und bezieht sich rekursiv auf diesen. Es wird nur wahrgenommen, was sich über die Repräsentation erfassen
lässt.
9.1.2
Ontologien als symbolische Repräsentation auf Bedeutungsebene
Eine Ontologie beschreibt nach Will (2004, S.264) ein Wissensgebiet durch eine standardisierte
Terminologie und semantische Beziehungen. Sie nutzt dabei Regeln, die die Themen miteinander in
Beziehung setzen. Nach Gruber (1993) ist eine Ontologie eine formal explizierte Spezifikation geteilter Konzepte. Sie ist Hilfsmittel der Repräsentation, um Wissens- und Informationsobjekte auszutauschen und zu kommunizieren (Studer 2001). Sie unterstützen einen Meta-Prozess, der den Kontext
der Informationsobjekte beschreibt. Eine Ontologie weist Begriffen Bedeutung zu (Lorenz 2006, S.
2). Begriffe sind nach Aristoteles in Worten manifestierter Seelenausdruck. Ihre Bedeutung resultiert
aus dem Kontext und der Perspektive des Betrachters. Das gemeinsame Verständnis ermöglicht die
Kommunikation über das Themengebiet und beschreibt konzeptuell strukturierte Interessensgebiete und Domänenmodelle (Stumme 2005). Allgemein gesprochen, ist eine Ontologie eine Wissensrepräsentation eines formal definierten Systems von Begriffen und Relationen. Philosophisch betrachtet, erklärt Ontologie die Beschaffenheit der Welt. Epistemologie erklärt im Kontrast die
Beschaffenheit unserer Erfahrung von dieser Welt (Förster 1993).
Verschiedene Sachverhalte und Phänomene können über Ontologien repräsentiert werden. Während
Domain-Ontologien Konzeptualisierungen für Wissensbasen bestimmter Domänen sind, beinhalten
Task-Ontologien Methoden zur Bearbeitung von Aufgaben. Generische Ontologien verkörpern allgemeine Konzepte. Sie existieren in mehreren Domänen.
Üblicherweise sind nach Lorenz (2006) Ontologien in informationstechnisch verarbeitbare statische
Taxonomien mit mehrfacher Vererbung und disjunkten Unterkategorien organisiert. Durch Nutzerbeobachtung können diese dynamisch weiterentwickelt werden, wenn sie häufigen Änderungen unterliegen. Zur Abbildung des richtigen Abstraktions- und Detaillierungsgrades bei der manuellen Erstellung
helfen Kompetenzfragen. Sie werden mit Hilfe der Ontologie beantwortet. Das Aufstellen und Entwickeln von Ontologien ist im rein subjektiven Sinne keine Wissensentwicklung. Die Erkenntnisse der
Wissensentwicklung lassen sich aber hierauf im Sinne einer Explizierung von implizitem Wissen anwenden und aus technischer Sicht als ein wissensintensiver Prozess begreifen. Auf dieser Basis ließe
sich die Erstellung von Ontologien selbst automatisieren (Lorenz 2006, S. 14f.).
78
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Netze sind darauf basierend Verbindungen von Konzeptrepräsentationen (Ontologien)
auf unterschiedlichen Ebenen. Nach Lorenz (2006, S. 10ff.) bilden sie Bedeutungen im Sinne von Zusammenhängen ab. Werden semantische Beziehungen abgebildet, so spricht Sowa (1984) von „Conceptual graphs“. Sie orientieren sich sehr stark am Aufbau von Grammatiken. Anwendungsbezogen
werden heute kognitive Modelle bereits über In-out, emphasis, classification oder causal-Diagramme
visualisiert und dargestellt (Axelrod 1976). Über eine weitere Abstraktion der zugrundeliegenden
Themen ordnen Topic oder Language Maps diese in vorhandene Kategorien ein (Moench 2003, Novak et al. 2004).
Semantik ist Bedeutung und basiert auf logischen Schlussfolgerungen und Darstellung von kontext-spezifischen Zusammenhängen, Restriktionen und lexikalischen Einheiten (Alber 2000). Die
Sprache benötigt hierfür oft unpräzise Formulierungen, wie abstrakte Konzepte oder Logik als eine
formale Beschreibung. Technisch lassen sich diese Beschreibungen als Frames (Rahmen) abbilden.
Ein Frame ist dabei eine Objektklasse eines Problembereichs, welche zu anderen Frames in Beziehung
stehen kann. Eine solche Klasse besteht aus Slots (Eigenschaften). Den Slots können Prozeduren zugeordnet sein, die bei Änderung einer Eigenschaft auszuführen sind.
Zur maschinellen Verarbeitung von Ontologien werden Beschreibungssprachen verwendet. Sie erlauben eine entsprechende Interpretation der Terme. Als Beispiele seien folgende häufig verwendete
W3C-Formate erwähnt (http://www.w3.org/, Ahmed 2001): RDF(S) (Resource Description Framework Schema), OWL (Web Ontology Language), SPARQL (SPARQL Protocol and RDF Query Language), KIF (Knowledge Interchange Format), DAML (Darpa Agent Markup Language), OIL (Ontology Interface Language) sowie weitere wie SHOE (Corby et al. 2004), XOL (XML-based Ontology
Exchange Language) oder OKBC (Open Knowledge Base Connectivity), die hier nicht weiter vertieft
werden sollen. Historisch gesehen, hat sich OWL aus DAML und OIL entwickelt.
Im Vergleich zu bestehenden Programmiersprachen erlauben semantische Sprachen den direkten
Umgang mit Taxonomien. Sie lassen sich dann durch Inferenzmaschinen in bestehende Suchalgorithmen einbinden und nutzen. RDF(S) und OWL sollen als die wichtigsten und für den Semantic Desktop relevanten näher vorgestellt werden.
9.1.2.1 Resource Description Framework (Schema) – RDF (S)
RDF ist eine vom W3C definierte Meta-Beschreibungssprache auf Basis von XML zur Beschreibung
von Metadaten und Ontologien. Die Beschreibung erfolgt in Form eines Triples: Subjekt, Prädikat,
Objekt. Das Subjekt ist die Ressource, über die eine Aussage gemacht werden soll. Das Prädikat definiert die Information, die über das Subjekt gegeben werden soll. Das Prädikat wird auch als Eigenschaft des Subjektes bezeichnet. Das Objekt bezeichnet den Wert des Prädikats.
Damit wird eine Aussage (statement) über ein bestimmtes Objekt innerhalb einer Domäne gemacht.
Es wird als ein so genanntes Statement bezeichnet. RDF Syntax ist die Repräsentation des Modells in
XML. In RDF können sogar Aussagen über Aussagen getroffen werden, um somit komplexes Wissen
zum Ausdruck bringen zu können.
RDF Daten können als gerichteter Graph dargestellt werden, bei dem der eine Knoten das Subjekt
abbildet, der andere das Objekt. Die Kanten zwischen den Knoten bilden das Prädikat. In der Standardisierung dieser Repräsentation können Namenspaces vergeben werden. Werden diese nicht manuell vergeben, kann auf standardisierte Namespaces, wie das Dublin Core Schema, zurückgegriffen
werden.
Mit RDF kann die Dokumentenreihenfolge flexibel gehalten werden. Während man in einem
XML-Dokument das ganze Baumschema verstehen muss, kann man RDF-Modelle als Tripel leicht
abfragen. XML wird daher für die Syntax und RDF für die Semantik genutzt. RDF stellt jedoch höhere Anforderungen an den Entwickler. Er erzielt damit aber eine auswertbare Form von Wissen
und seinen Ontologien.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
79
Nach Baumeister und Seipe (2005) ist RDF eine domänen-unabhängige Sprache zur semantischen Beschreibung von Datenmodellen und wird üblicherweise in XML repräsentiert. Das jeweils
anwendungsspezifische Vokabular des RDF-Datenmodells wird im RDF-Schema (RDFS) definiert.
Während XML-Schemata Dokumente durch Constraints beschreiben, werden im RDFS Eigenschaften und Beziehungen zwischen Objekten und Wertebereichen definiert.
RDFS (RDF Schema) erweitert das RDF-Modell und bildet wiederum die Basis für OWL, das die
verbliebenen Beschränkungen von RDFS beseitigen soll. Mit RDFS können die Aussagen (Statements), die mittels RDF formuliert wurden, hierarchisch in Klassen und Instanzen organisiert werden.
Mittels SPARQL können diese aufgerufen und adressiert werden. Es ist ein Protokoll und eine SQLähnliche Abfragesprache für das Semantische Web.
9.1.2.2 Web Ontology Language − OWL
OWL, als auf RDF aufbauende Prädikatenlogik, ermöglicht zwar einen Umgang mit höheren Komplexitäten, reduziert aber die Leistungsfähigkeit und Schlussfolgerungsfähigkeit. Sie existiert daher in
drei Ausbaustufen: OWL Lite bietet eine hierarchische Klassifizierung mit der Möglichkeit, Gleichheit zwischen Klassen herzustellen. OWL Lite sind Taxonomien mit einfachen Constraints. OWL DL
bietet ein Höchstmaß an Ausdrucksstärke bei gleichzeitiger Garantie der Ausführbarkeit. Die Ausdruckstärke wird durch die Möglichkeit erzielt, Klassen explizit als disjunkt zu beschreiben und nicht
nur als ungleich zu identifizieren. OWL Full ernöglicht zusätzlich zu OWL DL syntaktische Freiheit
auf Kosten der Ausführbarkeit. In OWL Lite und OWL DL ist es nicht möglich, dass etwas Klasse
und Instanz gleichzeitig ist. Dadurch wird die Ausführbarkeit gewährleistet. In OWL Full ist dies erlaubt. Dadurch wird es möglich, unterschiedliche Ontologien zu kombinieren, in denen genau das der
Fall ist. Deshalb ist es nötig, eine Instanz mit einer Klasse gleichsetzen zu können.
9.1.3
Konnektionistische Netze als subsymbolische Repräsentation auf Konzeptebene
Zur Beurteilung konnektionistischer Netze auf Konzeptebene soll das Phänomen der Subsymbolik
kurz dargelegt werden. Aufgrund der sprachlichen oder programmiersprachlichen Umsetzung vermag
keine der Technologien, subsymbolische Prozesse tatsächlich abzubilden, sondern kann sich diesen
nur simulierend nähernd.
Weit gefasst, ist Subsymbolik der Bereich an Vorgängen und Zuständen, die im Computer selbst
nicht symbolisch repräsentiert sind. Der Umgang mit Subsymbolik sucht nach simulativen Verfahren und Möglichkeiten, diese mit Hilfe von Konzepten und Abstraktionen abzubilden und zu strukturieren. Durch die Beschreibung aus einer Perspektive heraus gehen jedoch die Konzepte ein Stück
weit verloren. Wichtig ist die Kenntnis der Perspektive im Zusammenhang mit einem Konzept.
Computer beruhen per se auf einer Repräsentationslogik und sind nach Dreyfus und Dreyfus (1986,
S. 90f.) nicht fähig, zum Beispiel Bilder direkt zu interpretieren. Die Nutzung der Subsymbolik in der
KI differenziert daher weniger philosophisch ob beschreibbar oder nicht, sondern geht grundsätzlich
von einer Beschreibbarkeit aus und unterscheidet nach der Zugänglichkeit und Genauigkeit. Damit
ist die subsymbolische Repräsentation Basis für die symbolische Repräsentation. Sie basiert auf Beschreibungsebenen von kognitiven Vorgängen von Smolensky (1988), der subsymbolischen Hypothese von Hofstadter (1985) und Erkenntnissen aus der Forschung mit konnektionistischen Systemen von
Dorffner (1991).
Smolensky unterscheidet drei Ebenen kognitiver Vorgänge: konzeptuell, als exakt von symbolischen Modellen beschrieben; sub-Konzeptuell, als exakt von subsymbolischen Modellen beschrieben;
neural, als exakt vom Gehirn beschrieben, aber der Beobachtung meist unzugänglich.
80
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Hofstadter beschreibt darauf aufbauend Inferenzen und Wissen als Interaktion einer großen Anzahl
von Prozessoren (Units), die direkt durch Modellprozessoren verwirklicht werden muss und keine exakte Beschreibung auf konzeptueller Ebene erlaubt. Für die Realisierung der nicht beschriebenen (expliziten) Interaktion müsste seiner Hypothese nach ein Formalismus existieren, der Informationen, die
in reinen Symbolstrukturen ausgelassen werden, mit einschließt und (selbst) referenziert.
Aus der Erfahrung mit konnektionistischen Systemen beschreibt Dorffner Wissen selbst als subsymbolisch. Nur die Systeme besitzen als Input und Outputlayer symbolische vom Systemdesigner
definierte und interpretierte Schnittstellen. Wissen kann dagegen nicht in einer externen symbolischen
Form vorliegen, da
1.) das Ausfallen einer Einheit nicht zum Ausfall eines Konzeptes führt, wie dies bei symbolischer
Repräsentation der Fall wäre (Robustheit).
2.) die Funktionalität des Modells nicht von einer Interpretation abhängt. Zwar ist es prinzipiell
möglich, die Muster im Hidden Layer zu interpretieren, das System arbeitet aber auch ohne Interpretation.
3.) da der Lernmechanismus interpretationsfrei ist, ist auch keine vollständige Welt in der Vorstellung des Designers nötig, um alle Kontexte zu erfassen. Dies geschieht hier entsprechend der
Forderung der subsymbolischen Hypothese von Hofstadter alleine durch das Zusammenspiel
der einzelnen Prozessoren. Rumelhart (1986) unterstützt diese Forderung.
Dorffner (1991, S. 174) schließt, dass ein selbstorganisierendes System, wie es konnektionistische
Netzwerke sein können, kognitives Verhalten auch ohne Repräsentation − also in gewissem Sinne repräsentationsfrei (non-representationalist) – modellieren kann. Nach Alber (2000) geht es damit weniger um Wissen als symbolisches Ergebnis, sondern als subsymbolische Erstellungsregel. Diese generiert immer wieder neue Zustände.
Für eine Annäherung lehnt sich die Arbeit diesem und damit der Begriffsverwendung von Hofstadter, Dorffner und Alber im Sinne eines iterativen Prozesses zur Zustandsbildung an. Sie bezeichnet die
subsymbolische Abstraktionsebene als Konzept-Ebene, auch wenn diese die Repräsentation nicht als
symbolisches Konzept versteht.
Zur Verdeutlichung lassen sich das Zusammenspiel und die Unterschiede zwischen symbolischer
und subsymbolischer Repräsentation über eine Gebirgsanalogie veranschaulichen (Eraßme 2002).
Technisch ausgedrückt steht die X-Achse für mögliche Aktivierungszustände eines subsymbolischen
Modells, repräsentiert in einem neuronalen Netz. Auf der y-Achse finden sich die Anzahl der Aktivierungen. Gipfel in diesem „Gebirge“ kennzeichnen eindeutige Muster, die sich auf der symbolischen
Ebene leicht als Konzepte identifizieren und über Symbole abbilden lassen.
Wenn Wissen ein Aktivierungszustand ist, kann Wissen symbolisch beschrieben werden. Explizites
Wissen (symbolisch) wäre damit die Liste von Bergnamen und die Relationen zueinander. Implizites
Wissen (subsymbolisch) wäre die dazugehörige Landkarte. Diese Erfassung birgt Schwierigkeiten, die
aus der Praxis bekannt sind:
• Keine Erklärung, warum die benachbarten Punkte des Gipfels eines flachen Hügels diesem fast
gleichberechtigt sind (Wertigkeit und Relevanz von Dokumenten).
• Das symbolische Modell kennt nur die Epiphänomene und kann die Details nicht erfassen (Titel
technisch nutzbar, nicht aber der Content und die Aussagen).
• Symbole sind atomar und arbiträr. Ihre Form gibt keinen Aufschluss über den Inhalt (In einer
PowerPoint kann inhaltlich das Gleiche stehen wie in einem Word-Dokument).
• Die einzelnen Symbole erhalten erst dann einen Sinn, wenn sie in ihrer Relation zu anderen
Symbolen definiert werden. Symbole werden aber erst durch ihre Relationen entdeckt. Es liegt
ein Zirkelschluss vor, der das Problem der vollständigen Formalisierung illustriert (Dokument
ist eine Marktstudie, weil sie im Folder Marktstudien abgelegt ist. Dieser entsteht erst aus seinem Inhalt, nämlich verschiedenen Dokumenten, die als Marktstudie bezeichnet werden). Er
lässt sich erst durch die Hilfestellung einer externe Vorgabe durch den Nutzer auflösen. Diese
bedarf einer symbolischen Repräsentation für die Kommunikation und durchbricht damit die
subsymbolische Balance.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
81
Alber (2000) unterstreicht dieses Beispiel mit dem Versuch einer Erklärung dieser Zusammenhänge. Hiernach bilden sich aus den eingehenden Signalen subsymbolisch sog. Mikrofeatures als nicht
bedeutungstragende Elemente. Erzielt wird diese Bildung durch Netzwerke auf Basis des Backpropagation-Lernalgorithmus. Das Netzwerk der Mikrofeatures wird nicht mehr von einem externen Designer erstellt, sondern ist das Resultat von Lernprozessen in einem Netzwerk. Das Wissen über die Mikrofeatures steckt in den Verbindungen und stellt somit implizites Wissen dar. Es besitzt so lange keine
verständliche Interpretation, bis es zu einer Interaktion mit einem zweiten Medium und damit einer
Explizierung im Sinne einer Kommunikation kommt.
Aus der Diskussion zeigt sich, dass Konzepte auf der jeweils höheren Abstraktionsebene als
subsymbolisch anzusehen sind. Will man nicht alle Eventualitäten in Abstraktionsbeziehungen explizit machen und pflegen, scheint es mit iterativen Lernprozessen Ansätze zu geben, sich dem subsymbolischen Phänomen technologisch zu nähern.
Eine subsymbolische Repräsentation erscheint für die Wissensentwicklung, im symbolischen Sinne,
unerlässlich. Vor einer dynamischen Implementierung subsymbolischer Phänomene kann die
symbolische Repräsentation als Semantik verstanden werden. Sie hilft, einen verbesserten Umgang mit symbolischer Repräsentation zu erzielen und sich subsymbolischen Möglichkeiten zu nähern.
Zu berücksichtigen ist dabei, dass eine symbolische Repräsentation schon als Symbol einer Interpretation des Betrachters, einer Informationsreduktion und damit einer Trennung von Inhalt und Form unterliegt.
Mit diesem Wissen konzentriert sich die weitere Diskussion auf die Weiterentwicklung einer symbolischen Repräsentation und Verarbeitung durch die Erforschung und das Verständnis der subsymbolischen Welt – wohl wissend, dass dies nur eine Annäherung sein kann.
Die KNN (Künstlichen Neuronalen Netzen) zugrundeliegenden Prozesse werden dem Konnektionismus zugerechnet. Sie haben eine lange Geschichte, die nach Zell (1994) von folgenden wesentlichen Erkenntnissen geprägt war und Mitte der 80er mit der Neurobiologie einen neuen Schub im Hinblick auf die Lösung von Optimierungsproblemen bekam:
1943 Mc Culloch und Pitts: erstes Modell eines künstlichen Neurons
1949 Begründung der Hebb’schen Regel eines Lernalgorithmus für einfache neuronale Netze
1958 Rosenblatt: mathematische Definition des Perceptron-Netzes
1969 Minsky und Papert: theoretisch begründetes Modell eines neuronalen Netzes
1972 Kohonen: selbst-organisierendes neuronales Netz
Der Konnektionismus orientiert sich stärker an Strukturen des Gehirns als an digitalen Prozessen
des Geistes (Birbaumer 1997, S. 4). In der Philosophie des Geistes wurden von einigen Autoren neuronale Netze als der beste Weg betrachtet, das menschliche Denken zu modellieren. Sie erleichtern das
Lernen aus Beispielen, das Verallgemeinern von Beispielen, das Abstrahieren, das schnelle Erkennen
und Vervollständigen komplizierter Muster, das assoziative Speichern und Abrufen von Informationen
etc. Die Kritiker halten das konnektionistische Modell für unrealistisch, weil zu stark vereinfachend.
Kritisiert wurde von Fodor und Pylyshyn (1988), dass der Konnektionismus den systematischen und
produktiven Charakter menschlichen Denkens vernachlässige.
82
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
KNN bestehen aus einem konnektionistischen Modellsystem, das auf Eingaben mit den gleichen
Ausgaben antwortet wie sein reales Vorbild, indem die inneren Gewichtungen über Rückwärtspropagierung trainiert werden. Folgende Abbildung nach Zell (1994) verdeutlicht dies. Dabei werden die
Vektorzuordnungen festgelegt. Ihre Gewichtungen können trainiert werden. Nur die Netzstruktur wird
als Ausgangsneuronen = Anzahl der Klassen und Eingangsneuronen = Anzahl der Merkmale festgelegt.
Eingabe
muster
Ausgabe
Bedeutung
Differenz
-
=
Rückwärtspropagierung
Abb. 13. Konnektionistisches Modellsystem
Für die Zuordnung existieren derzeit verschiedene statistische und stochastische Verfahren, wie
Hidden Markov. Dabei tritt jedes Merkmal mit einer gewissen Wahrscheinlichkeit auf und es folgt ein
anderes Merkmal mit einer entsprechenden Verbundwahrscheinlichkeit. Zu dieser Abfolge von
Merkmalen gehört das eigentlich gesuchte Sprachsignal mit seinem Inhalt. Ziel dabei ist, die kleinstmögliche Auswahl der Eingangsknoten bei zufriedenstellender Leistung. Hierzu wird meist die statistische principle component analysis verwendet (Zhang 2000). Sie reduziert Dimensionen, ohne Informationen aus den Ursprungsdaten zu verlieren.
Wie oben beschrieben, zeigt sich hier die Grenze der Repräsentation. Nachdem Expertensysteme
und Simulationen nur auf detaillierten Kenntnissen des Systems durch schrittweises Zerlegen und
vollständiger symbolischer Beschreibung beruhen, erfordert eine vollständige und hinreichend genaue
Beschreibung einen nicht abzuschätzenden Pflege- und Redaktionsaufwand. Solche Systeme stoßen
daher in der Praxis an ihrer Grenzen.
In konnektionistischen Modellen wird diese Komplexität durch Dezentralisierung begegnet. Sie
stellen viele einfache Einheiten in enger Vernetzung dar. Diese Einheiten arbeiten lokal und kommunizieren mit anderen nur via Signalen über Verbindungen (Eraßme 2002).
Im Sinne eines radikalen Konnektionismus fordert Dorffner (1997, S. 22f.) von konnektionistischen
Systemen einen bottom-up Ansatz: Selbstorganisation statt explizitem Design, sensomotorische
Schnittstellen, Nutzung von Konzepten; Entwicklung eigener Aktionen statt passiver Rezeption von
Input. Dies unterstützt Zhang (2000) mit seiner Definition Neuronaler Netze als selbst-anpassende,
nicht-lineare Methode mit der Fähigkeit zu einer allgemeinen Näherung.
Neuronale Netze eignen sich nach Karagiannis (2001), wenn unbekannte Ursache-Wirkungs- Zusammenhänge oder unstrukturierte Daten vorliegen. Als typische Eigenschaften gelten gemäß Horster
et al. (1993) und Eraßme (2002): Parallelität, verteilte Informationsrepräsentation, Selbstorganisation,
Generalisierungsfähigkeit, Lernfähigkeit, Fehlertoleranz. Damit eignen sie sich nach Karagiannis
(2001, S. 292ff.) für typische Einsatzfelder wie: assoziative Speicher, Steuerung, Datenkomprimie-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
83
rung, Diagnostik, Vorhersage, Abbildungen, multisensorische Datenfusion, Optimierung, Mustererkennung oder Risikoabschätzung.
Neuronale Netze weisen aber Nachteile auf, wie das Festhalten in lokalen Minima, Abhängigkeiten
von Startwerten oder Konvergenzgeschwindigkeit. Abwandlungen von der klassischen Lösung versprechen Vorteile, sind aber für den Semantic Desktop derzeit noch nicht verfügbar.
9.2
Mustererkennung
Deskriptiv betrachtet ist Mustererkennung die Differenzierungsfähigkeit von Maschinen durch erfahrungsbasierte, meist statistische Selektion sensorbasierter Signale nach ihrer Ähnlichkeit zu kategorisieren (Goldstone 1993, S. 141, Alber 2000). Goldstone verweist dabei auf die Relevanz des entsprechenden Vorwissens für eine erfolgreiche Mustererkennung, den Dreyfus und Dreyfus (1986)
unterstützen. Sie ergänzen ihn durch eine Differenzierung von Experten und Novizen in der Frage der
Informationsrelevanz.
Zu Ähnlichkeiten liegen eine Vielzahl an wissenschaftlichen Aussagen und Methoden vor. Ihre
Kernaussagen und Aspekte helfen zu verstehen, wie Muster erkannt werden. Nach Goldstone (1993)
werden Ähnlichkeiten über Metaphern beschrieben und verbunden. Dabei wird die Bedeutung des
Wortkontextes für Ähnlichkeiten der Aussage betont, weniger des Wortes in seiner lexikalischen
Form. Goldstone und Son (2005) geben eine Übersicht über Formen, auf Ähnlichkeiten zu schließen:
Instanzen-basiert, Perspektiven-basiert, Fall-basiert und Methoden: Zeit, die jemand benötigt, um die
Unterschiedlichkeit zu erklären, nearest-neighbor, configural cue und Vektorquantifizierung.
Die statische und symbolische Begriffsrepräsentation definiert Begriffe durch eine Merkmalsliste
(Klix 1992). Im Gegensatz dazu geht die Gradiententheorie von Eckes (1991) von charakteristischen
mit Auftretenswahrscheinlichkeiten versehenen Merkmalen aus. Ihre unterschiedlichen Gewichtungen
eignen sich insbesondere für die dynamische Konzeptbildung.
Unter allen ist für die Fragen der Wissensentwicklung interessant, wie sich eine Differenzierungsfähigkeit ausprägen lässt, egal aus welcher Perspektive oder in Bezug auf welches Objekt. Neben der
qualitativen und statistischen Abgrenzung von Signalen hängt die Differenzierungsfähigkeit nach
Mangold-Allwinn (1993) auch von der Ladegeschwindigkeit gespeicherter Informationen ins Bewusstsein ab. Er geht davon aus, dass beim Abruf der Objektkonzeptinformation die konkretperzeptuellen Merkmale schneller ins Arbeitsgedächtnis geladen werden als die abstrakt-strukturellen
Merkmale.
Entsprechend treten Unterschiede in der Ähnlichkeitsbeurteilung bei den zu verschiedenen Zeitpunkten entstehenden Konzeptbildungen auf. Probleme sind daher grundsätzlich lösbar, wenn die nötige Detailebene über die Zeit erreicht wird. Folge ist, dass zum Zeitpunkt x eine Ähnlichkeit besteht,
die bei genauerem oder abstrakterem Hinsehen (Veränderung der Perspektive) wieder verworfen werden kann. Eine Modellannahme besagt, dass hierfür die ablaufenden Hintergrundberechnungen verantwortlich sind, die die Kategorisierung in parallel ablaufender Prüfung ständig modifizieren. Aufmerksamkeit reduziert diese und richtet den Fokus auf die Aufnahme oder die aktuelle Handlung.
Goodman (1972) kritisiert in Goldstone (1993, S. 132ff.), dass sich Ähnlichkeit selbst-referenziell
auf die zu beschreibende Klasse als klassifizierendes Element bezieht. Er bestätigt damit indirekt die
Aussagen über die Relevanz des Vorwissens. Ähnlichkeit wäre damit weniger eine objektive Differenzierungsgröße als vielmehr eine sequentiell entstandene, subjektive Möglichkeit, Beziehungen
herzustellen, Komplexität zu reduzieren und Ordnung zu schaffen.
Dies führte Goldstone dazu, Ähnlichkeit als Klassifizierungskriterium als zu flexibel zu kritisieren,
und zu der Forderung, dass Ähnlichkeits- und Klassifizierungsbedingungen übereinstimmen (Goldstone 1993, S. 131). Aus wissenstheoretischer Sicht könnte das heißen, dass beide aus derselben Perspektive betrachtet werden müssten (Goldstone 1993, S. 149). Es würde erklären, warum abstrakte
Begriff und Konzepte subjektiven Charakter haben. Sie weisen nur für den Nutzer eine vertraute Ähnlichkeit auf. Diese muss durch Kommunikation und Explizierung der Kontexte dem Anwender oder
84
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Zuhörer übermittelt und von diesem neu konstruiert werden. Durch gegenseitige Rückmeldung erfahren beide eine Einigung über die Bedeutung des Begriffs oder Konzepts zusammen mit einer subjektiven Einschätzung der Wahrhaftigkeit der Übereinstimmung.
Althoff und Weß (1991) unterscheiden im case-based reasoning vier Formen von Ähnlichkeit, um
die Passgenauigkeit auf eine Situation zu definieren: ununterscheidbar, ausreichend ähnlich, eventuell
ähnlich, zumindest ein wenig ähnlich, nicht einmal ein bisschen ähnlich. Die Vagheit dieser Eigenschaften lässt darauf schließen, warum Kinder zwar feststellen, dass Dinge unterschiedlich sind, aber
die Differenzierungskriterien nur schwer benennen können (Goldstone 1993, S. 139). Dies führt zur
Tendenz, nach einer Maximierung der Gesamtähnlichkeit zu suchen statt nach Optimierung eines
Ähnlichkeitskriteriums.
Die automatische Benennung und Interpretation von Mustern im Hinblick auf ihre Ähnlichkeiten
bildet Klassen. Aus konnektionistischer Sicht unterscheiden Kategorien nach Dorffner (1991) ähnliche Zustände, die durch eine „Menge von Stimuli“ von einem intelligenten System als ähnlich behandelt werden. Kategorie und Klasse werden über die Literatur hinweg je nach Hintergrund und
Sprachgebrauch synonym verwendet. Eine Differenzierung ließe sich sinnstiftend durch eine weitere
Untergliederung des Abstraktionslevels vornehmen. Diese Detaillierung spielt für die weitere Auseinandersetzung eine untergeordnete Rolle.
In Ergänzung zur Lerntheorie in Kapitel 5.8 bieten technologische Umsetzungen in lernenden Systemen Erkenntnisse und Ansätze der Musterkennung. Prozedural betrachtet, verbessern sich lernende
Systeme im Gegensatz zu deterministischen Systemen automatisch durch ihre Erfahrungen (Mitchell
1997). Inhaltlich lernende Systeme sind Programme, die ihre Mustererkennung durch Vergrößerung
der Erfahrungsbasis optimieren. Sie lernen Benutzerinteressen oder neue Regeln, um zu klassifizieren
(Müller et al. 2001). Strukturell lernende Systeme mutieren und verändern ihre logische Form und ihren Aufbau, indem sie Schlussfolgerungen aus ihren Erfahrungen zu ihrer eigenen Rolle und Fähigkeit
ziehen. Beispiele sind Viren und Würmer, die sich selbst in mutierter Form replizieren, um sich zu
immunisieren und den Gegebenheiten anzupassen.
Es gibt viele ähnliche Lernverfahren. Sie unterscheiden sich durch das angewandte Abstraktionslevel (z.B. Dokument, Inhalt oder Begriff). Eine Auswahl an Lernverfahren sei an dieser Stelle kurz
nach Franklin (1997) illustriert:
• Thomas (1993) differenziert acht Lernformen gemäß dem Schwierigkeitsgrad des Verhaltens,
das gelernt werden soll.
• Maes (1994) beschreibt Lernformen unterschieden nach der zugrundeliegenden Lernmethode:
memory-based reasoning, reinforcement learning, supervised learning, and learning by advice
from other agents.
• Dreschers concept learning (1988) und Kohonens self-organization (1984) sind weitere zu
nennende Methoden
• Madhvanath und Godvindaraju (2001) unterscheiden den analytischen vom holistischen
Ansatz. Der analytische unterteilt Objekte (hier: Wörter) in einfachere Einheiten, wie Buchstaben, um diese zu identifizieren und das Gesamte daraus abzuleiten. Der holistische Ansatz
dagegen testet das Objekt als Ganzes und nutzt nur bei Fehlern oder zur Verifizierung den
analytischen Ansatz.
• Mitchell (1997, S. 244ff.) unterscheidet maschinelles Lernen in „lazy“ und „eager learning“.
Eager-Systeme, wie Back-propagation haben eine globale, determinierte Näherungsfunktion
(single linear function hypothesis) für die Entwicklung der Antwort, während lazy-Systeme,
wie nearest neighbour oder gewichtete Regression, eine Kombination aus lokalen Annäherungen zeitpunktbezogen wählen kann. Lazy- und eager-Systeme unterscheiden sich hauptsächlich hinsichtlich ihrer Rechenzeit und der erzeugten Klassifikationen. Lazy- Systeme benötigen weniger Rechenzeit während des Trainings, aber mehr bei der Vorhersage. Die Aussage
muss jedes Mal neu entwickelt und hergeleitet werden.
Weitere Ansätze optimieren die beschriebenen im Hinblick auf Performance, Effizienz und ihren
Anwendungsbereichen als Prognose, Prüfung oder Steuerung. Performance bezieht sich dabei auf
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
85
Generalisierungsfähigkeit einer Lernmaschine zufällig ausgewählter Beispiele (Kuhwaja 2002, S. 33f.,
Strecker und Schwickert 2000). Effizienz beschäftigt sich mit der Komplexität einer Lernmaschine in
Raum und Zeit. Hierzu sind bereits einige Ansätze, auch aus der Bilderkennung, bekannt.
• Moghaddam et al. (1998) − Suche in großen Datenbanken
• Govindaraju (2004) beschleunigt den Such- und Erkennungsprozess durch Dynamic Programming and matching character models.
• Belhumeur (1997) optimiert für große Lichtvarianzen durch Lineare Projektion oder Tefas et
al. (1998) durch morphologische “shape decomposition”.
• Schlimmer (1996) unterscheidet Batch-Segmentierung für Massendaten und oder inkrementale Segmentierung für evolvierende, kleine Datenmengen .
Allgemein gesprochen, entspricht Lazy learning dem unüberwachten Lernen, während eager
learning mit einem Zielvektor eher dem überwachten Lernen entspricht. Während die Differenzierung zwischen überwachtem und unüberwachtem Lernen aus der Lerntheorie stammt, lässt sich
Mustererkennung aus technischer und kognitionswissenschaftlicher Sicht in feature-based, bottom-up
und holistische, top-down-Ansätze unterscheiden (Best 1992 und Smyth 1994). Nach Zell (1994) entspricht überwachtes Lernen dem top-down-Mustererkennen. Es basiert auf der Definition eines Zielmusters, auf das hin das System die Eingangssignale und Muster testet.
Damit lassen sich unüberwachtes, lazy- und top-down-Lernen sowie überwachtes, eager- und bottom-up-Lernen zueinander clustern. Ihrem technologischen Reifegrad nach eignen sich Letztere für
bekannte, beschriebene Systeme und werden daher auf Symbolebene im Folgenden kurz beleuchtet.
Erstere lassen sich auf Konzeptebene konnektionistisch und konstruktivistisch beschreiben.
9.2.1
Stochastik und überwachtes Lernen als symbolische Mustererkennung auf
Signalebene
Klassifikation ist für Zell (1994), Schukat-Talamazzini (1995), Kreßel und Schürmann (1995), mathematisch gesehen, eine reine vektorielle Abbildung von Eingangssignalen auf vorgegebene Merkmalsvektoren. Dabei werden die Daten reduziert und in neuer Form codiert, um eine Abstraktion zu
schaffen. Diese feature-based Ansätze erklären Muster aus ihren Einzelteilen und extrahieren spezielle
Bild- oder Gesichtseigenschaften durch eindimensionale Vektorisierung. Computer können keine bildbasierten Inferenzen verarbeiten (Khuwaja 2002, Dreyfus und Dreyfus 1986, S. 54). Als Methoden
werden hierfür das Hidden-Markov-Modell oder ein Abgleich von Eigenschaftsvektoren unter Nutzung des Fourier-Koeffizienten verwendet (Samaria 1994, Hagen 1995).
Die Muster-Entwicklung ist eine Klassifikationsaufgabe und ein stochastischer Prozess. Alle benötigte Information ist in den Verbundwahrscheinlichkeiten zwischen den Merkmalsvektoren (Eingangsinformation) und den erlaubten Klassen (Ausgangsgröße) enthalten. Basierend auf der Entscheidungstheorie entspricht die Klassifikationsentscheidung dann der Minimierung des Gesamtrisikos unter
Berücksichtigung der Kostenmatrix. Die Kostenmatrix beschreibt die Kosten für die Ist-Entscheidung
bei einer Soll-Klasse. Dieser Ansatz führt direkt auf die Rückschlusswahrscheinlichkeiten als optimale
Entscheidungsfunktionen und ist in der Literatur als Bayes-Klassifikator (u.a. Harmann 1995) bekannt. Dieser bedeutet, dass (als kleinstes Risiko) diejenige Klasse gewählt wird, die die größte Rückschlusswahrscheinlichkeit besitzt.
In Ergänzung dazu lassen sich Klassifikationsprobleme wissensbasiert oder durch automatisches
Lernen abbilden. Die Erkennungsrate ist das Maß, an dem sich die Wahl der Technologie messen lassen muss. In komplexen Informationsverarbeitungssystemen ohne hinreichendes Grundlagenwissen
haben statistisch begründete, trainierbare Verfahren größte Erfolgsaussichten.
Als Beispiel des überwachten Lernens stellt Diederich (1989) das Recruitment-Lernverfahren vor.
Im Gegensatz zu ähnlichkeitsbasiertem (forward-propagation) Lernen basiert das RecruitmentLernverfahren auf Instruktion. Für dieses Verfahren wird nur ein Beispiel benötigt, zu dem ungeordnete Einheiten in Beziehung gebracht werden. Es zählt daher zu den höher geordneten Lernverfahren. Es erinnert an die top-down-Methode unter Nutzung generischer Konzepte. Die Methode bietet
eine Strukturiertheit und macht damit das Systemverhalten im Gegensatz zu rein konnektionistischen
86
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Systemen mit hidden layers nachvollziehbar. Nachteilig wirkt sich aus, dass der Zeitpunkt des Lernens vorbestimmt ist.
Die Übersicht zeigt eine Vielzahl an Klassifikationsverfahren. In Bezug auf den Semantic Desktop
und Gnowsis ist zu untersuchen, welche sich in der Kombination mit anderen Verfahren qualitativ,
aber auch in ihrer Performance eignen und durchsetzen können.
9.2.2
Ontology mapping und merging als Mustererkennung auf Bedeutungsebene
Ontologie-basierten Reasoning-Verfahren lassen sich verschiedene Merging-Verfahren zugrunde
legen, wie instance-mapping oder Attributenanalyse (Kalfoglou und Schorlemmer 2003). Die meisten
befinden sich im Prototyp- oder Forschungsstadium. Im MUMIS-Projekt zum Beispiel wird Ontology
merging verwendet, um Informationen Dokument-übergreifend zu extrahieren und eine integrierte und
vollständigere Erläuterung des Multi-media-Materials zu erreichen (Reidsma et al. 2003).
Essentiell beim Ontology merging ist, dass zunächst die Beziehung der beteiligten Ontologien bekannt ist. Diese Gap-/ Fit-Analyse ist Aufgabe des Ontology mappings. Dou et al. (2002) unterscheiden auf dieser Basis dann zwei Merging-Strategien: Überführung von Daten in eine globale Ontologie
(Ontolingua) oder Überführung einer Ontologie in eine klar definierte Ziel-Ontologie (OntoMorph).
Ziel des Ontology mappings ist es, die Korrespondenz zwischen den Ontologie-Konzepten herauszufinden (Dou et al. 2002, S. 12ff. und Elst et al. 2004). Dabei gibt es zwei Arten von matching Algorithmen, die die top-down-/ bottom-up-Logik der vorigen Kapitel auf dieser Abstraktionsebene wiederholt: ontology-based (holistisch) und instance-based (feature-based). Sie unterscheiden sich in ihrer
Fähigkeit, Ontologien zu mappen, wenn Daten nur in einer vorhanden sind. Sie bedienen sich dabei
dreier Methoden: syntactic, structural and semantic matching.
Syntactic or term-based matching konzentriert sich auf Namensähnlichkeiten, wie in CUPID oder
Chimaera oder Protegé’s PROMPT Modul. Es vergleicht für das Matching alle Teilstrings der Länge n
in PROMPT. Die Relevanz ergibt sich dann aus der Anzahl passender Tupel. Beispiel:
„Trend“=“Trend“.
Structural matching berücksichtigt die Ontologiestruktur und analysiert den nächsten Nachbar von
Ontologie-Knoten über Similarity Flooding algorithm (Melnik et al. 2002). Beispiel: Xy ist ein Trend
und wird mit xy=“Trend“ als Begriff zugeordnet und erkannt.
Semantic oder instance-based matching versucht ein matching zwischen Bedeutungen, meist abgeleitet aus den Instanzen der Ontologieklassen oder WordNet-Bedeutungen (Bsp.: Latent Semantics
Indexing method (LSI)). Die meisten gehen aber von einer Master-Ontologie im Hintergrund aus (Kotis und Vouros 2004). Im Semantic Desktop wird hierfür das „vector space model“ im brainfiler der
Firma NextBot verwendet (Salton 1968). Beispiel: XY ist ein Trend und WZ ist eine Entwicklung,
Trend ist begrifflich ähnlich zu Entwicklung. Dann sind XY und WZ = „Trends“
Allgemein gesprochen wird das Subjekt zum Objekt und die Klasse zur Instanz, wenn ein neues
Abstraktionsniveau bezogen wird. In Ergänzung dazu bietet die Formal Concept Analysis die Möglichkeit, neue Ontologien aus bestehenden Instanzen zu erstellen, statt fertige Ontologien zusammenzuführen (Stumme 2001).
Das Mappen von Ontologien als semantische Repräsentation von Konzepten ist wesentlicher Bestandteil einer Kommunikation. Neue Bedeutungen und neues Wissen entstehen durch Verallgemeinerung und Änderung des Abstraktionslevels, meist durch Nutzerinteraktion und in Abhängigkeit der
Rolle und Situation (Dou et al. 2002, S. 14f.). Hypothesen entstehen beim concept mapping durch die
Verbindungen zwischen zwei Konzept-Karten, beschrieben durch ontologische Knotenbeziehungen
(Huang und Beevers 2004, Trochim 1985). Dabei werden Informationsalternativen quantifiziert und
festgestellt, inwieweit ein gemeinsames Verständnis zustande gekommen ist. Der Prozess folgt einem
kontinuierlichen Trial-and-error sowie Verhandeln von Bedeutungen, als Interpretationen, bis ein äußerer Attraktor erreicht ist und dies entsprechend signalisiert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
9.2.3
87
Holistische Ansätze als subsymbolische Mustererkennung auf Konzeptebene
Holistisch bezeichnet einen ganzheitlichen Ansatz. Er zielt darauf ab, Strukturen, Konzepte und
letztlich Perspektiven als Ganzes wahrzunehmen und zu erkennen. Goldstone (1993) verdeutlicht, dass
Kinder die Welt zwar als Ganzes verstehen, aber nicht in differenzierten Konzepten erklären können.
Erwachsene sind hingegen nicht oberflächlich, sondern multi-konzeptionell, zumindest, was ihre
Sprache und damit Repräsentation der Welt angeht.
Neben feature-based-Ansätzen verbessern holistische Ansätze wie Eigenfaces, Fisherfaces oder
neuronale Netze die Trefferquoten bei Gesichts- und Handschrifterkennung. Der Eigenface-Ansatz
von Turk and Pentland in Khuwaja (2002) arbeitet mit der Abstandsoptimierung zu einem trainierten
Zielraum von passenden Gesichtern. Ein neues Gesicht wird damit als passend identifiziert, wenn es
unter einem bestimmten Schwellwert zum Zielraum liegt. Eine leichte Verbesserung kann Belhumeur
in Khuwaja (2002) als Fisherface-Ansatz nachweisen, indem er den Eigenface-Ansatz zusammen mit
Fishers linearen Diskriminante verwendet. Sie erleichtert das Auffinden der Richtung im Datenraum.
Keines der Verfahren berücksichtigt die Erfassung des Kontextes, da das Abstraktionslevel, welches für die Lösung der Situation nötig wäre, nicht auf einen Schlag erfasst werden kann. Wäre dem
so, ließe sich problemlos eine der Erkennungsformen anwenden. Wenn nicht, bedarf es immer einer
Kombination aus beiden: holistische Erkennung bekannter Formen, Modelle und Konzepte und die
darauf aufbauende Kombination und Erschließung neuer Abstraktionsstufen. Durch die Speicherung
und Vergabe von Bezeichnung und Klassifizierung der neu erschlossenen Zusammenhänge können
Lernvorgänge abgebildet und abgespeichert werden.
Alber (2000) nutzt statt dem überwachten Lernen unüberwachte Lernverfahren, um sich dem
Kontext, als subsymbolische Information, zu nähern. Dies basiert auf einem bottom-up- Mustererkennen auf der Basis eines selbstorganisierenden Systems, im Sinne des konstruktivistischen Verständnisses. Es beschreibt das automatische, emergente Auffinden von Clustern durch Vernetzung
und Datenreduktion. Beispiele für unüberwachtes Lernen sind nach Müller (2001, S. 190): Datenklassifizierung, Dichteschätzungen oder Datenbeschreibungen. Allen ist gemein, dass die Datenbeschreibungen fehlen. Ohne symbolische Repräsentation der Datenbeschreibung (label) muss der Basisalgorithmus als Skalarprodukt verfasst werden. Unüberwachte Lernverfahren eignen sich zur Modellierung
von subsymbolischen Situationen, in denen sich im System Veränderungen herausbilden. Schemata
emerging nach Rumelhart et al. (1986, S. 20) kann als ein solches Verfahren genannt werden. Dabei
werden die Schemata nicht als feststehende Gebilde im Gedächtnis gespeichert, sondern sie werden in
der jeweiligen Situation als Instanziierung eines Schemas generiert. Realisiert wird die Vorstellung der Emergenz von Schemata in einem Constraint-Satisfaction-Netzwerk, das einen Ruhezustand zu erlangen sucht. Die stabilen Zustände entsprechen den instanziierten Konfigurationen von
Schemata, welche Goodness-of-fit-Maxima darstellen in einer Landschaft, die einen n-dimensionalen
Raum über die Mikrofeatures bildet. Das System strebt nach einem Harmoniewert, der nach Smolensky (1986, S. 208) „maximally self-consistent“ ist.
Aufgrund der fehlenden feature-Beschreibung könnten sich holistische Verfahren eignen, den Gesamtzusammenhang zu erfassen. Holistische Verfahren basieren auf den Erfahrungen mit Hologrammen (Buttlar 1992). Diese sollten das Auflösungsvermögen von Elektromikroskopen durch eine neue
Technik der photographischen Speicherung verbessern, bei der nicht die Intensität des reflektierten
Lichtes, sondern das Quadrat der Intensität und das Intensitätsverhältnis zwischen einem bestimmten
Lichtstrahl und den benachbarten Strahlen berechnet wird.
Das Besondere am Hologramm ist, dass es in jedem Teil des Hologramms das gesamte Bild in verdichteter Form enthält. Kein Bildteil fehlt, wenn ein Teil der Filmplatte abgeschnitten wird. Das ganze
Bild wird nur in seiner Intensität geschwächt. Pribram zog dazu in Wilber (1982) eine Parallele zwischen diesem Hologramm-Effekt und dem Verhalten des Gehirns, nachdem Menschen, die eine Gehirnverletzung erlitten haben, im Allgemeinen keine bestimmte Gedächtnisspur einbüßen. Nachdem
Probanden aus dem „Schnee-Rauschen“ des Fernsehers Bilder und Muster formten und herausgriffen,
lag der Schluss nahe, dass unser Gehirn die "harte" Wirklichkeit durch Interpretationen von Frequen-
88
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
zen aus einer Dimension, die Raum und Zeit transzendiert, konstruiert. Nach Pribram und Bohn in
Wilber (1982) ist das Gehirn ein Hologramm, das ein holographisches Universum interpretiert. Dabei
unterscheiden sie einen entfalteten und eingefalteten Zustand des Hologramms, der sich mit dem symbolischen und subsymbolischen vergleichen ließe: „Im entfalteten Bereich von Raum und Zeit scheinen die Dinge getrennt und verschieden, im eingefalteten Frequenzbereich, sind alle Dinge und Geschehnisse raumlos, zeitlos, immanent, eins und ungeteilt.“ Auch nach Dreyfus (1986) können
Hologramme, in Analogie zum Geist, Ähnlichkeiten erkennen. Es ist eine zusätzliche Möglichkeit assoziativen Gedächtnisses.
Das holographische Paradigma weist theoretische Parallelen auf und bietet Gedankenansätze für die
Wissensentwicklung im subsymbolischen Bereich auf Konzeptebene. Eine technologische Integration
und Kombination mit semantischen Verfahren konnte bisher nicht identifiziert werden.
9.3
Problemlösung
Basierend auf der Mustererkennung und Repräsentation ist das Problemlösen ein wesentliches Verfahren der künstlichen Intelligenz. Ein Problem ist die Abweichung eines aktuellen von einem erwünschten Zustand der Realität (Horster et al. 1993, S. 10). Zur Problemlösung ist oft eine Entscheidung nötig, die eine Alternative aus einer Menge von Lösungsmöglichkeiten auswählt. Entscheiden
wird zum Kernmerkmal der Problemlösung im Vergleich zur Mustererkennung.
Problemlösen besteht unabhängig von den jeweiligen Anwendungsfeldern aus den Schritten (Pedersen 2004): Informationen erheben, Modellbilden, Prognose und Ergebniskontrolle. Dabei wird schon
auf Verfahren der Mustererkennung zurückgegriffen. Gemeinhin wird das Suchergebnis bereits als
Problemlösung gesehen, wobei Modellbildung, Prognose und Kontrolle unsichtbar vom Nutzer ablaufen. Statt einer Lösungsregel kann auch eine kontinuierliche Steigerung der Ergebnisrelevanz von Suchen zu Problemlösungen führen, sobald entsprechende Schwellenwerte erreicht werden. Problemlösung wäre damit die iterative Suche nach einer Zielgröße.
Problemlösen ist nach Goldstone (1993) ein rationaler Teil des Lernens zum Wissenserwerb. Wissensentwicklung kann dabei als Problemlösung verstanden werden, unabhängig davon, auf welchem
Abstraktionsgrad. Problemlösung ergibt sich durch die Einbettung der intentional entstandenen Klassifizierung in die Situation und den Anwendungskontext. Hierzu bedarf es ggfs. einer Überarbeitung
und Justierung der Abstraktionshierarchie, um erneut Ähnlichkeiten zu gewinnen. Sie ergeben sich auf
den gleichen Abstraktionsstufen, denn Ähnlichkeiten verschwimmen ähnlich der Heissenberg’schen
Unschärferelation, je genauer sie analysiert werden (Goldstone 1993, S. 132.ff.). Im Hinblick auf voriges Kapitel definieren sich Abstraktionsstufen durch die Anzahl der Differenzierungsmerkmale
aus verschiedenen Perspektiven (Goldstone 1993, S. 149). Dies erhöht die strukturelle Komplexität.
Solange die Strukturen überschaubar sind, reicht für ihre Handhabung die euklidische Geometrie
mit einfachen Grundbausteinen und potenzierbaren Kompositionsregeln. Für komplexere Strukturen
und Hierarchien empfiehlt Alber (2000) fraktale Geometrie. Eine fraktale Beschreibung natürlicher
Formen vereinfacht das Problem in dem Sinne, dass die Komplexität von den Kompositionsregeln in
die Grundbausteine selbst verlagert wird. Das Erzeugungsverfahren ist dabei Rekursion. Die Grundelemente müssen je nach Abstraktionslevel und Problemstellung neu abgegrenzt und definiert werden.
Zur Festlegung des passenden Abstraktionslevels muss ein bestimmtes Ähnlichkeitsmaß für alle
beteiligten Konzepte erzielt werden. Abstraktion reduziert Daten und erzeugt Unschärfe. Das Maß an
möglicher Unschärfe könnte sich durch ein Trustlevel oder Reputationsmechanismus definieren lassen
(Luck et al. 2004). Dieser lässt sich durch Zuverlässigkeitstests und Sicherheitschecks bis hin zu Normen und sozialen Strukturen zwischen technologischen Einheiten, wie Agenten, weiterentwickeln.
Entstehen zufällig unbewusst Ähnlichkeiten, bezeichnet Karagiannis (2001, S. 210) diese als Assoziationen. Zur Nutzung müssen sie konzeptualisiert und benannt werden. Ihr Abstraktionsgeflecht
muss als Kontext dargestellt werden. Während das Bewusstsein sequentiell arbeitet, verlaufen unbewusste Prozesse parallel ab. Auch wenn Computer derzeit mit sequentiellen Logiken programmiert
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
89
werden, könnten sie ihre parallele Rechenkraft einsetzen, wie sie bei der Problemlösung im Schach
eindrucksvoll unter Beweis stellen (Herbert 1964).
9.3.1
Reasoning als allgemeines, symbolisches Problemlösen auf Signalebene
Problemlösungsverfahren bilden Analogien durch das Übertragen von Regeln. Die Literatur strukturiert die verschiedenen Reasoning-Ansätze. Ein kurzer Überblick soll Anregungen für die Diskussion
und Einordnung geben, inwieweit diese für eine semantische Suche relevant sind. Nach Herbert
(1964) existieren folgende Arten von Problemlösungen: Means-end analysis, Planning process,
Problem-solving organizations und discrimination trees. Welche Verfahren sich zur Problemlösung
eignen, hängt von der Problemklasse ab:
• Typ der Entscheidung: wie Auswahl einer Lösungsalternative, Auswahl einer Lösung für
Handlungsprogramme oder Abstimmung von Handlungsprogrammen
• Entscheidungssituation: wie Sicherheit, Risiko oder Unsicherheit
• Problemstruktur (Grad der Darstellbarkeit einer Problemstellung): wie Quantifizierbarkeit,
Zielfunktion, Lösungsverfahren, Lösungsdefekte, Wirkungsdefekte, Bewertungsdefekte oder
Zielsetzungsdefekte
• Anwendungsbereich: Suche, Analyse, Synthese oder Prognose
Je nach Ausprägung eignen sich andere Netzwerktypen (Horster 1993, S. 18). Diese lassen sich
gemäß der Verfügbarkeit der Lerndaten, ihrer Inputdatenstruktur, ihrem Bewertungsansatz und der
Netzwerktopologie in drei Schritten den Problemklassen zuordnen (Horster 1993, S. 20):
1. Ableitung eines Netztyps aus dem Problemtyp (Verfahren)
2. Abgleich zwischen Problemstellung und Netztyp (Modell)
3. Lösung des Problems (Initialisierung)
Wulff unterscheidet in Pedersen (2004) verschiedene Formen des Problemlösens: empirisch (induktiv), deduktiv, empathisch und ethisch. Im Vordergrund der technologischen Diskussion stehen
dabei Erstere zwei. Deduktives Schließen schließt nach Schmid (2002) vom Allgemeinen zum Speziellen, während induktives Schließen vom Speziellen zum Allgemeinen leitet. In ihrer technologischen Anwendung manifestiert sich induktives Schließen durch sich selbst generierende Algorithmen
in lernenden Systemen, während wissensbasierte Systeme mit deduktiven Schlüssen arbeiten. Beide
finden ihre Basis in der holistischen (deduktiv) und feature-based- (induktiven) Mustererkennung.
Nach Reidsma et al. (2003) spielen in der Einordnung von Aussagen zeitliche Abfolgen und vergangene Situationen eine Rolle, um zu „schließen“.
9.3.2
Multi-perspective und case-based reasoning als symbolisches Problemlösen
auf Bedeutungsebene
Bedeutung entsteht, prozedural betrachtet, durch den Interpretationsvorgang. Die Interpretation
wird vertreten, wenn sich diese gegenüber dem Problem verifizieren lässt. Abstraktionen bieten Formen für den Umgang mit unvollständigen oder zeitkritischen Daten und ermöglichen damit eine Optimierung der Rechenkosten. Hierfür wird eine Vergröberung und Modellierung durch Weglassen von
Details vorgenommen.
Bestehende Definitionen interpretieren Standpunkte aus ihrem Inhalt, im Sinne von extern handelnde Einheiten bis hin zu mentalen Modellen in einer Domäne. Maiden et al. (1996, S. 158f.) ergänzt dieses Verständnis um den Standpunkt-Halter („owner“) als soziale Komponente zur Unterstützung und als Basis von Kommunikation, Verhandlung und Einigung. Ein Standpunkt kann dabei
unterschiedliche Repräsentationsformen annehmen und besitzt spezifische Charakteristika (Maiden et
al. 1996, S. 160), wie Name und Version, Beziehungen der Owner untereinander oder Prozessanleitung zur Weiterentwicklung des Standpunkts.
Während der Inhalt aus Dokumenten besteht, beinhaltet der Standpunkt vier Modelle: zwei Listen
mit Anforderungen und Annahmen, ein unvollständiges Datenfluss-Diagramm und eine Videoauf-
90
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
zeichnung des Definitionsmeetings. Diese werden in der ConceptBase gespeichert und über Sprache
O-Telos repräsentiert und verarbeitet. Damit ergibt sich die Möglichkeit, sich oder ein Subjekt in die
Rolle eines anderen zu versetzen, sobald die modellhaften Beziehungen untereinander definiert wurden.
In Weiterentwicklung des Multi-Layer Reasoning, wie DynaMol (Leong 1998), werden die Layer
durch Perspektiven, ausgedrückt als Ontologien, ersetzt. Basierend auf einer Ähnlichkeitsprüfung
können ontologische Überlappungen identifiziert werden. Dabei wird ein domänen-unspezifisches
Meta-Modell aus dem Entstehungsprozess genutzt. Die Gemeinsamkeiten dienen als Anker für die
weiteren „Verhandlungen“ im Hinblick auf Assoziationen zwischen Standpunkten. Nach fehlenden Informationen fragt das System. Das beschriebene Modell vermeidet aufwendige Thesauri und Domainmodellierung für jeden einzelnen view und Standpunkt des Objektbereichs. Vielmehr wird die
Sichtweise vom Content getrennt modelliert (Maiden et al. 1996, S. 165).
Standpunkte lassen sich mit Ontologien modellieren. Im rekursiven Dialog zum Problem entsteht
ein Prozess des semantischen Problemlösens. Weick (1985) beschreibt diesen Prozess als fünf Arten
der Interpretation: effectuating (to see what happens – trial and error), triangulating (apply several different measures to depend on perception their confidence-verification), affiliating (compare to already
known features), deliberating (slow and careful reasoning), consolidating (put them in context). Sinn
entsteht ihmnach durch das „Verhältnis eines Wissenssystems zu seinem Handlungssystem“.
Da sich subjektive, standpunktbezogene Strukturen derzeit nur manuell modellieren lassen, könnten
für komplexere Probleme nicht nur Ontologien, sondern, deskriptiv betrachtet, ganze Fälle strukturiert beschrieben und mit Hilfe des Case-Based Reasonings (CBR) genutzt werden. Die Grundlage
von CBR ist der CBR Cycle (Watson 1994). Er beschreibt mit Abbildung 13 in Anlehnung an Aamodt
und Plaza (1994) die Nutzung und Verbesserung bestehender Lösungsfälle für neue Problemstellungen als einen Kreislauf von retrieve, re-use, revise, retain.
Problem
Re
tr
New
case
iev
e
Learned
case
Retrieved
case
New
case
Retain
Prvious
cases
Re
-u
se
Tested,
Repaired
case
Reta
in
Confirmed
solution
Solved
case
Suggested
solution
Abb. 14. CBR Kreislauf
Die Fälle lassen sich im adaptiven CBR anpassen und weiterentwickeln, um eine Problemlösung
und Kommunikation zu ermöglichen (Bergmann 2002). Dafür können Ontologie-Instanzen zu einem
ähnlichen Fall angepasst werden (transformational adaptation), Teilaspekte neu kombiniert (compositional adaptation) oder ganze Lösungsstrukturen auf neue Fälle übertragen werden (generative adapta-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
91
tion). Ein gegebener Fall mit höchster Ähnlichkeit zum Problem könnte als Anker und Basis für einen
induktiven Problemlösungsprozess durch Adaption dienen.
Allen Ansätzen ist gemein, dass das automatische Identifizieren eines geeigneten Abstraktionslevels nicht problemlos realisierbar ist. Nach Smyth und anderen Autoren in Bergmann (2002) wäre die
hierarchical adaptation ein Ansatz in Kombination mit anderen Modellen. Dabei werden Fälle auf unterschiedlichen Abstraktionsebenen abgespeichert und vom allgemeinsten her angepasst, um dann in
iterativer Weise die Veränderungen durch die Abstraktionsebenen hindurchzuziehen.
Eine weitere Herausforderung ist die Repräsentation und vollständige Abbildung komplexer Probleme und Fälle als explizites Transformationswissen in Form von Anpassungsregeln und Anpassungsoperatoren. Bergmann schlägt hierfür einen kompositionellen Ansatz vor, der die Probleme in Teilprobleme untergliedert und inkrementelle Lösungen anstrebt, die sich später wieder zur neuen Lösung
zusammensetzen lassen (Bergmann 2002, S. 233ff.).
Allgemein gesprochen, löst der Adpations Zyklus eine Kombination von constraint-satisfactionProblemen, wie sie aus der prozeduralen Mustererkennung bekannt sind, sowie ein Optimierungsproblem (Bergmann 2002, S. 235f.). Dabei ist weniger relevant, welche Schwachstellen in einem Fall existieren, als vielmehr Anpassungsregeln zu finden, die zu einem optimalen Konfigurationsresultat führen. Hierfür lassen sich zwei grundlegende Ansätze unterscheiden: „Preservation of Consistency“ und
„Temporary Loss of Consistency“. Ersterer beschreibt den Bedarf zur Konsistenz bei jeder Anpassungsiteration. Im zweiten Fall ist der kurzzeitige Verlust der Konsistenz erlaubt, wobei dieser vermerkt wird, um in der finalen Lösung wiederhergestellt oder angepasst werden zu können.
Die Vorteile des CBR sind die schnelle Antwort auf der Basis von Fällen und Konzepten, ohne eine
erneute Herleitung und komplettes Domainverständnis. Als Nachteile dagegen gelten, dass alte Fälle
veralten oder aktualisiert werden und die Treffergenauigkeit sehr stark von den Retrieval-Fähigkeiten
und einer historischen Datenhaltung abhängt.
Interessant könnte CBR für Planungen sein, wo nicht vergangene Fälle im Vordergrund stehen,
sondern zukünftige Situationen oder Zustände als case-based-Planungen erzeugt werden können. Die
Entwicklung von Plänen ist ein wissensintensiver Prozess. Die Erfahrung aus diesen trägt nicht nur Informationen zu semantischen Technologien der Mustererkennung und des Problemlösens, sondern
auch zum Prozess der Wissensentwicklung bei. Frühe case-basierte Planungssysteme zur Planerstellung verwenden nach Bergmann (2002) folgende Module:
•
der Anticipator sagt Planungsprobleme vorher.
•
der Retriever durchsucht das Plangedächtnis nach Plänen.
•
der Modifier verändert den gefundenen Plan.
•
der Repairer liefert eine kausale Erklärung und repariert den Plan.
•
der Assigner verwendet die kausale Erklärung, um die Merkmale festzuhalten, aus denen sich
der Fehler zukünftig vorhersagen lässt.
• der Storer speichert die neuen Pläne im Gedächtnis.
Sie können hilfreiche Ansatzpunkte für einen Rahmen der Wissensentwicklung sein.
9.3.3
Agent-based solving als subsymbolisches Problemlösen auf Konzeptebene
Deklarativ betrachtet, soweit Subsymbolik symbolisch zu fassen ist, eignet sich die Linguistische
Analyse (Magnini et al. 2002). Sie identifiziert automatisch mit Hilfe des Natural language processing (NLP) Textbausteine und Begriffe und ordnet ihnen lexikalische Formen und Kategorien zu. Der
Baustein wird funktional in seine Sprachstruktur zerlegt (vgl. als Beispiel www.askjeeves.com). Es interpretiert die Bausteine im Sinne ihrer Bedeutung und Synonyme (semantisches Netz) mit Hilfe von
WordNet. NLP verwendet dabei zwei Stufen der Analyse: linguistisch, semantisch und ihre „Optimierungen“.
92
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Prozedural gesehen, eignen sich Agenten für diese Aufgaben. Mit der Erstellung von Konzepten im
Hintergrund ist es agentenbasiertes Problemlösen (Koriche 1998). Es besteht aus Verstehen, Denken
und Annähern. Agenten können sagen, ob eine Aussage die logische Konsequenz seiner Wissensbasis
ist oder ob alle allgemeingültigen Interpretationen dieser Aussage für die Wissensbasis gelten. Aus der
Vielzahl an Entscheidungsmöglichkeiten bei unzureichender Information soll der Agent beim Decidable Reasoning den Teil wählen, der die höchste Übereinstimmung aufweist.
„Agent“ is ein viel verwendeter Begriff, der selbst ein Beispiel für die Mehrdeutigkeit eines Konzepts in unterschiedlichen Kontexten ist. Lexikalisch gesehen, ist ein Agent jemand, der im Auftrag
eines anderen tätig wird (Burkhard 2003). Er ist fähig, eigenständig (autonom) Aufgaben durchzuführen, die zur Lösung einer Aufgabe notwendig sind. Er ist adaptiv, intelligent und mobil (Stormer und
Knorr 2001). Autonomie entsteht, wenn sein Verhalten auf eigener Erfahrung beruht. Er ist eine technologische Repräsentationsform, die bestimmte Verfahren anwenden und ausführen kann. In ihrer
Kombination zu Agenten-Systemen nutzen Agenten weitere Kombinationsmöglichkeiten und ermöglichen die Lösung komplexere Aufgaben, wie Planung, Prozesskontrolle, Produktionssteuerung, Luftverkehrskontrolle, Informationsmanagement, E-commerce (Verhandlungen) oder Business process
management (Merk 2001).
Aus informationstheoretischer Sicht unterscheiden sich Agenten von Objekten durch die fehlende
Kontrolle von Objekten über ihr eigenes Verhalten. Agenten kapseln mehr Freiheitsgrade (Wagner et
al. 2003). Sie besitzen somit die Autonomie, eine geforderte Leistung entsprechend ihrer aktuellen Situation zu erbringen, indem sie Lösungsvarianten gegeneinander abwägen.
Agenten reichen nach Luck et al. (2004) von reaktiven über hybride bis hin zu deliberativen Agenten, die sich hinsichtlich ihres Autonomiegrades unterscheiden. Nach Wagner et al. (2003) sind wesentliche Elemente von Agentensystemen die Interaktion von Agenten und agenteninternen Abläufen.
Hierfür existieren agentenorientierte Programmiersprachen, Klassenbibliotheken, Entwicklungsumgebungen wie Gaia, agentTool, Passi oder Jess, Laufzeitumgebungen und Agentenarchitekturen. Agenten werden für eine konkrete Aufgabenstellung und Problembeschreibung entwickelt. Damit wird
die Intention (Rolle(n)) und Situation (Prozess(e)) bis zu einem gewissen Grad extern vorgegeben. Es
wird deduktiv ein Modell (Funktionsspezifizierung, Systemstruktur und -verhalten) designed, um es in
kleine Einheiten (Agenten) zu zerlegen. Durch Abstraktion lassen sich Konzepte erstellen, die über eine Strukturierung in Hierarchien und Beziehungen als Interaktionsmodelle wirken.
Nach Dodero et al. (2002) ist der Austausch von Vorschlägen in einer gemeinsamen Sprache und in
Abhängigkeit der Ziele und Bedürfnisse beteiligter Agenten Mittel der Interaktion. Fishburn basiert
diese in Dodero et al. (2002) auf Beziehungspräferenzen, Werte, Issues und auf die Speicherung von
Entscheidungszuständen zur Nachverfolgung der Entscheidung. Darin spielen Hierarchien von Agenten, vorherige Zielerfüllung oder Erstellungszeitpunkt von Vorschlägen eine Rolle, um die Relevanz
einzuschätzen. Sie lässt sich aus diesen Faktoren als Funktion modellieren und optimieren.
Diese Form wendet Heutte (2004) in einem Multi-Agenten-System an, um Bilder zu klassifizieren.
Srinivas und Wechsler nutzen in Khuwaja (2002) eine hybride Architektur für forensische Klassifizierung von Bildern und Zhang and Flucher nutzen in Khuwaja (2002) einen Baum von neuronalen Netzen. Möglichen Geschwindigkeitseinbußen begegnet Heutte durch einen gemeinsamen Speicher.
Gruppierung der Agenten ermöglicht eine spezifische Behandlung auf verschiedenen Interpretationsstufen. Die Programmierung in KQML erlaubt eine Installation auf unterschiedlichen Computern und
damit ein vernetztes Arbeiten.
Mit den unterschiedlichen Gestaltungs- und Ausprägungsmöglichkeiten, die MAS bieten, entsteht
eine große Vielfalt an Anwendungsmöglichkeiten, (Elst et al. 20004):
• funktional nach Aufgabe (Informationsauswahl, Schnittstellenmanager, Decision support, simulation, Kontexterstellung, Telekommunikation, statische Optimierungsprobleme, Dokumentenvorschläge),
• inhaltlich (e-business, Supply chain Information, etc.)
• technischen Eigenheiten, wie
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
o
o
o
93
Architekturdesign - rein reaktiv, Nutzung von Agentenzuständen, etc.,
konkrete Architektur - belief-desire-intention oder schichtenbasiert,
spezielle features - Mobilität, Interaktion mit Menschen, Anpassungsfähigkeit, Zusammenarbeit, etc.
Allen ist ihr Streben nach Prozessoptimierung gemein. Nach Elst et al. (2004) sind wesentliche
Herausforderung für Informationsagenten weniger die Retrievaltechniken als vielmehr die Sensoren,
die den Kontext aufnehmen, und die Funktionen, die die Ausgabeform der Information steuern. Sie
geben einen ausgezeichneten Überblick über die Landschaft von Multi-Agentensystemen in der Gliederung nach Agentenähnlichkeit.
Homogene Ansätze beinhalten für sie Agenten, die einer gemeinsamen Klasse angehören, wie
Matchmakers. Darüber hinaus haben sie Agenten, die Nutzern helfen, Informationen nicht nur zu nutzen, sondern auch bereitzustellen, und miteinander (kontext-basiert) zu kommunizieren. Als Beispiele
mit entsprechendem Literaturverweis führen die Autoren an: Kazaa, Edutella, Ed2K, MARS, DIAMS,
CAPIAs (Context–Aware Personal Information Agents).
Auch wenn homogene Agentensysteme nach Elst et al. (2004) ein guter Hebel für Informationsagenten sind, basieren sie nicht auf Agentenplattformen und konzentrieren sich im Wesentlichen auf
eine KM-Aufgabe (Informationsvorschläge und Interaktionsunterstützung). Sie erreichen zwar eine
Umorientierung vom Produktfokus auf einen Prozessfokus der Applikationen, sind aber nicht ausreichend, um komplexe Wissensdomänen zu managen. Hierfür ist eine Kombination aus globaler, organisationaler und individueller Perspektive und ein autonomes Entscheidungsverhalten notwendig.
Heterogene (Multi-)Agentensysteme, wie KaoS, versprechen nach Elst et al. (2004) Abhilfe, indem sie Agenten unterschiedlicher Klassen (unterschiedliche Ziele und Kompetenzen) miteinander
kombinieren. Dabei können einerseits mehr Perspektiven oder andererseits mehr Systemfunktionalitäten modularisiert und repräsentiert werden. Sie bedienen sich auf Ebene der funktionalen Softwarearchitektur des bekannten Drei-Ebenen-Modells: Daten- Applikations- und Präsentationsebene (Elst et
al. 2004). Für die meisten dieser Systeme steht der Knowledge re-use im Vordergrund.
Merk (2001) unterscheidet logik-basierte (deliberativ) und reaktive (verhaltensbasiert, emergent)
Agenten-Architekturen. Logik-basierte, wie PROLOG, bieten eine klare logische Semantik, besitzen
aber eine schlechte Performance wegen inhärenter Berechnungslogiken. Reaktive Architekturen besitzen eine strukturelle Einfachheit und Effizienz, lassen sich aber schwer vorhersagen und mit Lernkonzepten versehen. Sie erlauben im Unterschied zu deliberativen (planend, feed-forward) neuen Informationen die Handlungen kontinuierlich zu beeinflussen und zu übernehmen. Sie sind opportunistisch
und ungeplant.
Bryson (2000) differenziert reaktive Architekturen als verhaltens-basierte, zwei- oder dreischichtige
Systeme mit reflective, deliberative und reactive level, Belief-Desire-Intention (BDI) und SoarArchitekturen.
Kernherausforderungen im Design von Agenten ist die Transformation der Wahrnehmung in eine
hilfreiche mentale Repräsentation gewünschter Handlungen und diese in die eigentliche Handlung.
Verhaltens-basierte Systeme gehen davon aus, dass sich intelligentes Verhalten nicht aus dem Denken ableiten lässt und daher die Konzentration auf diese beiden Transformationen ausreichend ist
(Bryson 2000). Sie sind modular aufgebaut und damit abhängig von einer hierarchischen Steuerung.
Hierarchische Systeme transformieren Wahrnehmungen und Intentionen in einen Abfolgeplan von
Handlungen unabhängig von seinem Ursprung (Erfahrung, Kreativität, Instinkt, etc.). Externe Eventualitäten lassen sich hierüber schwer vorhersehen und abbilden.
BDI-Architekturen (Belief-Desire-Intention) definieren, welche Ziele wie erreicht werden sollen
(Merk 2001). Beliefs sind dabei aus der Agentensicht wahre Umweltinformation. Desires sind Optionen, die ein Agent hat, um die Ziele zu erreichen, die als Intentionen bezeichnet werden.
94
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Soar unterscheidet sich von den beschriebenen Systemen durch eine stark verteilte Kontrolle in
Produktionsregeln. Diese sind fast ausschließlich reaktiv. Sein aufwändiger Programmierüberbau beschert Soar ein Nischendasein als eine spezialisierte Form von Lernsystem.
Zusammenfassend zeigt sich, dass Auswahl seiner Aktionen ein wesentliches Merkmal reaktiver
Agenten für komplexe Aufgaben und ein parallel arbeitendes „environment monitoring system“ für
Agenten in dynamischen Umgebungen sein müssen.
Kernproblem von reaktiven Systemen ist, dass sie kein Gedächtnis besitzen und jede Information
daher eine Reflexion der aktuellen Umgebung ist. Ohne Gedächtnis kann ein Agent nicht lernen order
vorausschauend planen. Das Gedächtnis unterstützt dabei die Bewertung von mehrdeutigen Informationen und ist damit Basis einer entsprechenden Differenzierungsfähigkeit.
Mehrschichtige und hybride Systeme kombinieren die verschiedenen Ansätze. Malcolm kombiniert ein verhaltensbasiertes System mit einem hierarchischen Planungssystem als zweischichtiges
System. Dreischichtige Systeme nutzen eine Mittelschicht, die Planelemente als „implizites Wissen“
im Gegensatz zum expliziten Lösungswissen beinhaltet. Diese Mittelschicht wird meist als reaktiv betrachtet, da sie selbst keine eigenen Pläne entwickelt, sondern nur situationsbedingt selektiert. Modularität ist bei diesen Schichtenmodellen auf die untere verhaltensbasierte Ebene beschränkt. Offen ist,
wie Repräsentationen zwischen den verschiedenen Schichten verschoben und genutzt werden
können.
Während die Robotik dreischichtige Modelle bevorzugt, scheint sich in Agentenarchitekturen das
Procedural Reasoning System (PRS) und Reactive Action Packages (RAP) für die Mittelschicht
durchzusetzen (Georgeff und Lansky 1987, Firby 1987). RAP erlaubt die Erzeugung reaktiver, flexibler und situationspezifischer Pläne.
PRS besteht aus vier Ebenen, die durch einen Übersetzer verbunden sind, der Wahrnehmung, Handlung und logisches Denken steuert. PRS behebt Probleme traditioneller Planungsarchitekturen, wie die
Erstellung eines vollständigen Plans vor der Handlung, da vorher nicht geklärt werden kann, inwieweit
er „viable“ ist (Glasersfeld 1995). Meist werden die Pläne rückwärts, vom Ziel ausgehend definiert.
Die Schwierigkeit ist, Pläne während der Handlung zu verändern oder verschiedene Ziele, wie Planen
und intuitives, reaktives Handeln, gleichzeitig zu verfolgen.
PRS erwiesen sich in der Praxis als einfacher zu programmieren und bieten vordefinierte PlanDatenbanken und spezialisierte Priorisierungsmechanismen für die Aufmerksamkeit von Agenten.
9.4
Zwischenfazit
Mit der Übersicht und Darstellung ausgewählter Technologien in den jeweiligen Klassen der Künstlichen Intelligenz ergeben sich folgende Erkenntnisse als Antworten auf die Forschungsfrage F-5,
welche Verfahren sich am besten für den Umgang mit Wissen eignen.
Die Antworten beziehen sich dabei auf die Eigenschaften von Wissen und erklären, wie sich die
Hebel der Wissensentwicklung technologisch abbilden lassen. Im zweiten Schritt werden die technologischen Ansätze mit möglichen Verfahren aus der Diskussion detailliert. Eine Auswahl und Einordnung der verwendeten Technologien erfolgt dann in den Folgekapiteln anhand des Semantic Desktops
und Gnowsis.
Eigenschaft von
Wissen
Hebel der
Wissensentwicklung
Technologische Ansätze und Hebel
Erst die Abbildung durch prozedurale Verfahren ersetRekursivität und
zen den Explizierungsaufwand und erlauben systemimLernen
manente Lernprozesse.
Technologische Verfahren werden in deklarative und prozedurale Verfahren unterschieden. Im
Hinblick auf den Modellierungs- und Redaktionsaufwand erfordern deklarative Verfahren einen gröVergänglich, konstruktiv (A-5.1.1)
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
95
ßeren Explizierungsaufwand. Prozedurale Verfahren benötigen einen höheren Qualifizierungsaufwand in der Beschreibung, da mehr Intelligenz in das Verfahren verlegt wird.
Manche Verfahren dienen dazu, den Aufwand für die Modellierung von deklarativen Verfahren zu reduzieren, wie z.B. Ontologie-Extraktoren für die Erstellung von Ontologien. Sie verbessern zwar das
Aufwand-Nutzen-Verhältnis, reduzieren aber den Grundaufwand nicht.
So lässt sich, deklarativ gesprochen, die Vergänglichkeit in der Praxis durch ein Verfallsdatum von
Wissensobjekten addressieren. Prozedural gesehen würde ein konstruktivistisches, rekursives Verfahren dies implizieren und ein Ergebnis immer wieder neu ermitteln. Dieser immer wieder neue Ermittlungsaufwand wirkt negativ auf die Performance.
Eigenschaft von
Wissen
Hebel der
Wissensentwicklung
Technologische Ansätze und Hebel
Eine systemimmanente Identifikation der Subsymbolik erviabel,
Umgang mit Subkontext-spezifisch
scheint erst mit Ansätzen auf der Konzeptebene realisymbolik
(A-5.1.2)
sierbar.
Deutlich wurde die Bedeutung der Abstraktion und Ähnlichkeit zur Einbettung von Informationen in
den Anwendungskontext. Dabei wird zwischen deduktivem und induktivem Vorgehen unterschieden. Im deduktivem Vorgehen müssen subsymbolische Konzepte in der Modellierung expliziert werden. Induktiv müssen diese systemimmanent zugänglich gemacht werden.
Ontologien machen diese als Klassifizierungen technologisch nutzbar. Sie erschließen die Bedeutungsebene im Rahmen der Repräsentation und Mustererkennung über semantische Beschreibungssprachen in Ergänzung zu statistischen Verfahren auf der Signalebene. Mit Hilfe verschiedener Formen des ontology mappings lassen sich diese für die Mustererkennung im Rahmen des Information
Retrievals nutzen.
Eigenschaft von
Wissen
Hebel der
Wissensentwicklung
Technologische Ansätze und Hebel
Intention ist neben Kontextfaktoren ein Relevanz- und Entscheidungskriterium und kann durch ontologische Mustererkennung als Näherung in Problemlösungsverfahren berücksichtigt werden.
Die bisherige KI konzentrierte sich auf die Ebene der Symbole. Semantische Technologien erlauben zum einen die Erfassung durch ontologische Repräsentation, zum anderen die Verarbeitung
durch ontologische Mustererkennung auf Bedeutungsebene. Semantische Verfahren bieten aufgrund ihrer symbolischen Basis nur eine Näherung, die helfen kann, subsymbolische Prozesse besser
zu verstehen, ohne sich auf „black boxes“ verlassen zu müssen. Sie helfen, komplexere Zusammenhänge verarbeitbar zu machen. Noch benötigen sie eine Modellierung aller relevanten Perspektiven,
wie der Intention des Betrachters mit seinen Zielen, Aufgaben und Kompetenzen. Folge ist eine
mehrdimensionale Verschlagwortung durch strukturierte Meta-Daten.
subjektiv
(A-5.1.3)
Berücksichtigung der
Intention
Konzepte beschreiben subsymbolische Phänomene, die weniger als symbolische, sequentielle Beschreibung zu fassen sind, sondern als simultane Gleichgewichtsprozesse wie Zustände bestehen. Sie
zerfallen durch eine Beobachtung oder Bewusstmachung und erneuern sich ständig. Eine Modellierung dieser könnte sich dem in der Wissenstheorie geforderten re-entry nähern und ständig neue Begriffsmutationen anbieten (Edelmann und Tononi 2000). Die Differenzierung nach Abstraktionsebenen
verdeutlicht in eigener Darstellung mit Tabelle 12, dass sich semantische Verfahren subsymbolischen,
konzeptionellen Phänomenen nur simulativ nähern können.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
96
Tabelle 12. Mögliche Verfahren zur Realisierung der technologischen Hebel
Zuordnung
Zu A-5.1.1
Technologischer
Hebel
Verbesserung von deklarativen Verfahren
durch Explizierungshilfs-mittel
Mögliche Verfahren
•
•
auf viele Personen)
•
Vergänglich, konstruktiv,
Rekursivität und
Lernen
Zu A-5.1.2
viabel,
kontextspezifisch
Ersatz durch prozedurale Verfahren
Höhere Abstraktionsebenen technologisch
nutzbar machen durch
Beschreibung und
Repräsentation von
Konzepten
Umgang mit Subsymbolik
Integration und Kombination von Musterkennung und Problemlösungsansätze
Zu A-5.1.3
Subjektiv,
Berücksichtigung
der Intention
Verfallsdaten mit Bearbeitungsworkflow
Unüberwachtes Lernen und schemata emerging
könnten in Erweiterung zu bekannten stochastischen,
überwachten Verfahren mit Hilfe von ConstraintSatisfaction-Netzwerken bottom-up-Entwicklungen
simulieren und unterstützen. Damit ginge man von
einem rein konstruktiven, sich ständig erneuerndem
Modell aus.
Deklarativ (direkt) durch semantische Beschreibungssprachen wie RDF(S) oder OWL auf XMLBasis und Ontologien
Deklarativ (indirekt) durch Repräsentationsnetze,
wie Neuronale Netze
Prozedural durch Abbildung des Personal Information Models als Repräsentation mentaler Modelle
Deklarativ (direkt)
• Heuristiken, Regeln, wie Explizierung der Ziele in der
deduktiven Wissensentwicklung
•
•
Annäherung durch Simulation und Nutzerfeedback
Erstellungshilfen für Ontologien Automatisierung
Crowdsourcing (Verteilung des Redaktionsaufwands
Nutzerfeedback über Ergebnis-Layout
und Navigation
Case-based Reasoning
Deklarativ (indirekt)
Die Rolle eines Nutzers könnte im Prozess ein Zwischenschritt sein, die Intention zu erfassen und damit
automatisch zugänglich zu machen. Über Peer-2Peer Ansätze könnte das Zusammenspiel und die
Kommunikation der Akteure simuliert werden und
damit eine Erfahrungsbasis für Agentenarchitekturen darstellen.
Prozedural
Nutzung von multi-perspective resoning Ansätzen,
die über Verhandlung der Standpunkte zu Aussagen
kommen. In Weiterentwiclung können Agenten diese
Standpunkte repräsentieren und wie Individuen agieren. Manuell ließe sich ihnen eine Perspektive und Intention in Form von Prinzipien, Werten geben, um
den subjektiven Charakter von Wissen zu repräsentieren.
Diese Verfahren erschließen die Konzepte in Form von Ontologien aus dem Nutzerkontext, während Metadaten manuell expliziert werden. Die Intelligenz liegt bei Metadaten außerhalb des Systems
beim Knowledge Engineer.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
(A-5.2)
97
Die technologischen Hebel nutzen Repräsentationen mentaler Modelle.
Die verwendeten deklarativen Verfahren werden derzeit auf Bedeutungsebene noch nicht durch
prozedurale ersetzt. Um eine manuelle Modellierung zu umgehen und den Redaktionsaufwand zu verringern, nutzen diese Hilfsmittel automatische Ermittlung durch Nutzerbeobachtung und OntologieAutomatisierung als Repräsentanten mentaler Modelle.
Menschen sind immer auch eine Fehlerquelle. Semantische Verfahren erlauben mit der automatischen Ermittlung die Vermeidung von Fehlern bei der Indexierung und damit eines Informationsverlusts bei der Recherche. Die dynamische Integration vermeidet die kontinuierliche Verwaltung der
Terminologien und deren Kosten. Es erlaubt eine Konsistenz in den Bezeichnungen, so dass nicht unterschiedliche Anwendergruppen unterschiedliche „Sprachen“ nutzen, die wieder zu Verständnisschwierigkeiten führen.
Aber auch automatisierte Lösungen bergen Schwierigkeiten. Ihre Grenzen liegen in der unzureichenden Fähigkeit, mit Komplexität umzugehen. Sprachliche Vielfalt ist zu hoch oder Termmenge
ist zu niedrig, um die Sachverhalte performant und in guter Qualität abzubilden und auszuwerten. Die
Zuordnung sprachlicher Ausdrücke zu ihren Bedeutungsinhalten ist unzureichend oder es fehlen begriffliche Relationen in der Lexikalisierung von Paraphrasen.
Die vorgestellten Verfahren wirken wie Spezialbausteine, die jedes für sich spezifische Herausforderungen der Repräsentation, Mustererkennung oder Problemlösung addressiert. Sie decken das
Spektrum von symbolischen, statistik-geprägten bis hin zu subsymbolischen, holistischen Ansätzen
ab. Ersteren mangelt es an Subjektivität, Letztere scheinen den Kontext zu erfassen und damit die Viabilität zu addressieren. Sie beinhalten auch differenzierte Sichtweisen und Formen der Verhandlung
zur Konstruktion eines neuen Zustandes. Sie lassen aber die Vergänglichkeit unberücksichtigt und arbeiten derzeit noch auf Informations- und Datenbasis statt auf Konzepten. In Summe zeigt sich, dass
kein Verfahren oder keine Technologie es vermag, die Herausforderungen alleine zu lösen.
(A-5.3)
Die Verfahren wirken in ihrer anwendungsspezifischen Kombination.
Kernfrage der technologischen Unterstützung im vorliegenden Fall ist die Informationsrelevanz,
die im Anwendungsbezug als Wissen Wert stiften kann. Relevanz ist ein relativer Begriff, dessen Aussagekraft sich erst in Bezug auf etwas ergibt, hier dem Template eines Management Summaries. Die
Rolle der Prozessakteure könnte, wie im Beispiel illustriert, eine wichtige Rolle spielen. Fraglich ist,
ob diese die Subjektivität von Wissen und die Standpunkte aus der Technologiediskussion repräsentieren kann (F-5.3.1). In diesem Falle könnte über sie das Modell der Intention in die Diskussion und Technologien eingebracht werden.
Folgendes Kapitel stellt bestehende Applikationen zur Abgrenzung und Einordnung kurz vor und
zeigt die Probleme auf. Daraufhin wird mit der semantischen Suche im Semantic Desktop eine neue
Kombination von Technologien in ihrer Wirkung auf die Informationsrelevanz untersucht. Dabei soll
im Hinblick auf die nächste Forschungsfrage (F-6) herausgearbeitet werden, inwieweit die semantische Suche (Gnowsis) des Semantic Desktops leistungsfähiger und intelligenter als bestehende Suchen
im Rahmen des betrieblichen Wissensmanagements sind. Auf dieser Basis soll zudem die neu aufgeworfene Frage (F-5.5.1) untersucht werden. Mit den Erkenntnissen lässt sich der Beitrag des Semantic
Desktop im Sinne der Forschungsfrage (F-7) bestimmen und einordnen.
98
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
99
10 Semantic Desktop im Applikationsumfeld
Aus Applikationssicht bieten auch Proposal Automation Tools, Recommendersysteme oder Content- und Wissensmanagement Tools einen Rahmen für den betrieblichen Umgang mit Informationen.
Sie kombinieren bereits verschiedene Technologien und machen sie für den betrieblichen Einsatz nutzbar.
Sie bilden den Umgang mit Informationen im Sinne des Contententwicklungs- und -pflegeprozesses
ab, vernachlässigen aber die Einbindung in die Geschäftsprozesse. Sie sind nach wie vor auf ein manuelles Design im Vorfeld der Anwendung angewiesen.
10.1 Wissensmanagementsysteme (WMS) und Portale
Informationssysteme für das Wissensmanagement sind nach Riempp (2004) WMS. Sie sollten
leichten Zugang zu gemeinsamen Dokumenten und Lessons learned bieten, ohne eine reine Dokumentenablage zu werden. WMS beziehen sich auf explizite Wissensobjekte, die gerne durch explizite Verbindungen mit Links für die Navigation verbunden werden (Document linkage systems). WMS existieren als argument management systems. Sie versuchen, komplexe Diskussionen und
Entscheidungen zu visualisieren und zu verbessern. Beide erfordern ein hohes Maß an Pflegeaufwand
und bedürfen meist extensiver Suchtechnologien, um der Informationsflut Herr zu werden.
WMS unterstützen Mitarbeiter bei der Ausführung von WM-Prozessen und integrieren Technologie, Prozess und Anwenderaktivitäten. Sie unterstützen Transparenz, Austausch, Steuerung der Wissensentwicklung und Effizienz. Aus prozessualer Sicht bieten sie Inhalte, Kompetenz, Zusammenarbeit und Orientierung (Riempp 2004, S. 132f.).
WMS lassen sich nach unterschiedlichen Kriterien klassifizieren. Nach Maier (2002, S. 220ff.)
abstrakt nach der Wissensart oder des Contents (Produktwissen, Patente, best practices, FAQ, community directory), eng gefasst nach ihrer Funktionalität oder konkret nach der Aufgabe. Weiter unterscheiden sie sich nach Riempp (2004, S. 144) in ihrer Realisierung gemäß der Zielgruppe: Individuum (Content-Management), Gruppe (Community) oder Organisation (Portal) oder ihrer
Funktionalität: Portale, Community System, wissensintensives Prozessmanagement oder Kreativitätswerkzeuge.
Drei wesentliche Quellen für WMS-Architekturen finden sich ebenfalls bei Maier (2002): Theoriegetrieben (Organisational memory), Markt-getrieben (praktische Integration von Daten und Dokumenten Management System), Hersteller-spezifisch (white-paper-basiert). Maiers (2002, S. 196f. und
2005) Architekturvorschlag bettet WMS in die Systemlandschaft als Middleware ein. Sie lassen sich
als personen-, organisations- oder wissensproduktgebundene Instrumente differenzieren
Wissensportale bieten einen Single point of access und über reine Contentsammlungen hinaus
Sinnzusammenhänge, um Informationen zu finden. Sie erlauben den Zugang zu unterschiedlichen Informationsquellen, kontinuierlichen Zugriff auf neue Informationen basierend auf Nutzerprofilen.
Hierfür haben sich eigene Applikationen etabliert (Plumtree, Hummingbird, etc.), deren Art und Umfang (Wissensteilung, Wissenssuche, Wissensaufbereitung (Retrieval, Agents, Groupware), Wissensbasis (DMS, Archivierung, Imaging), Wissenslandkarten) die Meta-Group als Enterprise Information
Portals bezeichnet (Koriche 1998) .
Eine besondere Form eines WMS ist das Corporate Memory (Aschoff und v. Elst 2001). Es bezieht die abstrakte Definition auf das im Unternehmen verfügbare Wissen mit ein. Es entwickelt sich
zunehmend weg von einem personen-unabhängigen System hin zu einer Interaktionsplattform zur Erstellung und Nutzung von Wissen.
Dennoch bleibt fraglich ist, wie und welches Wissen gespeichert werden kann. Letztlich können nur
Informationen, wie Content, Meta-informationen, Konzepte, Regeln oder Beziehungen gespeichert
werden.
100
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
10.2 Proposal Automation Tools
Zur Verbesserung der Unterstützung der Angebotsentwicklung gibt es bereits einige enabling applications, wie Proposal Automation Tools – PAT − (Wilson 2001). Sie entwickeln Standardangebote,
indem sie Text- und Grafikelemente auf der Basis von vorgegebenen Angebotsstrukturen miteinander verbinden. Sie stützen sich dabei auf Portfoliodefinitionen und vordefinierte Argumentationen.
Sie können aufgrund ihres manuellen Vorgehens als Content-Applikationen betrachtet werden. Siemens IT Solutions und Services (SIS) verwendet ähnliche eigenentwickelte Anwendungen, die darüber hinaus eine Standardkalkulation und Preisermittlung unterstützen. Sie tragen zwar zur Vereinfachung des Angebotsprozesses bei, aber bisher nicht zur Reduzierung des Redaktionsaufwands.
Hierfür müssten sie Technologien und Verfahren anwenden, die mit höheren Komplexitäten umgehen können. Denkbar wäre ein Management Summary als einen case aufzufassen und mit case-basedreasoning-Verfahren zu arbeiten.
Aufgrund der Aufgaben- und Informationskomplexität unterstützen PAT zwar, ersetzen aber
noch keine wissensintensiven Prozesse und machen noch keinen Gebrauch von den beschriebenen
Funktionen. Sie bedürfen heute einer aufwendigen Spezifizierung und vernachlässigen wichtige Kontextinformationen, wie Kundenprioritäten oder Geschäftsumfeld des Kunden. Sie unterstützen daher
noch keine Entwicklung von Value propositions, wie Kostenreduzierung für Antworten auf Kundenanfragen, oder Solution Szenarios, wie Lieferung eines globalen Help-Desk und Prozess-Redesign
statt Verkauf von Suchfunktionalitäten.
10.3 Recommendersysteme
Recommendersysteme geben Endnutzern Produkt- oder Serviceempfehlungen und bilden selbst einen wissensintensiven Prozess ab. Mit ihrer Funktionalität können sie eine aktive Prozessunterstützung für wissensintensive Prozesse sein.
Adomavicius und Tuzhilin (2005) unterscheiden in ihrem Literaturüberblick zu content- und collaborations-basierten sowie hybriden Empfehlungsansätzen heuristisch- und modell-basierte Empfehlungstechniken. Brand-Haushofer (2005) differenziert nach dem Einsatzfeld in Vorschlagssystemen,
Selling-Systemen und Systemen zur Kundenkommunikation. Terveen und Hill (2001) unterscheiden
als Ansätze content-based, collaborative-filtering, reccomendation support und social data mining.
Sie basieren alle auf Informations-Filteringsystemen und stellen Technologien aus der Prozesssicht
dar. Im weiteren Sinne umfassen Recommendersysteme damit individualisierte und nichtindividualisierte Systeme. Damit würden sie Formen einer Suche einschließen. Im engeren Sinne unterscheiden sich beide durch den Grad der Profilnutzung. Recommendersysteme weisen eine hohe
Personalisierung auf. Im Hinblick auf den Semantic Desktop verschwimmt diese Grenze aber zunehmend. Runte (2000) unterscheidet weiter in eigenschaftsbasierte und empfehlungsbasierte Systeme.
Erstere leiten die Empfehlung feature-based aus den Objekteigenschaften ab, während Letztere über
collaborative filtering Peer-Gruppen einbeziehen.
In diesem Sinne stellt der Semantic Desktop ein Hybrid dar. Er nutzt beide Denkrichtungen, wobei er die Empfehlungen anderer user automatisch aus deren Eigenschaften, sprich Personal Information Models (PIMO), ableitet. Langfristig werden semantische Suchen so vielleicht Vorschläge zu relevanten Textbausteinen in Abhängigkeit der value proposition, Kundensituation und
Vertriebsstrategie machen können. Semantik ergänzt in jedem Fall bestehende Filter-Algorithmen und
verbessert damit die Recommendations und Recommendersysteme.
10.4 Semantic Desktop
Der Semantic Desktop ist ein Artefakt und Tool basierend auf semantischen Technologien im Kontext des Semantic Web (Dengel 2007). Er kombiniert individuelles Informationsmanagement mit sicherer Informationsverteilung in vertrauensvollen Community-Umgebungen. Er macht Technologien
des Semantic Web für den Desktop nutzbar (Sauermann 2003 und Sauermann et al. 2005) und stellt
semantische Services für Collaboration und Community building bereit (Dengel 2007). Dafür kombiniert er verschiedene technologische Bausteine, wie Algorithmen, Schnittstellen oder Ergebnisdarstellungen und ergänzt sie um einen peer-to-peer-Ansatz.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
101
Die Entwickler und Autoren Sauermann et al. (2005) beschreiben den Desktop als ein Artefakt, in
welchem ein Individuum all seine digitalen Informationen aufbewahrt. Als semantische Webressourcen sind sie über einen Uniform Resource Identifier (URI) identifizierbar und als RDF Graph
auswertbar. Die Beziehung der Ressourcen untereinander erfolgt durch Ontologien als Abbild individueller mentaler Modelle.
Der Semantic Desktop entstand aus Studienprojekten der Autoren und wurde im Rahmen von Forschungsprojekten am DFKI, wie EPOS (Dengel et al. 2002), weiterentwickelt. Er ist beeinflusst von
Forschungsprojektem im Umfeld des Semantic Web, wie
• Webservices und Informationsintegration bei SECO (Harth 2004),
• Datenintegration und Anpassung von SQL Quellen (Bizer und Seaborne 2004)
• ein erster Integrationsansatz vom MIT aus dem Projekt Haystack (Quan et al. 2003)
• Speicherung von Multimediadaten aus Microsofts MyLifeBits-Projekt (Gemmel et al.
2002)
• Personal
Information
Manager
aus
dem
open-source-Projekt
Chandler
(www.chandlerproject.org) oder IRIS Semantic Desktop (www.openiris.org)
• Visiualisierung und Bearbeitung von RDF Graphen aus dem Fenfire-Projekt
(www.fenfire.org)
Für die Anwendungsfelder des Semantic Desktop existieren bereits verschiedene Bausteine und
Technologien. Sauermann et al. (2005) geben dazu im Hinblick auf die Realisierbarkeit und Nutzung
im Praxisumfeld eine Übersicht und Referenzen zu den verwendeten Technologien. Sie verdeutlichen
in Tabelle 13 die Kernpunkte der Weiterentwicklungen und technologischen Besonderheiten des Semantic Desktop unter Berücksichtigung folgender Kriterien bei der Verfahrens- und Technologieauswahl:
•
Performance: Geschwindigkeit in Bezug auf die Ergebnisqualität
•
Ressourcenbedarf: Speicherbedarf und Systemvoraussetzungen
•
Usability: Nutzergerechte Navigation und Ergebnisbereitstellung
•
Offenheit: Offene Schnittstellen und Kombinationsfähigkeit in einer Architektur
•
Reifegrad: Fähigkeit, mit Komplexität umzugehen ohne zusätzlichen Modellierungsaufwand
Tabelle 13. Technologiebausteine des Semantic Desktops
Grounding
Technology
Type
Storage
Search
Communication
Ontologies
Information
Interaction
Ontology editing
Today
• Jena
• RDF gateway
• Sesame
• Lucene
• Desktop Search Tools
• Jabber, IM
• Email
• P2P networks
• DC
• FOAF
• Icalender
• SKOS
• Thesauri
• PIMO
• Protegé
• IsaViz
• KAON
Semantic Desktop
SPARQL und semantische
Protokolle (RDF)
Semantische
Suchdienste
Semantic messaging und
P2P
•Popular ontologies
•Ontology mapping
•Desktop ontologies
Ontology editors
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
102
Domain Specific
PIMO und Workflow
• Tidepool/ Storymail
• PhotoStuff
• RSS Readers
• Microsoft Outlook
• Lotus Notes
• Frodo Taskman
Semantic Desktop
applications
Semantic PIMO,
Semantic Workflow
Der Semantic Desktop erfindet, technologisch gesehen, wenig Neues, sondern macht die Potentiale
von Einzeltechnologien über eine intelligente Kombination nutzbar. Alleinstehend optimieren diese
nur Teilaspekte der betrieblichen Herausforderung. Er integriert insbesondere semantische Repräsentationen und Technologien der Mustererkennung. Technologien zur Problemlösung auf Bedeutungsebene sind nicht standardmäßig integriert. Ihre potentielle Wirkung soll durch händische Modellierung
von Regeln simuliert werden, um eine zukünftige Integration zu untersuchen.
Wie Tabelle 14 in eigener Darstellung zeigt, erschließt der Semantic Desktop damit eine weitere
Abstraktionsebene. Entsprechende Weiterentwicklungen in die noch nicht addressierten Bereiche sind
aufgrund der offenen Architektur denkbar. Sie basiert hierfür weitestgehend auf open-source- Komponenten, wie Protegé.
Tabelle 14. Einordnung beispielhafter semantischer Verfahren (hellgrau) als Weiterentwicklung bestehender KI-Verfahren (dunkelgrau)
Mustererkennung
Problemlösung
prozedural
deklarativ
prozedural
deklarativ
prozedural
Feature-Maps
Kohonen-Map
MultiAgentenperzeptoren
Vektormodelle
Überwachtes
Lernen, wie
BayesKlassifikatoren
Entscheidungsbäume,
Heuristiken
Expertensysteme
Ontologien, semantische Netze
Kontextbeobachtung
Ontology
mappings
Ontology
matching
Case-based
reasoning
Multiperspective
reasoning
Backpropagation
Eigen-/ Fisherfaces
Methode
Unüberwachtes
Lernen, wie
constraintsatisfaction
Netzwerke
Natural
language
processing
Multi-agent
Architekturen
Konzepte
deklarativ
Symbole
Repräsentation
Methoden
nach
Abstraktionsebene
Bedeutungen
und Klassen
Verfahren
Neuronale Netze
Sauermann at al. (2005) streben mit dem Semantic Desktop einen Bezug zu unserem individuellen
Erfahrungshintergrund und die Einbindung in tägliche Prozesse und Aktivitäten bis hin zu persönlichen Interessen an. Sie lassen dafür unsere mentalen Modelle durch Ontologien formal repräsentieren.
Mit Hilfe der Repräsentationssprache RDF für Ontologien werden diese technologisch zugänglich und
nutzbar gemacht.
Der Semantic Desktop beobachtet, neben der Abbildung mentaler Modelle, den Nutzer, um seinen
Kontext, wie kürzliche Aktivitäten, zu erfassen. Mit Hilfe des Kontextes wird die Art und Form der
Informationsbereitstellung beeinflusst. Kontextparameter stoßen im Hintergrund automatisch Suchen
an, die diese Informationen kontextgerecht ermitteln. Erforscht wird am DFKI derzeit eine allgemeine
Ontologie für Kontextinformationen (Schwarz 2006). Erste Prototypen und Ansätze sind auch in
anderen Forschungsprojekten, wie EPOS, eFISK (Miller et al. 2005) oder Activity Based Metadata
for Semantic Desktop Search von Chirita et al. (2004) verfügbar.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
103
Der Semantic Desktop ist in einer offenen Architektur gestaltet und erlaubt dadurch eine applikationsunabhängige Kontexterfassung und -bereitstellung. Der Nutzer wird dadurch entlastet und muss
sich nicht an Applikationsumgebungen anpassen, sondern die Technologie passt sich an sein Nutzungsverhalten an. Damit ermöglicht der Semantik Desktop ein applikationsübergreifendes Management der persönlichen Modelle. Er besitzt damit den Charakter eines Master-Daten-Managers und
einer Middleware statt einer proprietären Applikation. Er fügt sich damit in bestehende betriebliche
Applikationslandschaften und Workflow-Umgebungen ein.
10.5 Zwischenfazit
WMS und PAT bieten dem Nutzer integrierte Funktionalitäten und eine nutzergerechte Bedienung
und Oberfläche. Sie passen sich aber nicht an die Informationsbedarfe des Nutzers an, sondern sind
nach ihrem Inhalt strukturiert. Eine nutzergerechte Informationsbereitstellung erfordert damit aufwändige Datenpflege, Verschlagwortung und Modellierung.
Recommendersysteme orientieren sich am Nutzer und arbeiten entweder eigenschafts- oder empfehlungsbasiert. Jedoch lösen auch sie nicht das Problem des Allgemeinwissens und der Nutzung des
Kontextes.
Der Semantic Desktop bietet eine neue Kombination bestehender Technologien in einem offenen,
applikationsunabhängigen Format. Mit Hilfe von Nutzerbeobachtung und Verwendung nativer
Strukturen des Nutzers können Konzepte automatisch ermittelt werden. Sie legen den Vergleich mit
Recommendersystemen nahe. Anders als bestehende Recommendersysteme kombiniert und ergänzt
der Semantic Desktop die Ansätze mit Hilfe von semantischen Konzepten und P2P-Strukturen.
(A-5.4)
Der Semantic Desktop ist mit einem hybriden Recommendersystem vergleichbar.
Er kombiniert eigenschaftsbasierte und empfehlungsbasierte Ansätze.
Die Kombination der Technologien verspricht verbesserte Ergebnisse durch die Erschließung der
Bedeutungsebene und unter Anwendung optimierender Ansätze für deklarative Verfahren, wie der
Ontologie-Erstellung.
Betrachtet man den Semantic Desktop in Summe im Hinblick auf die in Kapitel 9.4. angeregten
Verfahren zur Addressierung der Charakteristika von Wissen und der Hebel der Wissensentwicklung,
zeigt sich als Antwort auf die Fragen (F-5.3.1) und (F-4.4.1), dass er
• Bedeutungen über direkte deklarative Verfahren zugänglich macht. Eine Rekursivität
wird aufgrund der deklarativen Ansätze derzeit nur indirekt addressiert. Mit Hilfe prozeduraler Technologien, wie Constraint-Satisfaction-Netzwerken, könnte sich diese integrieren
lassen.
• subsymbolische Konzepte systemimmanent zunächst über direkte Repräsentationssprachen berücksichtigt. Durch Verwendung des Personal Information Models werden mentale Modelle ohne zusätzlichen Modellierungsaufwand zugänglich. Eine prozedurale und systemimmanente Integration der Konzeptebene wird nicht addressiert.
• die Intention nicht direkt berücksichtigt, sie aber durch Modellierung des PIMO und von
Regeln einbindet. Es steht damit ein Testszenario zur Verfügung, das sich über die Rollen
in betriebliche Prozess- und Systemlandschaften einbinden lässt.
Der Semantic Desktop repräsentiert eine Entwicklung, die Schritt für Schritt das Technologiespektrum integriert und kombiniert. Sie wird in eigener Darstellung in Abbildung 14 illustriert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
104
Intention
Subsymbolik
Verfahren
Repräsentation
Mustererkennung
Problemlösung
Methoden
nach
Abstraktionse bene
deklarativ
prozedural
deklarativ
prozedural
deklarativ
prozedural
Symbole
Feature-Maps
Kohonen-Map
Multi-Agentenperzeptoren
Vektormodelle
Überwachtes
Lernen, wie
BayesKlassifikatoren
Entscheidu
ngsbäume,
Heuristiken
Expertensy
steme
Bedeutunge
n und
Klassen
Ontologien,
semantische Netze
Kontextbeobachtung
Ontology
mappings
Ontology
matching
Case-based
reasoning
Multiperspective
reasoning
Neuronale Netze
Backpropagation
Eigen/Fisherfac
es
Methode
Unüberwachtes
Lernen, wie
constraintsatisfaction
Netzwerke
Natural
language
processing
Multi-agent
Architekture
n
Konzepte
Rekursivität
Abb. 15. Technologieintegration zur schrittweisen Abbildung von Wissen
Mit der Integration von komplexeren Erkennungs- und Problemlösungsverfahren können sukzessive
die Intention und Standpunkte von Nutzern berücksichtigt werden. Die Addressierung und Erschließung weiterer Abstraktionsebenen ermöglichen tieferen Zugang zu subsymbolischen Konzepten.
Durch den Einsatz prozeduraler Verfahren als Ersatz für deklarative wird Modellierungsaufwand in
systemimmanenten Lernaufwand gewandelt. Die Definition prozeduraler Verfahren basiert auf den
jeweiligen Erkenntnissen deklarativer Modellierungen. Mit einer kontinuierlichen Performancesteigerung können diese Schwellenwerte erreichen, um neue Abstraktionsebenen zugänglich zu machen.
Mit diesen Erkenntnissen und den Grundlagen der Künstlichen Intelligenz lässt sich auch die spezifische Frage (F-2.3.1) aus Kapitel 6 in Bezug auf die Wirkung einer semantischen Suche auf verschiedene Prozessarten beantworten.
(A-2.3.1)
Der Semantic Desktop und mit ihm die semantische Suche adressiert zielorientierte,
wissensintensive Prozesse.
Mit Hilfe von ontologischen Repräsentationen erschließt der Semantic Desktop mit der Bedeutungsebene eine neue Dimension der Technologieunterstützung im Umgang mit unstrukturierten Informatioen. Technologien aus der Signalebene benötigen, ähnlich wie CRM- oder PAT-Systeme,
strukturierte Informationen. Um aus unstrukturierten Daten strukturierte zu machen, bedarf es bisher des bekannten Redaktionsaufwands, insbesondere in dynamischen Umgebungen.
Eine semantische Suche kann mit dynamischen, unstrukturierten Daten umgehen und diese situations- und intentionsspezifisch bereitstellen, um die Ergebnis- und Informationsqualität zu steigern.
Durch Retrival und Nutzung bestehender Konzepte ersetzt sie den bisher manuellen Redaktionsaufwand in der Festlegung von Konzepten zur Zielerreichung.
Mit Hilfe der Rolle können Informationsbausteine dynamisiert werden. Die Rolle unterstützt damit den Ersatz deklarativer Systeme durch prozedurale. Wie Tabelle 15 verdeutlicht, lassen sich
in der Beschreibung der Rolle Intentionen und Ziele festhalten, die für zielorientierte Prozesse einen
deklarativen Nutzen bieten. Für aktivitätsorientierte Prozesse, die bereits deklarativ (z.B. in
Workflows) beschrieben sind, sind sie Grundlage für eine prozedurale Abbildung.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
105
Tabelle 15. Beitrag der Technologien und der semantischen Suche in wissensintensiven Prozessen
Prozessart
Charakteristikum
Wissensintensiver
zess
Aktivitätsorientiert
Folgeaktivitäten und
Ziele sind definiert.
Pro- Formular
ausfüllen
Wissensentwicklung als Deduktiv
Erstellung eines Management Summaries
Detaillierung der VorRedaktionsaufwand
lagen (z.B. Template)
und Ziele auf verarbeitbare Größen
Signalebene
Abstraktionsebene
ContentmanagementApplikationen
systeme/ PAT
Technologieunterstützung/ -enabler
Volltextsuche
Manueller
Explizie- Hoch
rungsaufwand
Außerhalb des Systems
Handhabung
Komplexität
Zielorientiert
Gesamtziel definiert, Aktivitätsziele nur vage erkennbar, Folgeaktivitäten sind offen.
Entwurf Angebot/
Informationssammlung
Induktiv
Wissensorientiert
Offene Ziele und Aktivitäten
Festlegung und Definition von Konzepten und Regeln
zur Zielerreichung
Bedeutungsebene
(Weak)-WorkflowMgmt. Systeme
und Semantic
Desktop
Semantische Suche
Erfassung und Explizierung versteckter
Konzepte
Konzeptebene
Agenten-Systeme
Mittel
Niedrig
In einzelnen Systembausteinen
Im System
Erstellung einer
Value proposition
Intuitiv
Case-based reasoning
Die Frage (F-2.3.2), welche Schritte für die weitere Forschung notwendig wären, um sich intuitiven,
wissensorientierten Prozessen zu nähern, lässt sich wie folgt beantworten:
(A-2.3.2)
Für eine Unterstützung wissensorientierter, wissensintensiver Prozesse wäre eine
Nutzung von Technologien auf Konzeptebene und unter Berücksichtigung von
Problemlösungsverfahren notwendig.
Value propositions können als schwer explizierbare Aussagen eines Angebots verstanden werden. Damit würden sie in die Abstraktionsebene der Konzepte fallen. Sie sind symbolisch beschreibbar, besitzen aber eigentlich subsymbolischen Charakter und enthalten verschiedene Sichtweisen und
Standpunkte, wie Produkt-, Vertriebs- oder Nutzenargumentationen. Technologien, die die subsymbolische Ebene unterstützen könnten, wie Neuronale Netze, existieren problembezogen bei klar definierten Optimierungsproblemen, sind aber in ihrer Eingabe- und Ausgabestruktur festgelegt und damit für
dynamische Umgebungen bisher nur bedingt geeignet.
106
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
107
11 Gnowsis − Semantische Suche im Semantic Desktop
Über die Diskussion möglicher Technologien und Applikationen zur Addressierung der Besonderheiten und Charakteristika von Wissen im Rahmen der Wissensentwicklung hat sich die semantische
Suche als wesentlicher, realisierbarer Baustein herausgestellt. Sie verspricht die Senkung des Redaktionsaufwandes bei gleichzeitiger Steigerung der Ergebnisqualität durch intelligente Kombination bestehender Technologiebausteine.
Die semantische Suche des Semantic Desktop – Gnowsis − wird in diesem Kapitel vorgestellt, in
den Kontext des Information Retrievals eingeordnet und in ihrer Wirkung im Praxisumfeld bei Siemens IT Solutions and Services getestet. Die Ergebnisse stehen im Vergleich zur aktuell eingesetzten
Suche von Livelink (Opentext) und werden in ihrer Relevanz an Rollenprofilen gespiegelt.
11.1 Kontext des Information Retrievals
In Kapitel 9 wurden bereits allgemeine Verfahren und Methoden der Künstlichen Intelligenz zur
Repräsentation und Mustererkennung beschrieben. Sie werden auf die Fragestellungen des Information Retrievals angewendet und in ihrer Wirkungsweise diskutiert.
Neben einer pfadbasierten Navigation verwenden Nutzer nach Barreau und Nardi (1995) Volltextsuchen zur Identifikation von Informationen auf dem Desktop. Basis für die Volltextsuche sind auf
einem Computer gespeicherte „indizierte Inhalte“ (Vanholt 2004). Alle vom Nutzer eingegebenen
Suchwörter werden mit dem vorhandenen Datenbestand abgeglichen. Wird ein Suchwort in einem
Dokument gefunden, wird dieses Dokument als Treffer angezeigt. Der Nachteil dieses Verfahrens ist,
dass ein intelligenter Umgang mit der Sprache weder vorgesehen noch möglich ist.
Nach Dengel (2008) bilden folgende Bausteine die Basis für einen technologischen Umgang mit
Dokumenten und Informationen: Indexierung und Repräsentation, Bewertung und Gütemaße,
Dokumentsuche, Termrelevanz, Dokumentenklassifikation. Die Bausteine bestehen aus oder nutzen statistische oder regelbasierte Verfahren, je nach Grad der Nutzerinvolvierung. Zu jedem Baustein
existieren Optimierungsansätze, die Fehlerraten oder Leistungsfähigkeit verbessern.
Mit Hilfe der Boole´schen Indexierung wird ein Inhalt oder Dokument anhand von begrifflichen
und sprachlichen Term-Häufigkeiten repräsentiert. Zur Optimierung des Indexes werden Füllwörter
eliminiert, Wortstämme gebildet (Stemming), Synonyme und Akronyme berücksichtigt (Thesauri),
Phrasen mit Hilfe von Lexikon und Grammatik identifiziert oder über linguistischen Methoden auf ihre Bedeutung untersucht.
Die Korrelation cij zwischen Begriffen ti und tj wird nach Dengel (2006) durch deren Häufigkeit fik
und fjk im Dokument dk ausgedrückt:
c
∑ f
=
ij
d k∈D
x
ik
f
jk
(1)
Zur Vermeidung von individuellen Präferenzen kann diese normalisiert werden:
c'
ij
=
c
c +c −c
ij
ii
jj
(2)
ij
Das Ergebnis von c’ ist 1, wenn die Begriffe ti und tj die gleiche Häufigkeit aufweisen. Die hierdurch generierten Begriffe werden genutzt, um ein elektronisches „Verständnis“ und mentales Modell zum Suchbegriff zu bilden. Damit lassen sich die Modelle statt nur der Begriffe vergleichen
und in Beziehung setzen. Der Nutzer verständigt sich mit dem System assoziativ über sein mentales
Modell statt nur über den Begriff als solchen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
108
Linguistische Verfahren berücksichtigen lediglich einzelne Wörter unabhängig vom Kontext und
arbeiten mit Positivlisten (Wörterbücher). Auch wenn sie keine Bedeutungsdifferenzierung erlauben,
sind sie schnell, stabil und im abgebildeten Funktionsumfang mit hohem Prozentsatz korrekt. Dennoch
benötigen sie für die Pflege des Wörterbuchs Redaktionsaufwand.
Für die Termgewichtung wird eine inverse Dokumentanhäufigkeit aus Anzahl und Frequenz der
Dokumente berechnet. Über die Frequenz kann auf inhaltliche Aspekte geschlossen werden, da häufige Terme oft Füllwörter sind.
Folgende tabellarische Darstellung nach Dengel (2008) gibt eine Übersicht über die Wirkung der
verschiedenen Optimierungsverfahren:
Tabelle 16. Wirkung verschiedener Optimierungsverfahren im Information Retrieval
Bereich
Indexterm
Termvektor
Methode
Stemming
Gewichtung der Terme
Spezialisierung
X
Entfernung von Stopwörtern
X
X
Entfernungsangaben
Thesaurus
Abfrage
Generalisierung
X
X
X
Grammatik und Wörterbuch
X
Quorum-Level-Suche
X
X
Relevance Feedback
X
X
Neben dem Aufbau und der Repräsentation der Daten beeinflusst die Abfrage und deren Abgleich
zur Datenmenge die Ergebnisqualität. Die Abfrage ist im Wesentlichen vom Nutzer abhängig und davon, wie spezifisch er diese stellt. Für den Abgleich kommen statistische und Vektorraummodelle in
Frage. Letztere können auch ähnliche Dokumente finden, die der Abfrage nur teilweise entsprechen.
Mit Hilfe von Klassenvektoren können auch uneindeutige Dokumente zumindest einer Klasse zugeordnet werden
In Summe bieten diese automatischen Verfahren den Vorteil auch unbekannte Dokumente und
Inhalte klassifizieren zu können. Jedoch weisen sie eine höhere Fehlerrate als bei manuellen Verfahren
auf und sind im Nachhinein schlecht nachvollziehbar, da sie sich aus einer komplexen Matrix ableiten.
Manuelle, regelbasierte Verfahren dagegen bieten eine hohe Kontrolle über die Ergebnisqualität.
Sie setzt jedoch entsprechenden Aufwand und Vorkenntnisse des Nutzers voraus.
Systeme unterscheiden sich in ihrer Ausprägung oben beschriebener Einflussgrößen. Die Vergleichbarkeit von Systemen sinkt mit zunehmendem Abstraktionslevel der verarbeiteten Inhalte und
Formen der Ergebnisdarstellung.
Alle Suchverfahren und Retrieval-Methoden liefern zwar relevante Informationen, jedoch keine
eigenen Aussagen oder Problemlösungen. Suchverfahren streben nach Auffinden einer Lösung zu
einem gestellten Problem oder Frage. Bekannte Suchmaschinen, wie Google, Explorer Search, etc.,
liefern auf Basis von vernetzten Stichwörtern oder einer unstrukturierten Content-Analyse verwandte
Inhalte. Sofern diese Inhalte nicht selbst Antworten oder Lösungen darstellen, bieten die RetrievalVerfahren selbst keine Problemlösung an. Dies ist vielmehr ein Prozess der Wissensentwicklung.
Manuelle Wissensentwicklung beginnt heute dort, wo die Suche keine passenden, fertigen Ergebnisse
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
109
mehr liefert, weil sie nicht zugänglich, aber vorhanden sind oder weder zugänglich noch vorhanden
sind.
Heutige Suchen in Help-Desks nutzen neben den statistische Methoden decision trees. Decision
trees unterstützen aber nur das Auffinden vorhandener Lösungen und weniger die Herleitung neuer
Antworten. Suchverfahren identifizieren Daten und Informationsbausteine und stellen damit iterative
Grundlagen für die Problemlösung. Sie verwenden die in Kapitel 9 beschriebenen Verfahren auf Signalebene. Darüber hinaus finden sich Lösungen, die einzelne Probleme des Information Retrievals beheben. Tabelle 17 gibt nach Dengel (2008) eine Übersicht über benachbarte Verfahren:
Tabelle 17. Optimierungsverfahren des Information Retrieval auf verschiedenen Abstraktionsebenen
Adaptivität/
Abstraktion
Dokumente
Inhalt/ Gliederung
Hoch
Collaborative
Document Search
Mittel
Text
Classification, Context classification
collaborative filtering
Niedrig
Traditional
search
document Passage retrieval
Daten
Wrapper for information extraction
Information spotting
Mit Hilfe des des PassageRetrievalVerfahrens lassen sich ganze Textpassagen identifizieren. Mit
dem Collaborative Document Search kann aus erfolgreichen Suchanfragen gelernt werden. Beide
beschreiben exemplarisch technologische Entwicklungsrichtungen ausgehend von der traditionellen
Dokumentensuche deduktiv, in Richtung Inhalt und induktiv, zu höheren Abstraktionsstufen.
Die Weiterentwicklung von Suchverfahren im Hinblick auf Steigerung der Ergebnisrelevanz unter Berücksichtigung des Vorbereitungsaufwandes und der Suchperformance tragen wesentlich zur
technologischen Unterstützung von Problemlösungen bei. Damit wird eine Näherung zum Informationsschwellenwert für eine Entscheidung erzielt, der eine Aussage ermöglicht.
Kagolovsky und Moehr (2000) zufolge führt dies zu einer zunehmenden Nutzerzentrierung der Suchen, da die Relevanz eine subjektive Einschätzung ist. Hierzu schlagen die Autoren weitergehende
Untersuchungen hinsichtlich der formalen Repräsentation von Semantik und der Bewertung konzeptueller Überschneidungen zwischen Suchergebnissen und Informationsbedarf des Nutzers vor, die in
diesem Zusammenhang nicht vertieft werden sollen.
Smolnik und Riempp (2006, S. 102) unterscheiden InformationRetrieval-Technologien nach der
„Art der Verwendung von Metadaten“ in keine Metadaten und flach, hierarchisch oder netzwerkartig organisierte Metadaten. Sie geben einen Überblick über den Reifegrad der Suchmaschinen. Smolnik und Riempp (2006, S.106) beschreiben diesen als Kombination aus Implementierungsaufwand,
Qualität der Suchergebnisse, Retrievalperformance und Integrationsfähigkeit heterogener Informationsbestände. Dabei wird deutlich, dass semantische Technologien trotz hohen Implementierungsaufwandes vor allem gegenüber den anderen Verfahren durch die Integrationsfähigkeit heterogener
Informationsbestände punkten. Diese wird im weiteren Verlauf durch die P2P-Struktur und den
Aufbau des Semantic Desktops verdeutlicht.
(http://desktop.google.com), Apple Spotlight
(http://www.apple.com/de/macosx/features/300.html#spotlight),
Yahoo!
Desktop
Search
(http://de.docs.yahoo.com/search/desktop/)
oder
Microsoft
Windows
Desktop
Search
(http://www.microsoft.com/windows/desktopsearch/de/default.mspx), sind proprietäre Produkte im Wett-
Bestehende
Suchen,
wie
Google
Desktop
bewerb. Sie sind im Allgemeinen ausreichend, aber technologisch gesehen, weit hinter „Suchspezialisten“, wie Autonomy (http://www.autonomy.de/) oder Convera (http://www.convera.com/), zurück. Während Letztere unterschiedliche Suchalgorithem nutzen, basieren Erstere meist auf reiner Volltextsuche
oder assoziativer Suche.
Die assoziative Suche oder strukturierte Suche arbeitet im Standardfall vergleichbar zur Volltextsuche. Sie bietet darüber hinaus weitere intelligente Funktionalitäten, wie unscharfe Suche über Re-
110
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
levanzbewertung, Ähnlichkeitssuche, kontextabhängige Gewichtung und Sortierung der Ergebnisse (Smolnik und Riempp 2006, S. 103). Sowohl Google Desktop als auch Livelink
(http://www.opentext.com) oder Ontoprise (http://www.ontoprise.com) nutzen domänenspezifische
und -abhängige assoziative Verfeinerungen. Diese marktreifen Applikationen berücksichtigen nicht
oder nur in kleinem Maße Teile der hinter den Begriffen liegenden Konzepte und Bedeutungen. Sie
unterscheiden sich vielmehr hinsichtlich verfügbaren Datenbestandes (verteilte oder zentrale Systeme;
öffentlich oder intern).
Für die Weiterentwicklung der Suchen zu einer semantischen Suche werden weitere Technologiebausteine in den Suchdienst integriert. Tabelle 18 gibt in Anlehnung an Sauermann et al. (2005) einen
Überblick über die im Semantic Desktop ergänzten Bausteine und Algorithmen.
Tabelle 18. Entwicklungspfad von der Volltextsuche zur Semantischen Suche
Desktop Search
Browsing
Fulltext Search
Ontologies
Free Links
Trails, Timeline
Taxonomies
Thesauri
Query Search
Text-Analysis (Stemming)
Context (User Mining)
…
Page Rank
Query Extension
Automatic Clustering
Semantic Desktop
Search
Ausgehend von heutigen Volltextsuchen im oberen linken Eck werden drei Entwicklungrichtungen
hin zu einer Semantic Desktop Search deutlich.
1) Text-basierte Technologien (oben, rechts, dunkelgrau)
2) Semantische Technologien auf expliziten, manuellen Informationsverbindungen (unten, links, hellgrau)
3) Semantische Technologien auf automatisch ermittelten Ontologien und
Kontexten
Die Darstellung zeigt exemplarisch Technologiebeispiele. Sie werden sich aus der Forschungsdiskussion verfeinern und erweitern lassen. Fest steht jedoch, dass erst ihre Kombination ihr volles Potential zur Entfaltung bringen wird. Der Semantic Desktop macht hierzu mit Gnowsis einen ersten Schritt
hin zum semantischen Suchen. Ansätze der semantischen Suche werden im folgenden Kapitel ausführlicher betrachtet.
11.2 Formen und Arten semantischer Suchen
Eine etablierte systematische Klassifikation semantischer Suchen ist in der Literatur derzeit nicht
bekannt. Es werden daher Aspekte der Nutzerschnittstelle und verwendete Algorithmen getrennt betrachtet.
Für Mangold (2007) ist eine semantische Suche ein Retrieval-Prozess, der sich Domänenwissen zu
Nutze macht. Er beschreibt damit die Übereinstimmung der Bedeutung der gesuchten Zeichenkette
mit ihrer Daten-Bedeutung. Anspruch der semantsichen Suchen ist ein automatisierter Umgang mit lexikalischer und struktureller Mehrdeutigkeit.
Lexikalische Mehrdeutigkeit bezeichnet nach Hildebrandt et al. (2007) die Mehrdeutigkeit der
Wörter. Strukturelle Mehrdeutigkeit entsteht dadurch, dass komplexe Ausdrücke mehrere grundlegende Strukturen haben können. In solchen Fällen ist die Rolle der Wörter in dem Ausdruck nicht eindeutig, wie der Satz „Er sah die Frau mit dem Fernglas“ beispielhaft verdeutlicht.
Im Überblick der Literatur sind erst in jüngster Zeit Klassifizierungsansätze für semantische Suchen
zu finden. Bisher wurde mit Hilfe von Prototypen unterschiedliche Einflussfaktoren optimiert und getestet. Als wesentliche Faktoren zur Abbildung der Komplexität wurden die Konstruktion der Anfrage und der Suchalgorithmus identifiziert. Je präziser die Anfrage formuliert ist, umso weniger tritt
das Problem der lexikalischen und strukturellen Mehrdeutigkeit auf.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
111
Beide spannen damit einen Diskussionsrahmen aus Genauigkeit und Komplexität der Anfrage. Genauigkeit erfordert eine aufwendige Konstruktion der Abfrage. Die Komplexität der Anfrage braucht
einen intelligenten Suchalgorithmus.
Semantische Suchen nutzen für das Retrieval Konzepte. Sie werden mit den wesentlichen inhaltlichen Merkmalen eines jeden Dokuments gematcht. Nach Hees (2004) arbeiten sie sprachunabhängig.
Anfragen und Dokumente können sich von der verwendeten Terminologie her vollständig unterscheiden und doch auf konzeptioneller Ebene genau und damit synonym zueinander passen. Dieses Problem wird zwar bereits über Thesauri oder statistische Verfahren adressiert, ist aber wieder mit hohem
manuellen Pflegeaufwand verbunden.
Aus Sicht der Nutzerinteraktion klassifiziert Lei et al. (2006) semantische Suchen in vier Kategorien:
1.
Form-basierte Suchen
Sie stellen Ontologien, Klassen und Eigenschaften in spezifische Webformulare bereit. Der
Nutzer kann diese seinen Suchanfragen zur Verfeinerung hinzufügen. SHOE (Heflin 2000)
gilt als beispielhafter Vertreter dieser Kategorie. Nachteilig ist das notwendige Vorwissen
des Nutzers für erfolgreiche Suchanfragen.
2.
RDF-basierte Abfragen
Sie machen semantische Informationen nicht durch Formulare, sondern spezifische Abfragesprachen zugänglich. Corese (Corby et al. 2004) gilt als beispielhafter Vertreter dieser
Kategorie. In Steigerung zu Kategorie 1 muss der Nutzer hier nicht nur die zugrundeliegende Ontologie, sondern auch noch die Abfragesprache beherrschen. Dies macht es zu einem
für Endnutzer wenig geeigneten Interface.
3.
Semantik-basierte Schlagwortsuchen
Sie verwenden automatische, semantische Repositories und Informationen. Die Ergebnisdarstellung in Form von Clustern wird durch einen zweistufigen Prozess des Instanzenretrievals über Instanzenmatching unterstützt. TAP (Guha et al. 2003) gilt in dieser Kategorie als typischer Vertreter.
4.
Beantwortungstools
Sie nutzen semantische Mark-ups, um ganze Fragen in natürlicher Sprache zu beantworten.
(Lopez et al. 2005 und Cimiano 2004) Sie transformieren dabei die Frage in ontologische
Triples oder spezifische Abfragesprachen. Auch wenn diese an der Nutzerschnittstelle einfach sind, sind sie sehr durch die Leistungsfähigkeit der NLP Technik beeinflusst.
Die ersten drei binden semantische Informationen technologisch unterschiedlich in die Suchabfrage
ein. Die vierte Kategorie wirkt sehr weit gegriffen, da sie sich an den Suchergebnissen orientiert. Während die ersten drei den Einflussfaktor „Konstruktion der Abfrage“ addressieren, wirkt die vierte Kategorie auf den eingesetzten Algorithmus. Dennoch konzentrieren sich alle auf Schlagwortsuchen und
unterstützen nur unzureichend komplexe Anfragen. Sie sind teilweise für den Endnutzer nicht performant genug und bieten keine zugängliche Struktur von Ergebnissen. Die Klassifikation berücksichtigt
keine Unterschiede in den zugrundeliegenden Algorithmen und ist daher für die weitere Arbeit nur bedingt hilfreich.
Mangold (2007) geht in seiner Klassifizierung über die reine Sicht von Lei et al. (2006) der Nutzerinteraktion hinaus und berücksichtigt weitere Klassifizierungskriterien, wie Architekur, Coupling der
Lösungsbausteine, Semantische Transparenz und Modifikationsmöglichkeit, Nutzerkontext und Strukturformen der Ontologie und Ontologiesprache.
Für eine spätere Einordnung (Kapitel 11.4) von Gnowsis in die bekannten und vorgestellten Klassifikationsschemata wird im Folgenden Gnowsis und seine Ausprägungen dargestellt.
112
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
11.3 Besonderheiten von Gnowsis
Aufbauend auf den Basis-Technologien des Semantic Desktop verwendet Gnowsis für eine optimierte Indexierung die Software brainfiler von Nextbot (http://www.nextbot.de). Zur Verbesserung
der Klassifikation werden semantische Repräsentationen (RDF) und Ontologie-mappings verwendet.
Sie optimieren den Modellierungsaufwand durch teilautomatisierte Ontologie-Erstellung. Für die Abfrage und Ergebnisdarstellung wird von einem unerfahrenen Nutzer im betrieblichen Umfeld ausgegangen. Als Darstellungsform werden auch hier seine nativen Strukturen genutzt. Die eigenen Begrifflichkeiten sollen dem Nutzer die Orientierung erleichtern. Mit dieser Kombination will Gnowsis nicht
nur eine Veränderung eines Merkmals, sondern eine Gesamtoptimierung der Ergebnisqualität erzielen.
11.3.1 Aufbau von Gnowsis
Für die Beschreibung des Applikationsaufbaus wird nach Sauermann et al. (2005) das Model-ViewController-Muster verwendet. Danach wird das Modell als RDF Graph dargestellt, der angezeigt und
modifiziert werden kann. Diese Beschreibungslogik wird verwendet, weil es eine höhere Performance verspricht. Das RDF(S)-Framework bietet die Möglichkeit, Metadaten in maschinenlesbarer Form
darzustellen und auszutauschen. Hierfür nutzt es einen Mechanismus, um Ressourcen domänenneutral zu beschreiben. Es macht sich dabei die Objektorientierung aus der Künstlichen Intelligenz zu
Nutze und erlaubt eine Nachvollziehbarkeit der Ergebnisse. Da RDF eine saubere Trennung von Dingen und Beziehungen fehlt, erscheint es für Massendaten ungeeignet. Die Tripel stellen redundante Informationen dar und belasten die Performance. Der Verlust des relationalen Schemas reduziert die
Komprimierbarkeit. RDF eignet sich damit für heterogene, schwach strukturierte und wissensintensive Anwendungen, wie die Angebotserstellung.
Der Controller selbst wird über Schnittstellen in die Applikation integriert und ist in der Regel domainspezifisch. Als zentrale Services laufen sie auf einem Server im Hintergrund. Sie werden als
Enabling Services bezeichnet. Die folgenden sind Kernbestandteil von Gnowsis: RDF Repository,
Adaptor-Framework, Ontologien, Kontextinformation und offene Architektur. Da diese Dienste
heute schon als Standard zur Verfügung stehen, liegt die Herausforderung darin, ihre Schnittstellen zu
standardisieren und als stabile Implementierungen zur Verfügung zu stellen.
Abb. 16. Gnowsis Architektur
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
113
Nach Sauermann (2003) und Sauermann et al. (2005) kann die Architektur mit einem Baum verglichen werden, der auf einem Boden von Daten wächst. Wie die Wurzeln die Nährstoffe vom Boden
extrahieren, extrahieren die Adapter Daten von den eingebundenen Anwendungen und wandeln die
Daten in das RDF Format um. Im RDF-Repository werden bidirektionale Daten und Verknüpfungen
gespeichert. Das Adapter-Framework kombiniert die Wurzeln und errichtet in der Analogie den
Baumstumpf, auf dem der Server basiert. Den Stamm des Baums stellt der Gnowsis Server dar. Er
veröffentlicht die Daten vom Adapter Framework und ist der zentrale Gegenstand in der Architektur.
Auf dem Stamm aufsetzend sind die Äste und die Früchte des Baums, die Benutzerschnittstelle sowie
Schnittstellen zu Microsoft Outlook oder Mozilla, angesiedelt.
Das Gnowsis Webinterface besteht aus einer Adressleiste, über die einzelne Ressourcen editierbar
sind. Es bietet damit Eingabefelder und Auswahlboxen, um die Suche auf den lokalen Desktop oder
auf das Peer-Netzwerk einzuschränken. Ein Bereich zur Anpassung von Annotierungen ermöglicht
weitere direkte Eingriffe des Nutzers. Eine visuelle Anzeige, welche Ressourcen derzeit in Verwendung stehen und welche Ressourcen miteinander in Verbindung stehen, erleichtert dem Nutzer die Bedienung. Mit Hilfe eines eingebauten Ontologie-Browsers lässt sich die Dokumenten-Klassifizierung
anpassen.
Die Suchergebnisse werden als Kurzzusammenfassung mit Stichworten ausgegeben. Sie sind
nach ihren Klassen sortiert. Konzept, Dokument, Event, Projekt, oder Kontakt sind mögliche Klassen. Zu jedem Ergebnis stehen über “browse” und “link” weitere ergänzende Informationen als Pop-up
über den Projektmanager zur Verfügung. Wie Dengel (2006) beschreibt, lassen sich die Suchergebnisse durch + und – erweitern und detaillieren. Eine kurze Dokumentenzusammenfassung, Folderinformationen, Trefferrelevanz und eine Beschränkung der angezeigten Treffer ergänzen als UsabilityFeatures die inhaltliche Ergebnisqualität zu einer subjektiv wahgenommen Ergebnisrelevanz.
11.3.2 Klassifikation mit dem brainfiler
Der Brainfiler erstellt pro Dokument Begriffsvektoren in Bezug zu ihrem Ablageordner. Er repräsentiert ein oder mehrere Indexservices. Sie verwalten einen Index über die Dokumente in den angebunden Repositories und stellen intelligente Such- und Klassifikationsfunktionalitäten bereit. Im Index–Service werden die Rechte und der Kontext der Dokumente verwaltet.
Topic
Project
Document
new office
invitation
Tim
Peter
Rome Project
Rome
Who
Where
Abb. 17. Indexierung unterschiedlicher Datenquellen und –formate
114
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Gnowsis greift nach Sauermann et al. (2005) über die zum brainFiler gehörige SOAP-Schnittstelle
auf den Index-Service zu. Intern tauschen die Komponenten Nachrichten und Arbeitsaufträge über ein
verschlüsseltes Netzwerkprotokoll asynchron aus. Nach Hees (2004) beinhaltet der Index-Service
Komponenten, wie den Associative Index oder den Classifier. Er setzt auf den XVFS Service auf,
welcher den Zugriff auf das Dateisystem ermöglicht. Gemeinsam mit dem Mediator bietet der IndexService die Möglichkeit der Erweiterung einer einfachen Volltextsuche hin zur assoziativen Suche.
BrainFiler
und
Gnowsis
verwenden
Regeln
über
die
Jena
inference
engine
(http://jena.sourceforge.net/inference/) und SPARQL (http://www.w3.org/TR/rdf-sparql-query/) Anfragen, die auf RDF Modellen beruhen. Mit diesen lassen sich Suchergebnisse erweitern und optimieren. Eine typische Anfrage könnte folgendermaßen lauten: „Wenn ein Projekt gefunden wurde, lege
Projektleiter und Autor als Kontakte fest“. Die Regeln werden als forward-chaining- Regeln in Gnowsis hinterlegt, wie folgendes Beispiel zeigt:
# Example for retrieving the project manager as expert contact
(?hit retrieve:item ?project),
(?project rdf:type org:Project) ->
querySparql('CONSTRUCT {
?x1 org:HasProjectmanager ?m. ?m rdfs:label ?labelm. ?m rdf:type ?typem.
?x1 retrieve:todoRelateHitTo _:hit .
_:hit rdf:type retrieve:InferedHit .
_:hit retrieve:item ?m .
_:hit retrieve:textSnippet \'Projektleiter\'.
} WHERE { graph ?g {
?x1 org:HasProjectmanager ?m. ?m rdfs:label ?labelm. ?m rdf:type ?typem.
}}
', ?project).
Wurde ein Eintrag (retrieve:item) in der Treffermenge (?hit) gefunden, welcher vomTyp (rdf:type)
org:Project ist, greift die Regel. Es werden alle Instanzen (?m) zusammen mit ihrer Bezeichnung
(rdfs:label) und ihrem Typ (rdfs:label) ermittelt, die über org:HatProjektleiter mit dem gefundenen
Projekt in Beziehung stehen. Das Ergebnis sind die Projektleiter des gefundenen Projekts.
Andere semantische Technologien nutzen statt RDF die Repräsentationspsrache F-Logic, um Regeln in die Suche zu integrieren. Die Gnowsis-Architektur erlaubt auch die Verwendung anderer Index
engines.
11.3.3 Ontology mapping und matching
Ontology-mapping- und matching-Verfahren reduzieren den Modellierungsaufwand bei der Erstellung von Ontologien. Sie optimieren damit die Verwendung deklarativer Verfahren und stellen eine
Grundlage für den Einsatz von prozeduralen, rekursiven Verfahren.
Technisch gesehen können ontology matchings als Beziehungen zwischen Ontologien verstanden
werden, die sich durch eine Entscheidung mergen lassen. Für den aktuellen Forschungsrahmen von
EPOS und der vorliegenden Forschungsarbeit ist, zusammen mit der Ontologie-Modellierung mit Protegé, Prompt ausreichend.
EPOS und der Semantic Desktop kombinieren verschiedene Matching-Ansätze (Maus 2005, S.
101ff.). Für die Entscheidung zwischen sich widersprechenden Paaren wird ein Ranking auf der Basis
einer modifizierten Borda Count method angewendet (Ho 1992). Dabei werden die Ergebnisse einzeln miteinander verglichen und über eine Rangsumme neu geordnet. Im Semantic Desktop werden
die term-basierten Matching-Algorithmen von PROMPT durch instance-based Algorithmen aus
dem strukturellen Matching ersetzt und um eine Rankingliste der Matching-Paare und ihrer Beziehung (gleiche Klasse, Ober- oder Unterklasse) ergänzt (Maus 2005). Auch wenn dies später ohne Nutzer abläuft, besteht die Möglichkeit, sich über die Funktionsfähigkeit des Systems zu informieren. Der
brainfiler setzt die als Softwareprodukt frei käufliche NextBot engine ein, die die Ähnlichkeiten aus
einem durch Beispiele trainierten Vektorraummodell ableitet (Hees 2004).
Die Ansätze dienen einer automatisierten Mediation zwischen Domain-Ontologien, da eine händische Aufbereitung durch knowledge engineers in großen Dimensionen nicht denkbar und finanzierbar
wäre. Ihnen gemeinsam ist die Trennung von Form (Struktur) und Inhalt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
115
11.3.4 Personal Information Model (PIMO) als Katalysator für Peer-to-Peer
Information liegt in strukturierter und unstrukturierter Form mit manuellen oder automatischen Annotierungen vor. Information ohne Struktur oder Meta-Daten lässt sich durch Volltextsuche finden.
Google Desktop ist hierfür ein Beispiel. LiveLink dagegen verwendet manuelle Annotierungen und
Meta-Daten, um die Inhalte zu strukturieren. Semantische Technologien verwenden halbautomatisierte Annotierungen. Sie reduzieren damit den händischen Aufwand. Sie nutzen die Tatsache, dass Informationen nach persönlichen Präferenzen und Prioritäten abgelegt und gesucht
werden. Hierdurch ergeben sich unterschiedliche Interpretationen des gleichen Inhalts oder gleicher
Dokumente.
Im Vergleich zu case-based reasoning (CBR) ermöglicht die Nutzung der nativen Strukturen mittels PIMO (Sauermann et al. 2007) einen bottom-up entwickelten, konstruktivistischen Ansatz. CBR
dagegen konzentriert sich derzeit auf eine organisatorische Beschreibungsebene und wirkt statisch,
replizierend, auch wenn im Sinne der Case Adaption hier Flexibilisierungsmöglichkeiten geschaffen
wurden.
Informationen und Wissensobjekte sind verteilt verfügbar. Ihre Zugänglichkeit und dezentrale
Verarbeitung sind Herausforderungen. Sie bergen das Potenzial, verfügbare, aber nicht bekannte Informationen zugänglich zu machen. Wenn Daten nicht in das zentrale Repository eingestellt wurden,
stehen sie zwar individuell, aber nicht kollektiv zur Verfügung.
Für Corporate Memories ist, wie in KnowMore, die Client-Server-Architektur am weitesten verbreitet (Abecker 1999). Dabei nutzt die workflow und inference engine den Server, während Applikationen und worklist handler als Client genutzt werden.
Dem verteilten Wesen von Informationen wird hingegen die Peer-to-peer-Architektur gerecht.
Einem sozialen Netz nachempfundene Struktur und Kommunikation der Rechner erlaubt eine dezentrale Datenhaltung mit zentraler Verfügbarkeit. Offen ist dabei die Zugriffsfrage. Wie in echten sozialen Netzen wird sie meist über Genehmigung oder Empfehlung abgebildet. Sie erteilt diese über
Vertraulichkeits- und Vertrauensstufen.
Peer-to-peer-Architekturen sind zwar flexibler als serverbasierte Systeme können allerdings keine
übergreifende Wissens- und Informationsqualität sicherstellen (Holsapple 2003, S. 131ff.). Zum einen
beschränken die Zugriffsberechtigungen das Schreiben aller. Zum anderen führt es schnell zu einem
Informationsüberfluss, sofern es nicht durch soziale Community-Regeln gesteuert werden kann. In
Wikipedia (www.wikipedia.de), als Vertreter solcher Systeme, gelten trotz Informationsfreiheit Prinzipien für den Umgang mit Wissen.
Organisationales Wissen ist die gemeinsame, kommunikative Einigung auf Begriffsbedeutungen. Unter dieser Voraussetzung ist die Einordnung von Begriffen aufwendig. Diese muss für eine
Automatisierung durch die Maschine im Vorfeld manuell geleistet werden. Eine Einordnung bei jedem Suchergebnis unterstützt einen konstruktivistischen Ansatz, bei dem situations- und suchspezifisch die Bedeutungen neu zugeordnet und erzeugt werden. Eine Einordung einmalig bei der Ablage erfordert eine abstrakte Verschlagwortung und ist starrer.
Rolle und Prozessschritt spannen einen Wissensraum auf, der als Wissensdomäne bezeichnet werden kann. Die Summe aller organisatorischen Wissensdomänen beschreibt das explizite organisationale Wissen. Er wird technologisch über Meta-Daten formalisiert und nutzbar gemacht. Sie strukturieren
und definieren Teil-Domänen im organisationalen Wissensraum.
Charakteristisch für den individuellen Wissensraum ist dagegen, dass Rolle und Prozessschritt bei
der Erstellung individueller Dokumente und Strukturen nicht explizit sind. Er besitzt damit eine eigene
immanente Wissensdomäne. Über Kommunikation und Einordnen lässt sich, wie in Abbildung 17 illustriert, der individuelle Wissensraum zum organisationellen in Beziehung bringen.
116
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Prozess
(Aktivitäten,
Kontext)
Domäne
x
y
z
Domäne
x
Domäne
x
y
y
z
z
Organisationaler Wissensraum
(explizit)
Rolle
(Perspektive,
Intention)
Einordnen
durch PIM
Darstellen
im PIM
Individueller Wissensraum
(implizit)
Abb. 18. Zusammenspiel individueller und organisatorischer Wissensräume
Al-Laham (2003, S. 195) zitiert hierzu die Strategic Learning Assessment Map von Bontis und
Crossan (1999, S. 20). Auch wenn diese noch mit methodischen Mängeln verbunden erscheint, skizziert sie ihm zufolge einen Ansatz zur weiteren Effizienzmessung von Wissen und Lernprozessen im
Unternehmen. Mit Hilfe des PIMO soll in diesem Zusammenhang der Dialog zwischen der individuellen und organisationellen Ebene hergestellt werden. Weitere Forschungen könnten mit Hilfe der Assesment Map diesen Prozess messbar machen und weiter optimieren.
Nach Elst et al. (2004) kann dies über eine Kombination unterschiedlicher Ontologien als Kontexte
repräsentiert werden: Informations-, Kunden-, Organisations-, domain- oder workflow-bezogene Ontologien. Auf das SIS Beispiel übertragen, würden die Rolle (Intention) und der Prozess (Situation)
den Wissensraum aufspannen. Organisationale Wissensdomänen sind unter anderem Dokumententyp
oder Portfolioinformation. Persönliche Wissensdomänen sind in den Folderstrukturen nach Kunden,
Region, Anlass geordnet
In der Kombination von organisationellen Strukturen und Domänen und individuellen Folderstrukturen repräsentiert das PIMO die Rolle des Nutzers und dessen subjektive Perspektive. Die Strukturen werden in Protegé (http://protege.stanford.edu/) erstellt und in Gnowsis integriert. Die individuelle
Folderstruktur kann eine Überlagerung verschiedener Rollen (Privat, geschäftlich) und Historien (alte
und aktuelle Projekte) sein. Das heißt, für unterschiedliche Rollen kann ein Begriff, Name oder
Objekt unterschiedliche Bedeutungen haben und die gleiche Bedeutung mit unterschiedlichen Begriffen hinterlegt sein. Ein Nutzer kann mehrere Rollen haben. Ihre Vermischung führt zu Unschärften
in der persönlichen Perspektive. Da die peer-to-peer-Technologie auf einzelnen Nutzern basiert, wird
für die Untersuchung der Einfachheit halber angenommen, dass ein Nutzer genau eine zugewiesene
Rolle hat und dass sein individueller Arbeitsplatz die Perspektive und Intention dieses Nutzers in seiner zugewiesenen Rolle repräsentiert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
117
Abb. 19. Vergleich der Folderstrukturen von Sales und Proposal Manager bei SIS
Abbildung 18 zeigt die Folderstrukturen eines Proposal Managers (links) und eines Sales Managers
(rechts) in Anlehnung an ihre realen Desktops bei SIS. Umgekehrt lässt sich durch Nutzerbeobachtung
auf eine Rolle schließen.
SIS produziert viele tausend Angebote im Jahr für das gesamte Leistungsspektrum. Es reicht vom
Outsourcing bis hin zu Solution- und Systemintegrationsprojekten. Für größere Angebote werden
Teams mit unterschiedlichen Rollen und Erfahrungslevels eingesetzt. Sales Manager liefern die erste
Kundeninformation zusammen mit dem request for proposal des Kunden sowie dem geplanten Ansatz
(Preis, Value proposition, Storyline, etc.). Hieraus entsteht ein erster Entwurf des Management Summaries. Proposal Manager arbeiten im Gegensatz zu den Sales Managern meist in organisational, topdown vorgegebenen Strukturen in einer zentralen Ablage. Sales Manager dagegen präferieren individuelle Strukturen auf ihrem lokalen Desktop. Nichtsdestotrotz arbeiten beide an denselben Dokumenten und nutzen ähnliche Informationspools.
Die Analyse der Strukturen zeigt, allgemein betrachtet, dass Folderstrukturen gemäß den untersuchten Praxisbeispielen anhand folgender Aspekte strukturiert sind: Zeit, Themen (Portfolio und Unternehmensbereiche), interne oder kundenbezogene Projekte, Ereignisse und Meilensteine, Kunden
und Lieferanten, Regionen, Bereiche, Absichten, Gründe oder Bearbeitungsstatus. Alle resultieren aus
bestimmten Aufgaben und Intentionen. Sie sind historisch gewachsen.
Die Folderstrukturen lassen sich zusammen mit organisationalen Meta-Daten als Personal Information Model (PIMO) technologisch nutzen. Sie berücksichtigen damit die individuellen Ablagepräferenzen und -prioritäten. Diese führen zu unterschiedlichen Wahrnehmungen des gleichen Inhalts,
mehrfach abgelegter Information und eindimensionaler Ablagestrukturen. Sie bilden letztlich damit
die Intention ab. Der Dialog aus verschiedenen Perspektiven und Intentionen ist ein wesentlicher Teil
der Wissensentwicklung. Kontextinformation repräsentiert die Situation unter anderem durch das auslösende Ereignis, die Zeit oder den Prozessrahmen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
118
11.4 Gnowsis im Spektrum semantischer Suchen
SchlagwortIndex
Volltextsuche
Kategorien
Domainkonzept
Regeln
Inferenz
Semantiche Suche
Aus Sicht der Nutzerschnittstelle wäre Gnowsis originär nach der Klassifizierung von Lei et al.
(2006) in Kapitel 11.2 in Kategorie 2 (RDF-basierte Abfragen) einzuordnen. Gnowsis berücksichtigt
als Erweiterung zur Volltextsuche zusätzlich (referenzierte) Objekte aus Ontologien (Domainkonzept)
und auf per Inferenz geschlossene Objekte. Es kombiniert damit Kategorie 2 (Semantik-basierte
Schlagwortsuchen) und 3 (Beantwortungstools).
Abb. 20. Bausteine der Semantischen Suche
Abbildung 19 stellt die drei Bausteine und Schritte der semantischen Suche für Gnowsis schematisch dar. Indexbasierte Suchergebnisse werden durch statistische Verfahren verbessert sowie durch
die Einbeziehung von Ontologien und Inferenzen abgerundet.
Mangold (2007) geht in seiner Klassifizierung über die reine Sicht von Lei et al. (2006) der Nutzerinteraktion hinaus und berücksichtigt weitere Klassifizierungskriterien. In Bezug auf Gnowsis lassen
sich diese wie folgt erörtern:
•
•
•
•
•
Architekur:
Stand-alone, mit eigenem Dokumentenindex
Coupling:
Für Gnowsis trifft weder eine lockere noch eine enge Verknüpfung als Einzellösung zu.
Vielmehr kann man von einer hybriden Lösung sprechen. Aufgrund der dynamischen Verknüpfung der Ontologie über das PIMO ist sowohl die lose Koppelung enthalten als auch
eine enge Kopplung durch die Indizierung der Dokumentenbasis. Diese dynamische und
hybride Form ist ein Differenzierungsmerkmal von Gnowsis gegenüber anderen beschriebenen Verfahren, wie SHOE (Heflin 2000). Es soll damit eine weiter verbesserte Precision
und Recall erzielt werden und der individuellen Perspektive des Nutzers besser Rechnung
getragen werden.
Semantische Transparenz und Modifikationsmöglichkeit:
Dieses Kriterium beschreibt analog zur Klassifizierung von Lei et al. (2006) die Nutzerschnittstelle und die explizite Beeinflußbarkeit der semantischen Strukturen durch den Nutzer. Gnowsis bietet, wie TAP (Guha et al. 2003), einen zweistufigen, hybriden Ansatz. Es
extrahiert zum einen automatisch Ontologien aus dem PIMO, erlaubt aber diese durch den
Nutzer zu modifizieren.
Nutzerkontext:
Über die Bewertung der Dokumentenrelevanz im brainfiler lässt sich ein lernendes Verhalten annehmen. Ein etablierter Lernalgorithmus existiert nicht, da die Nutzerspezifikation
dynamisch aus dem PIMO erzeugt wird.
Strukturformen der Ontologie und Ontologiesprache:
Gnowsis nutzt RDF-basierte Ontologiesprachen und weist keine domainspezifischen Ontologiestrukturen auf. Mit Hilfe des ontology matchings legt Gnowsis Grundlagen für eine
dynamische Ermittlung von common-sense-Strukturen. Im Prototyp sind diese noch nicht
final ausgeprägt.
Gnowis würde durch die Verwendung des PIMOs bei einer kleineren Komplexität der Anfrage bessere Genauigkeit erreichen. Damit verbunden wäre eine Reduzierung der lexikalischen Mehrdeutig-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
119
keit. Gnowsis testet mit Hilfe des PIMO dynamische Ansätze und Hebel, die bisherigen, historisch
rückblickenden Klassifikationskriterien zu erweitern.
Die Arbeit konzentriert sich auf die Untersuchung der Wirkung des Prototypen als Ganzes in seiner
Ergebniswirkung auf Precision und Recall und in seiner Wirkung Perspektiven in Form von Rollen
abzubilden. Für eine tiefergehende, technische Einordnung von Gnowsis wäre eine Ausdifferenzierung
der Kriterien Coupling und Nutzerkontext hilfreich. Diese Forschungsfrage wird nicht weiter verfolgt,
aber als weitergehende Forschung angeregt.
Inwieweit sich diese architekturtechnischen Aussagen und damit Frage (F-6.4) im Praxisumfeld bestätigen, soll der nachfolgende Test zeigen. Er testet die Gesamtperformance in Bezug auf
bestehende Suchen im Praxisumfeld und diskutiert über den Vergleich verschiedener Kollaborationsszenarien den Einfluss des Einzelaspekts nativer Strukturen als Repräsentant für die Rolle eines Nutzers. Die Performanceoptimierung des brainfilers wird aus früheren Tests vorausgesetzt und im Rahmen der Gesamtperformance mitberücksichtigt.
11.5 Testansatz
Gnowsis als semantische Suche im Semantic Desktop verfolgt mit Hilfe eines Personal Information
Models auf Basis einer peer-to-peer-Vernetzung das Ziel, den subjektiven Charakter von Wissen
zu repräsentieren und bottom-up zu konstruieren (Sauermann 2003).
Wie in Kapitel 9 beschrieben, wirken Technologien auf unterschiedlichen Ebenen. Im Folgenden
wird die Wirkung der semantischen Suche für die Erstellung eines Management Summaries auf
Begriffs- und Bedeutungsebene anhand von Dokumententiteln und ihren Ablagestrukturen diskutiert.
Dabei wird untersucht, inwieweit diese eine Verbesserung gegenüber in der Praxis eingesetzten Technologien bringen und inwieweit sie Rollen als Intentionen in der Wissensentwicklung berücksichtigen
können: Die Tests werden auf Basis realer, aber aus datenschutzrechtlichen Gründen anonymisierter Datensätze aus dem betrieblichen Alltag der SIS getestet.
Gnowsis macht die Funktionalitäten webbasiert verfügbar und ist als Prototyp im Unternehmenskontext einsetzbar. Gnowsis verbindet damit eine einfache Multi-Schlagwort- Eingabeform mit einem
mehrstufigen Algorithmus basierend auf terminologischer Konzeptualisierung (Dengel 2006). Dieser
verwendet für den Nutzer unsichtbar semantische Konzepte bei der Identifikation und in der Bewertung der Suchergebnisse. Begriffsähnlichkeiten und vorbereitetete statistische Häufigkeitsanalysen
werden in Dokumenten kombiniert.
Im Folgenden wird untersucht und dargestellt, welche Rolle das PIMO bei der semantischen Suche Gnowsis spielt. Vermutet wird, dass die Nutzung des PIMOs die Suchqualität durch folgende Aspekte steigert (Gordon und Pathak 1999):
a) Erhöhung der Verfügbarkeit von Information (Recall) durch Identifikation der benötigten Assets, welche nicht durch ähnliche Keywords ausgezeichnet sind. Beispielhaft wird das Projekt
mit „Kunde 1“ gefunden, wenn nach „Kostenreduktion“ gesucht wurde, da das Projekt mit Kunde 1 in Beziehung zum Thema Kostenreduktion steht.
b) Erhöhung der Relevanz (Precision), indem die Rolle sowie die Intention des Nutzers für das interne Ranking der Ergebnisse sowie deren Auswahl (Precision) berücksichtigt werden. Ein auf
vielen Peers zum gesuchten Keyword passendes Asset erhält mit größerer Wahrscheinlichkeit
ein höheres Ranking als ein Asset, das auf verschiedenen Peers über unterschiedliche Keywords
identifiziert wird.
In der Angebotsentwicklung lassen sich unterschiedliche Teilbereiche der technologischen Unterstützung identifizieren. Beispiele aus der Praxis sind Vorschlag einer Story für ein Angebot oder Nutzung und Integration strukturierter Daten aus CRM- oder ERP-Systemen zur Preisbildung. Im Hinblick auf die zu testende und zur Verfügung stehende Technologie bietet sich an, die Auswahl
vorhandener Dokumente und Wissensobjekte näher zu untersuchen. Gerade hier stoßen die Ansätze
120
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
der Wissensverteilung, im Sinne eines re-use, an ihre Grenzen. Zur weiteren Optimierung mit heutigen
Ansätzen bedarf es eines unverhältnismäßig größeren Redaktions- und Pflegeaufwandes. Fraglich ist
also, inwieweit sich die Ergebnisrelevanz technologisch steigern lässt.
11.5.1 Testmethode
Information Retrieval (Dengel 2008) klassifiziert Suchergebnisse in Contingency charts nach Präzision und Korrektheit. Vier Kategorien werden dabei unterschieden: Präsise und richtig erkannt (correct accept), präzise, aber unrichtig (correct reject), unpräzise, aber richtig erkannt (false accept) soweie unpräzise und unrichtig (false reject).
Gemessen wird die Relevanz mit der allgemein anerkannten und üblichen Methode von Precision
und Recall nach Brünken (1998). Dabei sei :
N
die Menge aller Objekte des Systems
M
die Menge aller relevanten Objekte mit M
P
die Menge der angebotenen Dokumente/ Objekte (=Suchergebnis)
Q
die Menge aller nicht-relevanten Objekte
Ma
die Menge angebotener (a) relevanter Objekte (Ma
Qa
die Menge angebotener (a) nicht-relevanter Objekte (Qa Q). Diese wird als Noise bezeichnet (false accept). Rejection bezeichnet die Menge nicht relevanter und nicht angezeigter Dokumente
N und |M|
|N|
M). Diese wird als Hits bezeichnet (correct accept)
Ihre Zusammenhänge, Abgrenzungen oder Überschneidungen illustriert Abbildung 20:
Qa
N
Q
M
Ma
P
Abb. 21. Schema und Abgrenzung der Qualität von Suchergebnissen
In einem Beispiel sind gegeben: |N| = 26, |Q| = 16, |M| = 10, |P| = 8, | Qa| = 2 und | Ma| = 6; Als Egebnis
wären für Precision und Recall folgende Werte zu ermitteln: r = 6 / 10 = 0,6; p = 6 / 8 = 0,75.
Basierend auf der Gesamtzahl verfügbarer Dokumente und Objekte beschreibt Recall (r) damit die
Quote der gefundenen relevanten Objekte verglichen mit den verfügbaren relevanten Objekten:
r = |Ma| / |M| mit 0 ≤ r ≥ 1
(3)
Ein idealer Wert für r ist offensichtlich 1. In diesem Fall (|Ma| = |M|) wären alle relevanten Objekte
im Suchergebnis vorhanden. Da sich der Wert relativ leicht durch Aufweichung der Suchkriterien
verbessern ließe, wird zur Verfeinerung der Aussage über die Qualität des Suchergebnisses noch die
Precision mit berücksichtigt. Im einfachsten Fall ließe er sich durch Lieferung aller vorhandenen und
damit aller relevanten und nicht relevanten Dokumente aufweichen. Für den Suchbegriff wurde daher
vorher festgelegt, welche Objekte als relevant grundsätzlich zur Verfügung stehen.
Precision (p) bezieht nun die gefundenen relevanten Dokumente auf alle im Suchergebnis angezeigten Dokumente und stellt deren Quote dar. Das Suchergebnis könnte durch weitere Funde verschlechtert worden sein:
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
p = |Ma| / |P| mit 0 ≤ p ≥ 1
121
(4)
Das Ziel ist, einen möglichst hohen Anteil an relevanten Objekten im gesamten Suchergebnis zu liefern. Dies ermöglicht es einem Nutzer, aufgrund der geringen Anzahl nicht-relevanter Objekte die relevanten Objekte der Suchergebnisse leichter zu identifizieren. Im Idealfall gilt auch für p der Wert 1.
In diesem Fall (|Ma| = |P|, |Qa| = 0) würden nur relevante Objekte geliefert. Dies lässt sich im Gegensatz zu r, am leichtesten durch eine Verschärfung der Suchkriterien beeinflussen, indem nur Objekte
geliefert werden, die aus Systemsicht sicher relevant sind.
Fallout (f) ist die Quote der gefundenen nicht-relevanten Objekte:
f= |Qa| / |Q| mit 0 ≤ f ≥ 1
(5)
Ziel ist, möglichst wenige der vorhandenen nicht-relevanten Objekte im Suchergebnis zu liefern,
und stellt somit ebenfalls eine Erweiterung der beiden anderen Qualitätskriterien dar. Im Idealfall (|Qa|
= 0, |Q| > 0) gilt somit für f der Wert 0. Der Vollständigkeit halber bezeichnet Rejection die Menge
nicht relevanter und nicht angezeigter Dokumente. (siehe Krutz et al. 2003)
Im Test sehen Ergebnistabellen beispielhaft wie folgt aus:
Tabelle 19. Beispielhafte Suchergebnisse für brainfiler und LiveLink
Kunde1
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
P
(found)
Q
Ma
(correct
accept)
Qa
(false
accept)
(correct
reject)
c/b
(false Precision Recall (r) Fallout
F-Wert
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
measure
155
81
89
10
6
7
145
75
82
13
9
10
10
6
7
3
3
3
0
0
0
142
72
79
0,77
0,67
0,70
1,00
1,00
1,00
0,02
0,04
0,04
0,97
0,95
0,96
7
3
4
140
96
155
15
8
17
125
88
138
17
11
19
14
20
13
8
15
11
15
4
3
4
3
5
2
0
2
-11
-15
121
85
134
-3
1332
0,76
0,73
0,79
0,79
0,75
0,87
1,00
0,88
0,03
0,03
0,03
0,86
0,96
0,88
7,86
19,50
9
5
11
8
10
1337
Im Folgenden werden Szenarien definiert. Sie unterstützen die Untersuchung, inwieweit sich der
subjektive Charakter von Wissen in Form von Rollen wiederfinden lässt. Sie erlauben die Diskussion
innerhalb des Anwendungsfalls der Angebotserstellung.
Grundsätzlich ist der Wunsch nach hohem Recall und hoher Precision selten erfüllbar. Liegt der
Schwerpunkt auf einer möglichst großen Ergebnismenge, ist ein hoher Recall ausschlaggebend bei
gleichzeitig sinkender Precision. Wird der Anspruch auf die Genauigkeit der gefundenen Dokumente
gelegt, sollte die Precision hoch sein, wobei der Recall abfällt.
11.5.2 Testszenarien
Als Testszenarien wäre ein Vergleich der Technologie in verschiedenen wissensintensiven Prozessen oder ein Vergleich unterschiedlicher Szenarien in einem wissensintensiven Prozess denkbar. Zu
unterschiedlich sind wissensintensive Prozesse, um eine eineindeutige Aussage über den Einfluss der
Technologie machen zu können, so dass hier der Szenariovergleich innerhalb eines Anwendungsfalls
angewandt wird. Sollte sich die Hypothese bestätigen, dass Rollen geeignet sind, um als PIMO die
Perspektive eines Nutzers zu repräsentieren und damit die Ergebnisrelevanz zu steigern, könnte ein
Vergleich zwischen Anwendungsfällen untersucht werden. In Ergänzung wird durch Test des Semantic Desktop unter Praxisbedingungen eine zusätzliche Aussage im Vergleich zum Labortest gewonnen.
Er ist bei Bestätigung Hinweis auf das Potential einer Modellanwendung in anderen wissensintensiven
Prozessen.
In Workflow-Umgebungen wurden bisher nur situationsspezifische Kontextinformationen wie Zeit
oder Aktivität berücksichtigt. Die Rolle repräsentiert die individuelle Perspektive und enthält damit
122
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
eine Intention oder Aufgabe. Sie könnten Informationen weitere Bedeutung verleihen. Hierfür soll mit
dem Test getrennt untersucht werden, wie sich die Rolle in homogenen (gleichen Rollen) und heterogenen (unterschiedlichen Rollen) Gruppen und Kollaborationssituationen auf die Relevanz von Informationen auswirkt. Die unterschiedliche Dokumentenbasis kann als peer-to-peer-Architektur verfügbar gemacht werden. Sie repräsentiert hierin unterschiedliche Mitarbeiter, die mit ihren Dokumenten
die Basis möglicher relevanter Dokumente vergrößern.
Homogene und heterogene Gruppen differenzieren sich durch zwei wesentlichen Einflussgrößen:
Rolle und Dokumentenbasis. Sie bilden, wie in Abbildung 21 aufgezeigt, Szenarien, über die die
Auswirkungen von Konzepten und Regeln in Gnowsis auf die Relevanz der Suchergebnisse getestet
werden.
Wissensobjekt
verschieden
Szenario 2
Szenario 4
ähnlich
Szenario 1
gleich
Szenario 3
ähnlich
verschieden
Rolle
Abb. 22. Testszenarien in Abhängigkeit von Rolle und Wissensobjekt
Gnowsis ist die semantische Suche im Semantic Desktop. Sie verwendet, wie verschiedene andere Dienste im Semantic Desktop, semantischer Konzepte und Regeln. Erste Erfahrungsberichte aus der
Entwicklungsumgebung mit willkürlichen Daten und Dokumenten zeigten bereits deutliche Verbesserungen in der Ergebnisrelevanz gegenüber herkömmlichen (Volltext-)Suchen. Der Test validiert daher
im ersten Teil (Szenario 1) zunächst die Erfahrungsberichte mit Gnowsis mit anonymisierten Strukturen und Daten aus dem Tagesgeschäft auf einem einzelnen Desktop.
Der zweite Teil diskutiert im Vergleich der Szenarien 2 und 3 mit Szenario 1, welchen Beitrag die
Technologie in der Kollaboration leisten kann. Semantische Konzepte werden hier nach den existierenden Rollen Proposal Manager und Sales Manager modelliert. Sie werden als Teil eines Personal Information Models (PIMO) repräsentiert und ermitteln sich aus bottom-up, dynamisch ermittelten nativen Strukturen, wie Folder- oder Mailordnerstrukturen.
Zur Erörterung, inwieweit sich beide Erkenntnisse gleichzeitig erzielen lassen, wird Szenario 4 mit
Szenario 1 vergleichen. Für eine grundsätzliche Einordnung der Ergebnisse stellt der Test die Ergebnisse von Gnowsis in Szenario 4 als Suche mit semantischen Konzepten den Ergebnissen der bei
SIS eingesetzten zentralen Knowledgebase Livelink ohne Konzepte gegenüber.
In Szenario 1 werden vor allem Verbesserungen der Precision erwartet, da mit der Beschränkung
auf einen Desktop wenige Störungen und nicht-relevante Dokumente Einfluss nehmen.
In Szenario 2 wird ein zweiter Arbeitsplatz eines Nutzers mit ähnlicher oder gleicher Rolle (Sales
Manager) untersucht. Dieser Sales Manager arbeitet an unterschiedlichen Themen (oder unterschiedlichen Kunden) und somit an unterschiedlichen Dateien. Trotz der unterschiedlichen Inhalte bewegen
sie sich aufgrund der gleichen Rolle in gleichen Domänen, wie Kalkulationen, Trends, Lösungen,
Entwicklung, etc. Es wird angenommen, dass die Nutzer ihren Arbeitsplatz in ähnlicher Weise organi-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
123
sieren sowie ein ähnliches Vokabular verwenden. Nutzer mit gleicher Rolle, die auf einem unterschiedlichen Datenbestand arbeiten, könnten somit von einander profitieren, indem sich durch die
teilweise komplementären Informationen der Peers die gesamte Datenbasis erhöht und den Nutzern
somit potenziell mehr relevante Informationen für seine Arbeit zur Verfügung stellen. In der Folge
wird eine Steigerung des Recalls erwartet.
In Szenario 3 werden Nutzer mit den unterschiedlichen Rollen Sales Manager und Proposal Manager berücksichtigt, die aber an ähnlichen oder gleichen Themen und Dateien arbeiten. Insbesondere
Kunden-Communities sind schwach strukturierte Arbeitsbereiche. Sie verbinden Nutzer mit unterschiedlichen Rollen, wie Sales Manager, Solution Designer, Proposal Manager, Project Manager, etc.
Sie arbeiten alle mit demselben Kunden zusammen. Einige der Dokumente werden zentral gespeichert. Der Großteil der Informationen wird sich in Dokumenten auf dem jeweils lokalen Arbeitsplatz
wiederfinden. Die gemeinsame Nutzung vom individuellen Standpunkt aus wird als nicht notwendig
oder sinnvoll erachtet. So arbeitet jeder Nutzer oder jede Rolle weiterhin überwiegend mit den Dokumenten seines eigenen Arbeitsplatzes, wobei hingegen nur ein Teil der Informationen innerhalb der
Community geteilt wird. Die Nutzer könnten davon profitieren, dass auf den unterschiedlichen Peers
ähnliche Dokumente mit rollenbedingt unterschiedlichen Konzepten und somit mehr Informationen zu
ähnlichen Dokumenten zur Verfügung stehen. Die Erweiterung der Datenbasis um ähnliche Dokumente sollten den Faktor Recall positiv beeinflussen. Die hinzugekommenen Konzeptinformationen zu
ähnlichen oder gleichen Dokumenten sollten den Wert für Precision beeinflussen.
In Szenario 4 werden Nutzer mit unterschiedlichen Rollen betrachtet, die an unterschiedlichen
Themen oder Dateien arbeiten. Jeder der Nutzer arbeitet überwiegend auf seinem eigenen Arbeitsplatz. Kommunikation und der Austausch von Informationen findet im organisatorisch vorgegebenen
Rahmen statt. Die unterschiedlichen Rollen könnten von Informationen des anderen profitieren. Sie
gehen das Risiko ein, dass sich durch Verfügbarkeit vieler irrelevanter Dokumente die Relevanz der
Suchergebnisse verringert.
11.6 Testbasis
Die für diese Tests zu verwendenden Begriffe werden anhand von markanten, in den Dokumenten
enthaltenen Passagen ermittelt. Sie werden mit den Ergebnissen aus der Befragung von Vertretern der
Rollen Sales und Proposal Manager abgeglichen. Hieraus ergeben sich für die durchzuführenden Tests
folgende Suchanfragen: Cost Reduction, Business Efficiency, Call-Center, Help-Desk, Infrastructure, Communication, SAP R3, RFID, Voice Data Solution, Outsourcing, Financial Market und
Kunde1 (als anonymisierter Stellvertreter für Kundennamen). Die Tests werden mit den hier aufgeführten Begriffen in den gegebenen Szenarien durchgeführt. In den einzelnen Szenarien werden jeweils alle Suchbegriffe getestet. Die zuvor ermittelten Werte (Gesamtzahl der Elemente, sowie die
Anzahl der relevanten und nicht relevanten Elemente) sowie die aus den Tests hervorgegangenen
Werte werden in die entsprechende Tabelle eingetragen. Anschließend werden die Qualitätsparameter
berechnet.
11.6.1 Datenbasis und Ordnerstrukturen
Für die durchzuführenden Test wurden zunächst passende Dateien und Ordnerstrukturen ausgewählt. Grundlegende Datenbasis bilden die über 100 anonymisierten deutschen und englischen Management Summaries von Angeboten. Diese werden durch entsprechende, zur Erstellung der Management Summaries, verwendete Quelldateien ergänzt. All diese Dateien stehen unter LiveLink, in einem
für das Projekt angelegten Testordner zur Verfügung und können somit von LiveLink durchsucht werden.
Für den Proposal Manager werden, in Anlehnung an die Vorgaben der SIS-Projekt-Struktur, folgende Ordner und Unterordner verwendet:
124
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Tabelle 20. Ordnerstruktur eines Proposal Managers
Ordner
Basisdaten
Unterordner
Allgemeine Informationen, Teammitglieder,
Querverweise
Projektauftrag, Projektpläne, Kalkulationen, Risiko-Management, Qualitätsmanagement, Kundenbeziehung
Ressourcenverteilung, Bewilligungen
Mit Kunde, Partner, Team
Zulieferungen, Beistellungen
Abnahmen, Auftrag
Abschlussbericht, Lessons learned
Präsentationen, Vorlagen, Hintergrund-Infos
Management
Berichte
Kommunikation
Lieferungen
Verträge
Ergebnisse
Verschiedenes
Für die Sales Manager wird, in Anlehnung an die Realdaten von verfügbaren Sales Managern, folgende Struktur angenommen:
Tabelle 21. Ordnerstruktur eines Sales Managers
Ordner
Kommunikation
Unterordner
E-Mails, Briefe
Meetings, Kontakte, Thema 1, Thema 2, Präsentationen
Controlling, Marktstudien, Referenzen, Strategien
Personal, Kontakte
Thema 1, Präsentationen, Vorträge, Verschiedenes
Berichte, Downloads
Sales und Marketing
Initiativen
Organisation
Kunde 1
Sales Service
Die im Testordner verfügbaren Dateien werden nun entsprechend ihrem Inhalt auf die jeweiligen
Ordner der einzelnen Nutzer verteilt. Diese Verteilung berücksichtigt die in den Kernszenarien (S1 S4) gegebenen Voraussetzungen. Die ähnlichen Verzeichnisstrukturen der beiden berücksichtigten
Sales Manager werden zum Beispiel mit Dokumenten zu unterschiedlichen Themen gefüllt.
11.6.2 Organisatorische Ontologie
Zur Ergänzung des PIMO wird als organisatorische Ontologie auf das SIS Ontologiemodell zurückgegriffen. Dies wird mittels Protegé (http://protege.stanford.edu/) modelliert. (siehe Anhang A,
Source Code). Hierin werden ein Informations-, Kunden-, Organisations-, Produkt, Rollen- und
Workflowmodell abgebildet.
Abb. 23. Ontologie - Informationsmodell
Das Informationsmodell besteht aus Dokumenten sowie deren Spezialisierungen, Projektdokument
und Template. Zwischen den einzelnen Dokumenten bestehen diverse Beziehungen. Die wichtigste ist
die Kennzeichnung, dass ein Dokument auf einem anderen beruht, um so die Struktur des Management Summary Templates abbilden zu können und auf die Quelldokumente eines gefundenen Objekts
schließen zu können. In Anlehnung an Zeilbeck und Franz (2005) werden die in der Ontologie notierten Dokumente (Templates und Best- Practice-Dokumente) mit den entsprechenden Meta-Daten versehen. Diese sind: Title, Creator, Publisher (Owner), Contributor (Co-Author of a document), Subject
(Keywords), Description, Document Type, Language und Coverage (Countries).
Meta-Daten wie Verweise auf Personen werden nicht textuell, sondern als direkte Referenzen angelegt. Projektdokumente enthalten zusätzlich eine Referenz auf das jeweilige Projekt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
125
Abb. 24. Ontologie - Kundenmodell
Dem Kundenmodell liegt die Struktur der SIS Brancheneinteilung zugrunde. Für Instanzen von
Kunden und Kundenanforderungen werden beispielhaft Daten aus den verfügbaren Dokumenten verwendet. Kunden werden ebenfalls den einzelnen Projekten zugeordnet.
Abb. 25. Ontologie - Organisationsmodell
Dem Organisationsmodell liegt die grundlegende Organisationsstruktur von SIS zu Beginn dieser
Arbeit zugrunde. Die Hierarchie wird mit Dummydaten aufgefüllt.
Abb. 26. Ontologie - Produktmodell
Im Produktmodell sind die Beziehungen zwischen Portfolioelementen und daraus zusammengestellten Business Topics oder Solutions für einzelne Projekte ausgewiesen.
Abb. 27. Ontologie - Rollenmodell
Das Rollenmodell resultiert aus den bei SIS existierenden Rollen sowie deren Ausprägungen (in
Form von Entwicklungsstufe oder Expertenlevel). Die typischen Fähigkeiten und Kenntnisse einer
126
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Rolle sind ebenfalls ausgewiesen. Dies würde ausblickend beispielsweise Assignment-bezogene Tests
ermöglichen. Die anonymisierten Personen werden mit ihrer Rolle versehen.
Abb. 28. Ontologie - Prozessmodell
Dem Workflow-Modell liegen die SIS Prozessdefinitionen aus Kapitel 0 zugrunde. Zur jeweiligen
Aufgabe werden das gewünschte Template und die entsprechende Verantwortlichkeit einer Rollenausprägung hinzugefügt. Insgesamt ergibt sich somit eine Ontologie, in welcher anhand der nachfolgend
notierten Inferenzen Schlussfolgerungen gezogen werden können.
11.6.3 Systemvoraussetzungen
Das positive Ergebnis der mit Hilfe der Abteilung für Softwareinstallationen durchgeführten Überprüfung der allgemeinen Installierbarkeit auf SIS-typischen Rechnersystemen bestätigt die vom DFKI
angenommenen Systemvoraussetzungen für die Verwendung von Gnowsis.
Tabelle 22. Systemvoraussetzungen
System
Brainfiler Client
Minimal
Windows 2000, XP und
2003
600 MHz, 384 MB RAM
Empfohlen
Windows 2000, XP und
2003
2000MHZ, 512 MB RAM
Brainfiler Server
Windows 2000, XP und
2003
1000 MHz, 512 MB RAM
Windows 2000, XP und
2003
2500MHZ, 768 MB RAM
Modellierung
Windows 2000, XP und
2003
1500 MHz, 512 MB RAM
Windows 2000, XP und
2003
3000 MHz, 1024 MB RAM
Tabelle 22 zeigt die seinerzeit hohen Leistungsanforderungen pro Arbeitsplatz des unter Windows
lauffähigen Semantic Desktops und seiner Modellierungswerkzeuge.
11.7 Testergebnisse
In Erweiterung zur Suche mit semantischen Konzepten werden die Szenarien mit manuellen rollenspezifischen Regeln betrachtet. Dabei soll untersucht werden, inwieweit mit dem gleichen Redaktionsaufwand wie heute für Informationskategorisierung eine weitere Steigerung der Relevanz erzielt
werden kann.
Im Vergleich zur bisher bei SIS eingesetzten LiveLink-Suche über eine vergleichbare Grundgesamtheit gemäß den Szenarien zeigt sich, dass in allen eine Steigerung sowohl des Recalls als auch
der Precision erzielt werden konnte:
Tabelle 23. Gesamtverbesserung gegenüber bisheriger LiveLink Suche (ohne Regeln)
Szenario
S2
S1
Recall
10%
23%
Precision
28%
29%
Szenario
S4
S3
Diese wurden um besonders auffällige Werte wie folgt bereinigt:
Recall
6%
22%
Precision
18%
20%
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
127
Bei der Suche in brainFiler und LiveLink ist für Business Efficiency und Call-Center mit 1,00 ein
besonders hoher Recall-Wert zu identifizieren. Mögliche Ursache ist eine gute Indizierung der relevanten Dateien. LiveLink findet zu Call-Center viele nicht-relevante Dokumente (p=0,25). Beim synonymen, organisatorisch verwendeten Begriff Help-Desk sieht das Ergebnis mit p=0,50 etwas besser
aus. Auch bei den weiteren Begriffen liegt LiveLink mit den Precision-Werten meist unter denen des
brainFilers
Bei der Suche mit Gnowsis (mit Ontologie) werden durchgängig hohe Werte für Precision erzieht.
Dies liegt unter anderem darin begründet, dass in der Ontologie nur zusätzliche exakte Treffer gefunden werden und nicht versehentlich auf nicht relevante Einträge geschlossen werden kann. Die RecallVerbesserungen fallen in S2 und S4 nicht ganz so hoch aus. Im Gegensatz zu S1 und S3 erhöht und
differenziert sich hierbei die Datenbasis. Dies erhöht M, die Menge der relevanten Dokumente. Die
verfügbaren Ontologien können in dieser Komplexität nur über Inferenzen automatisch erschlossen
werden, wie nachfolgende Tabelle verdeutlicht. Damit reduziert sich Ma, die Menge der daraus angebotenen Treffer.
Bis auf vereinzelte LiveLink-Ergebnisse, bei SAP R3 und Outsourcing, bleiben die Werte für Fallout auf einem konstant niedrigen Niveau.
Die Ergebnisse unter Ergänzung rollenspezifischer Regeln, wie „If a project was found, determine
the project documents as a possibly good source document for the current task“, verdeutlichen, dass
sich hierüber vor allem beim Recall weitere Verbesserungen von 15-20% erzielen lassen:
Tabelle 24. Gesamtverbesserung gegenüber bisheriger Livelink Suche (mit Regeln)
Szenario
S2
S1
Recall
24%
39%
Precision
29%
31%
Szenario
S4
S3
Recall
26%
39%
Precision
20%
21%
Diese Steigerung ist durch die manuelle Bewertung weiterer relevanter Objekte aus Sicht einer Rolle zu erklären. Die Testdaten und absoluten Zahlen sind verfügbar und werden als Anhang zur Arbeit
bereitgestellt.
11.7.1 Erfahrungsberichte werden bestätigt
Erfahrungsberichte von acht Forschern im Entwicklungsrahmen von Gnowsis weisen auf eine sehr
gute Repräsentation der Nutzersicht im Sinne einer Relevanz hin. Die Testpersonen stufen das Tool in
ihrer täglichen Arbeit im Befragungszeitraum über eine Woche auf der Basis von strukturierten Interviews subjektiv als hilfreich ein. Dabei wird vor allem festgestellt, dass unerwartete Informationen gefunden und die eigene Kategorisierung, aber auch die anderer Teilnehmer, bei der Suche hilfreich ist.
Der Gnowsis-Test bestätigt für den ersten Teil des Tests nun die Erfahrungsberichte im Praxisrahmen bei SIS und auf Basis einer Precision- und Recall-Standardbewertungsmethode für Suchmaschinen.
Tabelle 25. Ergebnisse gegenüber Laborbedingungen
Beschreibung
Ziel
Beobachtung
Erfahrungsberichte
Szenario 1 (ohne Regeln)
(Sauermann 2006)
Suche mit willkürlich modellierten Suche mit real modellierten Rollen und reRollen und Dummy-Daten auf ei- alen Datensätzen aus der SIS Praxis auf einem Desktop in der alltäglichen nem Desktop mit hinreichend großem DaForschungsarbeit
tenvolumen
Bestätigung der Wirkung von Gnowsis unter Praxisbedingungen
Unerwartete Informationen wurden p: 29%, r: 23%
als relevant gefunden (Recall)
In Ergänzung zum Recall steigt auch die Precision an. Diese lässt sich nicht originär aus den Daten ableiten, sondern ergibt sich aus den Nutzerstrukturen.
Die Nutzung eines Systems wie LiveLink, ermöglicht es dem Nutzer bei einer Suche, die entsprechend der ermittelten Relevanz sortierten Dokumente zu erhalten. Entweder ist der eingegebene Beg-
128
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
riff direkt im Dokument enthalten oder das Dokument wird aufgrund assoziativer Ähnlichkeit gefunden. Zu wichtigen in den Dokumenten enthaltenen Meta-Daten, wie Autor, liefert LiveLink eine zusätzliche Ergebnisliste. Wenn der Autor der Dokumentenvorlage und nicht der Autor des eigentlichen
Inhalts angegeben wurde, liefert diese Liste eine große Anzahl unbrauchbarer Ergebnisse. Der Test der
lokalen Suche zeigt, dass brainFiler und LiveLink annähernd die gleichen Ergebnisse ermitteln. Dies
geschieht unabhängig von der auf Regeln und Ontologien basierenden Nutzung der semantischen Suche.
Unter Gnowsis werden, durch die Verwendung von Ontologien und Regeln, zusätzlich die zum
Suchbegriff passenden Informationen wie Kontakte oder Projekte angegeben, da diese Ergebnisse in
einer semantischen Beziehung zueinander stehen. Da unter LiveLink, im Gegensatz zu brainFiler oder
Gnowsis, mehr nicht relevante Dokumente angezeigt wurden, könnte der Semantic Desktop bereits in
diesem frühen Beta-Stadium, LiveLink erweiternde Funktionalität bereitstellen. Dies wird automatisiert durch die Ermittlung des initialen Ergebnisses der Suchverfeinerungen, Ermittlung der Konzepte,
des Kontexts und der Sucherweiterungen durch Inferenzen. Andernfalls müssten diese Schritte manuell in weiteren Suchdurchläufen ausgeführt werden.
Abb. 29. Screenshot (schematisch) Gnowsis für Szenario 1
Im obigen beispielhaften Screenschot des Gnowsis Suchergebnisses sind die drei ersten für die Suche nach Cost Reduction zu erkennen. Es handelt sich ausschließlich um relevante Dokumente.
Im Unterschied zwischen Sales Manager und Proposal Manager auf einem Desktop gelten die gleichen Aussagen wie für die lokale Suche eines Sales Managers. Aufgrund der unterschiedlichen Strukturen der Rollen haben sich trotz eines fast identischen Datenbestandes Unterschiede im Suchergebnis
gezeigt. Neben kleinen Unterschieden bei den gefundenen relevanten und nicht relevanten Dokumenten fallen vor allem die Unterschiede in der Reihenfolge der präsentierten Suchergebnisse auf. Diese
Abweichungen können auf die unterschiedlichen Arbeitsplatzstrukturen der Rollen zurückgeführt
werden.
Im Vergleich der einzelnen Szenarien gegenüber Szenario 1 ergeben sich folgende Diskussionen
und Ergebnisse. Im Beispiel werden die Ergebnisse eines Sales Managers zugrunde gelegt:
11.7.2 In homogenen Gruppen wirkt die Rolle auf die Ergebnisschärfe
In Szenario 2 werden homogene Gruppen als peer-to-peer-Netzwerk durch mehrere Desktops mit
den gleichen Folderstrukturen (gleiche Rolle) simuliert.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
129
Tabelle 26. Ergebnisse Szenario 2 gegenüber Szenario 1
Beschreibung
Ziel
Beobachtung
Szenario 1 (ohne Regeln)
Szenario 2 (ohne Regeln)
Suche mit modellierten Rollen auf Suche mit gleichen Rollen über
einem Desktop
mehrere Desktops
Wird die Rolle oder der MA durch das semantische Konzept repräsentiert ?
Beeinflusst die Systemarchitektur (zentral/ dezentral) die Ergebnisrelevanz ?
Recall in S2 (10%) steigt um 13%-Punkte nicht so stark wie in S1
(23%), Precision steigt mit 28% ähnlich stark wie in S1 (29%). Die angezeigten Ergebnisse werden um wenige neue relevanten Dokumente
erweitert. Vor allem aber werden sie um irrelevante bereinigt. Die Ergebnisschärfe wird gestärkt.
Der Zugriff auf unterschiedliche Peers vergrößert die Gesamtmenge der möglicherweise relevanten
Dokumente und deren Klassifikationen. Die Verfügbarkeit ähnlicher Peers lieferte deshalb mehr relevante, in ähnlichen Strukturen gespeicherte Dokumente als die lokale Suche. Somit lässt sich durch die
Tests feststellen, dass das Suchen mit Gnowsis über brainFiler, auf ähnlich organisierten Desktops, zusätzliche, unbekannten Informationen aufdecken kann.
Abb. 30. Screenshot (schematisch) Gnowsis für Szenario 2
Im Vergleich zu Szenario S1 wurden zwei weitere relevante Dokumente auf einem Peer (remote)
gefunden sowie die entsprechenden Konzepte identifiziert. Mehrere Desktops, als verschiedene Mitarbeiter in gleicher Rolle, stellen mehr und unterschiedliche Daten und Dokumente bereit. Es liegt auf
der Hand, dass hierdurch mehr relevante Dokumente zur Verfügung stehen und der Recall ansteigen
müsste. Dies ist nachweislich der Fall. Das Ergebnis zeigt, dass vielmehr als der Recall die Precision,
wie in S1, ansteigt. Dies legt den Schluss nahe, dass die modellierte Rolle unabhängig von der Datenbasis ihren Einfluss auf die Ergebnisschärfe ausübt. Erfahrungsgemäß dürften mehr Dokumente zu ei-
130
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
ner Verschlechterung (Vermischung mit irrelevanten Daten) des Ergebnisses führen. Gnowsis vermeidet also das Aussortieren irrelevanter Dokumente aus dem Suchergebnis in diesem Szenario.
Die gleiche Rolle und damit die gleiche Sicht auf unterschiedliche Dokumente verstärkt also die
Bedeutung eines Objekts. Die Eigenschaft Mitarbeiter sorgt nur für ein Mehr an Dokumenten. Gnowsis würde sich damit sehr gut eignen, in großen homogenen Gruppen die Ergebnisschärfe zu
steigern, und gerade hier Ansatzpunkte zur Automatisierung der Wissensentwicklung liefern. Es
setzt allerdings die einheitliche Ablagestruktur voraus. Sie könnte in einer Rollendefinition zentral
vorgegeben werden. Damit würden im Gegensatz zu top-down organisierten zentralen Plattformen,
wie Livelink, die aufwendigen Upload-Prozesse und der zentrale Redaktionsprozess gespart.
Zum zweiten lässt sich schließen, dass eine zentrale oder dezentrale Architektur eher eine Frage der
Flexibilität ist denn eine Frage der Ergebnisrelevanz. In beiden Szenarien stiegen alle Werte an und
die Precision sogar in gleichem Maße stark, was auf eine eher vernachlässigbare Einwirkung der Architektur schließen lässt.
11.7.3 In heterogenen Gruppen wirkt die Rolle auf die Zugänglichkeit relevanter Objekte
Der Vergleich zwischen Szenario 1 und Szenario 3 untersucht die Frage, inwieweit unterscheidlcihe
Rollen auf einem gemeinsamen Desktop wirken.
Tabelle 27. Ergebnisse Szenario 3 gegenüber Szenario 1
Beschreibung
Ziel
Beobachtung
Szenario 1 (ohne Regeln)
Szenario 3 (ohne Regeln)
Suche mit modellierten Rollen auf Suche mit unterschiedlichen
einem Desktop
Rollen auf einem Desktop
Können verschiedene Sichtweisen auf die gleichen Dokumente die Ergebnisrelevanz erhöhen ?
Recall in S3 steigt mit 22% ähnlich stark wie in S1 (23%), Precision
steigt mit 20% um 9%-Punkte weniger stark wie in S1 (29%). Es werden mehr relevante Dokumente gefunden, wobei die angezeigten durch
weitere irrelevante Dokumente verwischt werden. Es wird die Sichtbarkeit und Verfügbarkeit von relevanten Dokumenten gesteigert.
Das System erlaubt in diesem Szenario, eine Erweiterung der Suchergebnisse anhand der unterschiedlichen Verbindungen einer Datei mit den relevanten Begriffen und Konzepten. Verursacht durch
die brainFiler-Funktionalität kann das gleiche Dokument auf einem Experten-Peer mit hauptsächlich
relevanten Dokumenten eine niedrigere Klassifizierung haben als auf einem unspezialisierten Peer mit
breit gefächertem Wissen und hauptsächlich nicht relevanten Dokumenten. So sind bei einzelnen Suchen relevante und nicht relevante Dokumente zum Ergebnis hinzugekommen. Zusammen mit den
Resultaten aus S2 kann festgestellt werden, dass Peers eine größere Gesamtdatenbasis und die Berücksichtigung mehrerer PIMOs oder Perspektiven ermöglichen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
131
Abb. 31. Screenshot (schematisch) Gnowsis für Szenario 3
In S3 wurden zu den lokalen Ergebnissen noch ein nicht relevantes Dokument (markiert) und ein relevantes Dokument auf dem remote-Peer gefunden.
Der gleiche Datenbestand auf einem Desktop mit verschiedenen Rollen macht mehr relevante Dokumente durch die Nutzung der unterschiedlichen Ablagestrukturen verfügbar. Dies entspricht der
Praxiserfahrung, dass Kollegen in anderen Rollen Dokumente haben, die aus der eigenen Rolle und
der eigenen Perspektive nicht als relevant gefunden werden, weil sie in anderen Ordnern abgelegt
werden. Da sie im Suchergebnis durch irrelevante Dokumente verwischt werden, besteht hier weiterhin manueller Aufwand, diese aus dem Suchergebnis herauszuarbeiten. Einige Informationen wären
vorher gar nicht gefunden worden.
Die Zusammenarbeit verschiedener Rollen stellt zwar mehr relevante Dokumente zur Auswahl als ohne modellierte Rolle, hilft aber noch vergleichsweise wenig zur zielgerichteten Empfehlung und Bereitstellung.
Auch rollenspezifische Regeln tragen im aktuellen Fall wenig zur Verbesserung der Precision bei.
Sie helfen zwar weitere relevante Dokumente zu identifizieren, bedürfen aber weiterer Forschung, wie
sie zu gestalten wären, um auch die Precision stärker zu beeinflussen.
132
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
11.7.4 In unstrukturierten Gruppen wirkt die Rolle eher ergebnisschärfend
Der Vergleich zwischen Szenario 1 und Szenario 4 untersucht die Frage, ob beide Effekte gleichzeitig, wie in großen Communities (Intranet, Internet), auftreten können. Szenario 4 kann dabei als eine
Kombination der Szenarien 2 und 3 verstanden werden.
Tabelle 28. Ergebnisse Szenario 4 gegenüber Szenario 1 und Livelink
Beschreibung
Szenario 1
(ohne Regeln)
Suche mit modellierten Rollen auf einem
Desktop
Szenario 4
(ohne Regeln)
Suche mit unterschiedlichen Rollen auf verschiedenen Desktops
Schließen sich beide Effekte gegenseitig aus ?
Ziel
Beobachtung
Recall und Precision steigen beide weiterhin an.
Sie steigen mit r=6% und p=18% nicht so stark,
wie in Szenario 1 (r=23% und p=29%). Die beiden Effekte Recall und Precision wirken aufeinander, so dass ein Mehr an relevanten Dokumenten nicht ausreichend durch ein Mehr
an angezeigten relevanten Dokumenten ausgeglichen werden kann.
Livelink
Suche ohne Rollen mit realen
Datensätzen aus der SIS Praxis
auf einem zentralen Server
(vgl. einem großen Desktop)
Einordnung der Verbesserung
in ein Live-System ohne semantische Suche
Im Vergleich von S4 mit Livelink kann eine Steigerung in
Recall und Precision gegenüber dem implementierten
System und der gesamten Datenbasis festgestellt werden.
Es konnte ein erforderliches Dokument über synonyme Suchfragen (Help-Desk, Call-Center) aufgefunden werden. Da S4 eine Kombination der vorhergehenden Situationen ist, sind die Resultate eine
Kombination der in den vorangegangenen Situationen gelieferten Ergebnisse. Es ist eine Kombination
aller relevanten und nicht relevanten Dokumente. Alle vorhergehenden Situationen integrierend, unterstreicht dieses Resultat die Erwartung von S3, dass die Peersuche eine positive Auswirkung auf den
Recall-Wert und eine unter Umständen negative Auswirkung auf den Precision-Wert hat, wenn Peers
von Nutzern mit einer anderen Rolle (Perspektive) durchsucht werden.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
133
Abb. 32. Screenshot (schematisch) Gnowsis für Szenario 4
Auch in diesem Screenshot wurde der nicht relevante Eintrag markiert. Dieses Bild stellt die beschriebene Kombination der vorangegangenen Suchen noch einmal graphisch dar.
Die Ergebnisschärfe lässt sich zwar steigern. Für einen Einsatz von Gnowsis im Internet oder Intranet als Kombination aus mehr gefundenen relevanten Informationen und deren präzisere Darstellung
im Suchergebnis reicht die Signifikanz des Anstiegs von Recall und Precision nicht aus. Regeln wirken, wie in dem anderen Vergleich, relevanzsteigernd. Sie sind aber immer mit manuellem Redaktionsaufwand verbunden.
Im Vergleich zu bisherigen Systemen konzentriert sich dieser aber weniger auf eine Verschlagwortung und bewegt sich mit Regeln auf einer anderen Ebene. Zu untersuchen wäre, inwieweit sich solche
Regeln auch (semi-)automatisch aus Workflow-Systemen ableiten ließen.
11.7.5 Insgesamt wirkt die Rolle, aber gruppenspezifisch
Zusammenfassend wirkt die Berücksichtigung der Rolle ergebnisschärfend (p hoch) in homogenen
Gruppen und ergebniserweiternd (r hoch) in der Zusammenarbeit heterogener Gruppen. Sie beschleunigt damit das Auffinden relevanter Informationen (ergebnisschärfend) in homogenen Gruppen.
In der rollenübergreifenden Zusammenarbeit bewirkt sie die Identifikation von Informationen, die bisher nicht gefunden wurden (ergebniserweiternd).
134
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Die bisherige Modellierung von Rollen in Prozessen in Form von Aktivitäten und Verantwortlichkeiten reicht für die Modellierung nicht aus. Für eine kontextgerechte Bereitstellung von Informationen und damit Entwicklung von Wissen werden Prozesse um Informationsflüsse ergänzt. Ebenso müssen Rollen um eine informationstechnische Modellierung ergänzt werden. Sie tragen damit zur
Steigerung der Informationsrelevanz und zur Automatisierung der Wissensentwicklung bei.
Das PIMO erweist sich aber als geeignet, eine Nutzerperspektive zu modellieren und technologisch nutzbar zu machen. Die Ergebnisse unterstützen damit die Literaturdiskussion zur Entwicklung von Wissen als eine dynamische, subjektive und situationsspezifische Bereitstellung von Informationen.
11.8 Testgüte
Welche Aussagekraft die Stichprobenwerte von Precision- und Recall in Bezug Leistungsfähigkeit
von Gnowsis haben wird mit Hilfe einer statistischen Signifikanzanalyse untersucht und illustriert.
Sie beschreiben den Informationsgehalt der Daten im Vergleich zu zufälligen Werten. Dabei steht der
direkte Vergleich von Gnowsis und LiveLink in S1 im Vordergrund.
Welche inhaltliche Bedeutung die Werte haben wird mit Hilfe von Relevanzanalysen und werten, wie ROC-Kurve oder F-Wert, untersucht. Sie berücksichtigen den Kontext der Aussagen in
Form von inhaltlichen Bezugsgrößen und untersuchen, inwieweit sich Steigerungen der Leistung originär oder nur auf Kosten anderer Kenngrößen steigern lassen. Im vorliegenden Fall bietet sich der
Kontext aus den typischen Meßgrößen von Suchmaschinen, wie Recall, Precision und Fall-out an.
11.8.1 Signifikanzanalyse der Testergebnisse
Die statistische Signifikanz untersucht die Abhängigkeit von Testvariablen. Der Unterschied zweier oder mehrerer Variablen ist signifikant, falls die Wahrscheinlichkeit, dass sie durch Zufall so zustande kommen, gering ist und damit nur ein Zusammenhang „erscheint“, aber nicht wirklich „ist“.
Signifikanztests erlauben eine Abschätzung der Irrtumswahrscheinlichkeit in Bezug auf die aufgestellte Nullhypothese. Im vorliegenden Fall ist die Nullhpothese, dass die Ergebniskurven von
Gnowsis und LiveLink gleich sind, ihre Differenz Null ist. Statistische Tests können nur Unterschiede
und keine Differenzen feststellen, so dass versucht wird, eine Alternativhypothese zu bestätigen und
damit die Nullhypothese mit einer bestimmten Irrtumswahrscheinlichkeit zu verwerfen.
Ab einem Signifikanzniveau von 95% oder einer maximalen Irrtumswahrscheinlichkeit von 5%
spricht man von signifikanten Werten. Das bedeutet, dass sie sich vom Erwartungswert um mehr als
die zweifache Standardabweichung unterscheiden.
11.8.1.1
Standardabweichung und Varianz
Standardabweichung und Varianz beschreiben die Streueung statistischer Werte um ihren Mittelwert (Sachs 1997). Sie helfen, zu erkennen, ob der Mittelwert aus sehr ähnlichen, dicht am Mittelwert
liegenden Werten entsteht oder durch sich gegenseitig mittelnde Extremwerte. Ist die Standardabweichung gering, so häufen sich die Messungen um den Mittelwert; ist sie groß, so sind sie weit verstreut.
Die Standardabweichung berechnet sich als die Quadratwurzel der Varianz:
(6)
Die Varianz selbst ist das arithmetische Mittelwert aller quadrierten Abweichungen der Daten von
ihrem arithmetischen Mittelwert:
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
135
(7)
Die Standardabweichungen werden für Precision, Recall und später für den F-Wert über die Suchbegriffe in den verschiedenen Szenarien mit Inferenzen ermittelt:
Tabelle 29. Ergebnisse Standardabweichung für Precision über die Szenarien
1
2
3
4
5
6
7
8
9
10
11
12
Stichprobe=12
Kunde1
Financial Market
Outsourcing
Voice Data Solution
RFID
SAP R3
Communication
Infrastructure
Helpdesk
Callcenter
Business Efficiency
Cost Reduction
Precision S1
0,6667
1,0000
0,8000
0,6667
1,0000
1,0000
0,8000
0,5714
0,5000
0,8400
0,6667
0,8750
Precision S2
0,7647
0,8636
0,8065
0,6667
0,7143
0,6000
0,6000
0,5556
0,6000
0,6000
0,7143
0,7692
Precision S3
0,7273
0,9231
0,8000
0,7500
0,6667
0,6364
0,5714
0,6250
0,4000
0,6000
0,5000
0,7500
Precision S4
0,7895
0,8400
0,8049
0,7500
0,6250
0,5000
0,5000
0,6000
0,5000
0,5000
0,5556
0,7059
Precision LL
0,7692
0,4286
0,6522
0,4286
0,2222
0,2222
0,2667
0,4667
0,5000
0,2500
0,4167
0,7143
Varianz (precision)
Standardabweichung
(precision)
Mittelwert
2,658%
0,898%
1,799%
1,611%
3,287%
16,304%
0,78
9,474%
0,69
13,414%
0,66
12,692%
0,64
18,131%
0,44
Die Werteverteilung und Streuung der Begriffe über die Szenarien illustriert die nächste Abbildung:
Precision
1,0000
Ausprägung
0,9000
0,8000
0,7000
Precision S1
0,6000
Precision S2
Precision S3
0,5000
Precision S4
0,4000
Precision LL
0,3000
0,2000
0
1
2
3
4
5
6
7
8
9
10 11 12 13
Begriffe
Abb. 33. Verteilung Precisionwerte nach Suchbegriffen
Die Testreihe weist im Szenarienvergleich eine Standardabweichung von gut 12% auf. Sie erscheint
damit konstant und für eine Aussagekraft und Belastbarkeit der Messwerte hinreichend. Im Vergleich
zu LiveLink weisen die Testwerte eine deutlich geringere Standardabweichung und Varianz auf.
Für den Recall ergeben sich folgende Ergebnisse und Werte:
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
136
Tabelle 30. Ergebnisse Standardabweichung für Recall über die Szenarien
1
2
3
4
5
6
7
8
9
10
11
12
Stichprobe=12
Kunde1
Financial Market
Outsourcing
Voice Data Solution
RFID
SAP R3
Communication
Infrastructure
Helpdesk
Callcenter
Business Efficiency
Cost Reduction
Varianz (precision)
Standardabweichung
(precision)
Mittelwert
Recall S1
1,0000
0,8333
0,9231
1,0000
1,0000
0,7143
0,8000
1,0000
1,0000
1,0000
1,0000
1,0000
0,925%
Recall S2
0,8667
0,8636
0,7813
0,6667
0,8333
0,7500
0,7500
0,8333
0,7500
1,0000
1,0000
0,9091
0,955%
Recall S3
1,0000
0,8571
0,9091
1,0000
1,0000
0,8750
0,8000
0,8333
1,0000
1,0000
1,0000
0,9000
0,544%
Recall S4
0,8824
0,8750
0,8049
0,7500
0,8333
0,8889
0,7500
0,7500
0,7500
1,0000
1,0000
0,8571
0,752%
Recall LL
0,5882
0,1250
0,7317
0,7500
0,6667
0,4444
0,5000
0,8750
0,7500
1,0000
1,0000
0,7143
5,508%
9,618%
0,94
9,774%
0,83
7,377%
0,93
8,673%
0,85
23,469%
0,68
Diese Testreihe weist im Szenarienvergleich eine noch deutlichere Verbesserung der Standardabweichung im Vergleich zum LiveLink Szenario auf. Sie liegt bei ca. 8%. Und erscheint damit konstant. Die Aussagekraft und Belastbarkeit der Messwerte wird als ausreichend betrachtet.
Ausprägung
Recall
1,0000
0,9000
0,8000
0,7000
0,6000
0,5000
0,4000
0,3000
0,2000
0,1000
0,0000
Recall S1
Recall S2
Recall S3
Recall S4
Recall LL
0
1
2
3
4
5
6
7
8
9
10 11 12
Begriffe
Abb. 34. Verteilung Recallwerte nach Suchbegriffen
Der mögliche Einfluss der erweiterten Grundgesamtheiten (durchsuchte Dokumente) im Vergleich
von Tests mit Inferenzen gegenüber LiveLink wurde durch direkten Vergleich auf Basis des brainfiler
(vgl. Anhang – Suche mit LiveLink) ausgeschlossen. Bereits ohne Inferenzen werden bessere Recallund Precision-Werte erzielt. Hierbei fließen im Gegensatz zu rein algorithmischem Retrieval Lernerfahrungen des Nutzers und Designer mit ein.
Die Betrachtungsgrößen berücksichtigen alle ermittelten Werte der Stichprobe. Schließt man Ausreißer aus, verbessern sich die Aussagen weiter und zeichnen sich duch geringere Streuung aus. Im
LiveLink-Szenario sind mehr als ein Ausreißer zu verzeichnen, so dass eine „Glättung“ schwieriger
fällt. In Summe streuen die Werte von Gnowsis weniger stark um ihren Mittelwert als LiveLink.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
137
Neben der Steuungsanalyse gibt es Signifikanztests für die Bewertung der Test- und Wertegüte auf
Basis von anderen Bezugsgrößen. Der F-Test bewertet, inwieweit Varianzen zweier Grundgesamtheiten zufällig voneinander verschieden sind oder nicht. Der Chi-Quadrat-Test (Manning und Schütze
1999) und sein Pendant für kleinere Stichproben, der Kolmogorov-Smirnov (KS-)-Test (Sachs
1997), stellen die Beziehung zu einem hypothetischen Wert und der T-Test (Manning und Schütze
1999) zu einem Erwartungswert oder Mittelwert her. Sie eignen sich, um erwartete Werte und Hypothesen, die mit Hilfe anderer Verfahren ermittelt wurden, mit den tatsächlich beobachteten Werten eines zweiten Verfahrens zu vergleichen und so Aussagen über die statistische Signifikanz einer Vorhersage oder einen Verfahrensvergleich zu machen. Im Gegensatz zu weiteren Tests, bleibt die
Reihenfolge der Ergebnisse in den hier genannten unberücksichtigt. Sie testen auf eine durchschnittliche Verbesserung der Ergebnisse.
Tabelle 31. Übersicht möglicher Signifikanztest
Test/ Kriterien
T-Test
KS-Test
W-Test
Paarweise Werte
Abhängig vom
Verteilungstyp
x
x
x
Kleine Stichproben
x
x
x
Im Gegensatz zum T- und KS-Test ist der Wilcoxon-Vorzeichen-Rang-Test (W-Test) als nichtparametrischer Test für gepaarte Stichproben und auch bei kleinen Stichproben anwendbar (Zöfel
2002, Brüning und Trenkler 1994, Siegel 2001). Der W-Test ist nicht vom Verteilungstyp abhängig
und erfordert keine Normalverteilung der Stichproben. Er erfüllt alle Voraussetzungen für den vorliegenden Fall mit 12 Stichproben, paarweisen Werten der Suchbegriffe und eines nicht bekannten Verteilungstyps. In Ergänzung des Vorzeichentest berücksichtigt er nicht nur die Richtung der Differenzen, sondern auch die Stärke der Differenzen zwischen zwei gepaarten Stichproben. Sie macht die
Ergebnisse schärfer.
11.8.1.2
Wilcoxon-Test für paarweise Stichproben
Der W-Test untersucht die Differenzen der Stichprobenpaare und –reihen in Bezug auf einen Mittelwert. Wenn es, gemäß Nullhypothese, zwischen beiden Reihen keine Unterschiede gibt, zeigen sich
positive und negative Differenzen. Zeigen sich nur positive oder nur negative Differenzen deutet dies
bereits auf einen hohen Mittelwertunterschied hin.
Der W-Test bringt die Differenzen aus den Vergleichswerten pro Begriff dem Betrag nach in eine
Rangfolge und bildet über die Rangzahlen eine positive und negative Rangsumme. Aufgrund der kleinen Stichprobe wird über die kleinere Summe von beiden mit Hilfe der Tabelle das Signifikanzniveau
ermittelt. Je weniger sich die Stichproben unterscheiden, umso ähnlicher sind auch die Rangsummen.
Auch der W-Test kann ein- oder zweiseitig ermittelt werden. Im vorliegenden Fall gehen wir von
einem zweiseitigen Test aus, da Abweichungen vom Mittelwert sowohl nach oben als auch nach unten gleich wichtig sind. In der Tabelle wird daher beim Wert n-1 (=11) nachgeschlagen.
Die Berechnung mit den vorliegenden Testdaten für Precision ergibt in nachstehender Tabelle ein
positives Bild:
138
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Tabelle 32. Wilcoxon-Test für Precision – Szenario 1
n (urspr.) n (sort.)
9
1
8
2
4
3
11
4
1
5
7
6
3
7
10
8
12
9
5
10
2
11
6
12
N
12
Begriff
Helpdesk
Infrastructure
Voice Data Solution
Business Efficiency
Kunde1
Communication
Outsourcing
Callcenter
Cost Reduction
RFID
Financial Market
SAP R3
Precision S1 aufsteigend
0,5000
0,5714
0,6667
0,6667
0,6667
0,8000
0,8000
0,8400
0,8750
1,0000
1,0000
1,0000
Precision
LL
0,5000
0,4667
0,4286
0,4167
0,7692
0,2667
0,6522
0,2500
0,7143
0,2222
0,4286
0,2222
Differenz
0,0000
0,1048
0,2381
0,2500
-0,1026
0,5333
0,1478
0,5900
0,1607
0,7778
0,5714
0,7778
absolute
Diff
0,0000
0,1048
0,2381
0,2500
0,1026
0,5333
0,1478
0,5900
0,1607
0,7778
0,5714
0,7778
Rang
1
3
6
7
2
8
4
10
5
11
9
11
Rangsumme
+Ränge
0
3
6
7
0
8
4
10
5
11
9
11
74
-Ränge
0
0
0
0
2
0
0
0
0
0
0
0
2
Da keine negativen Differenzen auftauchen, sind Rang und +Ränge deckungsgleich bzw. –
Ränge=0. Mit Hilfe der Grenzwert-Tabelle ergibt sich damit für die Precision eine hochsignifikante
Aussage von 99,9%. Gnowsis ist in Bezug auf Prcision mit großer Wahrscheinlichkeit nicht nur zufällig besser als LiveLink. Auch die weiteren Szenarien von Precision weisen mit Werten über 99% Signifikanz ein entsprechend hohe Signifikanzniveau auf und stützen dies. Mit Hilfe der Tabelle für exakte Signifikanzniveauangaben spezifiziert sich der Wert auf 99,927%. Er ermittelt sich in dieser Tabelle
aus dem zweifachen Wert (zweiseitiger Test) für N= 12 Stichproben und der niedrigeren Rangsumme
- in diesem Fall als Zwei.
Tabelle 33. Wilcoxon-Test für Recall – Szenario 1
n (urspr.) n (sort.)
6
1
7
2
2
3
3
4
4
5
5
6
8
7
11
8
9
9
12
10
1
11
10
12
N
12
Begriff
SAP R3
Communication
Financial Market
Outsourcing
Voice Data Solution
RFID
Infrastructure
Business Efficiency
Helpdesk
Cost Reduction
Kunde1
Callcenter
Recall S1 aufsteigend
0,7143
0,8000
0,8333
0,9231
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
1,0000
Recall LL
0,4444
0,5000
0,1250
0,7317
0,7500
0,6667
0,8750
1,0000
0,7500
0,7143
1,0000
1,0000
Differenz
0,2698
0,3000
0,7083
0,1914
0,2500
0,3333
0,1250
0,0000
0,2500
0,2857
0,0000
0,0000
absolute
Diff
0,2698
0,3000
0,7083
0,1914
0,2500
0,3333
0,1250
0,0000
0,2500
0,2857
0,0000
0,0000
Rang
8
10
12
5
6
11
4
1
6
9
1
1
Rangsumme
+Ränge
8
10
12
5
6
11
4
0
6
9
0
0
71
-Ränge
0
0
0
0
0
0
0
0
0
0
0
0
0
Auch beim Recall ergibt sich aus der Grenzwerttabelle im direkten Vergleich mit einer kleineren
Rangsumme von 0 und 3 in den Szenarien S1 und S3 ein hohes Signifikanzniveau von über 99,9%.
Die ermittelten Werte für die Szenarien S2 und S4 liegen mit niedrigen Rangsummen von 10 und 6
immer noch im Bereich des 95% Signifikanzraums.
Mit Hilfe der Tabelle für expliziten Signifikanzniveaus spezifizieren sich die Werte für Szenario 1
und 3 bei niedrigeren Rangsummen von 0 und 3 auf 99,976% und 99,878% sowie für Szenarien 2 und
4 bei niedrigeren Rangsummen von 10 und 6 auf 98,95 und 99,658%. Mit Szenario 4 ergibt sich diese
Signifikanz auch auf der gleichen Datenmenge wie bei LiveLink, die in den anderen Szenarien durch
P2P- und rollenbedingte Anpassungen variieren kann.
Die Testergebnisse sind für Recall statistisch signifikant. Mit dem Verwerfen der Nullhypothesen in beiden Fällen kann mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass Gnowsis
und LiveLink unterschiedliche Kurven produzieren und damit die Testergebnisse eine statistische Signifikanz besitzen.
Nachdem die Signifikanztest in den wesentlichen Szenarien die statistische Aussagekraft der originären Testwerte bestätigen, wird in nachfolgendne Kapitel die inhaltliche Bedeutung der Ergebnisse
im Sinne einer Relevanz untersucht.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
139
11.8.2 Relevanzanalyse der Testergebnisse
Die Relevanz untersucht die Frage nach dem Ausmaß der Wirkung oder Bedeutsamkeit eines
Faktors, wie Recall oder Precision. Diese Relevanzaussage ergibt sich nicht aus der reinen Deutlichkeit und Informationsgehalt von Daten, sondern in Bezug auf einen inhaltlichen Kontext oder Wirkungsraum. Die Aussage entsteht meist aus dem Vergleich der Kosten und Risiken, die durch einen
Faktor im Kontext entstehen.
Im Folgenden werden die Auswirkungen des Recalls gegnüber des Fall-outs (ROC-Kurve) und
der Precision (F-Maß und Cost-benefit) untersucht. Zweitere Aussage wird im Hinblick auf die
Zielsetzung der Arbeit in der Untersuchung der Rolle gewichtiger sein. Erkenntnisse aus der Diskussion zwischen Recall und Fall-out sollen der Weiterentwicklung der Basistechnologien, wie brainfiler,
dienen.
11.8.2.1
ROC-Kurve mit Signifikanz- und Einflußanalyse
Die medizinische Diagnostik kennt und verwendet die Beziehung zwischen Sensitivität (Recall) und
Spezifität (Fall-out) als ROC-Kurve (Herlocker et al. 2004) als Relevanzgröße. Sie wurde in den
60er Jahren von Sweats (1963) als „relative operating characteristic“ oder heute „receiver operating
characteristic“ eingeführt. Im vorliegenden Zusammenhang lässt es sich für den Vergleich des Gnowsis-Verfahrens gegenüber dem in der Praxis eingesetzten LiveLink anwenden.
Die ROC-Kurve misst die Fähigkeit eines Systems, zwischen dem relevanten Signal und dem
Rauschen zu unterscheiden. Sie zeigt den Grenznutzen relevanter Ergebnisse auf Kosten mit angezeigter irrelevanter Ergebnisse. Mit Hilfe eines cut-off-Wertes lässt sich der „signal- and noise tradeoff“ bestimmen und aufzeigen, ob der receiver eher am Anfang oder Ende ein starkes Signal ausprägt.
Während Precision- und Recall-Aussagen der Ergebnisqualität in Bezug auf die möglichen relevanten Treffer trifft, macht die ROC-Kurve eine Aussage über den Anteil und die Verteilung der Treffer
in Bezug auf den Gesamttest. Nachteil der ersteren Aussagen ist der Klassifizierungsaufwand in relevante und nicht-relevante Objekte im Vorfeld des Tests. Die ROC Kurve trifft damit weniger eine Relevanzaussage in Bezug auf die Ergebnismenge, wie Precison, sondern nur auf die Auswahlfähigkeit
aus der Gesamtmenge in Bezug auf die Fehlerrate (noise).
Unberücksichtigt bleibt die Ergebnisreihenfolge, so dass sie sich für Aussagen des „Find Good
Items“-Tests nur bedingt eignet. Bei diesem Test ist die Ergebnisreihenfolge für die Relevanz beim
Anwender von Bedeutung. Ebenso sind die untersuchten Kriterien nicht alleine für Relevanzaussagen
ausschlaggebend. Abweichungen von der Norm können hilfreiche Aussagen bieten, die maschinell
nicht weiter genutzt werden.
Im vorliegenden Fall wird die Ergebnisgüte durch den Vergleich der Rauschanteile, Quotient Ma
und Qa, in den jeweiligen Verfahren mit Hilfe der ROC-Kurven in kumulierter und prozentualer
Form im Mittel und unabhängig der paarweisen Zuordnung zueinander in Beziehung gestellt. Die
Werte werden für die graphische Kurvendarstellung um einen Null-Wert als Startpunkt der Darstellung ergänzt und aufsteigend nach dem Quotient aus Ma und Qa sortiert. Eine ideale ROC-Kurve
steigt von links unten her mit wenig Rauschen, false accept, steil durch Werte mit sehr geringen Fallout-Raten an und nähert sich assymptotisch der 100% Linie durch Werte, die mit viel Fall-out weniger
neuen Recall bringen. Der Rauschanteil der Begriffe in Gnowsis sollte niedriger sein als bei Livelink.
Die Signifikanzuntersuchung erfolgt gemäß obiger Teststellung in Schritten vom direkten Systemvergleich hin zu den Veränderungen in den P2P-Szenarien und erweiterter Grundgesamtheiten. Im direkten Vergleich wird ein einzelner Desktop (S1) und Arbeitsplatz mit der gleichen Grundgesamtheit
(S4) an Dokumenten durchsucht:
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
140
Tabelle 34. Aufbereitete LiveLink-Ergebnisse für ROC-Kurve
Test value (Begriffe)
Ma
Qa
0
4
4
3
4
5
3
3
7
3
30
10
10
86
*
SAP R3
RFID
Callcenter
Communication
Business Efficiency
Voice Data Solution
Financial Market
Infrastructure
Helpdesk
Outsourcing
Cost Reduction
Kunde1
Summe
Ma/Qa Ma(%)
0 #DIV/0!
14
0,29
14
0,29
9
0,33
11
0,36
7
0,71
4
0,75
4
0,75
8
0,88
3
1,00
16
1,88
4
2,50
3
3,33
97
Qa(%)
0%
5%
5%
3%
5%
6%
3%
3%
8%
3%
35%
12%
12%
100%
0%
14%
14%
9%
11%
7%
4%
4%
8%
3%
16%
4%
3%
100%
Ma(%) Qa(%)
1-Ma(%)
1-Qa(%) Kurvenfläche
cum.
cum.
cum.
cum.
(AUC)
0%
0%
100%
100%
5%
14%
95%
86%
0,141
9%
29%
91%
71%
0,134
13%
38%
87%
62%
0,083
17%
49%
83%
51%
0,096
23%
57%
77%
43%
0,057
27%
61%
73%
39%
0,031
30%
65%
70%
35%
0,029
38%
73%
62%
27%
0,054
42%
76%
58%
24%
0,019
77%
93%
23%
7%
0,067
88%
97%
12%
3%
0,007
100%
100%
0%
0%
0,002
0,721
Tabelle 35. Aufbereitete Gnowsis (S4)-Ergebnisse für ROC-Kurve
Test value (Begriffe)
Ma
Qa
0
3
3
6
8
5
6
5
12
3
15
33
21
120
*
Helpdesk
Callcenter
Communication
SAP R3
Business Efficiency
Infrastructure
RFID
Cost Reduction
Voice Data Solution
Kunde1
Outsourcing
Financial Market
Summe
Ma/Qa Ma(%)
0 #DIV/0!
3
1,00
3
1,00
6
1,00
8
1,00
4
1,25
4
1,50
3
1,67
5
2,40
1
3,00
4
3,75
8
4,13
4
5,25
53
Qa(%)
0%
3%
3%
5%
7%
4%
5%
4%
10%
3%
13%
28%
18%
100%
0%
6%
6%
11%
15%
8%
8%
6%
9%
2%
8%
15%
8%
100%
Ma(%) Qa(%)
1-Ma(%)
1-Qa(%) Kurvenfläche
cum.
cum.
cum.
cum.
(AUC)
0%
0%
100%
100%
3%
6%
98%
94%
0,056
5%
11%
95%
89%
0,054
10%
23%
90%
77%
0,105
17%
38%
83%
62%
0,131
21%
45%
79%
55%
0,061
26%
53%
74%
47%
0,058
30%
58%
70%
42%
0,041
40%
68%
60%
32%
0,061
43%
70%
58%
30%
0,011
55%
77%
45%
23%
0,039
83%
92%
18%
8%
0,047
100%
100%
0%
0%
0,007
0,671
Stellt man die Werte in nachfolgender Abbildung als typisches ROC-Diagramm graphisch dar, wird
die Verbesserung durch Gnowsis deutlich.
100%
90%
80%
70%
60%
50%
40%
Kurvenfläche:
LiveLink
= 0,721
Gnowsis (gB S4) = 0,671
Gnowsis (gB S1) = 0,747
30%
20%
10%
0%
0%
20%
LiveLink
40%
60%
Gnow sis (gleiche Basis - S4)
80%
100%
120%
Gnow sis (gleiche Basis - S1)
Abb. 35. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink
Ein Verfahren ist dann besser, wenn es oberhalb der Diagonalen liegt und je stärker es aus der linken unteren Ecke nach oben ansteigt. Die Diagonale entspricht einer beliebigen, zufälligen Ergebnisverteilung. Aus der Grafik wird schon deutlich, dass beide Kurven im Vergleich zu einer zufälligen
Verteilung und eine AUC von 0,5 besser abschneiden. Interessanter ist jedoch der Vergleich der Verfahren untereinander.
Der Kurvenverlauf von Gnowsis in Abbildung 34 liegt für S1 vor allem zu Beginn der Kurve über
dem von LiveLink. Im rechnerischen Vergleich der Kurvenfläche (AUC) liegt Gnowsis mit 0,75
über dem Wert von LiveLink mit 0,72. Im Vergleich mit gleichen Grundgesamtheiten in S4 kann
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
141
Gnowsis dies jedoch nicht wiederholen und liegt mit 0,671 unterhalb von LiveLink. Da die Unterschiede zwischen den Kurven nicht allzu deutlich ausfallen, wäre zu klären, inwieweit die Unterschiede zufällig oder signifikant sind. Die für eine Signifikanzaussage zu verwerfende Nullhypothese wäre,
dass beide die gleiche ROC-Kurve produzieren. Dies soll zu 95-99% ausgeschlossen werden.
Für die Darstellung der Kurve wurden die Werte nach ihren Quotienten Ma/ Qa sortiert, liegen jedoch weiterhin paarweise vor, so dass auch hier weniger der KS- oder T-Test, sondern der W-Test zur
Anwendung kommen sollte. Analog der Beschreibung aus obigem Kapitel ergibt sich für die ROCKurve in S4 nachfolgendes Ergebnis:
Tabelle 36. Ergebnisse des Wilcoxon-Tests der ROC-Kurven
n (urspr.) n (sort.)
2
1
4
2
1
3
5
4
3
5
10
6
9
7
8
8
12
9
11
10
7
11
6
12
N
12
Begriff
Financial Market
Voice Data Solution
Kunde1
RFID
Outsourcing
Callcenter
Helpdesk
Infrastructure
Cost Reduction
Business Efficiency
Communication
SAP R3
AUC (Gnowsis
AUC
S4)
(LiveLink)
0,007
0,0295
0,011
0,0309
0,039
0,0018
0,041
0,1343
0,047
0,0671
0,054
0,0825
0,056
0,0185
0,058
0,0542
0,061
0,0072
0,061
0,0575
0,105
0,0963
0,131
0,1410
Differenz
-0,0229
-0,0198
0,0369
-0,0935
-0,0200
-0,0281
0,0374
0,0037
0,0541
0,0038
0,0085
-0,0102
absolute
Diff
0,0229
0,0198
0,0369
0,0935
0,0200
0,0281
0,0374
0,0037
0,0541
0,0038
0,0085
0,0102
Rang
7
5
9
12
6
8
10
1
11
2
3
4
Rangsumme
+Ränge
0
0
9
0
0
0
10
1
11
2
3
0
36
-Ränge
7
5
0
12
6
8
0
0
0
0
0
4
42
Nachdem sich die Rangsumme zwischen +Ränge und –Ränge kaum unterscheidet, wird bereits
deutlich, was sich durch die W-Test Tabelle bestätigt. Es kann nicht mit mind. 95% Wahrscheinlichkeit ausgeschlossen werden, dass es sich um eine zufällige Konstellation handelt.
In Ergänzung zur statistischen Basis könnten sich Konzepte und Inferenzen auf das Verhalten von Recall in Bezug auf Fall-out auswirken, auch wenn diese die Datenbasis vergrößern und nicht wirklich
vergleichbar machen. Nachstehende Abbildung verdeutlicht, wie die Tests mit erweiterten Datenbasen
im Vergleich zu LiveLink abschneiden. Hierzu werden, neben der zuvor dargestellten Kurve von
Gnowsis (gleiche Basis – S4), die Kurven der Ergebnisreihen von Gnowsis mit Konzepten und Inferenzen dargestellt und ihre Fläche ermittelt.
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
0%
20%
LiveLink
40%
Gnow sis (gleiche Basis - S4)
60%
80%
Gnow sis (Konzept S4)
100%
120%
Gnow sis (Inferenz S4)
Abb. 36. Vergleich der ROC-Kurven zwischen Gnowsis und LiveLink mit erweiterter Datenbasis
In diesem Vergleich, sowie auch mit Daten auf Basis des Szenario 2, liegen die Flächenwerte von
Gnowsis nicht mehr über denen von LiveLink. Da sich durch das Hinzufügen von Konzepten und In-
142
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
ferenzen die Datenbasis verändert, müssten für eine weitergehende quantitative Untersuchung der
Szenarien in LiveLink die gleichen Datensätze hinterlegt werden. Dieser Aspekt wurde im aktuellen
Testdesign nicht vertieft, da LiveLink die hinzugefügten Datensätze inhaltlich nicht in der Suche berücksichtigt.
In Summe zeigt sich eine Indikation zur Verbesserung der Ergebnisse durch Gnowsis im
diekten Vergleich (S1), die sich jedoch nicht als signifikant bestätigen lässt und auf unterschiedlicher Datenbasis basieren. In S4 mit gleicher Basis kann keine Verbesserung gefunden werden. Die
Test-Aussagen in Bezug auf Recall sind damit unter diesen Bedingungen zu betrachten und entstehen
zum Teil auf Kosten des Fall-outs. Dies mag auf die Tatsache zurückzuführen sein, dass allen der
brainfiler zugrundeliegt. Er ist für die Optimierung zwischen Recall und Fall-out verantwortlich.
Wie sich die Relevanz zwischen Precision und Recall darstellt, soll in nachstehendem Kapitel dargestellt werden.
11.8.2.2
F-Maß und Cost-benefit Kennzahl
Die Relevanz der Ergbnisse und nicht zuletzt die Bewertung der Usability eines Retrieval-Systems
hängen auch am Nutzertyp ab (Nielsen et al. 2001) − ist er ein erfahrener Nutzer oder ein Anfänger ?
Im vorliegenden Beispiel gehen wir von einem durchschnittlichen, nicht Retrieval-erfahrenen Vertriebsmitarbeiter aus.
Die Ergebnisqualität der im Retrieval verwendeten Assoziationsmaße wird, wie in Kapitel 11.5.1
bereits beschrieben, mit Hilfe von Recall und Precision ermittelt. Die Größe der Stichprobe mit 12
unterschiedlichen Begriffen pro Szenario, also 48 Proben für alle Szenarien, wird als ausreichend für
eine Bestätigung der Laborvermutungen unter Praxisbedingungen betrachtet. Ausführlichere quantitative Tests könnten die zunehmende Etablierung semantischer Retrieval-Verfahren begleiten.
Der Test und seine Auswertung basieren nach Womser-Hacker (1989, S. 66ff.) auf der Makromethode. Sie betrachtet die einzelnen Suchanfragen als Grundeinheit. Sie ermittelt zunächst die Precisionwerte pro Suchanfrage und mittelt dann die Werte der Suchanfragen (pges = summe pi / n). Damit
fließt jede Suchanfrage gleichgewichtig in die Bewertung ein. Bei der Mikromethode hingegen werden die Dokumente als Grundeinheit genommen. Sie berechnet, unabhängig von der Trefferanzahl der
einzelnen Suchanfragen, das Verhältnis der relevanten Treffer zu allen Treffern. Dadurch fließt jedes
Dokument gleichgewichtig in die Bewertung mit ein.
In vielen Fällen jedoch geht der Erfolg einer dieser Größen, wie Recall, zu Lasten der anderen,
wie Precision. Mit Hilfe des F-Maßes (Dengel 2008) wird die kombinierte Wirkung und damit die
„absolute“ Relevanzsteigerung beschrieben. Das F-Maß ist das gewichtete, harmonische Mittel. Das
harmonische Mittel dient dabei als Lagemaß, wenn die Beobachtungswerte Verhältniszahlen sind, wie
bei Precision und Recall gegeben. Es gilt damit ein Spezialfall des arithmetischen Mittels für verhältnisskalierte Merkmale und berchnet sich nach folgender Formel:
Fβ =
(b2 + 1) * Precision(Ki ) * Recall(Ki )
b 2Precision(Ki) + Recall(Ki )
(8)
F berücksichtigt mit b für die Gewichtung den Anteil der „false accept“, der fälschlicherweise im
Suchergebnis ausgewiesenen Treffer. b ermöglicht damit unterschiedliche Gewichtungen von Precision und Recall. Im vorliegenden Fall gehen wir von b=1, einer Gleichgewichtung der Parameter, aus.
Nachfolgende tabellarische und graphische Übersichten zeigen die F-Werte der einzelnen Begriffe
in den verschiedenen Szenarien und der sich daraus ermittelten Standardabweichung als Streuungsund Signifikanzmaß.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
143
Tabelle 38. Ergebnisse Standardabweichung für F-Werte über die Szenarien
1
2
3
4
5
6
7
8
9
10
11
12
Stichprobe=12
Kunde1
Financial Market
Outsourcing
Voice Data Solution
RFID
SAP R3
Communication
Infrastructure
Helpdesk
Callcenter
Business Efficiency
Cost Reduction
Varianz (precision)
Standardabweichung
(precision)
Mittelwert
F-Wert S1
0,8000
0,9091
0,8571
0,8000
1,0000
0,8333
0,8000
0,7273
0,6667
0,8571
0,8000
0,9333
0,734%
F-Wert S2
0,8125
0,8636
0,7937
0,6667
0,7692
0,6667
0,6667
0,6667
0,6667
0,7500
0,8333
0,8333
0,564%
F-Wert S3
0,8421
0,8889
0,8511
0,8571
0,8000
0,7368
0,6667
0,7143
0,5714
0,7500
0,6667
0,8182
0,847%
F-Wert S4
0,8333
0,8571
0,8049
0,7500
0,7143
0,6400
0,6000
0,6667
0,6000
0,6667
0,7143
0,7742
0,697%
F-Wert LL
0,6667
0,1935
0,6897
0,5455
0,3333
0,2963
0,3478
0,6087
0,6000
0,4000
0,5882
0,7143
2,814%
8,568%
0,83
7,511%
0,75
9,202%
0,76
8,348%
0,72
16,774%
0,50
F-Wert
Ausprägung
1,0000
0,8000
F-Wert S1
0,6000
F-Wert S2
0,4000
F-Wert S4
F-Wert S3
F-Wert LL
0,2000
0,0000
0
1
2
3
4
5
6
7
8
9
10 11 12 13
Begriffe
Abb. 37. Verteilung F-Werte nach Suchbegriffen
Wie schon bei den Recall- und Precisionwerten zeigen sich auch hier deutliche Verbesserungen
nicht nur in den absoluten F-Werten, sondern auch in der Standardabweichung. Die Ergebnisstreuung
fällt damit geringer aus als bei handelsüblichen Suchen. Die Testreihe weist im Szenarienvergleich eine Standardabweichung von ca. 8% auf. Sie erscheint damit hinreichend konstant und für eine Aussagekraft und Belastbarkeit der Messwerte ausreichend.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
144
Deutlich wird die Stichhaltigkeit der Ergebnisse in der Precision-Recall-Darstellung folgender Abbildungen 37 und 38 als Vergleich zwischen LiveLink und Gnowsis. Eine Häufung im rechten oberen
Quadranten weist auf hohe Ergebnisqualität hin. Die Größe der Kreise zeigt den F-Wert. Je größer der
Kreis im Quadrant rechts oben, desto „absoluter“ die Ergebnisqualität. Sie geht nicht auf Kosten des
anderen Einflussfaktors.
Precision/Recall LiveLink
Kunde1
1,20
Financial Market
1,00
Outsourcing
Voice Data Solution
Recall
0,80
RFID
0,60
SAP R3
0,40
Communication
Infrastructure
0,20
Helpdesk
0,00
0,20
0,30
0,40
0,50
0,60
0,70
0,80
Precision
Callcenter
Business Efficiency
Cost Reduction
Abb. 38. Precision/ Recall Häufung LiveLink
Precision/Recall Gnowsis S1
1,20
Kunde1
Financial Market
1,00
Outsourcing
Voice Data Solution
Recall
0,80
RFID
0,60
SAP R3
Communication
0,40
Infrastructure
Helpdesk
0,20
0,00
0,00
Callcenter
Business Efficiency
0,20
0,40
0,60
0,80
1,00
Cost Reduction
Precision
Abb. 39. Precision/ Recall Häufungen Gnowsis S1
Die Häufungsstruktur in der Livelink Darstellung ist heterogener verteilt und in seinen F-Werten
geringer ausgeprägt. Diese Relevanzanalyse bestätigt die Aussagekraft der Ergebnisse.
Nachdem die F-Werte wieder paarweise vorliegen, soll mit Hilfe eines W-Test die statistische Signifikanz untersucht werden.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
145
Tabelle 39. Wilcoxon-Test für F-Werte
n (urspr.) n (sort.)
9
1
8
2
1
3
4
4
11
5
7
6
6
7
3
8
10
9
2
10
12
11
5
12
N
12
Begriff
Helpdesk
Infrastructure
Kunde1
Voice Data Solution
Business Efficiency
Communication
SAP R3
Outsourcing
Callcenter
Financial Market
Cost Reduction
RFID
F-Wert S1 aufsteigend
0,6667
0,7273
0,8000
0,8000
0,8000
0,8000
0,8333
0,8571
0,8571
0,9091
0,9333
1,0000
F-Wert
LL
0,6000
0,6087
0,6667
0,5455
0,5882
0,3478
0,2963
0,6897
0,4000
0,1935
0,7143
0,3333
Differenz
0,0667
0,1186
0,1333
0,2545
0,2118
0,4522
0,5370
0,1675
0,4571
0,7155
0,2190
0,6667
absolute
Diff
0,0667
0,1186
0,1333
0,2545
0,2118
0,4522
0,5370
0,1675
0,4571
0,7155
0,2190
0,6667
Rang
1
2
3
7
5
8
10
4
9
12
6
11
Rangsumme
+Ränge
1
2
3
7
5
8
10
4
9
12
6
11
78
-Ränge
0
0
0
0
0
0
0
0
0
0
0
0
0
Nachdem sich der F-Wert aus Precision und Recall bildet, kann auch für ihn mit min. Rangsummen
von 0 und 1 die Nullhypothese bei einem Signifikanzniveau von mind. 99% oder spezifischen
99,976% für Rangsumme=0 und 99,951% für Rangsumme=1 verworfen werden. Die Testergebnisse
sind damit für die F-Werte statistisch signifikant. Würde Precision im Sinne der für die Diskussion
und Test bedeutenderen Kennzahl mit einem höheren b-Faktor gewichtet, ließe sich der Einfluß des
Recall justieren und die Signifikanzniveaus im Kontext verändern.
In der Weiterentwicklung der Gewichtung lässt sich nach Dengel (2008) ergänzend eine betriebswirtschaftliche Kosten-Nutzen-Betrachtung der Ergebnisqualität als cost-benefit-Kennzahl beschreiben.
n
c/b-Measure ben,cost () =
Ai * ben - Bi * cost
(9)
i=1
Die Formel zeigt einen positiven Ergebniswert, wenn der Nutzen der correct accepted, der relevanten Suchergebnisse, die Kosten der nicht-relevanten Suchergebnisse übertrifft. Mit Hilfe dieser Methode ließen sich weitere Nutzerpäferenzen abbilden. Das Ranking der Suchergebnisse ist beispielsweise nutzenstiftender, wenn alle relevanten Ergebnisse am Anfang erscheinen oder bestimmte
Dokumentenarten bevorzugt werden sollen. Diese Präferenzen lassen sich als Inferenzen in den Suchergebnissen berücksichtigen. In den voliegenden Testergebnissen zeigt sich dies für 2/3 der untersuchten Begriffe, wie „Help Desk“ oder „SAP R3“ (vgl. Anhang – Semantische Suche).
Zusammen mit den Erkenntnissen des ROC-Tests zeigt sich, dass zwar die Relevanz des Recalls
gegenüber dem Fall-out nicht signifikant nachweisbar ist, jedoch signifikante Aussagen für die
Relevanz des Recalls im Vergleich zur Precision und damit der angestrebten Verbesserung der rollenabhängigen Ergebnisqualität mit des F-Wertes.
Übersetzt erzielt Gnowsis einen besseren Grenznutzen in der Ergebnisrelevanz. Es verringert das
„Rauschen“, also die Anzahl nicht relevanter Treffer im angezeigten Ergebnis. Wie in der Diskussion
der Testergebnisse verdeutlicht, besteht jedoch für die Verbesserung der Leistungsfähigkeit in P2PUmgebungen und mit unterschiedlichen Rollen noch Weiterentwicklungsbedarf, da der RecallZuwachs möglicherweise auf Kosten des Fall-out geht und nicht alle Erkenntnisse als signifikant
nachweisbar sind.
146
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
11.9 Zwischenfazit
Der Test weist neben der Praxistauglichkeit vor allem den Einfluß der Rolle auf die Precision nach.
Seine Aussagekraft wurde durch statistische Signifikanz der Testergebnisse in Bezug auf Precision
und Recall mit Hilfe des W-Tests in allen Szenarien mit mind. 95% nachgewiesen.
Die Testergebnisse sind damit hinreichend als Grundlage für die weiteren Überlegungen zum
Einfluß der Rolle in Bezug auf Steigerung der Suchergebnisqualität. Weitere quantitativ-basierte
und fokussierte Untersuchungen erscheinen jedoch sinnvoll, um ein übergreifendes, allgemeingültigeres Bild zu erhalten.
Unter Berücksichtigung der Signifikanzaussagen deuten die Testergebnisse stark darauf hin, dass
eine semantische Suche den Explizierungs- und Modellierungsaufwand a priori verringern kann, da sie
die zugrundeliegenden Konzepte dynamisch in Abhängigkeit der Suchanfrage anwendet.
Mit Hilfe des brainfilers wird eine ausreichende Basisperformance sichergestellt.
Mit Hilfe von nativen Strukturen erschließt Gnowsis den Bedeutungskontext eines
Nutzers und begegnet damit dem Problem der Subjektivität.
(A-6.1 und
Mit Hilfe von ontology mappings und matchings wird die Bereitstellung von OntoA-6.2)
logien erleichtert.
Mit Hilfe des P2P-Ansatzes simuliert Gnowsis Allgemeinwissen im Rahmen der Nutzercommunity. Über die Rolle erschließt er die Intention des Nutzers aus dem Prozesskontext.
Häufig ist das Informationsbedürfnis aus der Anfrage eines Benutzers nicht klar ersichtlich. Die Relevanz eines Dokuments bezüglich einer Anfrage ist schwierig zu beurteilen. Was das Suchsystem als
relevant betrachtet, kann für den Benutzer subjektiv irrelevant sein. Fehlende Quellenerfahrung oder
nicht aktiviertes Hintergrundwissen erschwert die Informationssuche zusätzlich. Die Anfrage ist zu
kurz oder die angefragten Terme kommen in den betrachteten Quellen nicht vor.
Der brainfiler verbessert die Ergebnisse durch Spezialisierung und Generalisierung von Indextermen, Termvektoren und Anfragen. Die technische Performance bleibt erhalten, indem er Indexterme
verdichtet und Termvektoren erweitert.
Native Strukturen repräsentieren die mentalen Modelle des Nutzers. Über ihre Darstellung als
RDF-Ontologie werden sie technologisch nutzbar. Sie stellen die Perspektive des Nutzers als Bedeutungskontext der Suche dynamisch und automatisch ermittelbar bereit. Die Bereitstellung einer größeren Datenbasis unter Berücksichtigung der verschiedenen Rollen und Sichtweisen erlaubt Explizierung von nutzerübergreifenden Konzepten. Der in der deklarativen Modellierung notwendige
Aufwand zur Erstellung von Ontologien wird durch Verfahren des ontology mappings und matchings reduziert.
Mit diesen Ansätzen trägt Gnowsis zu einer stärkeren Nutzerorientierung des Information Retrievals bei. Gnowsis zeichnet sich durch seine Integrationsfähigkeit und Kombination von erfolgreichen
Verfahren und Technologien aus. Es ist eine hybride Technologie, die durch eine benutzerfreundliche
Oberfläche die Verfahren dem ungeübten Nutzer zugänglich macht, indem sie Abfrageintelligenz in
die Verfahren legt und damit den Nutzer entlastet. Gnowsis kombiniert damit in der Klassifizierung
von Lei et al. (2006) semantik-basierte Schlagwortsuchen mit dem Format von Beantwortungstools.
Es bestätigt damit die Einordnung des Semantic Desktop als hybrides Recommendersystem (A-5.7) in
Kapitel 10.5.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
(A-6.3)
147
Die Technologiekombination macht die Potentiale der webbasierten Technologien
für den Nutzer auf dem Desktop verfügbar. Einzeltechnologien optimieren die Performance.
Eine Technologiekombination wirkt dann, wenn Nachteile eines Verfahrens durch ein anderes aufgehoben werden, ohne die Gesamtperformance zu beeinträchtigen. Die Wirkung der Einzeltechnologien wurde gerade beschrieben. Zusammenfassend ist die daten- und verfahrenstechnische Integration
der verschiedenen Technologien unter dem Dach einer nutzerfreundlichen Oberfläche der wesentliche Hebel für die Gesamtperformance. Die Nutzung der nativen Strukturen eines Nutzers wirkt dagegen direkter auf den Such- und Retrieval-Algorithmus. Die Berücksichtigung verschiedener Optimierungsverfahren im Rahmen der Indexierung durch den brainfiler schafft performance-technisch
neue Freiräume für die Verarbeitung weiterer Technologiebausteine.
(A-6.4)
Gnowsis, als semantische Suche des Semantic Desktop, bestätigt die Laborergebnisse auch im Praxistest mit annonymisiserten Dokumenten von Siemens IT Solutions
and Services.
Der Test hat eine Steigerung in Precision und Recall unter Praxisbedingungen nachgewisen. Er bestätigt damit die Ergebnisse aus den Beobachtungen unter Laborbedingungen und auch im Vergleich zur in der betrieblichen Praxis eingesetzten Suche Livelink.
Erfolgreiche Signifikanz- und Relevanztests der Untersuchungen im Hinblick auf Datenqualität und
absolutem Mehrwert unterstreichen die inhaltlichen Aussagen.
(A-5.3.1) Die Rolle kann die Subjektivität von Wissen und Standpunkte repräsentieren.
Der Einfluss der Rolle konnte durch den Vergleich verschiedener Nutzungsszenarien nachgewiesen
werden. Sie beeinflusst gruppenspezifisch die Ergebnisqualität. In homogenen Gruppen wirkt sie ergebnisschärfend, in heterogenen Gruppen wirkt sie auf die Zugänglichkeit relevanter Dokumente.
Lässt man die Tatsache außer Acht, dass jede Person verschiedene Rollen hat, kann man vereinfacht
behaupten, dass sich hierduch die individuelle Perspektive technologisch nutzbar machen lässt. Die
Künstliche Intelligenz hält, wie in Kapitel 9.3 aufgezeigt, für den weiteren Umgang mit diesen Standpunkten Verfahren bereit.
(A-4.4.1)
Eine technologische Abbildung der Subsymbolik ist derzeit mit dem Semantic Desktop nicht möglich.
Mit Hilfe der Testergebnisse und der Beschreibung von Gnowsis lässt sich auch Frage 4.4.1 aus
Kapitel 8.7. nach dem technologischen Umgang mit Subsymbolik beantworten. Gnowsis macht
subsymbolische Strukturen manuell als Ontologien zugänglich und verwendet Hilfsmittel, diese Explizierung zu vereinfachen und zu automatisieren, wie Nutzung des PIMO als Repräsentation des mentalen Modells und Kontextes des Nutzers oder einer Rolle. Für eine systemimmanente Nutzung subsymbolischer Elemente wären Technologien auf Konzeptebene notwendig.
Der Semantic Desktop bietet mit seiner offenen und plattformunabhängigen Struktur die Voraussetzungen, in seiner Weiterentwicklung Technologien dieser Ebene, wie Künstliche Neuronale
Netze, einzubinden. Mit der händischen Modellierung von Regeln liefert er jedoch schon den Nachweis, dass eine Nutzung dieser Konzepte erfolgreich im Sinne der Ergebnisqualität ist.
Im Ergänzung zur Nutzung des PIMO bei der Suche und Selektion selbst, wird das PIMO bei der
Ausgabe der Suchergebnisse verwendet, um die Usability zu steigern. Suchergebnisse werden in Form
und Struktur des PIMOs ausgegeben und erleichtern den Dialog mit dem Nutzer. Mit diesem Ansatz
wäre ein Befüllen von Templates denkbar und damit eine semi-automatische Erstellung von Texten in
einer vorgegebenen Struktur.
148
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
149
12 Modell der Wissensentwicklung
Ein Modell dient allgemein der Prognose, Erklärung und Entscheidungsunterstützung im Sinne einer vereinfachten Repräsentation der Wirklichkeit. Das Modell der Wissensentwicklung soll für die
weitere informatorische Prozessunterstützung und Übertragbarkeit einen strukturierten Rahmen schaffen. Es soll Erkenntnisse kombinieren und in Beziehung setzen, um sie technologisch abbildbar zu
machen, und Wege der Weiterentwicklung aufzeigen. Erst damit können sie ihren Beitrag zur Steigerung der Produktivität der Wissensarbeiter voll entfalten.
12.1 Erkenntnisse aus der Literatur und dem Technologietest
Nach theoretischen und literaturtechnischen Untersuchungen von Wissen und Wissensentwicklung
wurde der Einfluss der Rolle als Perspektive und Intention auf die Ergebnisqualität einer semantischen
Suche nachgewiesen.
Die Tests zeigen, dass es technologische Ansätze gibt, die die Vermutungen aus der Literatur unterstützen, Wissen als konstruktive und kontextspezifische Entwicklung aus Informationen aufzufassen.
Tabelle 40. Zusammenfassung der Literaturdiskussion
Bisherige Annahmen aus Erkenntnisse aus der Erkenntnisse aus dem Schlussfolgerung
der Wissensverteilung
Literaturdiskussion
Test
Wissen ist ein Objekt
und Zustand. Wissen
kann aus organisatorischer Sicht bereitgestellt
werden
Wissen ist subjektiv.
Information wird aus
einer
individuellen
Perspektive betrachtet.
Rolle beeinflusst die
Relevanz des Suchergebnisses, je nach
Szenario durch mehr
relevante oder schärfere Ergebnisse
Wissen kann kontext- Wissen ist konstruk- Konzepte werden botunabhängig übertragen tiv und entsteht im- tom-up
ausgelesen
werden.
mer wieder neu durch und nicht redaktionell
situationsspezifische top-down vorgegeben
Bereitstellung von Information.
Perspektivische Betrachtung
und Auswahl von Information verleiht Bedeutung.
Wissen entsteht in einer
spezifischen Situation durch
dynamische (nicht statische) Selektion von relevanten Informationen in einem
Prozess
von
perspective taking und making
Sie bestätigen sie nicht in ihrer Gesamtheit und Komplexität. Dennoch ermuntern sie dazu, den
Diskussionsprozess von einer Wissensverteilung in die Richtung Wissensentwicklung für eine
pro-aktive Prozessunterstützung fortzuführen. Sie zeigen auf, dass sich insbesondere für homogene
Gruppen eine Steigerung der angezeigten relevanten Ergebnisse erzielen lässt und in heterogenen
Gruppen deutlich mehr relevante Dokumente identifizieren lassen, als ohne bekannt gewesen wären.
Insgesamt beabsichtigt die Technologie mit Hilfe des PIMOs den heutigen manuellen Aufwand zu
reduzieren oder diesen auf höheren Abstraktionsebenen einzusetzen. Damit werden eine Leistungsverschiebung zu individuellen, rollenspezifischen Ergebnissen erzielt und verborgende Beziehungen
durch Ontologien und Konzepte expliziert und zugänglich.
Da es technologisch noch nicht gelingt, Systeme auf rein subsymbolischer Ebene zu erstellen,
kommt der Explizierung eine besondere Bedeutung zu. Sie erlaubt ein Verstehen der Einzelschritte
und ermöglicht die Kommunikation zwischen den Systemen, auch wenn dies später vielleicht einmal
überflüssig wird. Im Kommunikationsverständnis von Luhmann (1995) entsteht innerhalb der Kommunikationssysteme kein Wissen. Der Semantic Desktop unterstützt die Wissensentwicklung durch
die Explizierung verborgener Beziehungen. Mit Hilfe der Rolle macht er aus Informationen Wissen
und ersetzt damit sogar Teile der Wissensentwicklung. Im Folgenden werden die Erkenntnisse aus den
Diskussionen in einem Modell zusammengefasst, um diejenigen Einzelschritte aufzuzeigen, die sich
durch die beschriebenen Technologien unterstützen lassen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
150
12.2 Knowledge Creation Framework (KCF)
Der Gesamtprozess der Wissensentwicklung ist ein Erkenntnisprozess. Verschiedene Methoden der
Wissenschaft unterstützen diesen. Als Beispiele finden sich Beobachtung, Aufzeichnung,
Dokumentation, Versuch und Irrtum, Experiment, Messung, Vergleich, Befragung und Interview. Sie
beziehen sich auf die Interaktion des Systems mit der Umwelt und weniger auf die internen Prozesse
der Wissensentwicklung.
Das Modell in Abbildung 39 beschreibt den Prozess und die Charakteristika der Wissensentwicklung aus individueller Sicht. Es berücksichtigt dabei Aspekte des Konstruktivismus wie Rekursivität
oder Redundanz sowie lerntheoretische Erfahrungen (Bernus und Schmidt 1998). Es setzt auf dem
Lernprozess von Boisot auf und erweitert diesen durch Berücksichtigung der Perspektive und Intention aus individueller Sicht. Aus organisatorischer Sicht können weiterhin formale knowledge-assetcreation-Prozesse, wie bei Siemens auf Basis von Boisot, für die Erstellung von Knowledge-assets
verwendet werden. Wiederverwendbare Methoden oder Templates sind Beispiele für Knowledgeassets.
Sinnliche
Reaktion
Daten
Verifizieren
Gedanke
Fragen
Einsehen
Zerlegen
Sinneinheit/
Idee
Gedächtnis
Sammeln
Wahrnehmen
Gefühl
Erfahren
Inkubation
Bewußt
Formen
Speichern
Vergessen
Intention
(Wollen)
Information
Wirklichkeit
Aktion Reiz
Wahrnehmen
Emotion
Vorstellen
Abb. 40. Modell der Wissensentwicklung (Knowledge Creation Framework)
Kern des theoretischen und angewandten Wissensverständnisses ist die Subjektivität und Kontextabhängigkeit von Wissen. Subjektivität ist die individuelle Wirklichkeit und im Sinne Maturanas
und Luhmanns, Ausdruck eines, zwar mit anderen Systemen verankerten und gekoppelten, aber geschlossenen Systems. Kontext beschreibt die Schnittstelle des Systems mit seiner Umwelt und mit anderen Systemen. Im Sinne der Wissenstreppe lässt sich dieser durch die Situation und die Intention des
Subjekts bestimmen.
Situation beschreibt dabei die Problemstellung und Anwendung der individuellen Wirklichkeit auf
die physische Umwelt. Die Situation beinhaltet dabei das Vorwissen, Erfahrungen, aktuelle Thema
und das Wissensniveau.
Intention bezeichnet den Lösungswillen und berücksichtigt das Wollen und Zielsetzung des Subjekts oder Systems. Die Intention ist abhängig von der aktuellen Rolle des Individuums und kann als
Perspektive interpretiert werden. Sie bestimmt den Anspruch an Qualität, Tiefe, Form, Korrektheit,
Wirkung und Aussage bei der Explizierung basierend auf dem Erfahrungsschatz und unter Berücksichtigung der Situation.
Un-Bewußt
Wissen
K-assets
Kompetenzen
Erfahren
Selektieren
Vorstellen
Situation
(Anwendung)
Repräsentation
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
151
Durch die Kopplung des Systems mit seiner Umwelt wird die Wissensentwicklung in Form eines
Reizes angeregt. Im unbewussten Prozess reift der Reiz zu einem Gefühl und wird als solches erkannt.
Das Gefühl erzeugt die „Vorstellung“ einer Emotion, aus der je nach Selektionskriterien, Ideen als
neue Zusammenhänge bewusst werden (Damasio 2005).
Im bewussten Prozess wird entweder die gewonnene Einsicht verifiziert und zur Wirklichkeit geformt oder durch bewusste Handlungen, wie Fragen und Zerlegen, in logische Aussagen und Sinneinheiten in seiner Komplexität reduziert. Durch diese Aufteilung wird ein neues Selektionsraster geschaffen, das es erlaubt, neue Sinnzusammenhänge aus dem Unbewussten wahrzunehmen, abzurufen.
Nachdem die Wahrnehmung immer einen bewussten und einen unbewussten Anteil trägt, überlagern sich die verschiedenen Entwicklungsprozesse auf Basis des Gedächtnisses und der dort repräsentierten Erfahrung. Persönlich wird der Gesamtprozess als ein Nachdenken, Überlegen, Lernen empfunden und nur Teile davon bewusst wahrgenommen.
Alle Prozessschritte sind über das Gedächtnis miteinander verknüpft. Es ermöglicht eine Wiederholung bestimmter Prozesssschritte, wie Verifizieren oder Sammeln, und dient der Bewertung und Speicherung der Vorgänge.
12.2.1
Sammeln und Inkubation
Das Bewusstsein nimmt erst Gefühle wahr. Sie sind bereits Ergebnis einer Sammlung und Reifeprozesses. Unbewusst verarbeitet unser Gehirn die unzähligen Reaktionen unserer Sinne auf die Reize
der Umwelt. Die Sammlung und Bündelung verschiedener Reize ruft ein Gefühl hervor, das der
Mensch, gespiegelt an seinen emotionalen Erfahrungen zur Emotion, weiterverarbeitet.
Edelmann und Tononi (2000, S. 188) bezeichnen diesen Prozess des Zusammenschaltens von selektiven Ereignissen als „re-entranter Prozess“. Danach vermag er eine nicht mit Begriffen belegte Welt
in Objekte und Ereignisse zu unterteilen. Re-entry ist der zentrale Mechanismus zur räumlichen und
zeitlichen Koordination verschiedener sensorischer und motorischer Ereignisse. Er vermag differenzierte und parallel ablaufende Zustände zu koordinieren und sie durch Inferenzen mit sequentiell verlaufenden, bewussten Prozessen zu integrieren. Aus dem Alltag ist der Schlaf als eine Form der Inkubation bekannt. Er sortiert und interpretiert die gewonnen Eindrücke und ermöglicht durch die
„Vorhaltung“ von möglichen Sinnzusammenhängen die Selektion und Einsicht ins Bewusstsein.
12.2.2
Einsehen und selektieren
Einsehen und Selektieren unterscheiden sich hinsichtlich einer aktiven, intendierten (Selektieren)
oder eher passiven (Einsehen) mentalen Handlung des Individuums. Edelmann und Tononi (2000, S.
28) betonen den selektiven Charakter des Gehirns und Bewusstseins im Gegensatz zu bisher vermuteten instruktiven oder konstruktiven Charakter an dieser Stelle. Das Gedächtnis und die ständig parallel
ablaufenden Prozesse bilden einen Wahrnehmungsfilter, der Zusammenhänge erkennen lässt (Glaser
und Strauss 1998, S. 256).
Die Lerntheorie bietet zur Unterstützung dieses und des verankernden Prozesses verschiedene Methoden als Hilfestellung (Hopperdietzel 2005): freies Erinnern (alles aufzählen, was über ein Thema
bekannt ist); Erinnern auf einen Hinweisreiz (zu einem Stichwort (Notizen) an Inhalte erinnern); Wiedererkennen („es ist welcher der drei Möglichkeiten.“). Dieses Abrufen von Zusammenhängen hängt
weniger an der Speicherkapazität als vielmehr an der Abrufkapazität, da an dieser Stelle aus parallelen
Prozesse sequentielle Schlussfolgerungen und Zusammenhänge erzeugt werden. Hierzu sind perspektivische Entscheidungen nötig, die aus intransparenten Zuständen logische Zusammenhänge machen
und Orientierung bieten (Luhmann 1995). Letztlich zeichnet die Entscheidungsfähigkeit eines Systems, das Wählen zwischen Alternativen, intelligente Systeme aus (Edelmann und Tononi 2000, S.
85). Auf der anderen Seite sind Entscheidungen der Komplexitätstreiber in der Problemlösung.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
152
12.2.3
Verifizieren
Verifizieren und Formen erscheinen dem rationalen Wesen als wohl vertrauteste und bekannteste
Prozesse. Sie lassen sich allgemeinsprachlich als Denken zusammenfassen. Unter Verifizieren ist eine
Überprüfung von Aussagen und Zusammenhängen zu verstehen. Die Wissenschaftstheorie würde
dabei die Hypothesenprüfung anhand von empirischen Quellen und die Theoriebildung durch hermeneutische Validierung von Aussagen unterscheiden. Empirische Belege würden nur so weit verwendet,
wie sie der Theoriebildung dienen und nicht der reinen Verifizierung (Glaser und Strauss 1998, S. 38).
Sie verankert die neuen Sinnzusammenhänge in den bestehenden Kategorien im Sinne eines
Verstehens (Danner 1979). Sinnkategorien können als bewusst wahrnehmbare, logische und subjektiv
determinierte kleinste Einheiten des Wissens verstanden werden. Verifizieren ist eine Form des
Schließens, bei dem Ideen und Gedankenbausteine in ihren Aussagen getestet werden. Sie werden vor
dem Hintergrund bestehender Erfahrungen und der durch Situation und Intention angeregten Zielsetzung in unterschiedliche Situationen simuliert. Verstehen ermöglicht ein „Nachleben“ und emotional
ein „Sichhineinversetzen (Empathie)“. Beide Formen verdeutlichen die Zusammengehörigkeit von
bewussten und unbewussten Prozessen im Sinne einer integrierten Wirklichkeit (Edelmann und Tononi 2000).
Diese Formen ermöglichen einen Umgang mit vagen und unvollständigen Bausteinen. Sie hängen
von der Ausprägung des Wahrnehmungsfilters zwischen bewusst und unbewusst ab. Verifizieren
könnte als der Übergang von Daten zu Informationen verstanden werden. Diese erhalten durch Erfahrungen eine Bedeutung. Rieger (2002) unterstreicht dabei den rekursiven Charakter der Bedeutungskonstitution und die Dynamik der Bedeutungsentstehung durch Schlussfolgerungen.
12.2.4
Formen
Formen beschreibt nicht ein manuelles Modellieren, sondern ein mentales Clustern und Kategorisieren (Teich 1996, S. 37). Ziel des Formens ist es, die verifizierten Sinnzusammenhänge in eine kommunizierbare und explizierbare Form und Zusammenhang zu bringen. Kernelement des Formens ist
die Abstraktionsfähigkeit. Abstraktion ist ein Verkürzen oder Zusammenfassen anhand von inhaltlichen, zeitlichen oder personellen Differenzierungskriterien. Zur Abstraktion notwendig ist die Fähigkeit zur Assoziation und das Bilden von Analogien. Hiermit lassen sich Zusammenhänge finden und
Kategorien bilden, die mittels eines Überbegriffs abstrahiert werden können.
In der Informationstheorie wird das Zusammenfassen von einzelnen Infos zu „Paketen“ höherer
Ordnung als Chunking bezeichnet (Bernus und Schmidt 1998). Es ist eine Etikettierung zur Entlastung des Arbeitsgedächtnisses, da weniger Verarbeitungskapazität benötigt wird. Chunks lassen sich
wieder „ausfalten“ und weiter verfeinern. Im Sinne eines Drehbuchs wird die Zusammenfassung von
Informationen in zeitlicher Reihenfolge als Scripting bezeichnet.
12.2.5
Vergessen und speichern
Der kontinuierliche Fluss an Reizen und deren Verarbeitung überlagern den erreichten Wirklichkeitszustand, der sich in unserer inneren Wahrnehmung abschwächt. Das Abschwächen könnte als
Vergessen interpretiert werden. Dabei handelt es sich eher um eine Priorisierung. Die Ausgestaltung
des Prozesses des Vergessens und Speicherns trägt dazu bei, Wirklichkeitszustände wieder in Erinnerung zu rufen. Wie beschrieben werden Erkenntnisse nicht nur in diesem Prozessschritt verankert,
sondern in einer stetigen Interaktion mit dem Gedächtnis. An dieser Stelle sinkt nur die bewusste
Wahrnehmung des Wirklichkeitszustandes. Alltagsmethoden, wie Notizen, verhindern das „Vergessen“ (Woitsch und Karagiannis 2004, Delp et al. 2004). Oft wird das Ergebnis aufgeschrieben oder gespeichert. Im Sinne des assoziativen Speicherns werden nur die Erstellungsregeln statt dem Ergebnis
gespeichert.
Eine zentrale Rolle im Prozess der Wissensentwicklung spielt das Gedächtnis. Die Fähigkeit zur
Speicherung beeinflusst die Beziehungen und Interaktionen zwischen den Prozessschritten (Ziemke
2000, S. 20). Sie ermöglicht erst, ein Zeitgefühl zu entwickeln und damit Entwicklungen und Lernen
durch den Vergleich unterschiedlicher Zustände wahrzunehmen. Das Gehirn ermöglicht die Transformation paralleler in sequentielle Prozesse. Das Gedächtnis wirkt in jedem bewussten Prozessschritt als
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
153
Filter auf der Basis von Erfahrungen und führt damit zu einer Rekursivität. Jeder Schritt beeinflusst
bereits den nächsten Schritt. Bewusste Prozesse verlaufen damit sequentiell, während unbewusste Prozesse parallel laufen und reentrant miteinender interagieren (Edelmann und Tononi 2000).
Die Forschung unterscheidet drei Arten von Gedächtnis: sensorisches, primäres oder Kurzzeit- und
sekundäres oder Langzeitgedächtnis (Birbaumer 1997, S. 160f.).
Das sensorische Gedächtnis speichert für wenige hundert Millisekunden sensorische Reize, um die
wichtigsten Merkmale zu extrahieren. Das Vergessen beginnt sofort nach der Aufnahme. Eine Kodierung (verbal, nicht verbal) kann die Reize in ein dauerhaftes Gedächtnis übertragen.
Das primäre Gedächtnis (Kurzzeitgedächtnis) dient zur vorübergehenden Aufnahme verbal kodierten Materials. Vergessen entsteht durch Ersetzen der eingespeicherten Information durch neue. Es
können nicht mehr als 7/2 Informationseinheiten gleichzeitig dort behalten werden. Nichtverbal kodiertes Material wird vom primären Gedächtnis nicht gespeichert. Es wird entweder durch einen eigenen Zwischenspeicher oder direkt vom sensorischen in das sekundäre Gedächtnis übertragen.
Übertragung aus dem primären Gedächtnis in das sekundäre Gedächtnis wird durch Üben erleichtert, und zwar durch aufmerksames Wiederholen und damit korrespondierendes Zirkulieren der Information im primären Gedächtnis.
Das sekundäre Gedächtnis (Langzeitgedächtnis) ist ein großes und dauerhaftes Speichersystem.
Bisher gibt es keine fundierte Abschätzung seiner Kapazität und der Verweildauer des dort gespeicherten Materials. Die Information ist nach ihrer „Bedeutung“ gespeichert. Zur Wiedergabe muss das
Gedächtnismaterial aus dem Langzeitspeicher wieder in das begrenzte Kurzzeitgedächtnis gebracht
werden.
Vergessen im sekundären Gedächtnis scheint weitgehend auf Störung (Inferenzen) des zu lernenden
Materials durch vorher (proaktive Hemmung) oder anschließend (retroaktive Hemmung) Gelerntes zu
beruhen.
12.2.6
Fragen und zerlegen
Mit der Beschränkung der Wissensentwicklung auf einen rein bewussten Vorgang werden die Eindrücke durch Fragen und Zerlegen in Sinneinheiten aufgeteilt. Dabei wird geprüft, inwieweit sich
Kongruenz zu bestehenden Gedächtnisinhalten herstellen lässt oder das Problem herausgearbeitet
werden kann.
Für diesen Prozess wird auf Ähnlichkeiten zurückgegriffen. Er entspricht zum großen Teil dem
Prozess der Mustererkennung. Fragen ist dabei die bewusste Aufnahme und Interpretation der Reize.
Zerlegen entspricht einer Analyse.
12.3 Beitrag und Einordnung des KCF
Nonaka (1995) beschreibt in seinem Modell ebenfalls den Prozess der Wissensentstehung, vor allem
aus organisationaler, sozialer Perspektive. Es mag helfen, diesen Prozess, vor allem in seinem Zusammenspiel mit dem individuellen Erkenntnisprozess, zu verstehen. Im Vergleich des Modells der
Wissensentwicklung zum SECI-Modell von Nonaka in Abbildung 40 zeigt sich, dass Nonaka (1995)
Wissensentwicklung vor allem als Interaktionsprozess zwischen Systemen, und damit organisational,
versteht. Das KCF beschreibt dagegen einen individuellen Prozess des Perspektivenwechsels.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
154
Interaktionssystem
explizit
implizit
Intention
(Wollen)
Kompetenzen
explizit
Sinnliche
Daten
Verifizieren
Gedanke
Fragen
Zerlegen
Sozialisierung
Gedächtnis
Sammeln
Wahrnehmen
Gefühl
Inkubation
Erfahren
implizit
Sinneinheit/
Idee
Bewußt
Formen
Speichern
Vergessen
Aktion Reiz
Internalisierung
Reaktion
Internalisierung
implizit
Information
Wirklichkeit
K-assets
Kombination
Wahrnehmen
Emotion
Vorstellen
Abb. 41. Vernetzung von Wissenssystemen über Interaktionssysteme
Nonaka beschreibt allgemein, wie sich in den einzelnen Phasen Wissen entwickelt, und betont
vielmehr, „dass“ sich dort Wissen entwickelt. Für Nonaka und Konno (1998) ist Wissen in von den
Systemen geteilten Räumen im Sinne eines Kontextes eingeordnet. Sie bezeichnen den gemeinsamen
Raum für das Entstehen von Beziehungen als „ba“. Dieser Raum entspricht dem Interaktionssystem
zwischen Systemen. Sobald Wissen vom „ba“ getrennt wird, wird es zu Information, die unabhängig
kommuniziert werden kann. Dieser Rahmen beinhaltet die Forschungen und Entwicklungen zu Wissensidentifikation und -transfer der letzten Jahre. Das Modell besticht durch seine Einfachheit und
praktische Nachvollziehbarkeit. Nonaka unterscheidet nicht zwischen bewusst und unbewusst, sondern versteht implizit als systemimmanent und explizit als systemextern.
Das Knowledge Creation Framework setzt eben dort an und beschreibt einen Ansatz, implizite Prozesse zu verstehen. Es ergänzt damit die Darstellungen von Nonaka um eine differenzierte Sicht auf
die systemimmanente Wissensentwicklung. Hierfür wird das Modell um eine bewusste und unbewusste Erklärungsebene erweitert, auch wenn im Test vor allem die bewusste Ebene untersucht wird.
Es verdeutlicht den Bedarf an grundlegenden Fähigkeiten, wie Differenzierungs- und Entscheidungsfähigkeit und Selbstähnlichkeit:
1) Differenzierungsfähigkeit
Das Erkennen von Ähnlichkeiten und Unterschieden auf horizontaler (Klassen) und vertikaler (Abstraktion) Ebene führt zu kleinsten logischen Einheiten. In ihrer Abfolge ergibt sich der sequentielle
Charakter des Bewusstseins (Edelmann und Tononi 2000, S. 40). Er rührt aus der Notwendigkeit zur
Unterscheidung. Dies ist nur zeitpunktbezogen möglich. Die Fähigkeit zur Differenzierung verhilft
dem System, Unsicherheit durch Zerlegung zu reduzieren und rational beherrschbar zu machen (Edelmann und Tononi 2000, S. 49). Sinnzusammenhänge müssen zerlegt und dekontextualisiert werden, um sie auf neue Perspektiven und Problemstellungen anwendbar zu machen (Koriche 1998). Die
Schwierigkeit dieser Loslösung aus dem originären Kontext ist aus den Interaktionssystemen beim
Wissenstransfer bekannt. Hierfür muss der Kontext mittels Meta-Informationen erfasst und mit dem
zu übertragenden Sinnzusammenhang verbunden werden. Nicht alle relevanten Verknüpfungen können expliziert werden. Technologisch gesehen ergibt sich hieraus ein Meta-Informationsproblem.
2) Entscheidungsfähigkeit
Wirklichkeit entsteht durch eine Vielzahl von bewussten und unbewussten Entscheidungen. Sie basieren auf der Erfahrungsbasis eines Qualitätsgefühls oder Maßstäben für Zusammenhänge. Sie können nach Regeln organisiert sein. Regeln beschleunigen den Entwicklungs- und Entscheidungsprozess, da als logisch sinnvoll empfundene Zusammenhänge nicht jedes Mal neu erstellt, sondern als
Regeln angewendet werden können.
Un-Bewußt
Wissen
Externalisierung
Externalisierung
Sozialisierung
Erfahren
Selektieren
Vorstellen
Situation
(Anwendung)
Repräsentation
Einsehen
implizit
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
155
3) Selbstähnlichkeit
Komplexitätsreduzierend wirkt die Systemeigenschaft der Selbstähnlichkeit. Sie beschreibt eine
ähnliche Regelgültigkeit und -verhalten auf unterschiedlichen Abstraktionsebenen. Für jede Ebene hat
das KCF wiederum seine Gültigkeit. Wissen wird damit nicht nur auf verschiedenen Arten von wissensintensiven Prozessen, sondern auch auf unterschiedlichen Abstraktions-Ebenen entwickelt: Prozess-Ebene (Aufgabe), Objekt-Ebene (Dokument), Inhalts- und Aussagenebene (Text), Struktur-Ebene
(Ontologie) oder Begriffsebene (Taxonomie).
Die Ausprägung der einzelnen Fähigkeiten, vor allem der kognitiven, wird als Intelligenz bezeichnet. Künstliche Intelligenz ist damit ein Werkzeug für die Modellierung der Fähigkeiten. Knowledge
Intelligence beschreibt darauf aufbauend die Abbildung der Entwicklungsprozesse von Wissen.
12.4 Anwendung des bewussten, symbolischen KCF
Die Diskussion in Kapitel 9 über technologische Möglichkeiten zur Abbildung von Subsymbolik
hat die Schwierigkeiten bei der impliziten Erfassung veranschaulicht. Auch wenn der unbewusste,
subsymbolische Teil einen wesentlichen Baustein der Wissensentwicklung darstellt, ist fraglich, ob die
Konzentration auf den bewussten, symbolischen Teil für die aktuelle Diskussion und den Stand der
Technologie nicht ausreichend sind.
Auf diesem Level bestätigen Gentner (1989) und Holyoak (1985) die Stufen des Wissenstransfers
auf organisationale Basis als den bewussten Teil der Wissensentwicklung aus obigem Modell in ähnlicher Reihenfolge: Kodieren der Aufgabenmerkmale (=Zerlegen); Abrufen alter Informationen aus einer Basisaufgabe (=Fragen); Auswählen und Abbilden von möglicherweise brauchbarem Wissen auf
die Gegebenheiten der Zielaufgabe (=Selektieren und Verifizieren); Abstrahieren von Strukturen, die
den Aufgaben gemeinsam sind (=Formen).
Zusammenhänge, Ähnlichkeiten und Differenzen lassen sich erkennen, indem das Individuum bewusst unterschiedliche Perspektiven einnimmt und sich in Situationen oder Begriffswelten hineinversetzt (vgl. psychologisches Verstehen). Boland und Tenkasi (1995) sprechen dabei von „Perspective
taking und perspective making“. Birbaumer und Schmidt (1997) bezeichnet diesen Prozess im Hinblick auf einen interdisziplinären Austausch als bewusste „Verfremdung“. Helscher (1991) hingegen
hält das Entnehmen einer Theorie aus dem Erklärungsbereich und Anwendung auf einen anderen für
nicht zulässig.
Auch Einstein wusste schon, dass sich Probleme nicht aus dem gleichen Gedankengebäude heraus
lösen lassen. Erst ein Sprung aus der eigenen Gedankenwelt heraus kann sie lösen. Edelmann und Tononi (2000, S. 228) erklären dieses Vorgehen. Unterscheidung und damit Problemlösung entstehen ihrer Meinung nach durch die Kopplung von Bezugsrahmen, aus deren Interaktion unterschiedliche Perspektiven entstehen und damit eine hinreichende Differenzierung und Selektion möglich wird. Basis
hierfür ist eine funktionale Clusterung, die nicht weiter ohne Informationsverlust zerlegbar ist (Edelmann und Tononi 2000, S. 226f.). Diese funktionale Clusterung wirkt im Sinne der Chaostheorie wie
ein Attraktor, der sich entweder aus der Überlagerung bildet oder durch die bewusste Einnahme einer
bestimmten Perspektive ergibt und das Zentrum der Interaktionen darstellt. Übertragen auf den beschriebenen Rahmen und je nach Perspektive, könnte Wirklichkeit sowohl die Problemlösung als auch
die Problemstellung sein.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
.doc
.ppt
Knowledge base:Trend Dokumente,
alte Angebote, Referenzen, Portfolio,
Dokumente, etc.
organisationell
Intention
(Rolle)
(Will)
Anfrage
Kontext
Verificator
Form
Abspeichern
Entwurf
Ausgabe des
Suchergeb nisses
Vergessen
Template und Entwürfe des
Management Summary
Producer
Dok. mit
ähnlichen
Begriffen
Receiver
Abgleich
mit der
Anforderung
Reconciler
Verifizieren
Priorisierung
der
Ergebnisse
Perspective
making
Gedächtnis
Perspective taking
Fragen
Dok. mit
ähnlicher
Bedeutung
Interpreter
Aufteilen
Zusatz information
durch Regeln
Analyser
individuell
Abb. 42. Wissensentwicklung als Prozess des „perspective taking und making“
Übertragen auf das KCF am Beispiel der semantischen Suche als Engine in den Prozesschritten entsteht, wie in Abbildung 41 auf symbolischer Ebene dargestellt, ein Kreislauf aus perspective taking
und making. Der Receiver nimmt dabei die Informationen aus den Schnittstellen auf. Der Interpreter
hinterfragt und vergleicht ihre Bedeutung und Qualität. Der Analyser wendet Regeln an, um weitere
Informationen zu vernetzen oder Elemente so weit zu unterteilen, dass im Reconciler Ergebnisse priorisiert und ausgewählt werden können. Er transformiert einen parallelen Vergleichs- und Abwägungsprozess durch iterative Selektion in einen sequentiellen, logischen Prozess auf der Basis von komfortablen Ähnlichkeitsmaßen. Je nach Entscheidungsmodell kann auf diese geschlossen werden oder sie
ergeben sich durch immer weitere Aufteilung bis zu einem Schwellenwert, der die Antwort hervorruft.
Dieses Ergebnis wird im Verificator in die bestehende Bedeutungslogik eingeordnet und im Hinblick
auf die Frage- oder Problemstellung untersucht. Folge kann eine unterschiedliche Begrifflichkeit oder
ein anderes Abstraktionslevel in Abhängigkeit des Vorwissens und der Erfahrung des Nutzers sein.
Gemäß den Präferenzen des Nutzers wird diese dann im Producer formuliert und layouttechnisch in
eine zugängliche Form gebracht. Für den einen ist zum Beispiel eine PPT-Form, für den anderen ein
Word-Dokument oder nur eine Stichwortstruktur ausreichend.
Die Engines finden sich in Anlehnung an Sauermann et al (2005) in den Bausteinen des Semantic
Desktops als wesentliche Aufbauelemente in Abbildung 42 wieder:
Symbolisch
Situation
(Anwendung)
Design proposal
Auswählen und
bemerken
156
Producer
Reconciler
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
157
Verificator
Analyser
Interpreter
Receiver
Abb. 43. Anwendung des KCF auf den Semantic Desktop zur Erstellung von Suchergebnissen
Der Receiver sammelt die Informationen aus unterschiedlichen Datenquellen und -formaten. Über
den Interpreter werden diese mit dem Personal Information Model und anderen, auch organisationellen, Ontologien in Beziehung gesetzt. Inferenzen können diesen Dialog im Anmalyser noch verfeinern. Im Reconciler werden die Suchergebnisse gewichtet. Über eine gemeinsame Liste werden nocheinmal die Priorisierungen untereinander abgewogen und im Producer als Suchergebnis im GUI
dargestellt. Über den Verificator lassen sich die Suchergebnisse mit Hilfe von Nutzerfeedback beeinflussen, um weiterführende Thesen zu testen oder zu erarbeiten. Für die Tests der Leistungsfähigkeit
der Technologie spielt dies keine Rolle, da die Kernwirkung sich aus dem Interpreter ergibt.
In der Wirkung und Bedeutung des Semantic Desktop auf der Prozessebene fällt auf, dass durch die
Änderung des Abstraktionslevels Gnowsis als semantische Suche nur einen Teil der Prozessschritte
unterstützt. Er stellt lediglich die Suchergebnisse bereit, während die Auswahl, Bereitstellung und
Speicherung der Ergebnisse andere Applikationen, wie Recommender, Content oder Dokumenten
Managementsystem im Prozessumfeld übernehmen können.
Mit dieser Beobachtung stellt sich die Frage, ob eine weitere Ausdifferenzierung des Semantic
Desktop als einzelne Agenten eine weitere Optimierung bringen könnte.
12.5 Zwischenfazit
Ausgehend von der wissenssoziologischen Annahme, dass Wissen im sozialen Kontext und Umfeld
entsteht, zeigt sich, dass sich Wissensentwicklung, unter Berücksichtigung lerntheoretischer und psychologisch-medizinischer Erkenntnisse, im Sinne einer subjektiven Wirklichkeitsbildung in sechs
Schritten durch das Knowledge Creation Framework darstellen lässt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
158
Im Hinblick auf die Eigenschaften von Wissen (Rekursivität, Anwendungsbezug und Intention) ist
es ein rekursiver Prozess des perspective takings und makings im Rahmen von Situation und Intention. Das Modell ergänzt bestehende Modelle der organisatorischen Wissensnetwicklung um die individuelle Perspektive. Es beschreibt, was Technologien intelligent macht als die Fähigkeit, Differenzierung, Entscheidung und Selbstähnlichkeit abzubilden. Es setzt bewusste und unbewusste Phasen
über das Gedächtnis und die Erinnerung reentrant miteinander in Beziehung.
Deutlich wird dabei, dass Nonaka die Prozesse zwischen und weniger innerhalb eines Systems
und Individuums beschreibt. Eine Lösung des Kontextproblems könnte durch diesen Perspektivenwechsel (aus dem Interaktionssystem hin zum Individuum) möglich sein. Wissen wird nicht in der Interaktion per se, sondern erst im Subjekt selbst entwickelt. Voraussetzungen für diesen Prozess sind
Differenzierungs- und Entscheidungsfähigkeit in Abhängigkeit von Situation und Intention als
Kontext.
Wissen entsteht dabei durch zwei gegenläufige, sich überlagernde Prozesse: funktionale Clusterung (bewusste Initiierung und Verankerung) und Offenheit (unbewusster Rahmen, um Anker als
Kern durch stabilen Zustand zu finden).
Nach dem Nachweis der Performance und Einsatzfähigkeit von Gnowsis lässt sich mit dem Knowledge Creation Framework auch zeigen, welche Schritte der Wissensentwicklung durch Gnowsis automatisiert werden.
(A-7.1)
Gnowsis automatisiert die Schritte Analyser und Interpreter.
Die Diskussion zeigt, dass Gnowsis die Schritte Analyser und Interpreter voll abdeckt. Mit Hilfe
von manuellen Regeln nähert es sich der Abbildung des Reconcilers an. Die Suche deckt damit die induktiven Schritte Sammeln und Inkubieren sowie die dekuktiven Fragen und Zerlegen ab. Sie erweitert damit die Schritte um den Interpreter bis hin zum Reconciler.
Das KCF bildet die Grundlage für einen Ausblick der weiteren Entwicklung semantischer Technologien und Integration intelligenter Technologien in die offene Architektur des Semantik Desktop.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
159
13 Auswirkungen und Ausblick
Das untersuchte Fallbeispiel der Angebotsentwicklung als wissensintensiver Prozess basiert
schwerpunktmäßig auf deduktiver Wissensentwicklung. Induktive Wissensentwicklung erfordert einen technologischen Umgang mit subsymbolischem und emergent, konstruktivistischem Wissen. Dieser konnte mit Hilfe des Semantic Desktop nicht vollständig abgebildet werden. Dennoch konnte
durch den P2P Ansatz aufgezeigt werden, wie bottom-up-Prozesse repräsentiert werden können.
Das Ziel, Wissen konstruktivistisch abzubilden, führte zur Erkenntnis, dass sich die Subjektivität
von Wissen als Perspektive in Form einer Rolle berücksichtigen lässt. Damit ist ein wesentlicher
Schritt zu einer subjektiven Wirklichkeit anstelle einer objektivierten, nachträglichen Realität gemacht. Auf Basis und mit Hilfe der Rolle kann Wissen situationsgerecht erstellt werden und nicht
mehr nur passiv und als Stützprozess einbezogen werden. Auch wenn dies technologisch noch nicht
vollständig realisierbar ist, zeigt das KCF einen Weg und die Bedingungen hierfür auf.
Deutlich wurde die Bedeutung verschiedener Abstraktionsebenen als ergänzende Dimension zu
bisherigen Repräsentationsformen. Auch wenn hierdurch die Komplexität steigt, gewinnt die Differenzierung der Wissensentwicklung und ermöglicht eine feinere und bessere technologische Unterstützung.
Unberücksichtigt blieb in der Diskussion die Abbildung von Emotionen. Die Diskussion beschränkte sich auf bewusste, rationale Knowledge-Objekte. Nachdem gerade ihre medizinischbiologische Erforschung begonnen hat, bedarf es noch einiger Erkenntnisse, diese technologisch
handhabbar zu machen. Mit ihnen wird sich voraussichtlich auch der Bereich der Subsymbolik erschließen.
Die signifikanten Ergebnisse des Technologietests zeigen einen positiven und deutlichen Beitrag
von Gnowsis zur Steigerung der Ergebnisgüte und lassen sich als Antworten auf die Forschungsfragen
formulieren:
(A-7.2)
Gnowsis leistet einen Beitrag zur Automatisierung deduktiver Wissensentwicklung und Reduktion des a-priori-Redaktionsaufwands (Kapitel 13.1)
(A-7.3)
Gnowsis ermöglicht die Übertragung der Erkenntnisse auf andere wissensintensive Prozesse (Kapitel 13.2)
(A-7.4)
Gnowsis besitzt das Potential der Texterschließung durch Integration weiterer
Retrieval Verfahren (Kapitel 13.3)
(A-7.5)
Gnowsis bildet die Grundlage für eine service- und agenten-orientierte Architektur des Semantic Desktop im Semantic Web (Kapitel 13.4)
Im Folgenden werden diese aufgezeigt und detailliert. Die Fragen (F-7.6) und (F-7.7) werden in den
Kapiteln 13.3. und 13.4. mit adressiert und abgeleitet.
13.1 Auswirkungen auf die Wissensentwicklung
Der Beitrag für die deduktive Wissensentwicklung wird über eine schrittweise Näherung von „Unterstützung“ und „Automatisierung“ von Entwicklungsschritten erzielt. „Unterstützung“ bedeutet
den Ersatz von technologischen Hilfsmitteln, um den manuellen Explikationspozess, wie Ontologien, zu erleichtern. „Automatisierung“ bedeutet den Ersatz durch Technologien, die diesen Entwicklungsschritt selbstständig ausführen. Hierfür muss die Intelligenz des Designers in die Technologie
oder das System integriert werden.
Management Summaries lassen sich sowohl im Sinne der Wissensentwicklung induktiv als auch
deduktiv erstellen. Die meisten schließen naturwissenschaftlich-induktiv aus einer (empirischen) Da-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
160
tenbasis über begriffliche und symbolische Methoden. Deduktives Schließen ist stark durch manuelle,
organisatorische Vorgaben geprägt und schließt vom Allgemeinen ins Spezielle.
Induktiv gesehen, versucht die Internet-Gemeinschaft dem großen manuellen Aufwand durch sog.
Crowdsourcing (Howe 2006) zu begegnen. Dabei trägt jeder Teilnehmer einen kleinen Teil zur manuellen Beschreibung bei. In Summe ergibt sich eine größere Beschreibungsbasis. Aus betriebswirtschaftlicher Sicht ist dies eine effiziente Methode. Fraglich ist, inwieweit dies auf die Dauer kostentechnisch tragfähig ist.
(A-7.2.1)
Gnowsis ermöglicht das kommunikative Spiel zwischen den Abstraktionsebenen
Die technologische Unterstützung deduktiver Ansätze, wie Proposal-Automation-Systeme, basiert
auf einer manuellen Detaillierung und Explizierung unter top-down-Vorgabe eines Ergebnistemplates oder -struktur. Eine Automatisierung, ein Ersatz also, war bisher auf induktive Anätze bezogen,
wie klassisches Information Retrieval als Ersatz für manuelle Verschlagwortung, da den Technologien
ein Allgemeinwissen (common-sense) fehlt oder nicht zugänglich war. Ihre Weiterentwicklung erfordert nach (A-2.3.2) aus Kapitel 10.5 immer höherer Grade an subsymbolischer ReasoningKapazität, um aus der Menge an Möglichkeiten sinnvoll und automatisch zu wählen. Durch die Integration von Methoden in die Systeme steigt die Systemintelligenz und der A-prioriModellierungsaufwand wird reduziert.
Um sich diesen höheren Graden zu nähern, wurden induktive Prozesse beschrieben (KCF, Ontologien) und getestet (Gnowsis-Test). Die technischen Tests der semantischen Suche haben also Verbesserungen des induktiven Schließens auf Basis von ontologischen Explikationen auf Dokumentenebene belegt. Zudem wurde die Bedeutung der Rolle für die Bedeutungsbildung herausgearbeitet.
Hinzu kommt die Möglichkeit, die Rolle über ein Personal Information Model technologisch verfügbar zu machen und damit diesen Prozessschritt zu unterstützen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Abstraktionsebenen
Methoden
161
Methoden
Adaptations and annotations
Form
Verify
Select+
Realize
Perspective taking
Receiver
Save
Forget
Perspective
making
Memory &
Representation
Story
Semantik
Full-text Search results
Semantic search refinement
Prioritisation and classification
Verificator
Reconciler
Plausibilities and decisions
Adaptations and annotations
Verify
Select+
Realize
Info (text)
in template
Aussagen
Memory &
Representation
Perspective taking
Full-text Search results
Analyser
Semantic search refinement
Prioritisation and classification
Verificator
Reconciler
Formatting
Plausibilities and decisions
Adaptations and annotations
Perspective taking
Divide
Final
draft mgmt.
summary
Receiver
Interpretator
Analyser
Full-text Search results
Semantic search refinement
Prioritisation and classification
Verificator
Reconciler
Plausibilities and decisions
Form Sorted and
aligned text
Adaptations and annotations
Verify
Perspective
making
Klassen
Memory &
Representation
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Gliederung
Divide
Info (text)
in template
Doc. in
template
structure
Receiver
Interpretator
Analyser
Full-text Search results
Semantic search refinement
Prioritisation and classification
Producer
Verificator
Formatting
Final
draft mgmt.
summary
Reconciler
Plausibilities and decisions
Adaptations and annotations
Form Sorted and
aligned text
Verify
Perspective
making
Inhalt und Text
(Information)
Info (text)
in template
Bedeutung
Memory &
Representation
Perspective taking
Info (text)
in template
Doc. in
template
structure
Prioritisation and classification
Formatting
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Divide
Doc. in
template
structure
Receiver
Interpretator
Analyser
Full-text Search results
Semantic search refinement
Prioritisation and classification
Producer
Verificator
Formatting
Final
draft mgmt.
summary
Save
Forget
Save
Forget
Memory &
Representation
Syntax
Semantic search refinement
Producer
Select+
Realize
Verify
Perspective
making
Doc. with
Doc. with
similar key Question similar
words
meaning
Doc. in
template
structure
Interpretator
Producer
Form Sorted and
aligned text
Divide
Doc. in
template
structure
Analyser
Save
Forget
Save
Forget
Perspective
making
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Final
draft mgmt.
summary
Analyser
Formatting
Divide
Perspective taking
Interpretator
Producer
Form Sorted and
aligned text
Doc. in
template
structure
Info (text)
in template
Interpretator
iv
ukt
ind
Receiver
Divide
Dokument
Info (text)
in template
ded
ukt
iv
Verify
Perspective taking
Receiver
Full-text Search results
Select+
Realize
Form Sorted and
aligned text
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Final
draft mgmt.
summary
Analyser
Prioritisation and classification
Adaptations and annotations
Memory &
Representation
Perspective taking
Interpretator
Reconciler
Plausibilities and decisions
Perspective
making
Konzepte
Semantic search refinement
Verificator
Formatting
Adaptations and annotations
Verify
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Doc. in
template
structure
Receiver
Producer
Final
draft mgmt.
summary
Divide
Reconciler
Plausibilities and decisions
Form Sorted and
aligned text
Save
Forget
Wissensprodukt
Info (text)
in template
Final
draft mgmt.
summary
Save
Forget
Save
Forget
Perspective
making
Memory &
Representation
Rolle
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Full-text Search results
Statistik
Sorted and
aligned text
Verificator
Formatting
Folder
Reconciler
Plausibilities and decisions
Form Sorted and
aligned text
Adaptations and annotations
Perspective
making
Memory &
Representation
Begriffe
Perspective taking
Daten
Info (text)
in template
Verify
Doc. with
Doc. with
similar key Question similar
words
meaning
Divide
Select+
Realize
Reconciler
Plausibilities and decisions
Select+
Realize
Verificator
Formatting
Final
draft mgmt.
summary
Select+
Realize
Producer
Producer
Select+
Realize
Sub-symbolik
Organisationelle
Perspektive
Doc. in
template
structure
Receiver
Interpretator
Analyser
Full-text Search results
Semantic search refinement
Prioritisation and classification
Individuelle Perspektive
Varianz und Governance
Abb. 44. Inhalte im kommunikativen Dialog zwischen Abstraktionsebenen
Wie in der Antwort A-5.1.2 in Kapitel 9.4 erläutert erweist sich Abstraktion als Hebel der Semantik und damit als Strukturelement und Basis für Wissenstechnologien. Damit Technologien dies leisten können, müssen sie das in Kapitel 8.6. erwähnte „kommunikative Spiel“ zwischen und mit den
Abstraktionsebenen, wie in Abbildung 43 aufgezeigt, beherrschen. Mittels Methoden wird die jeweils
angrenzende Abstraktionsebene erreicht. Eine Unterstützung oder Automatisierung dieser Methoden
ermöglicht ein automatisches Erschließen, ohne dass jeder Einzelzusammenhang manuell modelliert
wird.
(A-7.2.2)
Gnowsis simuliert deduktives Schließen über eine Kombination aus induktivem
Schließen und P2P.
Mit seiner P2P-Basis erfasst der Semantic Desktop diese Vielfalt und bietet damit die Möglichkeit,
die manuelle Explizierung der Ontologien zu unterstützen. Die breitere Informationsbasis verbessert
das verfügbare Allgemeinwissen im System. Durch Strukturierung des Informationsangebots nach
Rollen, kann dies rollenspezifisch kondensiert und damit konkretisiert werden.
In Kombination mit der bereits nachgewiesenen Verbesserung der Ergebnisqualität kann er umgekehrt wieder deduktives Schließen über eine Kombination aus induktivem Schließen und P2P simulieren. Die Vielfalt und Governance der Daten wird umgedreht.
162
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Abstraktionsebenen
Methoden
Methoden
Organisationelle
Perspektive
Daten
Producer
Verificator
Formatting
Final
draft mgmt.
summary
Reconciler
Plausibilities and decisions
Form Sorted and
aligned text
Adaptations and annotations
Verify
Save
Forget
Perspective
making
Memory &
Representation
Story
Perspective taking
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Dokument
Receiver
Interpretator
Analyser
Semantic search refinement
Prioritisation and classification
Reconciler
Plausibilities and decisions
Form Sorted and
aligned text
Save
Forget
Folder
Doc. in
template
structure
Full-text Search results
Verificator
Formatting
Divide
Adaptations and annotations
Verify
Perspective
making
Memory &
Representation
Rolle
Perspective taking
Doc. with
Doc. with
Question
similar key
similar
words
meaning
Info (text)
in template
Select+
Realize
Producer
Final
draft mgmt.
summary
Info (text)
in template
Select+
Realize
iv
ukt
ded
Wissensprodukt
Gliederung
ind
ukt
iv
Inhalt und Text
(Information)
Divide
Doc. in
template
structure
Receiver
Interpretator
Analyser
Full-text Search results
Semantic search refinement
Prioritisation and classification
Individuelle Perspektive
Varianz und Governance
Abb. 45. Rolle als Hebel zum Paradigmenwechsel der Wissensentwicklung aus individueller Sicht
Damit kehrt sich in Abbildung 44 die Wirkungsweise induktiven Schließens um. Die Varianz
des Individuums findet sich nicht mehr nur in den einzelnen Daten, sondern vielmehr in seiner eigenen
Folderstruktur. Auf diese könnten bekannte induktive Verfahren angewandt werden. Die Rolle des Individuums im Geschäftsprozess dient dabei als Methode, um von der Folderebene auf die Dokumentenebene zu schließen.
Der Dokumentenebene kann aus einer anderen und neuen Abstraktionsstufe begegnet werden. Im
Vergleich mit dem ursprünglichen Paradigma entspricht dies einer Simulation des dekuktiven
Schließens auf Basis induktiver Methoden. Die Näherung an die Dokumentenebene aus höherer
Abstraktionsstufe in induktiver Form ist der Hebel, Wissensentwicklung technologisch zu befähigen,
ohne eine technologische Lösung der Aufgaben der Sub-Symbolik. Er dürfte jedoch Anregungen
geben, Sub-Symbolik greifbarer zu machen.
13.2 Auswirkungen auf organisationale wissensintensive Prozesse
Im betrieblichen Alltag und in Prozessen sind Rollen durch ihre Aktivität modelliert und definiert.
Die Tests haben den positiven Einfluss für einen zielorientierten, wissensintensiven Prozess (Angebotsentwicklung bei SIS) aufgezeigt. Sie verweisen auf den Bedarf nach einer informationstechnischen Modellierung der Rollen. Damit könnten sie Workflow-Systeme (Goesmann 2002 oder v. Elst
et al. 2003) für ziel- und wissensorientierte, wissensintensive Prozesse unterstützen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
163
Gnowsis fordert ein Informationsmodell zwischen Prozessbeschreibung und Datenmodell in der Applikationslandschaft
(A-7.3.1)
Methodisch würde bei SIS in der betrieblichen Praxis zwischen dem aktivitätsorientierten Prozessmodell und dem datenorientierten Architekturmodell ein Informationsmodell eingefügt. Dies stellt
mit Abbildung 45 die Basis für den Einsatz semantischer Technologien in der bestehenden Systemumgebung dar.
Process
Model
Abbildung der
Rolle verknüpft
Prozesse und
Systeme
Information
Model
Architecture
Data Model
Market
Market
DevelopDevelopment
ment
Service
Service
Offering
Offering
Life
Life
Cycle
Cycle
Sales
Sales
Delivery
Delivery
ManageManagement
ment
Information
Cluster 1
Information
Cluster 2
Information
Cluster 3
Information
Cluster 4
knowledge
motion
CMS
Op@l
Data Types:
Data Types:
Data Types:
Data Types:
Master Data
Structure Data
.....
Master Data
Structure Data
.....
Master Data
Structure Data
.....
Master Data
Structure Data
.....
Applications
Abb. 46. Informationstechnische Modellierung der Rolle in der Verknüpfung
von Prozess und Architektur
Das Informationsmodell stellt Masterdaten und Ontologien für verschiedenen Systeme zur Verfügung. Es sorgt damit für eine informationstechnische Konsistenz und vereinfacht die Kommunikation
zwischen den Systemen. Es lenkt den Fokus von Aktivitätsmodellierung auf Informationsmodellierung und konzentriert sich damit stärker auf den Informationsbedarf und das Ergebnis des Nutzers.
(A-7.3.2)
Gnowsis sollte in bestehende Applikationen und Architektren
eingebunden werden.
Da Suchtechnologien selten stand-alone implementiert werden, würden sie in Applikationen, wie
Customer Relationship-(CRM) oder Product Lifecycle Management (PLM)-Systeme, eingebunden werden. In diesem Rahmen können sie sich auch zu einer aktiven Prozessunterstützung entwickeln, indem der Suchprozess durch Workflow-Aktivitäten im Hintergund ständig mitläuft.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
164
Draft proposal structure:
Market
Problem
Approach
Solution
Financials
References
Suggested personalized documents:
Proposal.doc
Prices and costs.xls
Markt development.pdf
Customer profile.pdf
Reference.ppt
Process support:
How to write a proposal...
Legal restrictions
Financial models
Abb. 47. Mögliche Integration der semantischen Suche in Standardsoftware SAP CRM
Abbildung 46 zeigt exemplarisch, wie sich die Suche als Sales Assistent in das Front-end des SAP
CRM on-demand (www.sap.com - on-demand Lösung, 2006) einbinden ließe, um aktivitätsorientiert
Informationen bereitzustellen. Der Nutzer verbleibt in einer Anwendungsoberfläche und muss für
die Informationssuche nicht zwischen den Systemen wechseln. Über den Sales-Assistenten kann
der Nutzer die Suche komfortabel ansteuern. Sie ergänzt die Anfrage dann um Kontextinformationen,
wie aktuelle Aufgabenstellung, aus dem aktuellen Workflow. Aus betrieblicher Sicht erleichtert die Integration in Standardsoftware die Implementierung, Wartung und Weiterentwicklung.
(A-7.3.3)
Das Verständnis der Wissensentwicklung lässt sich auf andere wissensintensive
Prozesse, wie qualitative Forschung, übertragen.
Wissensentwicklung ist selbstähnlich, so dass sich die Erkenntnisse und das Knowledge Creation
Framework nach den positiven Testergebnissen in abgrenzbaren Teilprozessen aus der individuellen
und systemimmanenten Perspektive auf die organisatorische Ebene übertragen lassen. Denkbar wären hier das Solution Design im Angebotsprozess, Help-Desks, Requirements engineering im Rahmen
des Product Lifecycle Managements, Softwareentwicklung, der organisatorische Prozess der Wissensentwicklung (Knowledge Asset Creation Process) oder der Forschungsprozess per se.
Letztere beiden sollen im Folgenden exemplarisch kurz beleuchtet werden. Help-Desks entwickeln
weniger Wissen, als es anzuwenden, auch wenn Störungstickets als Anker dienen könnten, aus denen
neue Problemlösungen entstehen. Solution Design ist im betrachteten Anwendungsfall der Angebotsentwicklung mit abgedeckt. Requirements engineering und Softwareentwicklung sind etablierte
Prozesse, die ausführlich beschrieben sind und deren Analyse den vorliegenden Rahmen sprengen
würde.
Herbst (2000, S. 15) unterscheidet verschiedene Formen der organisationalen Wissensentstehung nach dem Entstehungsrahmen: durch Forschung (Forscher), durch Kreativität (Schriftsteller),
durch Recherche (Journalismus), durch Dokumentation (Bibliotheken). Als forschungsintensives Unternehmen hat Siemens hierfür den Knowledge Asset Creation Process (KNAP) entwickelt (Ramhorst 2001). Er wird allerdings bisher nur über ein gemeinsames Ablagesystem technologisch unterstützt und hat einen Fokus auf die Entwicklung von organisatorischen Wissensobjekten, die eine
ontologische Realität für eine Vielzahl an Usern abbilden. Wissensentwicklung wird heute also auf einem 1st level unterstützt und dann manuell, prozessual und organisatorisch vertieft. Technologisch
wird diese Abstraktion noch nicht abgebildet. Die prozessuale Abstufung übergeht Technologiebrüche
(Tiefe). Das Prozessdesign ermöglicht Komplexitätslösung (Breite/ Vernetzung).
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
165
Mit Hilfe des KCF lassen sich die beschriebenen Beispiele folgenden Phasen des Modells zuordnen und entsprechend technologisch unterstützen: Kreativität=Einsehen; Recherche=Sammeln;
Dokumentation=Formen.
Forschung ist ein wissensintensiver Prozess auf Basis unterschiedlicher Forschungsansätze. Methoden und Vorgehen der qualitative Sozialforschung können als deduktive Wissensentwicklung und
Formen der quantitativen als induktive Wissensentwicklung betrachtet werden. Am Beispiel der qualitativen Sozialforschung wird in nachfolgender Tabelle die Ähnlichkeit der Charakteristika deutlich:
Tabelle 41. Vergleich der Charakteristika von qualitativer Sozialforschung und Wissensentwicklung
Charakteristika
Qualitativer Sozialforschung
Kommunikativ und explikativ
Offen und prozesshaft
Reflexiv und flexibel
Charakteristika von Wissen und Wissensentwicklung
(aus Kapitel 7.4)
Wissen steigert seinen Wert, je weiter es verteilt wird (explizites Wissen). Wissen folgt keinem definierten Workflow
sondern entsteht durch Kommunikation und situationsspezifische, inkrementelle Veränderung. Konstruktion der
Wirklichkeit durch Aushandeln der Wirklichkeit.
Wissen ist als Wissensentwicklung eher ein Prozess, denn
ein Produkt. Es bindet Entscheidungen und Informationen
rekursiv im Entstehungsprozess als Situationskontext (Viabilität) ein.
Bedeutung ergibt sich aus dem Zusammenhang und in Bezug auf eine individuelle Perspektive (Subjektivität).
Als Beispiel der qualitativen Forschung können mit dem in der Arbeit genutzten Forschungsansatz
der Grounded Theory auch die Eigenschaften des KCF illustriert werden. So entsteht im Sinne der
Grounded Theory eine Theorie nicht nur zwangsweise aus den Daten (induktiv), sondern orientiert
sich an ihnen (Glaser und Strauss 1998, S. 29, S. 256 und S. 259). Wichtig ist, dass ein systematisches
Vorgehen (KCF) erkennbar ist, um aus den Beobachtungen (Receiver) relevante Kategorien, Eigenschaften und Hypothesen zu erstellen (Interpreter, Analyzer). In Form von Fällen (Repräsentation der
Konzepte auf deklarativer Bedeutungsebene) können sie als konzeptuelle Kategorien genutzt werden.
Aussagen dienen als Datenbasis und Orientierungshilfe (Verificator).
Zur Differenzierungsfähigkeit des KCF bilden Glaser und Strauss (1998, S. 259) die Analogie,
dass Theorien durch ihre Abgrenzung zu anderen Theorien und Erklärungsmodellen entstehen. Eine
Theorie kann aber dennoch nicht losgelöst von ihrem Entstehungsprozess betrachtet und interpretiert
werden und zeichnet sich nach Glaser und Strauss (1998, S. 15) durch Konsistenz, Klarheit, Sparsamkeit, Dichte, Reichweite, Integration, Eignung und Handhabbarkeit aus.
Angewandt auf die aktuelle Forschungsarbeit stellen sich die einzelnen Wertschöfpungsschritte
im KCF wie folgt dar: Lesen (Receiver), Verstehen (Interpreter, Einsortieren oder Strukturieren (Analyser), Kommentieren und Aussagen bilden (Reconciler), Story bilden und Details überarbeiten (Verificator), Ausformulierung (Producer). Forbus et al. (1997) stellen dem KCF ähnliche Prozesse der
Theoriebildung, unabhängig vom Forschungsansatz, vor. Diese verändern lediglich die (Entscheidungs-) Regeln im Analyser und Reconciler und den Bezugpunkt im Schließen (Hypothese oder Kriterienrahmen).
13.3 Auswirkungen auf den Semantic Desktop
Die Schritte des Knowledge Creation Frameworks und die Ebenen von Wissensobjekten spannen
einen Diskussionsrahmen auf. Er lässt sich durch Kombinationen von Technologien und Verfahren,
wie Gnowsis, füllen. Die systemtechnischen Auswirkungen der Diskussion auf den Semantic Desktop und Gnowsis lassen sich mit Abbildung 47 in zwei Entwicklungsrichtungen beschreiben: erstens
horizontal entlang des KCF und damit prozesserweiternd und zweitens vertikal im gleichen Prozessschritt entlang verschiedener Wissensobjekte.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
166
Knowledge Creation Framework – Schritte V e r ific a to r
a ttin g
P la u s ib ilit ie s
F o r m
a n d
Save
Forget
P e r s p e c tiv e
(Role)
(Will)
Intention
D o c . w it h
s im ila r k e y
w o rd s
Receiver
Wissensobjekte
Symbolisch
Dokumente
Interpretator
Sub-symbolisch
Dokumente
Symbole
s e a rc h
r e fi n e m
Analyzer
e n t
P r io r it is a t io n
Gliederung
Gliederung
Feature-Maps
Kohonen-Map
Multi-Agentenperzeptoren
Vektormodelle
Bedeutunge
n und
Klassen
Ontologien,
semantische Netze
Kontextbeobachtung
Konzepte
Neuronale Netze
Passage
propagation
Retrieval
a n d
c la s s ific a t io n
Reconciler ....
Überwachtes
Lernen, wie
BayesKlassifikatoren
Gnowsis
Sub-symbolisch
BegriffeundDaten
a n tic
A n a ly s e r
Prozessgie en Repräsentation
n
anwendungen Mustererkennung
o
o
n
i
at
(z.B. DropBox)
ch Methoden
nach
Te bin
deklarativ
prozedural
deklarativ
prozedural
mAbstraktionso
ebene
K
Symbolisch
Inhalt undText
(Information)
S e m
D o c . in
t e m p la t e
s tr u c tu r e
D i v id e
In te r p r e ta to r
re s u lts
a n n o ta tio n s
a k in g
Verfahren
lo
Folder
Folder
m
a n d
I n fo (te x t)
in t e m p la t e
t a k in g
D o c . w it h
s im ila r
m e a n in g
Q u e s t io n
R e c e iv e r
S e a r c h
A d a p ta tio n s
V e r ify
M e m o r y &
R e p r e s e n ta t io n
P e r s p e c t iv e
F u ll-te x t
R e c o n c i le r
d e c is io n s
S o r te d a n d
a lig n e d t e x t
Realize
Situation
(Process)
F o r m
Select+
P ro d u c e r
F in a l
d r a f t m g m t.
s u m m a ry
Prozessschritte
des KCF
Problemlösung
deklarativ
prozedural
Entscheidu
ngsbäume,
Heuristiken
Expertensy
steme
Agentenarchitektur
Ontology
mappings
Ontology
matching
Eigen/Fisherfac
es
Methode
Unüberwachtes
Lernen, wie
constraintsatisfaction
Netzwerke
Case-based
reasoning
Multiperspective
reasoning
Symbolisch
Sub-symbolisch
Inhalt/Text
Symbolisch
Back-
NaturalServiceMulti-agent
language
Architekture
orientierte
processing
n
Retrievalarchitektur
Sub-symbolisch
Wissensobjekte
Abb. 48. Weiterentwicklung des Semantic Desktop auf Basis des KCF
Gnowsis ist als eine Kombination von Technologien unter Einbeziehung semantischer Verfahren
auf Dokumentenebene für die Schritte Interpreter und Analyzer positioniert.
Sie optimieren bestehende Module und Funktionalitäten, ergänzen neue Verfahren und entwickeln ganze Fähigkeiten und Anwendungsfelder weiter.
In Bezug auf die Forschungsfrage (F-7.6) zeigen sich aus der Matrix die Optionen für die Weiterentwicklung von semantischen Technologien und der Theorie der Wissensentwicklung in Bezug auf
wissensintensive Prozesse.
(A-7.6)
13.3.1 Optimierung bestehender Funktionalitäten für höhere Abstraktionen
Innerhalb eines Funktionsbereichs kann eine Optimierungen der Indizierungen und Algorithmen
Gliederungen und Inhalte mit höherer Abstraktion, auch um subsymbolischen Bereich, erschließen.
Beispielsweise könnte die Nutzung der Metadateninformation „Dokumentenart“ die Gewichtungsund Selektionskriterien der Suchmaschinen dynamisch beeinflussen, weil sich bestimmte Suchalgorithmen für bestimmte Dokumentenarten eignen.
Die intelligente Integration von bekannten Retrievalverfahren, wie Passage Retrieval, würde die
Leistungsfähigkeit von Gnowsis unter Berücksichtigung gleichbleibender Performance steigern. Sie
steigern zwar die Komplexität der Architektur, können aber Unzulänglichkeiten des heutigen Information Retrievals beheben. Eine mögliche Integration des Passage Retrievals für die Ermittlung von
Textbausteinen im Hinblick auf den Umgang mit Value propositions wäre ein Beispiel.
Der Einstieg der Semantik auf die Content-Ebene dürfte einen großen Schritt bedeuten und, wie in
den Kapitel beschrieben, die Grenzen zur Subsymbolik weiter verschieben. Ein inhaltliches Verstehen
wird damit nicht mehr durch manuell vorgegebene Ontologien ermöglicht, sondern durch die automa-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
167
tische, bottom-up-Entwicklung dieser auf der Abstraktionsebene von Texten und Aussagen statt auf
Dokumenten und Themen.
Funktionen der Problemlösung lassen sich, wie in Kapitel 9.3.2 beschrieben, über CBR-Verfahren
einbringen, um Texte und Aussagen in halb-strukturierter Form zugänglich zu machen. Dafür könnte
eine Visualisierung der Argumentationsstruktur (Storyboarding) hilfreich sein. CBR-Verfahren entwickeln die hinterlegten Inhaltsstrukturen und Argumentationen über die Case Adaption weiter. Zu diskutieren wären dabei Auswirkungen eines PIMO im CBR. In dieser Kombination wäre es dann wohl
schon ein Ansatz für multi-perspective reasoning und eine Abwägung und Gewichtung von Argumenten in Fällen (Storylines).
Im Projekt NEPOMUK (http://nepomuk.semanticdesktop.org/xwiki/) wird der Semantic Desktop
bereits auf Content-Ebene zu einem wiki-basierten Austausch von Gedanken durch strukturierte Artikulation weiterentwickelt. Hierdurch ließen sich inhaltlich ähnliche Angebotsdokumente finden, die
das gleiche Kundenproblem angehen oder eine ähnliche Storyline haben wie eine Preisargumentation
gegenüber einer Qualitätsargumentation. Sie wirkt weniger auf den Dokumententyp als auf die Lösung
und die inhaltliche Relevanz (content). Wesentlicher Erfolgsfaktor eines Angebots ist das richtige und
gemeinsame Verständnis der Kundensituation. Daraus abgeleitet zeigt sich das Handlungsfeld und
der Lösungshebel. In Abwägung mit der Vertriebsstrategie ergeben sich aus diesen drei Eckpunkten
die Rahmenbedingungen für das Angebot. Die Anforderungen aus dem RFP (request for proposal)
fließen in die Lösungsentwicklung ein. Diese Modellierung kann als Definition eines Falls im Sinne
des case-based reasoning als Entscheidungsregeln verstanden werden, die im Reconciler angepasst
und genutzt werden können.
Im heutigen Modell sind diese Informationen nur kondensiert über Folderstrukturen, Metadaten
oder Regeln repräsentiert. Emotionale und subsymbolische Aspekte könnten nach Dreyfus und
Dreyfus (1986, S. 26f.) in Zukunft neue Möglichkeiten aufzeigen.
Bis zu einer Nutzung und Modellierung emotionaler und subsymbolischer Aspekte könnte eine bessere Nutzung der Meta-Daten und ihrer Bedeutungen eine Zwischenlösung darstellen. Sie wäre ein
erster Schritt für die inhaltliche Zuordnung durch Zuordnung der Dokumentenarten mit Hilfe von
Heuristiken zu einem Template für value propositions und Management Summaries im Sinne von
Ankern. Tabelle 42 illustriert exemplarisch eine Zuordnung:
Tabelle 42. Mapping von Dokumententyp auf Storyline und Value proposition
Value proposition
Trends and issues
Business scenarios
Compelling (customer) events
Cost driver
Fields of action
SIS Benefits (solution)
Further benefits
Document types
Market research; internal sales document
Internal sales document
(Account plan), customer situation
Project description; debriefing document
Method (Chestra), template
Portfolio description, fact sheets, ROI calculation
Reference sheets
Je nach inhaltlicher Perspektive lassen sich drei Mappings unterscheiden:
1) Kundensituationsbasiert
Höhere Priorisierung der Ähnlichkeit in der Kundensituation mit dem Ziel der individuellen
Befriedigung der Bedürfnisse und Referenzverweis.
2) Lösungsbasiert
Höhere Priorisierung der Ähnlichkeit in der Lösung mit dem Ziel der Wiederverwendbarkeit
von Lösungen im Sinne eines Portfolio pushs.
3) Strategiebasiert
Höhere Priorisierung der Ähnlichkeit in der Übereinstimmung mit der Vertriebsstrategie und
Value proposition. Die Entwicklung einer Vertriebsstrategie wäre ein weiterer Anwendungsfall. Hier soll eine Auswahl auf Basis der Value proposition und Vertriebsstrategie getroffen
werden.
168
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Erst aus der Überlagerung aller drei Perspektiven gelingt eine Aussage über den best-fit unter Berücksichtigung und Explizierung der Differenzen. Differenzen sind in weiteren Sub-Prozessen zu lösen und zu bewerten. Die jeweils passenden Bausteine sind zu extrahieren und zu kombinieren. Der
Lösungsfit kann manchmal nur für das Kapitel Solutions im Template genutzt werden, während der
Fit der Kundensituation für deren Beschreibung genutzt werden kann.
Mit Hilfe der Nutzerbeobachtung kann die Lernfähigkeit des Semantic Desktop gesteigert werden.
Sie wirkt innerhalb eines Funktionsbereichs qualitätssteigernd, da sie die Treiber der Ergebnisqualität
beeinflusst. Mit der Beobachtung des Nutzers bei seiner Arbeit und seinen Suchen anstelle des PIMOs
und seiner vordefinierten Rolle lässt sich auch auf seine Rolle und sein Erfahrungslevel zurückschließen. Auf dieser Basis können ihm weitere Kontextinformationen bereitgestellt werden und auf
bestimmte Domänen geschlossen werden. Unter Zuhilfenahme passender Thesauri können Begriffskonflikte aktiv gelöst werden und Fehlermeldungen oder schlechte Ergebnisqualität vermieden werden.
In Abhängigkeit der beobachteten Rolle und Aktivitäten kann eine bestimmte Zielsetzung aus dem
Prozess geschlossen werden. Sie kann durch Nutzerinteraktion bestätigt und verfeinert werden. Entsprechende Workflow-Aktivitäten können eingesteuert und bereitgestellt werden.
Die Nutzerbeobachtung und deren abhängige Schlüsse sind noch am Anfang der Entwicklung. Sie
stehen vor großen Herausforderungen, wie Sicherheit und privacy oder diskontinuierliche Arbeit. Sie
verändert die Intention zwischen zwei Aktionen. Ein anderer Weg, die Grenzen der Technologie und
Automatisierung zu verschieben, ist MyMory (http://www.dfki.uni-kl.de/mymory/). Ein Forschungsprojekt des DFKI mit dem Fokus auf Nutzerbeobachtung. Ziel ist eine aufmerksamkeitsgestützte Bedeutungszuschreibung sowie Kontextmodelle zur situationsspezifischen Identifikation von Arbeitsprozessen.
Die gleichen Funktionalitäten und Fähigkeiten des Semantic Desktop können in anderem Anwendungskontext auf eine im Hintergrund aktive Zuordnung von eingehenden Dokumenten übertragen werden. Anstelle der Suche mit einem Schlagwort könnte die Drop-Box auch ein Dokument oder
knowledge object verarbeiten. Sie würde, basierend auf dem PIMO, einen Vorschlag zur Ablage oder
Einsortierung des Objektes machen und unterstützt den Nutzer durch Vorschläge proaktiv bei der
Ablage und Verschlagwortung von Dokumenten. Auch sie folgt den Schritten des KCF, nur mit einem
anderen Auslöser und einer Kategorie statt einem Dokument als Ergebnis.
13.3.2 Ergänzung und Weiterentwicklung neuer Funktionen zu einer agentenbasierten Architektur
Multi-Agentensysteme erscheinen geeignet, katalytisch auf induktive Wissensentwicklung zu
wirken, da sie sich flexibel an unterschiedliche Informationsqualitäten anpassen können.
Nach Wagner et al. (2003) eignen sich Agentensysteme für dezentrale, verteilte Systeme wie den
P2P-basierten Semantic Desktop, wenn sie abgrenzbare Teile (Agenten) haben. Sie sind strukturell
veränderbare Systeme, weil ihre Teile variabel (kommunikativ) miteinander verbunden werden. Sie
sind kooperativ, weil sie unter bestimmten Regeln zusammenarbeiten, und komplexe Systeme, bei denen das Systemverhalten nicht determinierbar ist.
Ein Multiagentensystem (MAS) könnte als lose gekoppelte Entitäten verstanden werden. Sie arbeiten zusammen, um ein Problem zu lösen, das sie alleine über ein externes, starres und euklidisches
Design nicht lösen können (Alber 2000). Ein Multiagentensystem besteht also aus mehreren Agenten.
Dabei hat das System die Eigenschaft, dass es keine globale Kontrollinstanz gibt. Die Daten sind dezentralisiert, und die Berechnungen laufen asynchron. Der aus der gemeinsamen Arbeit der Agenten
entstehende Prozess und die Lösung kann als Emergenz verstanden werden. Mit Hilfe eines AgentCreators lassen sich Lernprozesse in Agenten-Mutationen in Form von Agelets wandeln (Merk 2001
und Alber 2000).
Auch wenn Agenten ein vielversprechender und flexibler Rahmen sind, stehen sie vor einigen Herausforderungen: fehlende Verzeichnisdienste, um passende Informationen zu finden; Kommunikati-
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
169
onsproblem aufgrund fehlender gemeinsamer Sprache und Ontologien; fehlende Hilfsmittel, um
bestehende (Legacy-) Systeme einzubinden und technologischen Probleme, die Schließen, Planen und
Constraints-Erfüllung beherrschen.
Gerade Letzteren lässt sich mit offenen Architekturen, wie dem Semantic Desktop, begegnen. Ihre
Einbindung in betriebliche Systemlandschaften wie das Siemens Employee Portal würden weitere Informationsquellen und Kontext erschließen, ohne viele Rahmenbedingungen a priori zu modellieren.
Die Fähigkeit zu planen ist ein wesentlicher Teil einer solchen Architektur. Planung bedeutet für
die Wissensentwicklung die Auswahl des richtigen Abstraktionsmaßes, um eine Verständigung zwischen den Konzepten zu ermöglichen. Ein Constraint Manager würde als conceptual layer in einem
Multi-Agentensystem in Abhängigkeit von Kompetenzlevel die richtige Abstraktionsebene wählen.
Die Architekturplattform InterRAP versucht eine Balance zwischen hoher Entscheidungsqualität
deliberativer Systeme und geringer Verarbeitungskosten reaktiver Systeme zu finden (Müller 1996,
Jung und Fischer 1998). Jung (1998) spricht in diesem Zusammenhang von „bounded rationally“.
Die InterRAP-Architektur besteht aus drei Ebenen: Social und Local Planning sowie behaviourbased layer. Während der behaviour-based layer direktes Feedback an die Umgebung gibt, denkt der
local planning layer über die Zustände des Ersteren statt über externe Zustände nach. Dies entkoppelt
die Denkfunktion vom Wahrnehmungs-Aktionskreislauf und ermöglicht ein abstrakteres Denken. Die
social-planning-Ebene ergänzt eine weitere Abstraktionsstufe, indem sie über den local planning layer
räsoniert.
Die Anwendung dieser Architekturform auf BDI (Believe-Desire-Intention) Agentenarchitekturen
ergibt folgendes Handlungsprinzip (Debenham 2000): Ermittle auf der Basis bestehender beliefs die
möglichen Handlungsoptionen – selektiere auf der Basis dieser und bestehender commitments die aktuellen Ziele – wähle für jedes neu gewählte Ziel einen Plan und ermittle die sinnvollen nächsten
Schritte und Aktivitäten (Intentionen)!
In einer Kombination von vertiefter Abstraktionsebene (vertikal) und erweitereter Funktion (horizontal) könnte ein künstliches neuronales Netz ein Agent sein. Sein Design und Einsatz lässt sich über
den conceptual layer des MAS steuern und beeinflussen. Der Agent wird zu einem ConstraintManager (Eraßme 2002). In Ergänzung zur Definition des Abstraktionsmaßes als Gleichgewichtszustände wirkt er aktiv auf die Marktbildung und Definition verschiedener Bezeichungsformen (Vulkan
und Jennings 2000, Smith 1980). Bei der Marktbildung werden Optimierungsfragen an die Beteiligten
versandt, was zwar die Kommunikationskosten erhöht, aber die Lösungsfindung dezentralisiert. Empfehlungen und Koalitionsbildung spielen unter Agenten eine wichtige Rolle.
Ein paar Architekturbeispiele aus Elst et al. (2004) illustrieren Ansätze für diesen constraint Manager als Integrationsbasis mit shared concepts:
Agentenplattform KRAFT (Preece 2000). Sie nutzt constraints als gemeinsames Kommunikationsformat in FIPA (Foundation of intelligent physical agents) in Form einer gemeinsamen RDFOntologie (shared concept).
EULE und das agentenbasierte FRODO sind Systeme, die den Geschäftsprozess als Kontext (ggfs.
als weak workflow) nutzen (Reimer et al. 2001, Abecker et al. 2003, van Elst et al. 2003). FRODO basiert auf einem vierschichtigen Modell: Applikations-, Informationsquell-, Ontologie- und Wissenszugangebene. In diesen Ebenen finden sich workflow-related agents für Prozesskontrolle, Personal user
agents für die Schnittstelle zum Nutzer, Info Agents für Suche, Wrapper Agents für den Dokumentenzugang und Domain Ontology Agents für Kommunikatoren zwischen den Ontologien. FRODO nutzt
die FIPA-kompatible Agentenplattform JADE und wird mit Erfahrungen aus dem peer-2-peer-Ansatz
(social structures) des Edamok Projekts auf der Kex-Platform ergänzt (Bonifacio 2002). Beide fließen
in das CoMMA Projekt der EU (Corporate Memory Management through Agents) ein (Bergenti et al.
2000). Dabei werden auch Agentengemeinschaften (User Agents für die Nutzerschnittstelle, Resource
Agents für die Informationsquellen, Mediator Agents für die Koordination) genutzt, um Annotationen
zu vergeben, zu speichern, Schnittstellen und Verzeichnisse zu managen.
170
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Darin wird die Zergliederung der Architekturen in ähnliche Schritte wie im KCF deutlich. Als
Schritte finden sich die Trennung von Wahrnehmung und Handlung oder die Planung als wichtiges
Element in Abhängigkeit von beliefs (Rolle). Eine Vernetzung beider Modelle könnte das technologische Potenzial der Architekturen für die Wissensentwicklung heben. Dabei wären nur noch die geeigneten Agenten-Strategien vorzugeben (Cherkaoui et al. 2003): constraint-driven (Bewertung verschiedener Aspekte gleichzeitig im Hinblick auf eine Restriktion), model-driven (sequentielle
Bewertung verschiedener Bedingungen und Restriktionen auf einen Aspekt hin), territory-based (immanente und abgegrenzte Restriktionen) oder system based (offen, auf mehrere Restriktionen bezogen). Model-driven-Strategien werden bevorzugt am Anfang in der Modulentwicklung angewendet.
Constraint-driven-Strategien werden in einem fortgeschrittenem Stadium angewandt, um den globalen
Fit zu testen.
Die beschriebenen Optionen ähneln sehr stark aktuellen Beschreibungen und Entwicklungen im
Rahmen service-orientierter Architekturen, wie man sie im Web bei www.informationweek.de,
www.webservices.com oder www.itwissen.info findet, um nur ein paar zu nennen. Auch die Literatur
beschreibt diese Architekturform, unter anderem praxisnah bei Starke und Tilkov (2007), prozessnah
bei Josuttis (2008) oder technologienah bei Melzer (2007).
Allen und vielen weiteren ist das Verständnis einer service-orientierten Architektur als lose Koppelung von Software-Bausteinen – Services − gemein. Im Gegensatz zu klassischen Agentenarchitekturen basieren sie auf offenen Schnittstellen und einen erweiterbaren Kommunikationsschema, wie
Webservices. Dadurch sollen sich Applikationen schneller an geänderte Anforderungen aus den Geschäftsprozessen anpassen lassen.
Der Semantic Desktop ließe sich sehr gut mit seiner offenen, herstellerunabhängigen Architektur in
dieses Leitbild einfügen, auch wenn viele der großen Hersteller eigene Architekturmodelle und Plattformen entwickeln, wie SAP Netweaver (http://www.sap.com/germany/plattform/netweaver/) oder
Oracle Fusion Middlerware (http://www.oracle.com/lang/de/products/middleware/).
13.4 Auswirkungen auf das Semantic Web
Der W3C_Definition (http://www.w3.org/2001/sw/) nach stellt das Semantic Web ein Framework
zur Verfügung, das es unterscheidlichen Applikationen erlaubt, Daten auf der Basis von RDF auszutauschen.
In den Erfahrungen und Erkenntnissen für die Entwicklungen des Semantic Web und Web 2.0 im
Allgemeinen sticht der Beitrag der Forschung für die Arbeit mit Communities hervor. Die Tests haben die unterschiedlichen Auswirkungen von Rollen in homogenen und heterogenen Gruppen gezeigt
und den Einfluss von P2P-Umgebungen verdeutlicht.
Web 2.0 unterscheidet sich von den untersuchten Szenarien in organisationalem Umfeld durch eine
schwache Ausprägung von Rollen und standardisierten Prozessen. Das Web lebt gerade von diesem offenen Rahmen. Es konzentriert sich stärker auf den Nutzer mit seinem Profil als auf seine Rolle.
Dies macht es derzeit noch schwierig, die Handlungsintentionen der Nutzer zu differenzieren.
Im Gegensatz dazu konzentriert sich das Web 2.0 stärker auf den Content als auf Dokumente.
Mit RSS (http://www.rss-verzeichnis.de/einfuehrung.php) und getaggten Inhalten bestehen hier professionelle Formen, mit Aussage- und Textbausteinen umzugehen.
In ihren Kombinationen könnte die Semantik von den Erfahrungen des Web 2.0 im Umgang mit Inhalten profitieren und im Gegenzug das Web von den Erfahrungen im Community Support. Folgt
man den Gedanken von Decker und Frank (2004) zu einem Networked Semantic Desktop, entsteht
daraus ein Semantic P2P und damit ein ontologiegetriebenes Social Networking. Die Verbindung
zwischen beiden wären Ontologien und shared concepts.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
171
Die Erstellung dieser Konzepte erfolgt derzeit über verteilte Arbeit und die Nutzung dezentraler
Ressourcen, wie P2P, Social Tagging oder Crowdsourcing (www.crowdsourcing.de;
http://crowdsourcing.typepad.com./). Die Zeit vom 06.02.2007 gibt einen aktuellen Überblick über
Social Bookmarking Dienste: http://www.zeit.de/online/2007/06/social-bookmarking.
Im Gesamtbild wäre das Web 2.0 und Semantic Web ein riesiges Multi-Agent-System und könnte
die Rolle des Constraint-Managers übernehmen. Über die offene Architektur ließen sich, wie wir es
derzeit schon bei offenen Communities wie Facebook (www.facebook.com) sehen, neue Services bereitstellen.
Inhaltlich bringt dies sicher neue Standards und eine breite Nutzerbasis hervor. Betriebswirtschaftlich gesehen ist jedoch fraglich, wie lange Nutzer bereit sind, ohne Vergütung und Kompensation für
die Allgemeinheit zu arbeiten. Zu klären wäre, wie sich diese Kosten internalisieren lassen. Spätestens dann werden auch Lösungen interessant, die den Redaktionsaufwand senken. Das Experiment
läuft im Web, ob sich Unternehmen schnell darauf einlassen, ist fraglich.
Das US Patentamt hat mit dem Peer-2-Patent-Programm (http://www.peertopatent.org/) einen Versuch gestartet, sich für organisationelle Aufgaben der Ressourcen der Webcommunity zu bedienen. Interessant wäre eine weiterführende Diskussion, inwieweit sich Gnowsis als Open-Source-Plattform
hier als hilfreiches Hilfsmittel verlinken und etablieren ließe.
Das Semantic Web (2.0) nutzt wieder die Community, um Redaktionsaufwand zu dezentralisieren
und modelliert damit Bereiche, die derzeit noch nicht systematisch beschrieben sind, wie Problemlösungen.
Technologie
Semantisches
Information
Retrieval
Produktivitätskurven
Weiterentwicklung
Semantic
Desktop
Sem antic
Web (2.0)
Klassisches
Information
Retrieval
Steigerung der
Produktivität von
Wissensarbeitern
Semantic
Desktop
Wissensmanagement
Aufwandsverteilung
Experte
Community
- schematische Darstellung -
Abb. 49. Beitrag des Semantic Desktop zur Produktivitätssteigerung des Wissensarbeiters
Abbildung 48 fasst die Entwicklungen der Integration und Unterstützung semantischer Technologien und die Weiterentwicklung des Semantic Desktop zusammen. Sie stärken die Technologiebasis
für eine weitere Produktivitätssteigerung von Wissensarbeitern.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
172
(A-7.7)
Die Grenzen dieser Entwicklung liegen im Rechtemanagement von geschützten
Inhalten und der datenschutzbedingten Einschränkung in der Verwendung von
Nutzerprofilen und Rollen.
Neben den technologischen Herausforderungen dürfen die prozessualen und sozialen Aspekte im
betrieblichen Umfeld für eine Erfolgswahrscheinlichkeit von Systemveränderungen nicht außer Acht
gelassen werden. Viele Informationen wären vielleicht technologisch verarbeitbar. Sie sind aber aus
datenschutzrechtlichen, persönlichen oder innerbetrieblichen Gründen nicht zugänglich. Hierfür wären
aktive Kommunikationsprozesse zwischen Communities und Bereichen vielleicht hilfreicher als eine
technologische Lösung.
Technologische Hürden lassen sich in der Regel mit work-arounds oder händisch erstellten
Schnittstellen umgehen und sind eher eine Frage der Kosten. Tiefgreifender sind gesetzliche Einschränkungen, die die Idee eines freien Datenaustausches zum Schutz von Persönlichkeitsrechten,
wie Vertriebsleistung, verbieten oder aufwendige Zugriffsregelungen vorschreiben. Die Umsetzung
dieser erfordert entsprechende organisatorische und kulturelle Voraussetzungen, die sich nicht schnell
durch die Einführung neuer Technologien verändern lassen.
Wie die letzten Jahre jedoch gezeigt haben, unterliegen auch diese einer kontinuierlichen Veränderung in Abhängigkeit der technologischen Möglichkeiten und der Verbreitung von gemeinsamen
Standards in Programmiersprachen. Sie leisten eine wichtige Rolle, um die Verständigung der Plattformen und Communities zu gewährleisten. Wie im Technologiekapitel beschrieben, dienen die Sprachen hier dazu, weitere Komplexitäten zu repräsentieren und diese zu internalisieren, so dass sich nutzerspezifische Arbeit auf höherwertige Aufgaben konzentrieren kann, wie Architekturdesign für Web
Services.
Für den Umgang mit gesetzlichen und organisatorischen Herausforderungen ist ein ausreichendes
Veränderungsmanagement notwendig. Es sollte im Vorfeld mögliche Konflikte zwischen Informationstransparenz und Compliance-Regelungen aufzeigen und Lösungsansätze mit dem Management suchen. Die Frage der Kommunikation und des Wissensaustauschs sind wesentliche Bausteine einer Unternehmenskultur und damit Frage des Top-Managements.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
173
14 Zusammenfassung und Fazit
Am Beispiel der Angebotsentwicklung bei SIS wurde mit Hilfe der Grounded Theory die Bedeutung des Semantic Desktops für die Wissensentwicklung erforscht. Dabei wurden zu den einleitenden
Forschungsfragen (F-1.1 – F-1.3) folgende Antworten gefunden:
Die semantische Suche trägt zu einer aktiven Prozessunterstützung in Teilprozessen der Wissensentwicklung bei, kann diese jedoch erst im Rahmen einer
Gesamtarchitektur leisten.
In Summe ist die Wissensentwicklung per se im Vergleich zur Wissensverteilung noch kein Garant
für eine aktive Prozessunterstützung. Sie macht mit der Berücksichtigung der Rolle und Intention
wesentliche Kontextelemente im Prozess verfügbar. Und sie legt mit dem Knowledge Creation Framework methodische Grundlagen, die Wissensentwicklung durch Multi-Agentensysteme, weiter zu
automatisieren. Damit begegnet der Ansatz eines fehlenden Prozesses der Wissensentwicklung und
bietet mit einem P2P-basierten System ein Beispiel für die Flexibilisierung von Systemen, weg von
monolithischen, zentralen Systemen. Damit passen sich die Systeme langsam an die Bedürfnisse der
Menschen an und nicht umgekehrt. Die relevanten, nicht automatisierbaren menschlichen Fähigkeiten
können besser eingesetzt werden. Die Technologie kann einen Dialog zwischen Rollen initiieren, in
dem verborgene Gemeinsamkeiten expliziert und herausgearbeitet werden. Die besondere Bedeutung
der Rolle für die Wahl des richtigen Abstraktionsmaßes könnte verkürzt durch eine Funktion beschrieben werden: f (Abstraktionslevel, Ergebnisdetaillevel, Dokumentenarten). Damit erscheinen
dem Nutzer die gefundenen Informationen vertrauter.
(A-1.1)
Das Gedächtnis und damit die Informationsspeicherung spielen im KCF eine bedeutende Rolle. Sie
leiteen parallele Prozesse in sequentielle über. Vor diesem Hintergrund wäre für die zukünftige Forschung zu überlegen, ob nicht aus der Menge der technologischen Forschungsrichtungen die Holographie und die eingefalteten Informationen ein Potenzial zu weiteren Annäherung an die Subsymbolik darstellen könnten. In jeden Fall lässt sich der Grundgedanke der Holographie, mehr Informationen
in einem Baustein zu speichern, als von außen wahrzunehmen sind, sehr gut mit dem KCF und den
Charakteristika der aufgezeigten Wissensentwicklung vereinbaren.
Zusammenfassend leistet die Technologie einen Beitrag, dem subjektiven Charakter von Wissen gerecht zu werden und die Informationsqualität zu steigern. Sie bedient sich hierzu Gedanken aus unterschiedlichen Disziplinen. Sie wurden durch einen iterativen Dialog, immer in Verbindung mit dem zu
testenden Anwendungsfall, herausgearbeitet. Aus der Wissenschaftstheorie leistet die Unterscheidung in induktive und deduktive Ansätze Hilfestellung, die Grenze zwischen dem technologisch
Abbildbaren und der Weiterentwicklung aufzuzeigen. Die Philosophie legt mit dem Konstruktivismus die Grundlagen für die Unterstützung einer induktive Wissensentwicklung und war hilfreich für
die Herausforderung des Ansatzes der Wissensverteilung und Ableitung des Modells der Wissensentwicklung. Auch die Biologie und Medizin stützten die These eines konstruktivistischen Wissensund Systemverständnisses, so dass dieser Ansatz als Kontrainduktion in der Grounded Theory verfolgt wurde. Nicht zuletzt leisteten sie wertvolle Abgrenzungsarbeit in der Definitorik im Bereich der
verhaltensbasierten Lerntheorie. Die Psychologie hat mit ihrem Fokus aus systemimmanente Vorgänge einen wesentlichen Anteil am Prozess der Wissensentwicklung und der Abgrenzung von bewussten und unbewussten Prozessen. Prozesswissen wurde nicht zuletzt aus dem betriebswirtschaftlichen und betrieblichen Umfeld zu Hilfe genommen. Es ist anerkennt, dass nicht nur die Faktoren
oder das Ergebnis, sondern gerade der Weg für die Ergebnisqualität relevant sind. Die Künstliche Intelligenz hat nicht nur einige Erfahrung mit der Umsetzung von psychologischen Erkenntnissen in
technologische Zusammenhänge eingebracht, sondern auch einen Diskussionsrahmen geschaffen, der
eine Einordnung und damit Standortbestimmung semantischer Technologien erlaubte. Dabei ist
deutlich geworden, dass natürlich Technologie und Architekturen nicht alle Probleme lösen können,
sondern seitens des Managements addressiert werden müssen. Es müssten Fragen des Informationszugangs gelöst und unterstützt werden. Die semantische Technologie weist letztendlich den Einfluss der
Rolle nach und unterstreicht die Bedeutung eines constraint-Managers in zukünftigen Agentenarchitekturen.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
174
Die meisten Disziplinen leisteten wichtige Argumentationshilfe. Die Arbeit erhebt dennoch keinen
Anspruch, wissenschaftliche Erkenntnisse der jeweils anderen Disziplin zu proklamieren. Nichtsdestotrotz zeigte der Dialog, dass die hier gewonnenen Erkenntnisse Ansporn und Anregung zur weiteren
Vertiefung und Vernetzung der Erkenntnisgebiete sein können.
Semantische Suchen sind Katalysator für die technologische Erschließung wissensintensiver Prozesse.
Ihr Einsatz im betrieblichen Umfeld ist in Einzelfällen absehbar. Es steht zu vermuten, dass sie
eher als Bausteine in Standardsoftware oder zielorientierten Workflow-Systemen, wie FRODO, Eingang finden. Ihre Wirkung werden sie, wie in dieser Arbeit beschrieben, erst entfalten können, wenn
aus Prozessmanagement-Sicht die Erkenntnis einer informationstechnischen Modellierung von Rollen
erkannt wird. Nachdem derzeit noch die Modellierung und Berücksichtigung von aktivitätsorientierten
Rollen in Arbeit sind, ist hier mit keiner schnellen, aber dafür mit einer fundamentalen Entwicklung zu
rechnen, wie in Service-orientierten Architekturen. Sie werden Prozesse aus Informationssicht applikationsübergreifend verknüpfen und verändern. Sie eignen sich, wie im Vergleich zwischen Sales und
Proposal Manager deutlich wurde, für schlecht vordefinierbare Prozesse, während bekannte zentralistische Systeme nach wie vor Bedeutung für strukturierte Informationen in schwach dynamischen bis
statischen Umgebungen haben.
(A-1.2)
Zusammenfassend gesagt, verschieben semantische Technologien die Grenze zwischen konstruktivistisch, bottom-up basierten Elementen und fixen, vorgegebenen Elementen zugunsten der konstruktivistischen. Sie ermöglichen durch die Berücksichtigung einer Perspektive die Bewertung bottomup generierter Inhalte und internalisieren damit Aspekte, die bisher manuell in Strukturen repräsentiert werden mussten.
Im Ausblick auf die weitere Entwicklung des Forschungsgebietes dürften zwei Entwicklungen von
Bedeutung sein: zum einen die Erfahrungen der Gesellschaft mit dem Semantic Web und Web 2.0
und damit die Bereitschaft, Informationen zu teilen und zur Verfügung zu stellen, zum anderen die Offenheit und Fähigkeit des Wissenschaftsbetriebs, Unterstützung der eigenen Forschungsaktivitäten
zuzulassen. Erste Schritte sind hierzu im Bereich der Biotechnologie zu beobachten, wo Google hilft,
riesige Datenmengen zu verarbeiten. Natürlich wird die Wissenschaft auf Spezialentwicklungen zurückgreifen, um leading-edge-Ergebnisse zu produzieren. Dennoch sollte eine Standardisierung des
Forschungsprozesses in den Basisarbeiten, wie Literaturrecherche, Veröffentlichungen, Diskussionen
nicht außer Acht gelassen werden. Schon heute fordert die Veröffentlichungsgeschwindigkeit das Paketieren von immer kleineren Erkenntnis- und Wissensbausteinen (Chunks). Diese als Beitrag in die
gemeinsame Diskussion einzubringen, wäre eine Hilfe für die in verteilten Netzwerken arbeitende
Wissenschaftscommunity. Im Zusammenspiel mit den Web 2.0-Entwicklungen könnte sie von den
Bewertungsverfahren der Community profitieren, um neue Anerkennungswege zu finden. Der Fokus
liegt damit stärker auf der Weiterentwicklung, also dem Kernprozess der Forschung als in der Aufbereitung und Strukturierung der Erkenntnislandschaft. Mit Hilfe von Suchmaschinen und visuellen Darstellungsmöglichkeiten lassen sich auch unstrukturierte Zusammenhänge in ihren Aussagen und Bedeutungen abbilden. Zu untersuchen wäre, inwieweit diese Forschungsarbeit an Tiefe verliert, weil
weniger Zeit mit der Einordnung und Strukturierung verbracht wird.
Mit Hilfe des Knowledge Creation Frameworks werden die wesentlichen Aspekte der Diskussion um Besonderheiten von Wissen und der Wissensentwick(A-1.3)
lung kombiniert und für einen Paradigmenwechsel zu einem prozessualen Wissensverständnis zur Verfügung gestellt.
Neben den Erkenntnissen über eine bessere Unterstützung wissensintensiver Prozesse, ergeben sich
mit dem KCF aus der Diskussion Schlussfolgerungen für eine Weiterentwicklung von Modellen
der Wissensentwicklung und Antworten auf die Gedanken zum Verständnis von Wissen.
Das KCF erweitert bestehende organisatorische Modelle um eine individuelle Perspektive und bereichtert damit das Verständnis um den Dialog zwischen Individuum und Organisation. Es berücksichtigt den subjektiven Charakter in Form der Intention als Kontextelement.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
175
Das Modell unterstützt und beschreibt die Möglichkeit, Wissen als einen konstruktiven Prozess zur
Erstellung eines situationsspezifischen Zustands zu verstehen. Es macht die Möglichkeiten deutlicher,
wissensintensiven Prozessen ein anderes Paradigma von Wissen zugrunde zu legen und Wissen
selbst als selbstähnlichen wissensintensiven Prozess auf verschiedenen Abstraktionsebenen zu betrachten.
Wissen ist zwar weiterhin eine wichtige und strategische Resource im Unternehmen. Die vorgestellten Ansätze ergänzen bestehende Umsetzungshebel für Wissensstrategien, wie von Al-Laham
(2003, 380 ff.) beschrieben. Sie machen den strategischen Hebel des Wissensmanagements operationalisierbar und weisen Wege zum Umgang mit wissensintensiven Prozessen.
In Bezug auf die Siemens AG und das in Kapitel 8.1.4 vorgestellte Modell aus Diffusion, Proficiency und Codification bedeutet dies ein detaillierteres Verständnis des Kodifizierungsprozesses und
eine Verbesserung der technologischen Unterstützung von Diffusionsprozessen. Neben der technologischen Optimierung lassen sich mit Hilfe des KCF auch personen-bezogene Maßnahmen auf organisatorischer Ebene einordnen und systematisch anwenden.
Die informationsorientierte Eweiterung von Rollenbeschreibungen erschließt die Potentiale der
Technologie für strategische Geschäftsprozesse. Eine wissensbasierte Unternehmensstrategie findet
darin Umsetzungsmöglichkeiten ihrer Maßnahmen zu Flexibilisierung und Effizienzsteigerung in
personalintensiven Geschäften.
Die Grounded Theory ermöglichte einen systematischen, iterativen Dialog zwischen wirtschaftswissenschaftlichen Aspekten und Erkenntnissen der Informatik. Als wissensintensiver Prozess war sie selbst Forschungsobjekt.
Mit der Grounded Theory wurde ein im technologischen Umfeld wenig bekannter und genutzter
Ansatz gewählt, um diese verschiedenen Aspekte iterativ in die Diskussion einzubringen, ohne einen
konkreten Nachweis und Test aus den Augen zu verlieren. Im Sinne der Disziplinschnittstelle der
Wirtschaftsinformatik ist dies aber vielleicht ein multiplizierbarer und ausbaubarer Weg, die Erkenntniskräfte beider Disziplinen zu verknüpfen. Vielleicht ergibt sich hierdurch ein besserer und schnellerer Übertrag technologischer Leistungen in den betrieblichen Alltag.
Aus dieser Sicht sind die im Kapitel 3 als Qualitätsanspruch gestellten Erwartungen erfüllt:
• Vollständig expliziert: Unter Nennung der angewandten Forschungsmethode, mit bekanntem
Forschungsziel und durch Forschungsfragen geleitet
• Dokumentiert: In verständlicher Struktur dargelegt und geeignet durch Visualisierungen zugänglich gemacht.
• Methodisch: Es wurde nach der gewählten Methode gearbeitet und die Methode hat die Erzielung der Ergebnisse unterstützt und sich als geeignet erwiesen
• Zielsetzung erreicht: Die Ergebnisse beantworten die gestellten Forschungsfragen und tragen
einen Erkenntnisgewinn zum Forschungsziel bei.
• Konsistent: Die Forschungsmethode, -zielsetzung und -ergebnisse wurden auch im interpersonellen Rahmen diskutiert und passen zueinander.
Die Grounded Theory bringt es im Gegensatz zu rein empirischen Methoden mit sich, dass die Ergebnisse im Diskurs zur Theorie in Beziehung gebracht werden und nicht nur eine Hypothese bestätigen oder widerlegen. Einen ergänzenden Beitrag zum Diskurs bot die Einbettung in Forschungsprojekte wie EPOS und -teams sowie der Dialog in der Forschungscommunity durch (internationale)
Veröffentlichungen.
(A-1.4)
Mit Hilfe das Knowledge Creation Frameworks ist ein Beitrag zur Diskussion der Design Sciences aus Kapitel 3.5.2 an der Schnittstelle zwischen Management, Organisations und Informationstheorien entstanden. Er beschreibt aus Sicht der Wissenstheorie einen Designprozess mit dem Ergebnis eines Artefakts (knowledge product oder asset).
Versteht man den Designprozess als Problemlösungsprozess, so ist gerade die Optimierung von
Suchverfahren ein wesentlicher Schritt hierzu. Das KCF zeigt eben diesen als Vorstufe des Recon-
176
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
cilers. Mit Hilfe der Grounded Theory ist es gelungen, die Nützlichkeit des Semantic Desktop im betrieblichen Umfeld zu erhärten und seinen Einsatz im Rahmen eines größeren Modells zu erklären. Ein
Feldtest in anderen betrieblichen Prozessen zum Nachweis der Gültigkeit könnte aus verhaltensbasierter Sicht in weiterer Forschung erfolgen. Ebenso sollte ein Leistungstest der Technologie mit großen
Datenmenegen erfolgen, um die notwendige statistische Power für die Signifikanztest zu erhalten.
Als Fazit der Forschung zeigt sich, dass die konstruktivistische und interdisziplinäre Betrachtung
von Wissen als Prozess im Sinne einer ständigen Wissensentwicklung hilfreich ist, das objektorientierte Paradigma der reinen Wissensverteilung aufzubrechen.
Sie ermöglicht es, sich mit neuen, offenen Ansätzen komplexen Infromationsbedarfen zu nähern,
und verspricht im Rahmen von Systemarchitekturen einen signifikanten Beitrag zur Produktivitätssteigerung von Wissensarbeitern:
Forschungsfrage
Diskussion
Wie kann die semantische Suche die Produk- • Besonderheiten wissensintensive Prozesse,
tivität in der Wissensentwicklung von wisWissensentwicklung und Wissen
sensintensiven Prozessen steigern ? (F-1)
• Test der semantischen Suche in Praxisszenarien
Ergebnis
Die semantische Suche trägt zu einer aktiven Prozessunterstützung in Teilprozessen der Wissensentwicklung bei, kann diese jedoch erst im Rahmen einer Gesamtarchitektur leisten. Semantische Suchen sind Katalysator für die technologische Erschließung wissensintensiver Prozesse.
Forschungsfrage
Diskussion
Was sind wissensintensive Prozesse und ihre • Workflows
Besonderheiten ? (F-2)
• Prozessarten
Ergebnis
Wissensintensive Prozesse sind explorativ, nicht im Detail wiederholbar und zuvor unbekannt. Sie
können aktivitäts-, ziel- oder wissensorientiert sein. Im Unterschied zu bestehenden Prozessen differenzieren sie sich durch einen konstruktiven Fokus im Individuellen und einen verbreitenden, kommunikativen Fokus im Organisationellen. Wissen entsteht nicht in der Übertragung, sondern im Individuum bei der Explikation oder Internalisierung.
Forschungsfrage
Diskussion
Was sind die Charakteristika von Wissen ? Wissensverständnis in verschiedenen Disziplinen
(F-3)
Ergebnis
Wissen ist ein Zustand subjektiver Wirklichkeit. Die Eigenschaften von Wissen sind Viabilität, Subjektivität, Vergänglichkeit und rekursive Konstruktion.
Forschungsfrage
Was ist Wissensentwicklung ? (F-4)
Diskussion
Organisatorische und indivdiuelle Wissensentwicklung in verschiedenen Modellen und Theorien
Ergebnis
Wissensentwicklung ist ein Prozess des perspective takings und makings zur Erzielung eines Zustandes der subjektiven Wirklichkeit. Es berücksichtigt den subjektiven Charakter von Wissen und integriert Kontextaspekte als Intention in Form von Eigenschaften einer Rolle des Nutzers. Sie werden
als Personal Information Model der Technologie in der deduktiven Wissensentwicklung zur Verfügung gestellt.
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
177
Forschungsfrage
Diskussion
Welche intelligenten Technologien können • Möglichkeiten der Künstlichen Intelligenz auf
den Redaktionsaufwand reduzieren und mit
Signal, Bedeutungs- und Konzeptebene
welchen Herausforderungen ist dies verbun- • Bestehende Applikationen und Systeme
den ? (F-5)
• Infromation Retrieval Ansätze
• Semantische Suchen
Ergebnis
Intelligente Technologien ersetzen und unterstützen nicht nur wissensintensive Prozessschritte. Hierfür besitzen sie Problemlösungsfähigkeiten.
Semantische Technologien erlauben noch keinen Zugang zu subsymbolischen Konzepten. Sie nutzen
erfolgreich bestehende, symbolische Konzepte und verbessern die Leistungsfähigkeit von Suchen.
Die gewonnen Erkenntnisse im Umgang mit Konzepten sind Grundlage für Nutzung nicht explizit
formulierter Konzepte und verborgener Beziehungen.
Sie unterstützen leichter induktive Ansätze der Wissensentwicklung, auch wenn mit dem P2P Ansatz
eine Grundlage für deduktive Ansätze geschaffen scheint.
Forschungsfrage
Diskussion
Ist die semantische Suche des Semantic Desk- • Test von Gnowsis gegenüber Laborergebnissen
tops leistungsfähiger und intelligenter als be- • Test von Gnowsis gegenüber LiveLink
stehende Suchen im Spektrum des Informati- • Test von Gnowsis mit unterschiedlcihen Szenaon Retrievals ? (F-6)
rien auf Rollenbasis
• Signifikanzuntersuchung der Testergebnisse
Ergebnis
Gnowsis, die semantische Suche des Semantic Desktop, steigert die Ergebnisqualität von Suchanfragen einzelner Wissensarbeiter oder der in homogenen Gruppen. Der Einsatz von P2P-Netzwerken
ermöglicht in heterogenen Gruppen Zugang zu weiteren relevanten Dokumenten.
In seiner Weiterentwicklung können durch Nutzerbeobachtung automatische Suchen durchgeführt und
die Ergebnisse aktiv und situationsspezifisch bereitgestellt werden.
Forschungsfrage
Diskussion
Welchen Beitrag leistet die semantische Suche • Knowledge Creation Framework
im Rahmen der Wissensentwicklung und wo • Auswirkungen auf die Diskussionsbereiche
liegen die Grenzen bzw. Entwicklungsmög(Wissen, Wissensentwicklung, wissensintensilichkeiten der Technologie ? (F-7)
ve Prozesse und semantische Technologien)
Ergebnis
Das Knowledge Creation Framework beschreibt die Erkenntnisse aus der Theorie und den technologischen Tests. Mit seiner Hilfe lassen sich die Erkenntnisse auf andere aktivitätsorientierte, wissensintensive Prozesse übertragen.
Die semantische Suche unterstützt und ersetzt den Analyzer und Reconciler aus dem KCF.
Der Semantic Desktop lässt sich in seinen Funktionalitäten und seiner Wirkungstiefe auf ContentEbene zu einer service- oder agentenorientierten Architektur weiterentwickeln. Dabei wäre zu klären,
welche Technologien sich für den Umgang mit mit vagen Objekten, wie Text, und vagen Kontexten,
wie Storylines, eignen.
178
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
179
Literaturverzeichnis
Aamodt, A., Plaza, E. (1994) Case-Based Reasoning: Foundational Issues, Methodological Variations, and System Approaches. In: AI Communications, Vol. 7 Nr. 1, March 1994, pp 39-59,
http://www.idi.ntnu.no/emner/it3704/lectures/papers/Aamodt_1994_Case.pdf
Abdecker, A., Bernardi, A., Sintek, M. (2000) Proactive Knowledge delivery for enterprise Knowledge Management (Deutsches Forschungszentrum für Künstliche Intelligenz), in: Ruhe, G., Bomarius F. (Hrsg.)
Learning Software Organizations, Springer Verlag, 2000
Abecker, A. Bernardi, A., Sintek. M. (1999) Proactive knowledge delivery for enterprise knowledge management. In: SEKE-99. Proceedings of the 11th Conference on Software Engineering and Knowledge Engineering.
Kaiserslautern,
Germany,
June
17-19
1999,
1999,
pp.
103-117,
http://citeseer.ist.psu.edu/abecker99proactive.html
Abecker, A., Bernardi, A., Elst. L.v. (2003) Agent technology for distributed organisational memories. In: Proceedings of the 5th International Conference On Enterprise Information Systems, Vol. 2, pp. 3–10, 2003.
Zitiert in: Elst et al. (2004)
Adomavicius, G., Tuzhilin, A. (2005) Toward the next generation of recommendersystems: a survey of the state
of the Art and possible extensions. In: IEEE Transactions on knowledge and data engineering, Vol 17, No.
6, June 2005
Aebli, H. (1981) Denken: das Ordnen des Tuns. Bd. 2: Denkprozesse, Stuttgart: Klett-Cotta, 1981
Ahmed, K. et al. (2001) Professional XML Meta Data. Wrox Press Ltd., Birmingham, 2001
Alber, K. (2000) Kognitive Verarbeitung von Dimensionsadjektiven - ein konstruktivistisch-konnektionistisches
Modell zur Produktion von Äußerungen mit dem Dimensionsadjektiv "groß". Diss., Universität Bielefeld,
2000
Al-Laham, A. (2003) Organisationales Wissensmanagement. Vahlen, 2003
Allweyer, T (1998) Modellbasiertes Wissensmanagement. In: IM Information Management & Consulting, Nr. 1,
1998, pp. 37-45.
Althoff, K.-D., Weß, S. (1991) Case-Based Knowledge Acquisition, Learning and Problem Solving for Diagnostic Real World Tasks. – Universität Kaiserslautern, 1991, http://citeseer.ist.psu.edu/203885.html
Aken, J.E.v. (2004) Management Research based on the Paradigm of the Design Sciences: The Quest for FieldTested and Grounded Technological Rules. In: Journal of Management Studies, 41:2, March 2004, pp. 219 246
Aschoff, F.-R., Elst, L.v. (2001) Empirical Evaluations of Organisational Memory Information Systems: A Literature Overview. FRODO Discussion paper, 2001,
http://www.dfki.uni-kl.de/~elst/papers/Evaluation%20of%20OMIS.htm
Axelrod, R. (Hrsg. 1976) Structure of Decision. Princeton, Princeton, 1976
Barreau, D., Nardi, B.A. (1995) Finding and reminding : File organization from the desktop. 1995
Baumeister, J., Seipe, D. (2005) Anfragesprachen für das Semantic Web. In: Informatiklexikon, Gesellschaft für
Informatik e.V., Springer, 2005,
http://www.gi-ev.de/service/informatiklexikon/informatiklexikon-detailansicht/meldung/23/
Becker J. et al. (2003) Forschungsmethodische Positionierung in der Wirtschaftsinformatik – epistemologische,
ontologische und linguistische Leitfragen. Arbeitsberichte des Instituts für Wirtschaftsinformatik, Arbeitsbericht Nr. 93, Westfälische Wilhelms-Universität Münster, Institut für Wirtschaftsinformatik, 2003,
www.wi.uni-muenster.de/inst/arbber/ab93.pdf
Belhumeur, P.N., Hespanha, J. P., Kriegman, D.J. (1997) Eigenfaces vs. Fisherfaces: Recognition using class
specific linear projection. In: IEEE Transactions on pattern analysis and machine intelligence, Vol 12, No. 7,
July 1997
Bergenti, F., Poggi, A., Rimassa, G. (2000) Agent architectures and interaction protocols for corporate management systems. In: Proceedings of the ECAI Workshop on Knowledge Management and Organisational
Memories, pp. 39–47, Berlin, 2000
Bergius, R. (1971) Psychologie des Lernens. Kohlhammer, Stuttgart, 1971
Bergmann, R. (2002) Experience Adaptation. In: Experience Management: Foundations, Development Methodology, and Internet-Based Applications, Lecture Notes in Computer Science, Springer, Berlin , Heidelberg,
ISSN 0302-9743 (Print) 1611-3349 (Online), Volume 2432/ 2002
Berners-Lee, T., Hendler, J., Lassila, O. (2001) The semantic web - a new form of web content that is meaningful to computers will unleash a revolution of new possibilities, in: Scientific American, 284 (5), 2001, pp.
28-37
Bernus, P., Schmidt, G. (1998) Architectures of Information systems. In: Bernus, P.; Mertins, K.; Schmidt, G
(Hrsg., 1998) Handbook on Architectures of Information Systems. Springer, Berlin, Heidelberg, 1998
Best, J. B. (1992) Cognitive Psychology. Third Edition, New York
180
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Birbaumer, N.; Schmidt, R.F. (1997) Lernen und Gedächnis. In: Schmidt, R.F.; Thews, G. (1997) In: Schmidt
R.F., Thews G. (Hrsg) Physiologie des Menschen, Springer, Berlin Heidelberg New York, 27. Auflage,
1997, S. 154-166
Bizer, C., Seaborne, A. (2004) D2rq-treating non-rdf databases as virtual rdf graphs. In: Proceedings of the 3rd
International Semantic Web Conference , ISWC2004, Japan, 2004. Zitiert in: Sauermann et al. (2005)
Bochenski, I.M. (1993) Die zeitgenössischen Denkmethoden, UTB 6, 10. Auflage, Tübingen, 1993. Zitiert in:
Teich (1996), S. 5
Boisot, M.H. (1999) Knowledge Assets: Securing Competitive Advantage in the Information Economy, Oxford
University Press, New York, 1999
Boland, J., Tenkasi, R.V. (1995) Perspective Making and Perspective Taking in Communities of Knowing. In:
Organization Science, 6(4), pp. 350-372, 1995
Bonifacio, M., Bouquet, P., Mameli, G. Nori, M. (2002) Kex: a peer-to-peer solution for distributed knowledge
management. In: Proceedings of the Fourth International Conference on Practical Aspects of Knowledge
Management (PAKM02), volume 2569 of Lecture Notes in AI, pp. 490–500. Springer, 2002. Zitiert in: Elst
et al. (2004)
Bontis, N., Crossan, M.M. (1999) Managing an Organizational Learning System by Aligning Stocks and Flows
of Knowledge. In: Conference on Organizational Learning, UK, Lancaster, 1999. Zitiert in: Al-Laham
(2003)
Bortz, J., Döring, N. (2002) Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler, 3. Auflage, Springer-Verlag, Berlin, 2002
Bradford, J. (1999) New dimensions of international security: Information vulnerabilities. In: International security challenges in a changing world, Spillmann et al. (Hrsg.), Bern et al loc., 1999
Brand-Haushofer, R. (2005) Recommender Systeme in digitalen Bibliotheken. Dissertation, Universität Wien,
2005, http://epub.wu-wien.ac.at/dyn/openURL?id=oai:epub.wu-wien.ac.at:epub-wu-01_93d
Brüning, H., Trenkler, G. (1994) Nichtparametrische, statistische Methoden, 1994
Brünken, R. (1998) Automatische Rekonstruktion von Inhaltsbeziehungen zwischen Dokumenten. Benutzeradaptives Informations-Retrieval in Wissensbasen. Shaker, 1998
Bryson, J. (2000) Cross-paradigm analysis of autonomous agent architecture. In: Journal of Experimental and
Theoretical
Artificial
Intelligence,
12(2),
pp.165-190,
2000,
http://citeseer.ist.psu.edu/bryson00crossparadigm.html
Bullinger, H.-J., Wörner, K., Prieto, J. (1998) Wissensmanagement – Modelle und Strategien für die Praxis. In:
Bürgel, H.D. (1998) Wissensmanagement – Schritte zum intelligenten Unternehmen, Springer, Berlin, Heidelberg, S. 21-39, 1998
Burkhard, H-D (2003) Software-Agenten. In: Görz, G. (Hrsg., 2003) Handbuch der künstlichen Intelligenz, Oldenboug, 2003 S. 943 – 1017
Buttlar, J.v. (1992) Gottes Würfel: Schicksal oder Zufall, Weltbild, 1992, ISBN: 3776617497
Carlsson, S.A. (2006) Towards an Information Systems Design Reasearch Framework: A Critical Realist Perspective. In: First International conference on Design Science Research in Information Systems and
Technology, 2006, http://wesrac.usc.edu/wired/bldg-7_file/6B_1.pdf
Cherkaoui, S. Desrochers, A., Habhouba, D. (2003) A Multi-Agent Architecture For Automated Product Technical Specifications Verification In CAD Environments. In: Journal of Integrated Design & Process Science
archive, Volume 7, Issue 2, pp. 21-38, April 2003
Chirita, P.A., Gavriloaie, R., Ghita, S., Nejdl, W., Paiu, R. (2004) Activity based metadata for semantic desktop
search. 2004
Chomsky, N. (1996) The minimalist program. 2. Aufl., MIT Press., Cambridge, Mass. Zitiert in: Alber (2000)
Chroust, G. (1992) Modelle der Software-Entwicklung. Oldenbourg, 1992
Cimiano, P. (2004) ORAKEL: A Natural Language Interface to an F-Logic Knowledge Base. In: Proceedings of
the 9th International Conference on Applications of Natural Language to Information Systems, pp. 401–406,
2004. Zitiert in: Lei (2006), S. 3
Cohen, W.M., Levinthal, D. (1990) Absorptive Capacity: A Perspective and Learning an Innovation.
In:Administrative Science Quarterly, Jg. 35 Heft 1, pp. 128-152, 1990
Corby, O., Dieng-Kuntz, R. Faron-Zucker, C. (2004) Querying the Semantic web with Corese Search Engine. In:
Proceedings of 15th ECAI// PAIS, Valencia (ES), 2004. Zitiert in: Lei (2006), S. 3
Damasio A.R. (2005) Der Spinoza-Effekt. Wie Gefühle unser Leben bestimmen. List, 2005
Danner, H. (1979) Methoden geisteswissenschaftlicher Pädagogik. UTB, München, Basel, 1979
Davenport, T. (2005) Thinking for a Living, Harvard Business School Press, 2005
Debenham, J. (2000) Three Intelligent Architectures for Business Process Management. In: Proceedings of 12th
International Conference on Software Engineering and Knowledge Engineering, SEKE2000, Chicago, 6-8
July 2000, Sydney, 2000, http://citeseer.ist.psu.edu/debenham00three.html
Decker, S., Frank, M. (2004) The social semantic desktop. WWW2004 Workshop Application Design, Development and Implementation Issues in the Semantic Web, 2004. In: Sauermann et al. (2005)
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
181
Delp, M., et al. (2004) Pre-built information space: some observartions on the challenges of process-oriented
Knowledge Management. In: Proceedings of I-KNOW 04, Graz, pp. 416-423, 2004
Dengel, A. (2006) Six thousand words about multi-perspective personal document management. In: Proceedings
of First IEEE International Workshop on Electronic Document Management in an Enterprise Environment.
IEEE International Enterprise Computing Conference (EDOC), HongKong, 2006
Dengel, A. (2007) Knowledge Technologies for the Social Semantic Desktop. In: Zhang, Z. und Siekmann, J.
(Hrsgs.) Proceedings of International Conference on Knowledge Science Engineering and Management,
Lecture
Notes
in
Artificial
Intelligence,
LNAI
4798,
Springer,
2007,
pp.
2-9,
http://www.springerlink.com/content/x74543973m0561t4/
Dengel, A. (2008) Methods and Models on AI, Lecture Script, University of Kaiserslautern, CS Dept., 2008
Dengel, A., Abecker, A., Bernardi, A., Elst, L. v., Maus, H., Schwarz, S., Sintek, M. (2002) Konzepte zur Gestaltung von Unternehmensgedächtnissen. In: KI- Künstliche Intelligenz, No. 1, arendtap Verlag, Bremen,
2002, pp. 5-11
Dengel, A., Abecker, A., Bahr, J.T., Bernardi, A., Dannenmann, P., van Elst, L., Klink, S., Maus, H., Schwarz,
S., Sintek, M. (2002) Epos - evolving personal to organizational knowledge spaces, 2002, Project Proposal,
DFKI GmbH
Diederich, J. (1989) Instruction and High-level Learning in Connectionist Networks.Connection Science, 1,
1989, pp. 161-180. Zitiert in: Alber (2000)
Dilger, W. (2004) Künstliche Immunsysteme, Vorlesungsskript, Technischen Universität Chemnitz, Sommersemester 2004, http://www.tu-chemnitz.de/informatik/KI/scripts/ss06/AIS-06-1-skr.doc, Abgerufen: 07. Juni
2006, 10:19 Uhr GMT+2
Dodero, J.M., Aedo, I., Díaz-Pérez, P. (2002) A Multi-Agent Architecture and Protocol for Knowledge Production: A Case Study for Participative Development of Learning Objects. In: Where Parallels Intersect, Informing Science InSITE, June 2002, pp. 357-370
Dorffner G.(1991) Konnektionismus. Teubner, Stuttgart, 1991
Dou, D., McDermott, D. Qi, P. (2002) Ontology Translation by Ontology Merging and Automated Reasoning,
http://citeseer.ist.psu.edu/611915.html
Drescher, G. L. (1988) Learning from Experience Without Prior Knowledge in a Complicated World, In: Proceedings of the AAAI Symposium on Parallel Models. AAAI Press, 1988. Zitiert in: Franklin (1997)
Dreyfus, H.L., Dreyfus, S.E. (1986a) Mind over machine – The power of human intuition and expertise in the
era of the computer, New York, 1986
Eberl, U., Theis, D. (2002) Siemens Pictures of the future, Siemens AG Corporate Communications und Corporate Technology, Herbst 2002,
http://www.siemens.com/index.jsp?sdc_p=t15l0s5o1184101i1147359cd1187140fmu20n1184101pFEz2&sd
c_sid=14235195103&
Eckes, T. (1991) Psychologie der Begriffe. Hogrefe, Göttingen. Zitiert in: Alber (2000)
Edelmann, G.M. , Tononi, G. (2000) Gehirn und Geist - Wie aus Materie Bewußtsein entsteht, C.H. Beck, München
Ekström, M., Björnsson, H. (2000) Automation of AEC bidding using itelligent agents. In: Proceedings of Computing in Civil and Building Engineering, pp. 558-565, 2000
Elst L.v., Aschoff F.R., Bernardi A., Maus H., Schwarz, S. (2003) Weakly-structured workflows for knowledgeintensive tasks: An experimental evaluation. In: IEEE WETICE Workshop on Knowledge Management for
Distributed Agile Processes: Models, Techniques, and Infrastructure (KMDAP 2003), IEEE Computer
Press, 2003, http://www.dfki.uni-kl.de/~schwarz/docs/ElstAschoffBernardiMausSchwarz2003.pdf (213)
Elst, L.v., Kiesel, M. Shadbolt, N. (Hrsg.), Motta, E. (Hrsg. 2004) Generating and Integrating Evidence for Ontology Mappings. In: 14th International Conference on Knowledge Engineering and Knowledge Management, EKAW 2004, 5--8th October 2004, Springer, Heidelberg, Berlin, 2004
Eraßme, R. (2002) Mensch und Künstliche Intelligenz, Diss., Universität Hannover, 2002
Firby, J. (1987) An investigation into reactive planning in complex domains. In: Proceedings of the National
Conference on Artificial Intelligence (AAAI), pp. 202–207, 1987. Zitiert in: Bryson (2000)
Fischer, H.P. (1991) Von der Herausforderung das Verlernen und Umlernen zu organisieren. In: Sattelberger, T.
(Hrsg.) Die lernende Organisation, Wiesbaden, 1991, pp. 229-244
Fodor, J.A., Pylyshyn, Z.W. (1988) Connectionism and cognitive architecture: A critical analysis. Cognition, 28,
pp. 3 – 71. Zitiert in: Alber (2000)
Forbus, K.D., Gentner, D., Markmanoe, A.B., Ferguson, R.W. (1997) Analogy just looks like high level perception: why a domain-general approach to analogical mapping is right. In: J. Expt. Theoretical Artificial Intelligence, 10(1998), pp. 231-257, 1997
Förster, H.. (1993) KybernEthik, Merve, Berlin, 1993. Zusammengefasst in: Beats Biblionetz,
http://beat.doebe.li/bibliothek/b00036.html, Aktualisiert am 18.10.2002, Abgerufen am: 03.06.2007, 17:47
Uhr GMT+2
Franklin, S. (1997) Autonomous Agents as Embodied AI. In: Cybernetics and Systems, 28:6 (1997), pp. 499-520
182
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Gabriel, G. (1993) Grundprobleme der Erkenntnistheorie. Von Descartes zu Wittgenstein. Paderborn, 1993. Zitiert in: www.uni-koblenz.de/~odsjgroe/konstruktivismus/wahrheit.htm
Gagné, Robert M. (1965). The Conditions of Learning. Holt, New York, 1965
Gemmell, J., Bell, G., Lueder, R., Drucker, S., Wong, C. (2002) Mylifebits: Fulfilling the memex vision. In:
ACM Multimedia December 1-6, Juan-les-Pins, France, 2002, pp. 235–238. Zitiert in: Sauermann et al.
(2005)
Gentner, D. (1989). The Mechanisms of Analogical Learning. In: Vosniadou , S., Ortony, A. (Eds., 1989): Similarity and Analogical Reasoning. Cambridge University Press, Cambridge, pp. 199-241, 1989
Georgeff, M.P., Lansky, A.L. (1987) Reactive reasoning and planning. In: Proceedings of the Sixth National
Conference on Artificial Intelligence (AAAI-87), pp. 677–682, Seattle, 1987. Zitiert in: Bryson (2000)
Glaser, B. G., Strauss, A.L. (1998) Grounded Theory. Bern, Göttingen, 1998 (150)
Glasersfeld, E.v. (1978) Die erfundene Wirklichkeit. Zusammengefasst in: Beats Biblionetz,
http://beat.doebe.li/bibliothek/pd00027.html, Aktualisiert am 21.05.07, Abgerufen am: 03.06.2007, 16:36
Uhr GMT+2
Glasersfeld, E.v. (1984) An introduction to radical constructivism, in Watzlawick, P. (Hrsg.) The invented reality, pp. 17-40, New York, 1984. Zitiert in Peschl (2001) und in deutsch zusammengefasst in:
http://beat.doebe.li/bibliothek/t00057.html, Aktualisiert am 05.10.2003, Abgerufen am: 03.06.2007, 17:51
Uhr GMT+2
Glasersfeld, E.v. (1987) Wissen, Sprache und Wirklichkeit.: Arbeiten zum radikalen Konstruktivismus. Autorisierte dt. Fassung von Wolfram K. Köck. Braunschweig/ Wiesbaden: Vieweg, 1987
Glasersfeld, E.v. (1991) Knowing without metaphysics. Aspects of the radical constructivist poisition. In: Steiner
F. (Hrsg.) Reasearch and reflexivity, pp. 12-29, SAGE, London, CA, 1991. Zitiert in: Peschl (2001)
Glasersfeld, E.v. (1995) Radical Constructivism. A way of knowing and learning, Falmer Press, London, 1995.
Zitiert in: Peschl (2001)
Glasersfeld, E.v. (1996) Über Grenzen des Begreifens, Benteli, 1996, Zusammengefasst in: Beats Biblionetz,
http://beat.doebe.li/bibliothek/b00663.html, Aktualisiert am 10.04.2001, Abgerufen am: 03.06.2007, 17:57
Uhr GMT+2
Goesmann, T. (2002) Ein Ansatz zur Unterstützung wissensintensiver Prozesse durch Workflow-ManagementSysteme. Dissertation, Technische Universität Berlin, 2002,
http://edocs.tu-berlin.de/diss/2002/goesmann_thomas.pdf
Goldstone, R. L, Son, J. (2005) Similarity. In: Holyoak K., Morrison, R. (Hrsg.) Cambridge Handbook of Thinking
and
Reasoning.
Cambridge:
Cambridge
University
Press,
pp.
13-36,
2005,
http://cognitrn.psych.indiana.edu/rgoldsto/pdfs/similarity2004.pdf
Goldstone, R.L. (1993) The role of similarity in categorization: providing a groundwork. In: Cognition, International
Journal
of
Cognitive
Sciences,
52,
1994,
pp.125-157,
http://cognitrn.psych.indiana.edu/rgoldsto/pdfs/sim&cat.pdf
Goodman, N. (1972) Seven strictures on similarity. In: Goodmann, N. (1972) Problems and projects. BobbsMerill, New York. Zitiert in: Goldstone (1993)
Gordon, M.; Pathak, P. (1999) Finding information on the World Wide Web: the retrieval effectiveness of search
engines. In: Information Processing & Management, 35(2), 1999, pp. 141-180
Goshen-Gottstein, Y. (2003) Learning and Memory. In: Encyclopedia of life sciences, John Wiley & Sons, Ltd,
Chichester, 2003, http://www.els.net/ [doi: 10.1038/ npg.els.0000172 ]
Govindaraju, V., Xue, H. (2004) Fast Handwriting recognition for indexing historical documents. In: Proceedings of the first International Workshop on Document Image Analysis for libraries (DIAL 04), 2004
Guha, R., McCool, R., Miller, E. (2003) Semantic Search. In: Proceedings of the 12th international conference
on World Wide Web, pp. 700–709, 2003. Zitiert in Lei (2006), S. 3
Grochowiak, K. (2001) Philosophische Grundrichtungen und ihre Bedeutung für die Psychotherapie, 05.2001,
Fachartikel der Creative NLP Academy, Wiesbaden, 2001, http://www.cnlpa.de/presse/philo-grund.html
Gronau, N., Uslar, M., Winkler, T. (2005), M-Wise: Modellierung wissensintensiver Prozesse im Software Engineering. In: Wissensmanagement in der Softwareentwicklung (WMSE05), 35. Jahrestagung der Gesellschaft für Informatik (GI) in Bonn, 2005,
http://www.mwise.de/blog/wp-content/bibtex/11_bmbf_2004.pdf
Gruber, T.R. (1993) A translation approach to portable ontology specifications. KnowledgeAquisition,
(5):199.220, 1993, in: Moench (2003)
Grundy, J. (2000) Multi-perspective specification, design and implementation of software components using aspects. In: International Journal of Software Engineering and Knowledge Engineering, Vol 10, No. 6, 2000,
pp. 713-734
Guha, R., McCool, R. und Miller, E. (2003) Semantic search. WWW ’03. Proceedings of the Twelth International Conference on World Wide Web, Budapest, Hungary, May 2003
Hagen, S. (1995) Face Recognition—A Novel Technique. Master thesis, University of Heidelberg, 1995. Zitiert
in: Khuwaja (2002)
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
183
Hansen, T.H., Nohria, N., Tierney, T. (1999) What’s your strategy for Managing Knowledge ?. In: Harward
Business Review, March-April, S. 106-116, 1999
Harmann, D.K. (Hrsg.) (1995) Proceedings of the Third Text Retrieval Conference (TREC 3), NIST Special
Publication, pp. 200-225, 1995. Zitiert in: Junker, M., Abecker, A. (1996) Einsatz Maschineller Lernverfahren für die Dokumentklassifikation. In: Dilger, W. Schlosser, M. Zeidler, J. und Ittner A. (eds.) FGML-96
Fachgruppentreffen Maschinelles Lernen. Chemnitzer Informatik-Berichte CSR-96-06, TU ChemnitzZwickau, 1996
Hars, A. (2002) Wissenschaftstheorie für Wirtschaftsinformatiker. Tutorial bei der Multi-Konferenz Wirtschaftsinformatik, Nürnberg, 2002. Zitiert in: Becker et al. (2003)
Harth, A. (2004) Seco: mediation services for semantic web data. In: Intelligent Systems, IEEE Volume 19,
2004, pp. 66 – 71. Zitiert in: Sauermann et al. (2005)
Hebb, D.O. (1949) The organization of behavior. Wiley, New York, 1949, in: Alber (2000)
Heflin J., Hendler, J. (2000) Searching the Web with SHOE. In: Proceedings of the AAAI Workshop on AI for
Web Search, pp. 35 – 40, AAAI Press, 2000. Zitiert in Lei (2006), S. 3
Hees,
H.
(2004).
Nextbot
knowledge
framework.
brainbot
Technologies
AG,
2004,
http://brainbot.com/resources/dokumente/nextbot_knowledge_framework_whitepaper.pdf
Helscher, R.J. (1991) Über die Praktikabilität der Verfremdung. In: Peschl, M. (Hrsg., 1991) Formen des Konstruktivismus in Diskussion. Materialien zu den "Acht Vorlesungen über den Konstruktiven Realismus".
WUV, Wien, pp. 166—183, 1991
Herbert, S. (1964) Information Processing in Computer and Man. In: Ruggles (1997) S. 11-29
Herbst, D. (2000) Erfolgsfaktor Wissensmanagement. Berlin, 2000
Herlocker, J.L., Konstan J.A., Terveen, L.G., Riedl, J. (2004) Evaluating Collaborative Filtering Recommender
Systems. In: ACM Transactions on Information Systems, Vol. 22, No. 1, January 2004, pp 5-53
Herrmann, T., Grabowski, J. (1994) Sprechen. Psychologie der Sprachproduktion. Spektrum Akademischer Verlag, Heidelberg, 1994. Zitiert in: Alber (2000)
Herweg, M. (Hrsg. 1992) Hamburger Arbeitspapiere zur Sprachproduktion – I,
http://www.informatik.uni-hamburg.de/GRK/Schriften/HerwegHrsg1992.pdf
Heutte, L., Nosary, A., Paquet, T. (2004) A multiple agent architecture for handwritten text recognition. In: Pattern recognition 37, University of Rouen, pp. 665-674, 2004
Hevner, A.R., March, S. T., Park, J. Ram, S. (2004) Design Science Research in Information Systems. In: Management Information Systems Quarterly, Vol. 28, No. 1, March 2004, pp. 75-105,
http://proquest.umi.com/pqdlink?did=581599791&sid=1&Fmt=2&clientId=20178&RQT=309&VName=P
QD
Heylighen, F. (1993). Epistemology, introduction. Principia Cybernetica. Online-Artikel, verfügbar in:
http://pespmc1.vub.ac.be/EPISTEMI.html. Zitiert in: Murphy, E., Constructivist epistemology. Onlinearticle, 1997, http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr
GMT+2)
Hildebrand M., Ossenbruggen J.R. v., Hardman L. (2007) An analysis of search-based user interaction on the
Semantic Web. CWI Report, INS-E0706, ISSN 1386-3681
Hilgard E.R., Bower G.H. (1970) Theorien des Lernens I. Stuttgart, 1970,
http://www.erzwiss.uni-hamburg.de/personal/grotlueschen/lernsite/seminar1.html
Hinterhuber, H.H. (1992) Strategische Unternehmensführung. de Gruyter, Berlin, New York, 1992
Ho. T.K. (1992) A Theory of Multiple Classifier Systems and Its Application to Visual Word Recognition. PhD
thesis, State University of New York at Buffalo, 1992. Zitiert in: Maus (2005), S. 99ff.
Hofer-Alfeis, J (2003) Measuring Knowledge and KM in an organization with an explicit top-down Knowledge
Strategy. in: Positionspapier Evaluation of KM projects. Für WM2003-Konferenz, Luzern, April 2003,
http://wm2003.aifb.uni-karlsruhe.de/
Höhn, R. (1979) Die Technik der geistigen Arbeit: Bewältigen der Routine - Steigerung der Kreativität. Bad
Harzburg, 1979
Holsapple, C.W. (2003) Handbook on Knowledge Management,Volume 2: Knowledge directions. Springer,
Berlin, Heidelberg, 2003
Holyoak, K.J. (1985) The pragmatics of analogical transfer. In: Psychology of Learning and Motivation, No. 19,
pp. 59–87, 1985
Honegger,
B.
D.
(2007)
Konstruktivismus.
Zusammengefasst
in:
Beats
Biblionetz,
http://beat.doebe.li/bibliothek/w00101.html, Aktualisiert am 23.01.07, Abgerufen am: 03.06.2007, 11:54
Uhr GMT+2
Hopperdietzel, H. (2005) Kognitive Leistungsdifferenzen nach Frontal- und Gruppenorientierten Unterrichtssequenzen.
Dissertation,
Universität
Erlangen-Nürnberg,
2005,
http://deposit.ddb.de/cgibin/dokserv?idn=976176556&dok_var=d1&dok_ext=pdf&filename=976176556.pdf
Horster, B.; Schneider, B.; Siedentopf, J. (1993) Kriterien zur Auswahl konnektionistischer Verfahren für betriebliche Probleme. Arbeitsbericht Nr. 15, in: Becker, J. (Hrsg.). Arbeitsberichte des Instituts für Wirtschaftsinformatik, Münster, 1993, http://www.wi.uni-muenster.de/inst/arbber/ab15.pdf
184
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Howe, J. (2006) The Rise of Crowdsourcing, 2006
Huang, W.H., Beevers, K.R. (2004) Topological Map Merging. In: Proceedings of the 7th Intl. Symp. on Distributed Autonomous Robotic Systems (DARS 2004)
Järvinen, P. (2007) Action Researh is Similar to Design Science. In: Quality & Quantity, No 41, Springer, 2007,
pp. 37 - 54
Johnson, P., Johnson, H. (1992) Human Computer Interaction: Psychology, Task Analysis, and Software Engineering. London, McGraw-Hill, 1992
Jonassen, D. (1991). Objectivism vs. Constructivism. Educational Technology Research and Development,
39(3), 5-14, 1991. Zitiert in: Murphy, E., Constructivist epistemology. Online-article, 1997,
http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 16:51 Uhr GMT+2)
Josuttis, N.M. (2008) SOA in der Praxis. System-Design für verteilte Geschäftsprozesse, Dpunkt Verlag, 2008
Jung, C.G. (1998) Emergent Mental Attitudes in Layered Agents. In: Lecture Notes In Computer Science; Vol.
1555. In: Proceedings of the 5th International Workshop on Intelligent Agents V, Agent Theories, Architectures, and Languages, pp. 195-209, 1998
Jung, C.G., Fischer, K. (1998) Methodological Comparison of Agent models. Reasearch report, RR-98-01, Deutsches
Forschungszentrum
für
Künstliche
Intelligenz,
Kaiserslautern
1998,
http://citeseer.ist.psu.edu/jung98methodological.html
Kagolovsky, Y., Moehr J.R. (2000) Evalution of Information Retrieval: old problems and new perspectives. IN:
Proceedings of 8th International Congress on Medical Librarianship. Zitiert in Aschoff und v. Elst (2001)
Kakabadse, N. K. (2001) From Tacit Knowledge to Knowledge Management: Leveraging invisible assets. In:
Knowledge and Process Management, Vol 8, Nr. 3, 2001, pp. 137-154
Kalfoglou, Y., Schorlemmer, M. (2003) Ontology mapping: the state of the art. In: The Knowledge Engineering
Review 18:1.31, 2003
Karagiannis, D. (2001)WissensManagement: Konzepte der KI und des Softcomputings. Wien, 2001
Kenny, A. (1989) Wittgenstein, 4. Aufl., Frankfurt a.M., 1989
Kenny V., Boxer, P. (1990) The Economy of discourses: a third order cybernetics, in: Human Systems Management, Volume 9, Number 4, pp205-224, 1990 http://www.oikos.org/discourses.htm
Khuwaja, G.A. (2002) An Adaptive Combined Classifier System for Invariant Face Recognition. In: Digital Signal Processing 12, pp. 21–46, 2002, doi:10.1006/ dspr.2001.0413, http://www.idealibrary.com
Kiczales, G. et al. (1997) Aspect-Oriented Programming. In: proceedings of the European Conference on ObjectOriented Programming (ECOOP), Finland, Springer, Berlin, 1997.
Kiefl W. und Lamnek S. (1984) Qualitative Methoden in der Marktforschung. In: Planung und Analyse, 11/
12,1984, pp. 474-480
Kikawada, K. (2001) Knowledge Revolution in Quest of Knowledge Dynamics- How Japanese KM Leading
Companies Learn in the Knowledge Community. In Next-generation Knowledge Management: Enabling
business processes; Proceedings from APQC's Sixth Knowledge Management Conference, 2001, p. 95 ff.
Kim, D.H. (1993) The link between Individual and Organisational Learninig. In: Sloan Management Review,
Fall 1993; pp. 37-50
Klix, F. (1992) Die Natur des Verstandes. Hogrefe, Göttingen. Zitiert in: Alber (2000)
Knauf, R. (2004) Künstliche Intelligenz, Fakultät für Informatik & Automatisierung, Lehrveranstaltung Künstliche Intelligenz, Technische Universität Ilmenau, 2004,
http://www.theoinf.tu-ilmenau.de/ki/ki/PDF/KI-Inf-4.pdf
Kneer, G., Nassehi, A. (1997) Niklas Luhmanns Theorie sozialer Systeme. München, 1997
Kohonen, T. (1984) Self-Organization and Associative Memory. Springer, Berlin, 1984. Zitiert in: Franklin
(1997)
König, W. (Hrsg. 2003) Taschenbuch der Wirtschaftsinfomatik und Wirtschaftsmathematik, 2. Auflage, 2003
Koriche, F. (1998) Approximate Reasoning about combined knowledge, LIRMM, University of Montpellier,
http://citeseer.ist.psu.edu/cache/papers/cs/22630/http:zSzzSzwww.lirmm.frzSz~korichezSzW-DocszSzK981.pdf/koriche98approximate.pdf
Kotis, K., Vouros, G. (2004) The HCONE Approach to Ontology Merging. In: The Semantic Web: Research and
Applications. First European Semantic Web Symposium (ESWS 2004), pp. 137-151, 2004
http://citeseer.ist.psu.edu/kotis04hcone.html
Krause, O. (2005) Performance Measurement. Diss., Technische Universität Berlin, 2005 (1000)
Kreßel, U., Schürmann, J. (1995) Universelle Approximatoren in der Musterklassifikation am Beispiel der
Schriftzeichenerkennung, In: tm - Technisches Messen, 62, 1995, 3, Oldenbourg Verlag, S. 95 ff.
Krogh, G.F.v., Ichijo, K., Nonaka, I. (2000) Enabling Knowledge Creation, Oxford university Press, New York,
2000
Kruse, H., Mangold, R., Mechler, B., Penger, O. (1991) Programmierung Neuronaler Netze. Eine Turbo Pascal
Toolbox. Addison-Wesley , Bonn 1991. Zitiert in: Alber (2000)
Lambrix P., Edberg, A. (2003) Evaluation of ontology merging tools in bioinformatics. In: Proceedings of Pacific
Symposium
on
Biocomputing,
Kauai,
Hawaii,
2003,
pp.
589-600,
http://citeseer.ist.psu.edu/563040.html
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
185
Lamnek, S. (1988) Qualitative Sozialforschung, Band 1, München, 1988
Lang, I. (1999) Strategic Knowledge Management, Higher Level Systems Ltd., 1999
http://www.assistum.com/2002/solutions/knowledge_management/knowledge_management.htm
Lefrancois, G.R. (1994) Psychologie des Lernens, Springer, 1994
Lei, Y., Uren, V., Motta, E. (2006) SemSearch: A Search Engine for the Semantic Web. In: Proceedings EKAW
2006, Managing Knowledge in a World of Networks, POdebrady, Czech Republic, pp. 238-245, 2006
Leong, T. Y. (1998) Multiple perspective dynamic decision making. IN: Artificial Intelligence, Vol. 105,
pp.209-261, 1998
Levelt, W.J. (1989) Speaking: From Intention to Articulation. MIT Press, Cambridge, Mass, 1989. In: Herweg,
M. (Hrsg. 1992)
Lewis, C.I. (1991) Mind and the World Order. Outline of a Theory of Knowledge. Charles Scribner's sons, New
York, 1991 (Nachdr.).
Liaw, S.-S., Geeng-Neng, Y. (2003) How search engines can facilitate individual knowledge construction. In:
Adavnces in Technology-based Education: Towards a knowledge-based society, Proceedings of the II International Conference on Multimedia and Information & Communication Technologies in Education, mICTE2003,
Badajoz,
Spain,
December
3-6th
2003,
pp.
350-355,
http://www.todowebextremadura.com/papers/190.pdf
Liaw, S.-S., Huang, H.-M., Chen, S.-B. (2007) Building a Mobile Learning System for Individual Knowledge
Construction, In: Proceeding of Internet and Multimedia Systems and Applications, 2007,
http://www.actapress.com/PaperInfo.aspx?PaperID=30068
Littlejohn, S.W. , Foss K. A. (1996) Theories of human communication, 5th edition, Wadsworth, 1996, verfügbar
in
Google
Books:
http://books.google.de/books?id=0Ndt6F_G6vsC&pg=PA3&dq=littlejohn+Theories+of+human+communic
ation&psp=1&sig=hDI0Jef-URwQA6QPY-sh7lXaXnk#PPA3,M1
Lopez, V., Pasin, M., Motta, E. (2005) AquaLog: An Ontology-portable Question Answering System for the
Semantic Web. In Proceedings of European Semantic Web Conference (ESWC 2005), 2005. Zitiert in: Lei
(2006), S. 3
Lorenz, S. (2006) Konzeption und prototypische Realisierung einer begriffsbasierten Texterschließung. Dissertation, Universität Trier, Fachbereich 4 Wirtschaftswissenschaften, 2006, urn:nbn:de:hbz:385-3770,
http://ubt.opus.hbz-nrw.de/volltexte/2006/377/index.html
Luck, M., McBurney, P., Preist, C. (2004) A Manifesto for Agent Technology: towards Next Generation Computing. In: Autonomous Agents and Multi-Agent Systems, 9, Kluwer, 2004, pp. 203-252
Luhmann, N. (1995) Soziologische Aufklärung 6. Die Soziologie und der Mensch. Opladen, 1995
Madhvanath, S., Govindaraju, V. (2001) The role of holistic paradigms in handwritten word recognition. In:
IEEE Transactions of pattern analysis and machine intelligence, Vol. 23, No. 2, 2001
Maes, P. (1994) Agents that Reduce Work and Information Overload. In: Communications of the ACM, Vol. 37,
No. 7, pp. 31-40, ACM Press, 1994. Zitiert in: Franklin (1997)
Magnini, B., Serafini, L., Speranza, M. (2002) Using NLP Techniques for Meaning Negotiation. In: Proceedings
of
VIII
Convegno
AI*IA,
Siena,
11-13
September
2002,
http://edamok.itc.it/documents/papers/meanNeg.pdf, und http://citeseer.ist.psu.edu/526412.html
Maiden, N.A.M., Spanoudakis, G., Nissen, H.W. (1996) Multi-perspective requirements engineering within
NATURE. In: Requirements Eng, 1996, pp. 157-169, Springer, London, 1996
Maier, R. (2002) Knowledge Management Systems. Information and Communication Technologies for Knowledge Management. Habilitationsschrift, Springer, Berlin, Heidelberg, 2002 (190)
Maier, R. (2005) Modeling Knowledge Work for the Design of Knowledge Infrastructures. In: Journal of Universal
Computer
Science,
vol.
11,
no.
4,
pp.
429-451,
2005,
http://www.jucs.org/jucs_11_4/modeling_knowledge_work_for/Maier_R.pdf
Mandl, H. (2001) Wissensmanagement lernen. Folienpräsentation, 1. Konferenz ProfessionellesWissensmanagement 2001, WM 2001, http://wm2001.aifb.uni-karlsruhe.de/InvitedTalks/Mandl-WM-lernen.ppt (Zugriff
am 28.9.02). Zitiert in: Becker, T. (2003) Knowledge-Management – ein Instrument für Öffentliche Bibliotheken?. In: Bibliothek 27.2003, Nr. 3, http://www.bibliothek-saur.de/2003_3/181-188.pdf
Mangold, C. (2007) A survey and classification of semantic search approaches. In: International Journal of
Metadata, Semantics and Ontology, Vol. 2, No. 1, 2007, pp. 23-34
Mangold-Allwinn, R. (1993) Flexible Konzepte. Experimente, Modelle, Simulationen. Lang, Frankfurt a.M.
1993. Zitiert in: Alber (2000)
Manning, C., Schütze, H. (1999) Foundations of Statistical Natural Language Processing, MIT Press, 1999
March, S.T., Smith, G.F. (1995), Design and natural science research on information technology. In: Decision
Support Systems, 15, 1995, pp. 251-266
Maresch, R. (1998) Ein Mehr von Unterscheidbarkeit-Gespräch mit Sozioloigen Baecker, D. 1998, in:
http://www.heise.de/tp/deutsch/inhalt/co/2522/1.html
Maturana, H. R. und Varela, F. J. (1987) Der Baum der Erkenntnis - Die biologischen Wurzeln menschlichen
Erkennens, Goldmann-Verlag, Bern, München, 1987
186
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Maus, H. et al. (2005) EPOS - Evolving Personal to Organisational Knowledge Spaces, BMBF Abschlussbericht, FKZ 01 IW C01, 2005
McClelland, J. L., Kawamoto, A. H. (1986) Mechanisms of Sentence Processing: Assigning Roles to Constituents. In: McClelland, J.L., Rumelhart, D.E. (Hrsg.), Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 2, Psychological and Biological Models, MIT Press, pp. 272-325, Cambridge, MA, .1986. Zitiert in: Alber (2000)
Melnik, S., Garcia-Molina, H., Rahm, E. (2002) Similarity Flooding:AVersatile Graph Matching Algorithm and
ist Application to Schema Matching. In: Proceedings 18th ICDE, San Jose, CA, February 2002. Zitiert in:
Elst, L.v., Kiesel, M. (2004) Generating and Integrating Evidence for Ontology Mappings. In: Motta E. et al.
(Eds.): EKAW 2004, LNAI 3257, Springer, Heidelberg, pp. 15–29, 2004.
Melzer, I. (2007) Service-orientierte Architekturen mit Web Services. Konzepte - Standards – Praxis, Spektrum
Akademischer Verlag, 2007
Merk, S.L. (2001) Softwareagenten – mobile Agenten – Aglets. Hauptseminar Client-Server Programmierung,
Informatik, Universität München, 2001
Meyer, A., Seibert, G., Wendelberger, E. (1969) Enzyklopädie 2000. Das moderne Farb-Lexikon in Folgen.
Wissen Verlag. Stuttgart, Zürich, http://www.fb12.uni-dortmund.de/wtheorie/JPEG/GLOSSAR.HTM
Michael, C., Nowak, F. (1975) Kleines psychologisches Wörterbuch. Herder, Freiburg, 1975
Miller, T., Agne, S., Dengel, A. (2005) eFISK – eine aufmerksamkeitsbasierte Schlüsselwort-Extraktions- und
Information Retrieval-Maschine. Abschlussbericht 15202-386261/ 659, Stiftung Rheinland-Pfalz für Innovation, 2005
Mitchell, T. (1997) Machine Learning. McGraw Hill, 1997
Moench, E. (2003) SemanticMiner: Ein Integratives Ontologie-basiertes Knowledge Retrieval System. In: Proceedings of the 2nd Conference on Professional Knowledge Management. Experiences and Visions, Luzern
2.-4. April 2003, Lecture Notes in Informatics,
http://sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-68/WOW2003_Moench.pdf
Moghaddam, B., Wahid, W., Pentland. A. (1998) Beyond eigenfaces: Probabilistic matching for face recognition. In: Proceedings of Int'l Conference. on Automatic Face and Gesture Recognition, Nara, Japan, pp. 30—
35, April 1998. http://citeseer.ist.psu.edu/moghaddam98beyond.html
Möhrle, M.G., Kellerhals, R.A. (1992) Wissenschaftliches Arbeiten mit SOKRATARIS: interaktives Erstellen
von Definitionen am Personal-Computer, München; Wien, Oldenbourg Verlag, 1992. Zitiert in: Teich
(1996), S. 9f.
Müller, H.F.J. (2000) Begriffs-Dynamik und geschichtliche Auffassungen von Realität, Subjekt und dem Umgreifenden, Karl Jaspers Forum, Deutsche Übersetzung zum englischen Originalartikel aus der Diskussion
des Karl Jaspers Forums im Internet (http://www.mcgill.ca/douglas/fdg/kjf/); in: http://helmutwalther.privat.t-online.de/ta24_dt.htm
Müller, J.P. (1996) The Design of Intelligent Agents: A Layered Approach. In: Lecture Notes in Computer Science, Vol. 1177, Springer, Heidelberg, Berlin, 1996
Müller, K.-R., et al. (2001) An Introduction to kernel-based learning algorithms. In: IEEE Transactions on neural
networks, Vol. 12, No. 2, March, 2001, pp. 181-202
Müller, R.K. (1988) Betriebliche Netzwerke: Kontra Hierarchie und Bürokratie. Haufe, Freiburg i.Br., 1988
Müller-Koch, U. (2007) Bewusstsein. In: Microsoft Encarta Online-Enzyklopädie, 2007,
http://de.encarta.msn.com/encyclopedia_761595678/Bewusstsein.html, abgerufen am: 11.04.2008, 13:07
Uhr, GMT+1
Myers, P. (Hrsg.) (1996) Knowledge Management and Organisational Design. Butterworth-Heinemann, Oxford,
1996. Zitiert in: Kakabadse, N. K. (2001), S. 141
Nelson, R., Winter, S. G. (1982) An Evolutionary Theory of Economic Change. Cambridge, Mass, Belknap
Press of Harvard University, 1982
Nielsen J., Molich, R., Snyder, C., Farrell, S. (2001) E-Commerce User Experience. Nielsen Norman Group,
2001
Nonaka, I. , Takeuchi, H. (1995) The knowledge creating company, Oxford University Press, New York, 1995
Nonaka, I., Konno, N. (1998) The Concept of `Ba': Building a Foundation for Knowledge Creation. In: California Management Review, 40(3), pp. 40-54, 1998
Nonaka, I.; Takeuchi, H. (1997) Die Organisation des Wissens. Frankfurt; New York, 1997
North, K. (2005) Wissensorientierte Unternehmensführung. Wertschöpfung durch Wissen. Gabler, Wiesbaden,
2005
Novak, J., Cuel, R., Sarini, M., Wurst, M. (2004) A tool for supporting knwoledge creation and exchange in
knowledge intensive organisations. In: Proceedings of I-KNOW 04, Graz, 2004, pp. 311-319
Novy A., Jäger, J. (2003) Internationale Politische Ökonomie, Online-Skript. Projekt Lateinamerika-Studien Online im Österreichischen Lateinamerika-Institut, Wien, 2003,
http://www.lateinamerika-studien.at/content/wirtschaft/ipo/pdf/wisstheorie.pdf
O’Reilly, T. (2005), What Is Web 2.0: Design Patterns and Business Models for the Next Generation of Software, Online-article, http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
187
Ofek, E.; Sarvary, M (2002) Knowledge Exchange and Knowledge Creation: Should the emphasis shift in a
competitive
environment;
INSEAD
Working
paper,
Fountainbleau,
Februar
2002,
http://ged.insead.edu/fichiersti/inseadwp2002/2002-21.pdf
Ogston, E., Vassiliadis, S. (2001) Matchmaking Among Minimal Agents Without a Facilitator. In: Proceedings
of the Fifth International Conference on Autonomous Agents, pp. 608-615, 2001,
http://citeseer.ist.psu.edu/ogston01matchmaking.html
Opielka, M. (2006) Gemeinschaft in Gesellschaft: Soziologie nach Hegel und Parsons, VS Verlag, 2006
Ostwald J. (1996) Knowledge Construction in Software Development: The Evolving Artifact Approach”, Diss,
1996, University of Colorado; http://l3d.cs.colorado.edu/~ostwald/thesis/theory.html
Parunak, H., et al. (1998) The AARIA Agent Architecture: From Manufacturing - Requirements to Agent-Based
System Design. In: Workshop on Agent-Based Manufacturing, ICAA’98, Minneapolis, MN, 10 May 1998.
Pawlowsky, P. (1994) Wissensmanagement in der lernenden Organisation. Habilitationsschrift, Universität Paderborn, Paderborn, 1994
Pedersen, K.V. (2004) Context-based support for linical reasoning. In: Proceedings of I-KNOW 04, Graz, 2004,
S.397-404
Peirce, C.S. (1976) Schriften zum Pragmatismus und Pragmatizismus. Frankfurt, Suhrkamp, 1976
Peirce, C.S. (1966) Collected Papers. Belknap Press of Harvard University Press, Cambridge 1958-1966
(Nachdr.)
Peschl, F.-M. (2001) Constructivism, Cognition and Science - an investigation of its links and possible shortcomings, in: Foundations of Science, special issue on The impact of radical constructivism on science, edited by A. Riegler, vol. 6, no 1-3, pp. 125-161, 2001
Piaget, J. (1967) Psychologie der Intelligenz. Zürich, 1967
Piaget, J. (1973). Einführung in die genetische Erkenntnistheorie, Aus dem Amerikanischen von Friedhelm Herborth, Suhrkamp, 1973. Zusammengefasst in: Beats Biblionetz, http://beat.doebe.li/bibliothek/pd00027.html,
Aktualisiert am 21.05.07, Abgerufen am: 03.06.2007, 16:36 Uhr GMT+2
Pipek, V., Nuderscher, P., Won, M. (2003) Periphere Wahrnehmung von Expertise. In: Tagungsband: Mensch
und Computer 2003, Stuttgart, pp. 219-228, 2003 (165)
Pitasi, A. (2002) Constructing Communication. Interview with Ernst v. Glasersfeld, Published for the Radical
Constructivism
Homepage,
by
Alex
Riegler,
2002,
http://www.univie.ac.at/constructivism/papers/glasersfeld/glasersfeld01-interview.html
Plato (1953) Phaedo. Zitiert in: Plato I (translated by Cowler H.N.). Harvard University Press, Cambridge, MA,
pp. 117-124. Zitiert in: Kakabadse, N. K. (2001), S. 138
Pörksen B. (2001) Abschied vom Absoluten. Gespräche zum Konstruktivismus. Carl-Auer-Systeme Verlag,
2001
Prawat, R. (1996) Constructivisms, modern and postmodern. In Educational Psychology, 31(3/4), pp. 215-225.
Zitiert
in:
Murphy,
E.,
Constructivist
epistemology.
Online-article,
1997,
http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr GMT+2)
Preece, A.D., Hui,L. Gray, W.A. Marti, P., Bench-Capon, T.J.M. Jones, D.M. Cui, Z. (2000) The KRAFT architecture for knowledge fusion and transformation. In: Knowledge Based Systems, 13(2-3):113–120, 2000. Zitiert in: Elst et al. (2004)
Primio, F. (1998) Roboterkognition, GMD Report 16, Sankt Augustin, 1998
Probst, G., Raub, S., Romhardt, K. (1997): Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen, Wiesbaden, 1997
Quan, D., Huynh, D., Karger, D.R. (2003) Haystack: A platform for authoring end user semantic web applications. In: International Semantic Web Conference, 2003, pp. 738–753. Zitiert in: Sauermann et al. (2005)
Ramhorst, D. (2001) A Guided Tour through the Siemens Business Services Knowledge Management Framework. In: Journal of Universal Computer Science, vol. 7, no. 7, 2001, pp. 610-622
Ratzinger, J. (1968) Einführung in das Christentum; München, 1968, Kapitel der Einführung, Ich glaube Amen, ISBN 3-466-20455-0
Rehäuser, J., Krcmar, H. (1996) Wissensmanagement einer Unternehmung. In: Schreyögg, G., Conrad, P.
(Hrsg.) Managementforschung 6, Berlin, New York, 1996, S. 1-40
Reidsma D., Kuper J., Declerck, T., Saggion H., Cunningham.H. (2003) Cross Document Ontology based Information Extraction for Multimedia Retrieval, http://citeseer.ist.psu.edu/reidsma03cross.html
Reilly, T. (2002) Value-Added Selling: How to Sell More Profitably, Confidently, and Professionally by Competing on Value, Not Price, McGraw-Hill, New York, 2002
Reimer, U. Novotny, B. Staudt. M. (2001) Micro–modeling of business processes for just–in–time knowledge
delivery. In: Roy, R. (Hrsg. 2001) Industrial Knowledge Management: A Micro–Level Approach. Springer,
Heidelberg, Berlin, 2001. Zitiert in: Elst et al. (2004)
Reinmann-Rothmeier, G. (2001) Wissen managen: Das Münchener Modell. Forschungsberichte Nr. 131, Lehrstuhl für Empirische Pädagogik und Pädagogische Psychologie, Ludwigs-Maximilians-Universität München, 2001, http://www.wissensmanagement.net/download/muenchener_modell.pdf
188
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Reinmann-Rothmeier, G., Mandl, H. (1996) Lernen auf der Basis des Konstruktivismus. Wie Lernen aktiver und
anwendungsorientierter wird. In: Computer und Unterricht, 23, 1996, pp. 41-44
Rickheit, G., Strohner, H. (1993) Grundlagen der kognitiven Sprachverarbeitung.Francke, Tübingen, 1993. Zitiert in: Alber (2000)
Riedl, R. (2000) Strukturen der Komplexität, Springer, Berlin, Heidelberg, New York, 2000. Zusammengefasst
in: Beats Biblionetz, http://beat.doebe.li/bibliothek/pd00178.html, Aktualisiert am 22.04.07, Abgerufen am:
03.06.2007, 16:25 Uhr GMT+2
Rieger B.B. (2002) Bedeutungskonstitution und semantische Granaluation. In: Pohl, I. (Hrsg., 2002) Prozesse
der
Bedeutungskonstruktion.
Frankfurt
u.a.,
pp.
407-444,
2002,
http://www.ldv.unitrier.de/ldv_archiv/http/www/public_html/ldvpage/rieger/pub/aufsaetze/landau00/landau00.pdf.gz
Riempp, G. (2004). Integrierte Wissensmanagement-Systeme. Architektur und praktische Anwendung (Business
Engineering). Springer, Berlin, Heidelberg 2004 (179)
Roche Lexikon Medizin (2003), 5.Aufl., Elsevier - Urban und Fischer, München, Jena 2003
Romhard, K. (1995) Das Lernanenakonzept – ein Ansatz zum Management organisatorischer Lernprozesse in
der Unternehmenspraxis. Cahier de recherche, HEC, Genf, 1995
Roth G. (2001) Fühlen - Denken - Handeln. Wie das Gehirn unser Verhalten steuert, Suhrkamp, Frankfurt, 2001
Roth, G. (1994) Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen, Suhrkamp, Frankfurt, 1994
Routledge Encyclopedia of Philosophy (1998) Learning. Version 1.0, London, 1998
Ruggles, R.L. (1997) Knowledge Management Tools. Newton, 1997
Rumelhart, D. E., McClelland, J. L. (1986) On Learning the Past Tenses of English Verbs. In: J. L. McClelland
& D. E. Rumelhart (Hrsg.), Parallel Distributed Processing. Explorations in the Microstructure of Cognition.
Volume 2, Psychological and Biological Models (S. 216-271). MIT Press, Cambridge, MA, 1986. Zitiert in
Alber (2000)
Rumelhart, D. E., Smolensky, P., McClelland, J. L., Hinton, G. E. (1986) Schemata and Sequential Thought
Processes in PDP Models. In: McClelland, J.L., Rumelhart, D.E. (Hrsg.), Parallel Distributed Processing.
Explorations in the, Microstructure of Cognition. Volume 2, Psychological and Biological Models, MIT
Press, pp. 272-325, Cambridge, MA, .1986. Zitiert in: Alber (2000)
Runte, M. (2000) Personalisierung im Internet - Individualisierte Angebote mit Collaborative Filtering, Dissertation, Universität Kiel, Deutscher Universitätsverlag, Wiesbaden.
http://www.runte.de/matthias/publications/personalisierung_im_internet.pdf
Sachs, L. (1997) Angewandte Statistik, 1997, 8.Auflage, Springer, Berlin, Heidelberg.
Salton, G. (1968) Automatic information organization and retrieval. McGraw Hill, New York, 1968. Zitiert in:
Maus et al. (2005)
Samaria, A. S. (1994) Face Recognition Using Hidden Markov Models. Ph.D. Dissertation, Trinity College,
Cambridge University, Cambridge, UK, 1994. Zitiert in: Khuwaja (2002)
Sauermann, L. (2003) The Gnowsis – using semantic web technologies to build a semantic desktop. Diploma
thesis, Technical University of Vienna, 2003
Sauermann, L., Bernardi, A., Dengel, A. (2005). Overview and outlook on the semantic desktop, in: Stefan
Decker, Jack Park, D.Q., Sauermann, L., eds.: Proceedings of the 1st Workshop on The Semantic Desktop at
the ISWC 2005 Conference. Available: http://www.Gnowsis.org
Sauermann, L., Dengel, A., van Elst, L., Lauer, A. Maus, H., Schwarz S. (2006) Personalization in the EPOS
project. In: Proceedings of the Semantic Web Personalization Workshop at the ESWC Conference, 2006
Sauermann, L., van Elst, L., Dengel, A. (2007) PIMO – a Framework for Representing Personal Information
Models. In: Pellegrini, T. und Schaffert, S. (2007) Proceedings of I-Semantics ’07, pp. 270-277,
http://www.dfki.uni-kl.de/auermann/papers/sauermann+2007b.pdf
Schamanek, A. (1998) Management & Umwelt, Skriptum zu Vorlesung des Intituts für Statistik, OR & Computerverfahren am BWZ der Universität Wien zum Thema Umwelt Management Austria: Einführung in Komplexe Dynamische Systeme, 26.01.1998, http://www.ams.smc.univie.ac.at/~schamane/kds/sth/sthov.htm,
Abgerufen: 03. Juni, 11:46 Uhr GMT+2
Schischkoff, G. (1991) Philosophisches Wörterbuch. Alfred Kröner Verlag, 22. Aufl., Stuttgart 1991, in:
http://www.fb12.uni-dortmund.de/wtheorie/JPEG/GLOSSAR.HTM
Schlimmer, J, Granger R. (1996) Incremental learning from noisy data. In: Machine Leanring, 1(3), 1996, pp.
317-354. Zitiert in: Harries, M., Horn, K., Sammut, C. (1998). Extracting hidden context. In: Machine
Learning, 32(2), August 1998, http://citeseer.ist.psu.edu/harries98extracting.html
Schmid, U. (2002) Aus Erfahrung schlau. In: Gehirn und Geist, Nr. 3, 2002, pp.50-52
Schmidt, S. J. (1996) Kognitive Autonomie und soziale Orientierung. Konstruktivistische Bemerkungen zum
Zusammenhang von Kognition, Kommunikation, Medien und Kultur. Frankfurt a.M., 1996
Schmidt, S. J.; Feilke, H. (1995) Denken und Sprechen: Anmerkung zur strukturellen Kopplung von Kommunikation und Kognition. In: Trabant, I. (Hrsg. 1995) Sprache denken. Positionen aktueller Sprachphilosophie.
Frankfurt a.M., S. 269-297, 1995
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
189
Schmidt, S.J. (1995) (Radikaler) Konstruktivismus - Wie Wirklichkeit wirklich wird. In: Der blaue Reiter, Journal für Philosophie, Nr. 2, 1995, S. 30-33
Schmidt, S.J. (1998) Die Zähmung des Blicks. Konstruktivismus – Empirie – Wissenschaft. Suhrkamp, Frankfurt, 1998. Zitiert in: Peschl (2001)
Schmidt-Salomon, M. (1997) Erkenntnis aus Engagement, Online-Artikel, Butzweiler/ Trier, 1997,
http://www.schmidt-salomon.de/erk5.htm (abgerufen am: 03.06.2007, 12:47 Uhr GMT+2
Schnapp, K-U. (2004) Einführung in die Wissenschaftstheorie. Vorlesungsskript, Universität Halle-Wittenberg,
Lehrbereich Methoden der Politikwissenschaft, 2004,
http://www.politik.uni-halle.de/schnapp/lehre/M1/SkripteFolien/A_Einf_WissTheo/2_EinfWissTheorie.pdf
Scholl, W. (1990) Die Produktion von Wissen zur Bewältigung komplexer orgnisatorischer Situationen. In:
Fisch R., Boos, M. (Hrsg, 1990) Vom Umgang mit Komplexität in Organisationen, Universitätsverlag Konstanz, Konstanz, pp. 107-128, 1990
Schukat-Talamazzini, E.G. (1995) Automatische Spracherkennung - Grundlagen, statistische Modelle und effiziente Algorithmen. Vieweg, 1995, ISBN 3-528-05492-1
Schwarz, M. (1992) Einführung in die Kognitive Linguistik. Francke, Tübingen, 1992. Zitiert in: Alber (2000)
Schwarz, S. (2006) A Context Model for Personal Knowledge Management Applications. In: Roth Berghofer,
T., Schulz, S. und Leake, D.B. (2006) Modeling and Retrieval of Context. Lecture Notes in Computer Sciences, Second International Workshop MRC 2005, Springer, Edingurgh, UK, July 31 – August 1, 2005, pp.
18-33, http://www.springerlink.com/content/4526400657457v8t/
Shadbolt, N., O'Hara, K. Crow, L. (1999). The experimental evaluation of knowledge acquisition techniques and
methods: history, problems and new directions. In: International Journal of Human-Computer Studies, 51,
pp. 729-755. Zitiert in: Aschoff und van Elst (2001)
Siebert, M. (2005) Knowledge Creation Framework enabling just-in-time information delivery. In: Althoff,
K.D., Dengel, A., Bergmann, R., Nick, M., Roth-Berghofer, T., eds.: Wissensmanagement, DFKI, Kaiserslautern, pp. 642-647, 2005
Siebert, M., Smits P., Sauermann, L., Dengel, A. (2006) Increasing Search Quality with the Semantic Desktop in
Proposal Development. In: Proceedings of the Practical Aspects of Knowledge Management (PAKM) conference, Wien, Springer, Berlin und Heidelberg, 2006
Siebert, M., Smits P., Sauermann, L., Dengel, A. (2006a) Personalized document retrieval in multi-party environments with the Semantic Desktop. In: Proceedings EDM, 10th IEEE Int. Workshop on the Electronic
Document Management in an Enterprise Computing Environment, Hong Kong, China, 2006
http://doi.ieeecomputersociety.org/10.1109/EDOCW.2006.55
Siegel, S. (2001) Nichtparametrische statistische Methoden. Eschborn, 2001
Smith, R. G. (1980) The Contract Net Protocol: High-Level Communication and Control in a Distributed Problem Solver. In: IEEE Trans. On Computers, 29(12), pp. 1104-1113, December 1980. Zitiert in: Ogston und
Vassiliadis (2001)
Smith, R.G., Farquhar, A. (2000) The Road ahead for Knwoledge Management: An AI Perspective. In: AI
Magazine, Vol 21; Nr. 4; Winter 2000, pp 17-40
Smolensky P. (1988) On the proper Treatment of Connectionism, Behavioral and Brain Sciences 11(88), 1988,
S.1-74
Smolensky, P. (1986) Information Processing in Dynamical Systems: Foundations on Harmony Theory. In: Rumelhart D.E., McClelland, J.L. (Hrsg. 1986) Parallel Distributed Processing. Explorations in the Microstructure of Cognition. Volume 1, Foundations, pp. 194-281, MIT Press, Cambridge, MA. Zitiert in: Alber (2000)
Smolnik, S., Riempp G. (2006) Google vs. Semantic Web: Nutzenbetrachtungen von Technologien zur Strukturierung und zum Retrieval von Informationen. In: Mit Wissensmanagement besser im Wettbewerb!, Tagungsband zur KnowTech 2006, 8. Konferenz zum Einsatz von Wissensmanagent in Wirtschaft und Verwaltung, München, 25./ 26. Oktober 2006, S. 101-108, http://www.knowtech.net
Smyth, M. M. et al. (1994) Cognition in Action, Second Edition, Hove
Sowa, J.F (1984) Conceptual Structures. Addison-Wesley, Reading, 1984. Zitiert in: Lorenz (2006)
Stahl, G. (1993) Interpretation in Design: The Problem of Tacit and Explicit Understanding in Computer Support
of Cooperative Design. University of Colorado at Boulder, Ph.D. dissertation, 1993. Zitiert in: Ostwald
(1996)
Stangl, W. (1997) Grundformen des Lernens, Arbeitsblätter, Universität Linz, 1997, http://paedpsych.jk.unilinz.ac.at/INTERNET/ARBEITSBLAETTERORD/LERNTECHNIKORD/Lernen.html
Starke, G., Tilkov, S. (Hrsgs. 2007) SOA-Expertenwissen, Dpunkt Verlag, 2007
Steffe, L., Gale, J. (Hrsg., 1995) Constructivism in education. New Jersey, Lawrence Erlbaum Associates. Zitiert
in:
Murphy,
E.,
Constructivist
epistemology.
Online-article,
1997,
http://www.cdli.ca/~elmurphy/emurphy/cle2.html (abgerufen am: 03.06.2007, 13:01 Uhr GMT+2)
Steward T.A. (2001) The role of intellectual capital in economic success. in Next-generation knowledge Management: Enabling business processes. Proceedings from APQC's Sixth Knowledge Management Conference, 2001, p. 32ff. (12)
190
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Stormer, H., Knorr, K. (2001) AWA-eine Architektur eines agenten-basierten Workflow-systems, Universität
Zürich, 2001, http://www.ifi.unizh.ch/~knorr/documents/p_wi2001.pdf
Strauss, A., Corbin, J. (1990) Basics of Qualitative Research: Grounded Theory Procedures and Techniques.
Newbury Park, CA: Sage Publications, 1990
Strecker, S., Schwickert, A.C. (2000) Künstliche Neuronale Netze. Arbeitspapiere WI, Lehrstuhl für allg. BWL
und Wirtschaftsinfomatik, Universität Mainz, 2000
Studer, R. et al. (2001) Arbeitsgerechte Bereitstellung von Wissen - Ontologien für das Wissensmanagement.
Technical
Report
,
Institut
AIFB,
Universität
Karlsruhe,
2001,
http://www.aifb.unikarlsruhe.de/WBS/ysu/publications/2001_wiif.pdf (abgerufen am: 07.06.2007, 19:15 Uhr GMT+2)
Stumme, G. (2005) Ontology Marging with Formal Concept Analsis. In: Dagstuhl Seminar Proceedings 04391,
http://drops.dagstuhl.de/opus/volltexte/2005/49
Stumme, G., and Maedche, A. (2001) FCA-MERGE: Bottom-up merging of ontologies. In IJCAI, 225.234,
2001. Zitiert in: Hitzler, P., Krцtzsch, M., Ehrig, M., Sure, Y. (2006) What is ontology merging ? - a category-theoretical perspective using pushouts. In: Proceedings of C&O'06 Contexts and ontologies: theory,
practice and applications', 2006 (705)
Sweats, J.A. (1969) Effectiveness of Information Retrieval methods. In: Amer Doc. 20, 1969, pp. 72-89
Tani, J., Nolfi, S. (1999) Learning to perceive the world articulated: an approach for hierarchical learning in sensory-motor systems. In: Neural Networks 12, 1999, pp. 1131-1141. Zitiert in: Herlocker et al. (2004, S. 25)
Tefas, A., Kotropoulos C., Pitas, I. (1998) Face verification based on morphological shape decomposition. In:
Proceedings of 3rd Int. Workshop on Face and Gesture Recognition, pp. 36-41, 1998,
http://citeseer.ist.psu.edu/tefas98face.html
Teich, I. (1996) Wege zu lernenden Organisation: eine Literaturstudie auf Basis der Grounded Theory, Diss.,
Universität Erlangen-Nürnberg, 1996
Thomas, R. K. (1993) Squirrel Monkeys, Concepts and Logic. In Burton, R. G. (Hrsg.) Natural and Artificial
Minds, State University of New York Press, 1993. Zitiert in: Franklin (1997)
Trochim, W. (1985). Pattern matching, validity and conceptualization in program evaluation. In: Evaluation Review,
Vol.
9,
No.
5,
1985,
pp.
575-604,
http://www.socialresearchmethods.net/research/Pattern%20Matching,Validity,%20and%20Conceptualizatio
n.PDF
Turban, E.(1992) Experts Systems and applied artificial intelligence, McMillan, New York, 1992. Zitiert in: Kakabadse, N. K. (2001), S. 141
Uexküll, J.v. (1928) Theoretische Biologie. Springer, Berlin 1928. Zitiert in Ziemke (2000), S.7
Van der Spek R. und Spijkervet, A. (1997) Knowledge management dealing intelligently with knowledge. In
Knowledge managemet and its integrative elements, Liebowitz J., Wilcox, L. (Hrsg.) CRC Press London,
1997, pp. 114-123. Zitiert in: Kakabadse, N. K. (2001), S. 141
Varnholt, A. (2004) semantikbrowser. mediaDIALOG, Siegen, 2004
Vierecke, A. (2007) Konstruktivismus (Philosophie). In: Microsoft Encarta Online-Enzyklopädie, 2007,
http://de.encarta.msn.com/encyclopedia_721543633/Konstruktivismus_(Philosophie).html,
abgerufen:
11.April 2008, 12:22 Uhr, GMT
Vollmer G. (2002) Evolutionäre Erkenntnistheorie, 8. Aufl., Stuttgart, 2002
Vulkan, N., Jennings, N.R. (2000) Efficient Mechanisms for the Supply of Services in Multi-Agent Environments. In: Int. Journal of Decision Support Systems, 28(1-2), pp. 5-19, 2000. Zitiert in: Ogston und Vassiliadis (2001)
Wadsworth, Y. (1998) What is Participatory Action Research ? in: Action research international, Southern Cross
Institute of Action Research and Southern Cross University Press, ISSN 1445-6125, 1998,
http://www.uq.net.au/action_research/ari/p-ywadsworth98.html
Wagner, T., Göhner P., Paulo G. Urbano, A. de. (2003) Softwareagenten - Einführung und Überblick über eine
alternative Art der Softwareentwicklung. Teil I: Agentenorientierte Softwareentwicklung. In: atp - Automatisierungstechnische Praxis 45, Heft 10, 2003
Watson, I., Marir, F. (1994) Case-Based Reasoning: A Review. In: The Knowledge Engineering Review, Vol. 9,
No. 4, Cambridge University Press, pp. 355-381, 1994
Watzlawick, P., Beavin, J., Jackson, D. (1985) Menschliche Kommunikation. Bern, Stuttgart, Wien, 1985
Weick, K.E. (1985) Cosmos vs. Chaos: Sense and Nonsense in electronic contexts. In: Organisational Dynamics,
New York, pp. 247-260, 1985. Zitiert in: Ruggles (1997)
Wiig, K. (1993) Knowledge Management Foundation, Schema Press, New York, 1993. Zitiert in: Kakabadse, N.
K. (2001), S. 141
Wilber, K. et al. (Hrsg. 1982) Das holographische Weltbild - Wissenschaft und Forschung auf dem Weg zu einem ganzheitlichen Weltverständnis - Erkenntnisse der Avantgarde der Naturwissenschaftler, 1982
Will, M., Lech, T., Klein, B. (2004) Pervasive Knowledge Discovery: continuous Lifelong Learning by Matching Needs, Requirements and Resources. In: Proceedings of I-KNOW 04, Graz, 2004, pp.361-377
Willke, H (2001) Wissensmanagement als Geschäftsprozess - Eine Einführung mit Beispielen aus der Finanzwirtschaft. In: Roßbach, H. (2001) Management der Ressource Wissen in Banken, 2001, pp. 13-30
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
191
Wilson, E.O. (1998) Die Einheit des Wissens, Siedler Verlag, Berlin, 1998
Wilson, G. (2001) Proposal Automation Tools, in: Proposal Management Journal, Spring 2001, pp. 67-73
Woitsch, R., Karagiannis, D. (2004) Process-oriented Knowledge Management: A service based approach. In:
Proceedings of I-KNOW 04, Graz, 2004, pp. 408-415, http://www.know-center.tugraz.at/previous/iknow04/papers/woitsch.pdf
Woolf, H. (1990) Webster’s New World Dictionary of the American Language. G. und C. Merriam, New York,
1990, in: Kakabadse, N. K. (2001), S. 141
Womser-Hacker, C. (1989) Der PADOK Retrievaltest. Zur Methode und Verwendung statistischer Verfahren bei
der Bewertung von Information-Retrieval-Systemen. Hildesheim, 1989
Yin, R.K. (2003) Case study research – Design and methods, 3. Auflage, London, New Dehli, 2003
Zeilbeck, R., Franz , J. (2005) Siemens Scenarios. Semantically Enabled Knowledge Technologies. In: EU-IST
Project IST-2003-506826 SEKT, September 2005
Zell, A. (1994) Simulation Neuronaler Netze, Addison-Wesley, 1994 - ISBN 3-89319-554-8
Zhang, P., (2000) Neural Networks for Classification: A Survey. In: IEEE Transactions on systems, man, and
cybernetics – part C Applications and reviews, Vol. 30, No. 4, November 2000, pp. 451-462
Ziemke, T. (2000) Construction of reality in the robot: Constructivist Perspective on situated artificial intelligence and adaptive robotics. In Foundations of Science, special issue on The impact of radical contrcutivism
on science, Riegler, A. (Hrsg.), vol. 6, no. 1-3, pp. 163-233
Zöfel, S. (2001) Statistik verstehen. 2001
192
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
193
Anhang: Einzelne Testergebnisse
Suche mit Livelink
Tabelle: Ergebnisse für „Cost Reduction“
Cost Reduction
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
155
81
89
140
96
155
P
(found)
Q
14
7
9
11
10
14
141
74
80
129
86
141
1337
14
8
10
13
12
17
4327
200
Ma
(correct
accept)
Qa
(false
accept)
10
7
9
10
9
12
11
12
4
1
1
3
3
5
9
8
(correct
reject)
4
0
0
1
1
2
-11
-12
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
137
73
79
126
83
136
-9
1329
0,71
0,88
0,90
0,77
0,75
0,71
0,00
0,06
0,71
1,00
1,00
0,91
0,90
0,86
0,03
0,01
0,01
0,02
0,03
0,04
F-Wert
0,71
0,93
0,95
0,83
0,82
0,77
45,10
39,00
c/b
measure
6
6
7
6
7
2
4
Tabelle: Ergebnisse für „Business Efficiency“
Business Efficiency
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
155
81
89
140
96
155
1337
M
P
(found)
Q
5
4
4
5
4
5
150
77
85
135
92
150
12
6
6
7
8
9
10505
122
Ma
(correct
accept)
Qa
(false
accept)
5
4
4
5
4
5
9
9
7
2
2
2
4
4
11
11
(correct
reject)
0
0
0
0
0
0
-9
-9
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
143
75
83
133
88
146
-11
1326
0,42
0,67
0,67
0,71
0,50
0,56
0,00
0,07
1,00
1,00
1,00
1,00
1,00
1,00
0,05
0,03
0,02
0,01
0,04
0,03
F-Wert
0,59
0,80
0,80
0,83
0,67
0,71
54,90
54,90
c/b
measure
-2
2
2
3
0
1
-2
-2
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
194
Tabelle: Ergebnisse für „Callcenter“
Callcenter
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
155
81
89
140
96
155
P
(found)
Q
3
3
3
3
3
3
152
78
86
137
93
152
1337
12
4
5
5
5
6
971
160
Ma
(correct
accept)
3
3
3
3
3
3
13
12
Qa
(false
accept)
9
1
2
2
2
3
7
8
(correct
reject)
0
0
0
0
0
0
-13
-12
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
143
77
84
135
91
149
-7
1329
0,25
0,75
0,60
0,60
0,60
0,50
0,01
0,08
1,00
1,00
1,00
1,00
1,00
1,00
0,06
0,01
0,02
0,01
0,02
0,02
F-Wert
0,40
0,86
0,75
0,75
0,75
0,67
32,50
39,00
c/b
measure
-6
2
1
1
1
0
6
4
Tabelle: Ergebnisse für „Helpdesk“
Helpdesk
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
155
81
89
140
96
155
P
(found)
Q
4
2
2
4
2
4
151
79
87
136
94
151
1337
6
4
4
5
5
6
1184
96
Ma
(correct
accept)
3
2
2
3
2
3
15
17
Qa
(false
accept)
3
2
2
2
3
3
5
3
(correct
reject)
1
0
0
1
0
1
-15
-17
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
148
77
85
134
91
148
-5
1334
0,50
0,50
0,50
0,60
0,40
0,50
0,01
0,18
0,75
1,00
1,00
0,75
1,00
0,75
0,02
0,03
0,02
0,01
0,03
0,02
F-Wert
0,60
0,67
0,67
0,67
0,57
0,60
19,50
8,50
c/b
measure
0
0
0
1
-1
0
10
14
Tabelle: Ergebnisse für „Infrastructure“
Infrastructure
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
155
81
89
140
96
155
1337
M
P
(found)
Q
8
4
5
6
6
8
147
77
84
134
90
147
15
7
8
9
8
10
769
252
Ma
(correct
accept)
7
4
5
5
5
6
12
13
Qa
(correct
(false
reject)
accept)
8
3
3
4
3
4
8
7
1
0
0
1
1
2
-12
-13
(false Precision Recall (r) Fallout
F-Wert
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
139
74
81
130
87
143
-8
1330
0,47
0,57
0,63
0,56
0,63
0,60
0,02
0,05
0,88
1,00
1,00
0,83
0,83
0,75
0,05
0,04
0,04
0,03
0,03
0,03
0,61
0,73
0,77
0,67
0,71
0,67
39,00
32,50
c/b
measure
-1
1
2
1
2
2
4
6
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
195
Tabelle: Ergebnisse für „Communication“
Communication
Gesamtmenge N
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
M
P
(found)
Q
Ma
(correct
accept)
Qa
(false
accept)
(correct
reject)
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
F-Wert
c/b
measure
155
81
89
140
96
8
5
6
8
5
147
76
83
132
91
15
5
6
10
7
4
4
4
6
4
11
1
2
4
3
4
1
2
2
1
136
75
81
128
88
0,27
0,80
0,67
0,60
0,57
0,50
0,80
0,67
0,75
0,80
0,07
0,01
0,02
0,03
0,03
0,35
0,80
0,67
0,67
0,67
-7
3
2
2
1
155
8
147
12
16989
129
6
7
15
6
13
5
2
-7
-15
141
-13
1332
0,50
0,00
0,12
0,75
0,04
0,60
59,50
19,50
0
-6
10
1337
Tabelle: Ergebnisse für „SAP R3“
SAP R3
Gesamtmenge N
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
M
155
81
89
140
96
155
P
(found)
Q
9
7
8
8
8
9
146
74
81
132
88
146
1337
18
5
6
10
11
16
18206
22
Ma
(correct
accept)
4
5
5
6
7
8
10
17
Qa
(false
accept)
14
0
1
4
4
8
10
3
(correct
reject)
5
2
3
2
1
1
-10
-17
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
132
74
80
128
84
138
-10
1334
0,22
1,00
0,83
0,60
0,64
0,50
0,00
0,77
0,44
0,71
0,63
0,75
0,88
0,89
0,10
0,00
0,01
0,03
0,05
0,05
F-Wert
0,30
0,83
0,71
0,67
0,74
0,64
50,50
8,50
c/b
measure
-10
5
4
2
3
0
0
14
Tabelle: Ergebnisse für „RFID“
RFID
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
155
81
89
140
96
155
1337
M
P
(found)
Q
6
2
2
6
2
6
149
79
87
134
94
149
18
2
2
7
3
8
5906
185
Ma
(correct
accept)
4
2
2
5
2
5
9
16
Qa
(false
accept)
14
0
0
2
1
3
11
4
(correct
reject)
2
0
0
1
0
1
-9
-16
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
135
79
87
132
93
146
-11
1333
0,22
1,00
1,00
0,71
0,67
0,63
0,00
0,09
0,67
1,00
1,00
0,83
1,00
0,83
0,09
0,00
0,00
0,01
0,01
0,02
F-Wert
0,33
1,00
1,00
0,77
0,80
0,71
54,90
13,60
c/b
measure
-10
2
2
3
1
2
-2
12
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
196
Tabelle: Ergebnisse für „Voice Data Solution“
Voice Data Solution
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
155
81
89
140
96
155
P
(found)
Q
4
2
3
3
3
4
151
79
86
137
93
151
1337
7
3
4
3
4
4
4234
170
Ma
(correct
accept)
3
2
2
2
3
3
13
7
Qa
(false
accept)
4
1
2
1
1
1
7
13
(correct
reject)
1
0
1
1
0
1
-13
-7
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
147
78
84
136
92
150
-7
1324
0,43
0,67
0,50
0,67
0,75
0,75
0,00
0,04
0,75
1,00
0,67
0,67
1,00
0,75
0,03
0,01
0,02
0,01
0,01
0,01
F-Wert
0,55
0,80
0,57
0,67
0,86
0,75
32,50
59,50
c/b
measure
-1
1
0
1
2
2
6
-6
Tabelle: Ergebnisse für „Outsourcing“
Outsourcing
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
M
155
81
89
140
96
155
P
(found)
Q
41
13
18
32
22
41
114
68
71
108
74
114
1337
46
15
21
31
25
41
20828
127
Ma
(correct
accept)
30
12
17
25
20
33
11
19
Qa
(false
accept)
16
3
4
6
5
8
9
1
(correct
reject)
11
1
1
7
2
8
-11
-19
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
98
65
67
102
69
106
-9
1336
0,65
0,80
0,81
0,81
0,80
0,80
0,00
0,15
0,73
0,92
0,94
0,78
0,91
0,80
0,14
0,04
0,06
0,06
0,07
0,07
F-Wert
0,69
0,86
0,87
0,79
0,85
0,80
45,10
1,90
c/b
measure
14
9
13
19
15
25
2
18
Tabelle: Ergebnisse für „Financial Market“
Financial Market
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
Gesamtmenge N
155
81
89
140
96
155
1337
M
P
(found)
Q
24
12
13
22
14
24
131
69
76
118
82
131
7
10
11
22
13
25
293
154
Ma
(correct
accept)
3
10
11
19
12
21
12
12
Qa
(false
accept)
4
0
0
3
1
4
8
8
(correct
reject)
21
2
2
3
2
3
-12
-12
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
127
69
76
115
81
127
-8
1329
0,43
1,00
1,00
0,86
0,92
0,84
0,04
0,08
0,13
0,83
0,85
0,86
0,86
0,88
0,03
0,00
0,00
0,03
0,01
0,03
F-Wert
0,19
0,91
0,92
0,86
0,89
0,86
39,00
39,00
c/b
measure
-1
10
11
16
11
17
4
4
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
197
Tabelle: Ergebnisse für „Kunde1“
Kunde1
Gesamtmenge N
M
155
81
89
140
96
155
LL
S1
S1 (PM)
S2
S3
S4
LiveLink (Gesamt)
brainFiler (Gesamt)
P
(found)
Q
17
6
7
15
8
17
145
75
82
125
88
138
1337
Ma
(correct
accept)
13
9
10
17
11
19
14
20
Qa
(false
accept)
10
6
7
13
8
15
11
15
3
3
3
4
3
4
3
5
(correct
reject)
7
0
0
2
0
2
-11
-15
(false Precision Recall (r) Fallout
reject) (p) (Ma/P) (Ma/M) (f) (Qa/Q)
135
72
79
121
85
134
-3
1332
0,77
0,67
0,70
0,76
0,73
0,79
0,79
0,75
0,59
1,00
1,00
0,87
1,00
0,88
0,02
0,04
0,04
0,03
0,03
0,03
F-Wert
0,67
0,80
0,82
0,81
0,84
0,83
7,86
19,50
c/b
measure
7
3
4
9
5
11
8
10
Konzeptsuche mit Ontologien
Suche über Gnowsis unter Einbeziehung der organisatorischen Ontologie.
Tabelle: Ergebnisse für „Cost Reduction“
Cost Reduction
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
19
23
22
26
Q
367
422
379
434
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
11
16
15
20
26
9
12
11
14
16
2
4
4
6
10
10
11
11
12
-16
(false
reject)
365
418
375
428
1632
Precision (p)
(Ma/P)
0,818181818
0,75
0,733333333
0,7
0,615384615
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,473684211
0,52173913
0,5
0,538461538
0,005449591
0,009478673
0,01055409
0,013824885
F-Wert
0,6
0,61538462
0,59459459
0,60869565
0
c/b
measure
7
8
7
8
6
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
198
Tabelle: Ergebnisse für „Business Efficiency“
Business Efficiency
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
13
14
13
14
Q
373
431
388
446
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
11
12
13
14
30
7
8
7
8
12
4
4
6
6
18
6
6
6
6
-12
(false
reject)
369
427
382
440
1624
Precision (p)
(Ma/P)
0,636363636
0,666666667
0,538461538
0,571428571
0,4
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,538461538
0,571428571
0,538461538
0,571428571
0,010723861
0,009280742
0,015463918
0,013452915
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,277777778
0,277777778
0,277777778
0,277777778
0,002717391
0,004683841
0,005221932
0,00678733
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,263157895
0,285714286
0,263157895
0,285714286
0,005449591
0,004716981
0,007853403
0,006833713
F-Wert
0,58333333
0,61538462
0,53846154
0,57142857
0
c/b
measure
3
4
1
2
-6
Tabelle: Ergebnisse für „Callcenter“
Callcenter
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
18
18
18
18
Q
368
427
383
442
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
6
7
7
8
24
5
5
5
5
14
1
2
2
3
10
13
13
13
13
-14
(false
reject)
367
425
381
439
1632
Precision (p)
(Ma/P)
0,833333333
0,714285714
0,714285714
0,625
0,583333333
F-Wert
c/b
measure
4
3
3
2
4
0,41666667
0,4
0,4
0,38461538
0
Tabelle: Ergebnisse für „Helpdesk“
Helpdesk
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
19
21
19
21
Q
367
424
382
439
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
7
8
8
9
26
5
6
5
6
23
2
2
3
3
3
14
15
14
15
-23
(false
reject)
365
422
379
436
1639
Precision (p)
(Ma/P)
0,714285714
0,75
0,625
0,666666667
0,884615385
F-Wert
0,38461538
0,4137931
0,37037037
0,4
0
c/b
measure
3
4
2
3
20
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
199
Tabelle: Ergebnisse für „Infrastructure“
Infrastructure
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
10
12
12
14
Q
376
433
389
446
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
8
10
9
11
22
4
5
5
6
13
4
5
4
5
9
6
7
7
8
-13
(false
reject)
372
428
385
441
1633
Precision (p)
(Ma/P)
0,5
0,5
0,555555556
0,545454545
0,590909091
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,4
0,416666667
0,416666667
0,428571429
0,010638298
0,011547344
0,010282776
0,011210762
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,411764706
0,45
0,411764706
0,45
0,005420054
0,011764706
0,010416667
0,015909091
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,470588235
0,5
0,555555556
0,578947368
0,002710027
0,011709602
0,01305483
0,020408163
F-Wert
c/b
measure
0
0
1
1
4
0,44444444
0,45454545
0,47619048
0,48
0
Tabelle: Ergebnisse für „Communication“
Communication
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
17
20
17
20
Q
369
425
384
440
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
9
14
11
16
28
7
9
7
9
21
2
5
4
7
7
10
11
10
11
-21
(false
reject)
367
420
380
433
1635
Precision (p)
(Ma/P)
0,777777778
0,642857143
0,636363636
0,5625
0,75
F-Wert
0,53846154
0,52941176
0,5
0,5
0
c/b
measure
5
4
3
2
14
Tabelle: Ergebnisse für „SAP R3“
SAP R3
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
17
18
18
19
Q
369
427
383
441
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
9
14
15
20
28
8
9
10
11
20
1
5
5
9
8
9
9
8
8
-20
(false
reject)
368
422
378
432
1634
Precision (p)
(Ma/P)
0,888888889
0,642857143
0,666666667
0,55
0,714285714
F-Wert
0,61538462
0,5625
0,60606061
0,56410256
0
c/b
measure
7
4
5
2
12
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
200
Tabelle: Ergebnisse für „RFID“
RFID
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
Q
7
11
7
11
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
379
434
394
449
3
8
4
9
22
3
6
3
6
15
0
2
1
3
7
4
5
4
5
-15
(false
reject)
379
432
393
446
1635
Precision (p)
(Ma/P)
1
0,75
0,75
0,666666667
0,681818182
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,428571429
0,545454545
0,428571429
0,545454545
0
0,004608295
0,002538071
0,006681514
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,6
0,5
0,666666667
0,571428571
0,002624672
0,002277904
0,002531646
0,002207506
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,482758621
0,5625
0,578947368
0,614035088
0,008403361
0,01511335
0,013774105
0,019851117
F-Wert
c/b
measure
3
4
2
3
8
0,6
0,63157895
0,54545455
0,6
0
Tabelle: Ergebnisse für „Voice Data Solution“
Voice Data Solution
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
M
386
445
401
460
1642
Q
5
6
6
7
381
439
395
453
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
4
4
5
5
22
3
3
4
4
15
1
1
1
1
7
2
3
2
3
-15
(false
reject)
380
438
394
452
1635
Precision (p)
(Ma/P)
0,75
0,75
0,8
0,8
0,681818182
F-Wert
c/b
measure
2
2
3
3
8
0,66666667
0,6
0,72727273
0,66666667
0
Tabelle: Ergebnisse für „Outsourcing“
Outsourcing
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
29
48
38
57
Q
357
397
363
403
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
17
33
27
43
24
14
27
22
35
24
3
6
5
8
0
15
21
16
22
-24
(false
reject)
354
391
358
395
1642
Precision (p)
(Ma/P)
0,823529412
0,818181818
0,814814815
0,813953488
1
F-Wert
0,60869565
0,66666667
0,67692308
0,7
0
c/b
measure
11
21
17
27
24
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
201
Tabelle: Ergebnisse für „Financial Market“
Financial Market
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
19
29
21
31
Q
367
416
380
429
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
11
23
14
26
22
11
20
13
22
14
0
3
1
4
8
8
9
8
9
-14
(false
reject)
367
413
379
425
1634
Precision (p)
(Ma/P)
1
0,869565217
0,928571429
0,846153846
0,636363636
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,578947368
0,689655172
0,619047619
0,709677419
0
0,007211538
0,002631579
0,009324009
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,344827586
0,447368421
0,387096774
0,475
0,008403361
0,00982801
0,008108108
0,00952381
F-Wert
0,73333333
0,76923077
0,74285714
0,77192982
0
c/b
measure
11
17
12
18
6
Tabelle: Ergebnisse für „Kunde1“
Kunde1
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
29
38
31
40
Q
357
407
370
420
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
13
21
15
23
28
10
17
12
19
18
3
4
3
4
10
19
21
19
21
-18
(false
reject)
354
403
367
416
1632
Precision (p)
(Ma/P)
0,769230769
0,80952381
0,8
0,826086957
0,642857143
F-Wert
0,47619048
0,57627119
0,52173913
0,6031746
0
c/b
measure
7
13
9
15
8
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
202
Semantische Suche
Zusätzliche Einbeziehung von Inferenzen in die Suche zur Ermittlung des Suchergebnisses.
Tabelle: Ergebnisse für „Cost Reduction“
Cost Reduction
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
19
23
22
26
Q
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
367
422
379
434
22
27
26
31
37
18
21
20
23
25
4
6
6
8
12
1
2
2
3
-25
(false
reject)
363
416
373
426
1630
Precision (p)
(Ma/P)
0,818181818
0,777777778
0,769230769
0,741935484
0,675675676
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,947368421
0,913043478
0,909090909
0,884615385
0,010899183
0,014218009
0,015831135
0,01843318
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,923076923
0,928571429
0,923076923
0,928571429
0,010723861
0,009280742
0,015463918
0,013452915
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
F-Wert
0,87804878
0,84
0,83333333
0,80701754
0
c/b
measure
14
15
14
15
13
Tabelle: Ergebnisse für „Business Efficiency“
Business Efficiency
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
13
14
13
14
Q
373
431
388
446
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
16
17
18
19
35
12
13
12
13
17
4
4
6
6
18
1
1
1
1
-17
(false
reject)
369
427
382
440
1624
Precision (p)
(Ma/P)
0,75
0,764705882
0,666666667
0,684210526
0,485714286
F-Wert
0,82758621
0,83870968
0,77419355
0,78787879
0
c/b
measure
8
9
6
7
-1
Tabelle: Ergebnisse für „Callcenter“
Callcenter
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
18
18
18
18
Q
368
427
383
442
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
24
25
25
26
42
18
18
18
18
27
6
7
7
8
15
0
0
0
0
-27
(false
reject)
362
420
376
434
1627
Precision (p)
(Ma/P)
0,75
0,72
0,72
0,692307692
0,642857143
1
1
1
1
0,016304348
0,016393443
0,018276762
0,018099548
F-Wert
0,85714286
0,8372093
0,8372093
0,81818182
0
c/b
measure
12
11
11
10
12
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
203
Tabelle: Ergebnisse für „Helpdesk“
Helpdesk
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
19
21
19
21
Q
367
424
382
439
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
25
26
26
27
44
18
19
18
19
36
7
7
8
8
8
1
2
1
2
-36
(false
reject)
360
417
374
431
1634
Precision (p)
(Ma/P)
0,72
0,730769231
0,692307692
0,703703704
0,818181818
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,947368421
0,904761905
0,947368421
0,904761905
0,019073569
0,016509434
0,020942408
0,018223235
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,9
0,833333333
0,833333333
0,785714286
0,018617021
0,018475751
0,017994859
0,01793722
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,882352941
0,85
0,882352941
0,85
0,035230352
0,037647059
0,0390625
0,040909091
F-Wert
0,81818182
0,80851064
0,8
0,79166667
0
c/b
measure
11
12
10
11
28
Tabelle: Ergebnisse für „Infrastructure“
Infrastructure
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
10
12
12
14
Q
376
433
389
446
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
16
18
17
19
30
9
10
10
11
18
7
8
7
8
12
1
2
2
3
-18
(false
reject)
369
425
382
438
1630
Precision (p)
(Ma/P)
0,5625
0,555555556
0,588235294
0,578947368
0,6
F-Wert
c/b
measure
2
2
3
3
6
0,69230769
0,66666667
0,68965517
0,66666667
0
Tabelle: Ergebnisse für „Communication“
Communication
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
17
20
17
20
Q
369
425
384
440
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
28
33
30
35
47
15
17
15
17
29
13
16
15
18
18
2
3
2
3
-29
(false
reject)
356
409
369
422
1624
Precision (p)
(Ma/P)
0,535714286
0,515151515
0,5
0,485714286
0,617021277
F-Wert
0,66666667
0,64150943
0,63829787
0,61818182
0
c/b
measure
2
1
0
-1
11
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
204
Tabelle: Ergebnisse für „SAP R3“
SAP R3
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
M
Q
17
18
18
19
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
369
427
383
441
1642
(false
reject)
Precision (p)
(Ma/P)
15
20
21
26
14
15
16
17
1
5
5
9
3
3
2
2
368
422
378
432
0,933333333
0,75
0,761904762
0,653846154
34
26
8
-26
1634
0,764705882
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,823529412
0,833333333
0,888888889
0,894736842
0,002710027
0,011709602
0,01305483
0,020408163
c/b
measure
F-Wert
0,875
0,78947368
0,82051282
0,75555556
13
10
11
8
0
18
Tabelle: Ergebnisse für „RFID“
RFID
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
Q
7
11
7
11
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
379
434
394
449
11
16
12
17
30
6
9
6
9
18
5
7
6
8
12
1
2
1
2
-18
(false
reject)
374
427
388
441
1630
Precision (p)
(Ma/P)
0,545454545
0,5625
0,5
0,529411765
0,6
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,857142857
0,818181818
0,857142857
0,818181818
0,013192612
0,016129032
0,015228426
0,017817372
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,8
0,666666667
0,833333333
0,714285714
0,007874016
0,006833713
0,007594937
0,006622517
F-Wert
c/b
measure
1
2
0
1
6
0,66666667
0,66666667
0,63157895
0,64285714
0
Tabelle: Ergebnisse für „Voice Data Solution“
Voice Data Solution
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
Q
5
6
6
7
381
439
395
453
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
7
7
8
8
25
4
4
5
5
16
3
3
3
3
9
1
2
1
2
-16
(false
reject)
378
436
392
450
1633
Precision (p)
(Ma/P)
0,571428571
0,571428571
0,625
0,625
0,64
F-Wert
0,66666667
0,61538462
0,71428571
0,66666667
0
c/b
measure
1
1
2
2
7
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
205
Tabelle: Ergebnisse für „Outsourcing“
Outsourcing
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
29
48
38
57
Q
357
397
363
403
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
40
56
50
66
47
27
40
35
48
37
13
16
15
18
10
2
8
3
9
-37
(false
reject)
344
381
348
385
1632
Precision (p)
(Ma/P)
0,675
0,714285714
0,7
0,727272727
0,787234043
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,931034483
0,833333333
0,921052632
0,842105263
0,036414566
0,040302267
0,041322314
0,044665012
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,894736842
0,896551724
0,904761905
0,903225806
0,005449591
0,012019231
0,007894737
0,013986014
c/b
measure
F-Wert
0,7826087
0,76923077
0,79545455
0,7804878
0
14
24
20
30
27
Tabelle: Ergebnisse für „Financial Market“
Financial Market
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
M
19
29
21
31
Q
367
416
380
429
1642
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
(false
reject)
Precision (p)
(Ma/P)
19
31
22
34
17
26
19
28
2
5
3
6
2
3
2
3
365
411
377
423
0,894736842
0,838709677
0,863636364
0,823529412
30
20
10
-20
1632
0,666666667
c/b
measure
F-Wert
0,89473684
0,86666667
0,88372093
0,86153846
15
21
16
22
0
10
Tabelle: Ergebnisse für „Kunde1“
Kunde1
S1
S2
S3
S4
Gnowsis Ges
Gesamtmenge N
386
445
401
460
1642
M
29
38
31
40
Q
357
407
370
420
Ma
Qa
(correct
P
(correct (false
reject)
(found)
accept) accept)
36
44
38
46
51
28
35
30
37
36
8
9
8
9
15
1
3
1
3
-36
(false
reject)
349
398
362
411
1627
Precision (p)
(Ma/P)
0,777777778
0,795454545
0,789473684
0,804347826
0,705882353
Recall (r)
(Ma/M)
Fallout (f)
(Qa/Q)
0,965517241
0,921052632
0,967741935
0,925
0,022408964
0,022113022
0,021621622
0,021428571
F-Wert
0,86153846
0,85365854
0,86956522
0,86046512
0
c/b
measure
20
26
22
28
21
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
206
Referenztabelle Wilcoxon-Test (Grenzwerte)
Test
zweiseitig
1%
einseitig
n
5%
0,1%
5%
6
0
2
7
2
3
0
8
3
0
5
1
9
5
1
8
3
10
8
3
10
5
11
10
5
0
13
7
12
13
7
1
17
9
13
17
9
2
21
12
14
21
12
4
25
15
15
25
15
6
30
19
16
29
19
8
35
23
17
34
23
11
41
27
18
40
27
14
47
32
19
46
32
18
53
37
20
52
37
21
60
43
21
58
42
25
67
49
22
65
48
30
75
55
23
73
54
35
83
62
24
81
61
40
91
69
25
89
68
45
100
76
26
98
75
51
110
84
27
107
83
57
119
92
28
116
91
64
130
101
Quelle: http://www.forst.tu-dresden.de/Biometrie/formeln/form07_2.html
1%
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Refernztabelle Wilcoxon-Test (explizite Signifikanzniveaus)
Stichprobe: N = 12
Niedrigere
Explizites
Rangsumme Signifikanzniveau
0.0002441
0
0.0004883
1
0.0007324
2
0.001221
3
0.001709
4
0.002441
5
0.003418
6
0.004639
7
0.006104
8
0.008057
9
0.01050
10
0.01343
11
0.01709
12
0.02124
13
0.02612
14
0.03198
15
0.03857
16
0.04614
17
0.05493
18
0.06470
19
0.07568
20
0.08813
21
Quelle: http://comp9.psych.cornell.edu/Darlington/wilcoxon/wilcox51.htm
207
208
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Screenshots
Screenshot (schematisch) Gnowsis für Szenario 1, eigene Darstellung
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Screenshot (schematisch) Gnowsis für Szenario 2, eigene Darstellung
209
210
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Screenshot (schematisch) Gnowsis für Szenario 3, eigene Darstellung
Semantische Suche für die Wissensentwicklung in wissensintensiven Prozessen
Screenshot (schematisch) Gnowsis für Szenario 4, eigene Darstellung
211