Heft 1/2007 als PDF

Transcription

Heft 1/2007 als PDF
58. Jahrgang, Nr. 1 –
Januar/Februar 2007 – NADOAW 58 (1) 1-64 – ISSN 1434-4653 – D 11721
1/2007
Hochschule: Lehre,
Studium,Weiterbildung
Kommunikationswege beim E-Learning
Information Science and Engineering /
Informationswissenschaft in
Darmstadt
Evaluation informationswissenschaftlicher Lehrveranstaltungen
Plattform für akademische
Weiterbildung und E-Learning
Usability-Tests für das Redesign
eines Medienportals
Erfahrungen als LIS-Studentin
in London
Hype und Wirklichkeit
an den Universitäten
Themenentdeckung und
-verfolgung bei Nachrichten
Elektronische Medien in der Chemie
Zur Terminologie der Information
und Dokumentation
iwp
Herausgeber: Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e. V.
DGI
Editorial
Liebe Leserinnen und Leser,
der Vorstand der Deutschen Gesellschaft
für Informationswissenschaft und Informationspraxis und Ihre IWP Redaktion
wünschen Ihnen ein gutes und erfolgreiches Jahr 2007.
Es ist so weit. Mit der ersten Ausgabe
2007 der IWP erscheint unsere Fachzeitschrift weiterhin gedruckt und zugleich
online. Wir setzen damit ein Votum unserer Mitglieder um, die sich mit beeindruckender Mehrheit für beide Erscheinungsformen im Ergebnis einer repräsentativen Umfrage entschieden haben.
Nachdem die DGI über Jahre keine Preissteigerungen weitergegeben hat, hat der
Vorstand der DGI beschlossen, dass die
Mehrkosten für die gedruckte Ausgabe
durch einen jährlichen Kostenbeitrag in
Höhe von 15 Euro den Mitgliedern separat in Rechnung gestellt werden sollen
Die gedruckte Ausgabe kommt weiterhin
frei Haus zu Ihnen und die Online-Ausgabe erhalten Sie über unsere neue Website in einem Passwort geschützten Bereich. Zugleich sind die Abhandlungen
und Berichte aller Hefte der Jahre 2005
und 2006 bereits jetzt erschlossen in
einem Archiv abrufbar.
Unser neuer Webauftritt bietet aber noch
mehr Service. Er hält in Kürze eine aktuell
gepflegte Mitgliederdatei vor, den Nachweis unserer selbständigen Information
Professionals, News für und aus unserer
Branche, Bestellmöglichkeiten und vieles
mehr. Überzeugen Sie sich selbst. Zum
Gelingen dieser neuen Dienstleistungen
haben namhaft Marlies Ockenfeld, Chefredakteurin der IWP, Sylwia Rolka, Online
Information Services GmbH, und Manfred
Hauer, AGI – Information Management
Consultants, sowie die Mitglieder der
DGI-Arbeitsgruppe, Ulrich Kämper, Dr.
Dirk Lewandowski und Christine Fisch,
beigetragen, denen wir gern an dieser
Stelle öffentlich und offiziell Dank sagen.
58(2007)1, 1
Es ist eine gute Tradition, in der ersten
IWP-Ausgabe des Jahres Rück- und Ausblick zu halten. Das zurückliegende Jahr
war insbesondere gekennzeichnet durch
die Vorbreitungen zum Web-Relaunch
und zur IWP online sowie die Durchführung der ersten Online-Tagung im Rahmen der Frankfurter Buchmesse. Im Kongresszentrum der Frankfurter Messe trafen sich rund 400 Informationsfachleute
zu ihrer Fachtagung und in der Halle 4.2,
in der alles ums elektronische Publizieren
und um digitale Dienste ging, konnte ein
Ausstellerrekord mit über 400 Anbietern
erreicht werden. Das gemeinsame Konzept von DGI und Frankfurter Buchmesse
ist aufgegangen. So wird auch 2007 die
Online-Tagung in Frankfurt am Main
stattfinden und noch mehr Besucher und
Aussteller anlocken. Das Programmkomitee, zusammengesetzt aus DGI-Mitgliedern und Vertretern anderer Verbände,
hat bereits den Call for Papers vorgelegt.
Er liegt dieser Ausgabe bei. Das Programm wird stärker als bisher Neuentwicklungen, Diskussionsforen und Beiträge aus verwandten Branchen und dem
Ausland bereithalten. Für kostengünstige
Übernachtungsmöglichkeiten und einen
gelungenen Gesellschaftsabend wird
ebenfalls Sorge getragen. Besuchen Sie
uns vom 10. bis 12. Oktober 2007 in
Frankfurt am Main.
Aber bereits im März findet der nächste
gemeinsame Kongress von BID und DGI
in Leipzig statt. Zwei Tage vor Eröffnung
der Leipziger Buchmesse öffnen sich die
Tore im benachbarten Kongresszentrum
unter dem traditionellen Motto Bibliothek
und Information. Alle drei Jahre tauschen
hier die Branchen der Dokumentation
und des Bibliothekswesens Erfahrungen
aus. Begleitet wird der Kongress von
einer großen Ausstellung, die erstmals im
Herzen des Kongresszentrums sein wird
und kurze Wege zwischen Veranstal-
tungsräumen und
Ausstellungsfläche bietet.
Die DGI, eine inhomogene Fachgesellschaft aus Informationsanbietern und Nutzern,
stellt sich den Veränderungen am Markt. Noch im Januar
2007 nimmt eine Task Force zur Neuausrichtung der DGI unter der Leitung des
Altpräsidenten Arnoud de Kemp ihre Arbeit auf. Ziel ist es, Mehrwerte für die
Mitglieder aus der Mitgliedschaft in der
DGI zu regenerieren und dadurch auch
neue Mitglieder zu gewinnen. Auf dem
Abschlussforum der Online-Tagung 2006
haben uns dazu sowohl junge als auch
langjährige erfahrene Mitglieder Anregungen und überzeugende Hinweise
übermittelt und einen Auftrag erteilt. Der
Wert der Information ist in unserer Gesellschaft eminent. Die DGI vereint die
Anbieter und Vermittler von qualifizierter
und strukturierter Information. Keine andere Fachgesellschaft ist deshalb prädestinierter, den Wert der qualifizierten Information und unseres Berufsstandes in
der Öffentlichkeit sichtbar zu machen. Sobald die Task Force ihr Ergebnis vorgelegt hat, freuen wir uns auf eine interessante und kritische Diskussion mit Ihnen.
Das Jahr 2007 wird viel Neues, aber auch
Bewährtes für Sie bereithalten. Das alles
ist ohne Ihre Mitwirkung, Ihr Lob und
Ihre konstruktive Kritik nicht möglich. So
ist es mir eine besondere Freude Ihnen
für Ihre Treue zu danken.
Mit herzlichen Grüßen
Ihre
Prof. Dr. Gabriele Beger
Präsidentin der DGI
1
Inhalt
1/2007
1
EDITORIAL
27
Gabriele Beger
DGI 2007
6
INFORMATIONEN
Professionelle Regiostererstellung.
Das DNI informierte auf der Frankfurter
Buchmesse 2006 (J. Fassbender)
4
NACHRICHTEN
Deutsche Akademie für Sprache und Dichtung:
Diskussion über „Die Sprache der Bahn“
DPMA: Änderungen Internationale Klassifikation
von Waren und Dienstleistungen
Referat Fachinformation aufgelöst –
Personalkarussell im BMBF
DIMDI veröffentlicht endgültige Fassung der
ICD-10-GM Version 2007
Buchhandlungen und Neue Medien – Studie
zu Kundenwünschen
ZPID-Monitor 2004: Ausführlicher Ergebnisbericht
7
15
21
29
35
2
HOCHSCHULE
Gesa Koschinsky und Reginald Ferber
Kommunikationswege beim E-Learning – eine
empirische Untersuchung an der Hochschule
Darmstadt
Berthold Meier und Christian Otto
Informationsspezialisten made in Darmstadt: Der
neue Studiengang „Information Science and
Engineering / Informationswissenschaft“
Gerhard Reichmann
Evaluation informationswissenschaftlicher
Lehrveranstaltungen: Eine Längsschnittuntersuchung
Nicole Petrucela
»Find out what works«. Auswahl und Anwendung
von Usability-Tests für das Redesign eines
Medienportals
Sabine Fincke, Jana False, Kerstin Grosch,
Heinz-Dietrich Wuttke
Die akademische Weiterbildungslandschaft
in Thüringen. Bildungsportal Thüringen –
Plattform für akademische Weiterbildung
und E-Learning in Thüringen
NEWCOMER CORNER
Antje Schroeder
Erfahrungen als LIS-Studentin in London
41
INFORMATIONSDIENSTE
Wolfgang G. Stock
Themenentdeckung und -verfolgung und ihr
Einsatz bei Informationsdiensten für Nachrichten
47 TERMINOLOGIE UND SPRACHFRAGEN
Eberhardt Gering
Diskussionsbeitrag: Zur Terminologie der
Information und Dokumentation
51
INFORMATIONSPRAXIS
Gregor Fels
Elektronische Medien in der Chemie.
Chemieinformation gestern, heute, morgen
38
57
TAGUNGSBERICHTE
Michael Huter
Hype und Wirklichkeit an den Universitäten.
„eUniversity – Update Bologna“: Tagung zur
Zukunft der Universitäten Bonn, November 2006
Caroline Pförtner
Forschung, Industrie und Hochschule diskutieren
den Einsatz semantischer Lösungen
Bericht über einen Workshop in Darmstadt
59 REZENSION
ASIS&T Thesaurus of Information Science,
Technology, and Librarianship (J. Fassbender)
5
IMPRESSUM
61
63
u3
LITERATURAUSLESE
MEDIAINFO
TERMINKALENDER
Beilagenhinweis:
Einem Teil dieser Ausgabe liegt eine Beilage der Deutschen
Gesellschaft für Informationswissenschaft und
Informationspraxis (DGI) bei.
Wir bitten um freundliche Beachtung.
58(2007)1, 2
E-Books via EBSCO
Ihr Partner für elektronische Fachinformationen
EBSCO ist ein führender Anbieter von E-Books. Als Partner
renommierter Verlage können wir Ihnen die Fachinformation
bieten, die Sie in Ihrer Bibliothek benötigen.
Profitieren Sie von unserer Zusammenarbeit mit Verlagen wie
Blackwell, Cambridge University Press, Pan American Health
Organization, Taylor & Francis, Wiley und natürlich mit Springer,
der viele Inhalte auch in deutscher Sprache anbietet.
Bieten Sie Ihren Nutzern schnelleren und einfachen Zugriff auf
Informationen von hoher Qualität. Wir unterstützen Sie bei der
Erwerbung, Lizenzierung und Verwaltung Ihrer E-Books.
Sind Sie interessiert? Kontaktieren Sie uns unter
[email protected]
www.ebsco.com
squeeze4c-180x257mm-18866.indd 1
1/10/07 4:41:49 PM
nachrichten
Deutsche Akademie für Sprache
DPMA: Änderungen Internationale
und Dichtung:Diskussion über
Klassifikation von Waren und
„Die Sprache der Bahn“
Dienstleistungen
Erstmals hat es eine Publikation der
Reihe Informationswissenschaft der
DGI nicht nur in die FAZ Sonntagszeitung geschafft, wo am 8. Oktober eine
fünfspaltige Rezension erschienen ist,
sondern auch in den Veranstaltungskalender der Deutschen Akademie für
Sprache und Dichtung. Dort findet im
Glückert Haus auf der Darmstädter
Mathildenhöhe (Alexandraweg 23) am
27. Januar 2007 um 19.00 Uhr eine Diskussionsveranstaltung statt. In der Ankündigung heißt es: „Wer würde bei
uns heute noch von Perron oder Billet
sprechen? Und Bahnsteig oder Fahrkarte werden bald vielleicht durch Plattform und Ticket ersetzt sein. Die Sprache der Eisenbahn hat die Entwicklungen dieses Verkehrsmittels begleitet,
von den ersten Dampfwagen auf eisernen Kunststraßen bis hin zur modernen
Bahn und ihren Reformbemühungen.
Am Sprachwandel läßt sich beispielhaft
die technische, kulturelle, soziale oder
politische Geschichte des Verkehrswesens nachzeichnen, bis hin zu den Erfahrungen der Zusammenarbeit in europäischen oder internationalen Organisationen. Die Sprache der Bahn hat zwei
Gesichter: Zunächst geht es im Eisenbahnbetrieb um die Eindeutigkeit und
Genauigkeit bei der Verständigung, um
präzise Bezeichnung und eindeutige
Anweisung, die auch bei der Übertragung in eine andere Sprache erhalten
bleiben müssen. Dies war und ist das
Feld der sich verändernden Fachsprache[n], die nicht erst heute unter dem
enormen Druck der Internationalisierung stehen. Die Eisenbahn wendet
sich aber auch an ihre [einst] Passagiere
oder [jetzt] Kunden, und hier berühren
sich die Geschichte der Fachterminologie und die Entwicklung des allgemeinen Sprachgebrauchs.
Anlässlich des Erscheinens von „Die
Sprache der Bahn. Zur Eisenbahnsprache im europäischen Kontext“ diskutieren über diese spannenden Themen die
Autoren Klaus Ebeling [Rechtsanwalt,
Generalsekretär EIA – European Intermodal Association], Lothar Hums
[Sprachforscher, insbesondere zur Eisenbahngeschichte] und Armin Schmidt
[Eisenbahner, Leiter von Terminologieund Thesaurusprojekten bei der DB,
UIC und OSShD] sowie Peter Eisenberg
[Sprachwissenschaftler, Deutsche Akademie für Sprache und Dichtung] u.a.
Der Eintritt ist frei.
Das Buch ist bei der Geschäftsstelle der
DGI zum Preis von 24,80 Euro (DGI-Mitglieder zahlen 19,80 Euro) erhältlich.
4
Das Deutsche Patent- und Markenamt
informiert auf seiner Website unter
www.dpma.de/veroeffentlichungen/mit
teilungen/anlage_mittlg_16.pdf. (5 Seiten PDF-Format) über die zum 1. Januar
2007 in Kraft getretenen Änderungen
der Internationalen Klassifikation von
Waren und Dienstleistungen für die Eintragung von Marken (Klassifikation von
Nizza). Änderungen für Dienstleistungen des Groß- und Einzelhandels in
Klasse 35 waren bereits vorher erfolgt.
Auf Basis des Urteils des EuGH vom 7.
Juli 2005 C-418/02 („Praktiker“) (www.
dpma.de/infos/einsteiger/einsteiger_
marke03b.html) ergaben sich einige
Veränderungen bezüglich akzeptierter
Formulierungen bei Markenanmeldungen in der Klasse 35.
Was ist jetzt zulässig?
Neben der vom EuGH ausdrücklich entschiedenen Formulierung wird das
Deutsche Patent- und Markenamt im
Vorgriff auf die am 1. Januar 2007 in
Kraft tretende 9. Ausgabe der Klassifikation von Nizza eine Reihe weiterer
Dienstleistungsbezeichnungen zulassen, die sachlich gleichgelagert sind
und nicht anders behandelt werden
können als die Einzelhandelsdienstleistungen. Dazu gehören etwa
■ Großhandelsdienstleistungen mit ...
■ Einzelhandelsdienstleistungen für
den Versandhandel mit ...
■ Dienstleistungen des Einzel-/Großhandels über das Internet mit ...
■ Einzelhandelsdienstleistungen mittels Teleshopping-Sendungen mit ...
Was ist nach wie vor nicht zulässig?
Alle Beteiligte in dem Verfahren vor
dem EuGH sind davon ausgegangen,
dass der reine „Verkauf“ keine Dienstleistung darstellt, sondern mit der Warenmarke umfasst ist. Für Formulierungen wie „Verkauf“, „Vertrieb“, „Handel“ kann daher nach wie vor keine
Dienstleistungsmarke in Klasse 35 erlangt werden. Auch ist deutlich zu machen, dass Dienstleistungen für Dritte
erbracht werden, deshalb sind Formulierungen wie „Betrieb eines Verkaufsgeschäfts...“, „Betreiben eines Versandhandels...“ nicht zulässig.
In der Klasse 35 betreffen wesentliche
Neuerungen die Klassen 14 und 42.
Gebrauchsgegenstände „aus Edelmetall“ werden künftig nicht mehr in der
Klasse 14, sondern in der Klasse der
Funktion klassifiziert; der Zusatz „aus
Edelmetall/nicht aus Edelmetall“ wird
dadurch überflüssig.
Die erstmals in der 9. Ausgabe so genannten „Juristischen Dienstleistun-
gen“ werden der Klasse 45 anstatt wie
bisher der Klasse 42 zugeordnet.
Referat Fachinformation aufgelöst –
Personalkarussell im BMBF
Das am 15. November hochgeladene
Organigramm (www.bmbf.de/pub/org
plan.pdf) auf der Website des BMBF
weist das ehemalige Referat „Wissenschaftliche Information; e-Science“
nicht mehr auf. Statt bisher sechs gibt
es in der Unterabteilung 52 nur noch
fünf Referate. Die bislang für die Fachinformation zuständige Referatsleiterin
Dr. Christine Thomas hat das Nachbarreferat 522 „Sicherheitsforschung“
übernommen, das mit dem Zehnfachen
des Budgets ihres bisherigen Referats
Fachinformation ausgestattet ist. Die
Bezeichnung des Referats 524 „Softwaretechnologie“ wurde um „Wissenstechnologie“ erweitert und hat vom
ehemaligen Referat 523 die E-ScienceInitiative und das Thema Langzeitarchivierung mit den begonnen Projekten
aufgenommen. Referatsleiter ist weiterhin Dr. Rainer Jansen, jetzt allerdings
alleine, ohne Dr. Bernd Reuse. Die Zuständigkeit für die fachliche und administrative Betreuung der Einrichtungen
Fachinformationszentrum (FIZ) Karlsruhe GmbH, FIZ Chemie GmbH, Technische Informationsbibliothek (TIB)
Hannover sind in die Unterabteilung 51
in das Referat 515 unter Leitung von
Annette Eickmeyer-Hehn übergegangen, dahin, wo auch die Forschung an
Fachhochschulen und der Ingenieurnachwuchs angesiedelt sind . Die Deutsche Nationalbibliothek wird im BMBF
ebenfalls von Referat 515 fachlich betreut (Federführung liegt hier beim
BKM).
Neuer Aufsichtsratsvorsitzender im FIZ
Karlsruhe ist MinDirig Dr. Wolfgang
Stöffler, Leiter der Unterabteilung 51
„Schlüsseltechnologien – Produktionsforschung“. Er ist im Aufsichtsrat Nachfolger von Frau Dr. Thomas, die dem
Aufsichtsrat seit September 2001 angehörte, aber erst im April 2006 neue Aufsichtsratsvorsitzende geworden war.
Weiter wurde Christian Stertz als Nachfolger für Erasmus Landvogt in den Aufsichtsrat berufen.
Im FIZ Chemie liegt der AR-Vorsitz unverändert bei Herrn Lietzau als Sitzlandsvertreter. Christian Stertz folgt
Frau Dr. Thomas als AR-Mitglied nach
und wurde in der Sitzung am 10. November 2006 zum stellvertretenden ARVorsitzenden gewählt.
Der Projektträger Neue Medien in der
Bildung + Fachinformation in Darmstadt
unterstützt das BMBF derzeit noch in
seinem Förderbereich „Softwaresys-
58(2007)1, 4-5
Nachrichten
teme; Wissenstechnologien“ bei der
Umsetzung der Programme
■ eScience Initiative
■ Förderprogramm Informations- und
Kommunikationstechnik „IT-Forschung 2006“
■ Strategisches Positionspapier „Information vernetzen – Wissen aktivieren“
■ Aktionsprogramm „Informationsgesellschaft Deutschland 2006“ (Seite
45-48)
Die Projektträgerschaft für neue Programme soll ausgeschrieben werden.
(mo)
DIMDI veröffentlicht endgültige
Fassung der ICD-10-GM Version 2007
Das DIMDI hat die endgültige Fassung
der Internationalen Klassifikation der
Krankheiten und verwandter Gesundheitsprobleme, German Modification
(ICD-10-GM), Version 2007, auf seinen
Internetseiten veröffentlicht. Die Klassifikation bildet die Basis für das pauschalierende Vergütungssystem der
German Diagnosis Related Groups (GDRG). In die neue Version 2007 flossen
über 50 Vorschläge aus Fachgesellschaften und von Fachleuten aus Ärzteschaft, Krankenkassen und Kliniken
ein.
Ärzte und Dokumentare in den Krankenhäusern sind verpflichtet, die
Diagnosen nach den Deutschen Kodierrichtlinien (DKR) der für das G-DRGVergütungssystem zuständigen Selbstverwaltungspartner zu kodieren. Die
Verschlüsselung erfolgt mithilfe der
ICD-10-GM in Form eines Systematischen Verzeichnisses und eines Alphabetischen Verzeichnisses, das die
Arbeit mit der ICD in der Praxis erleichtert. Ärzte, Dokumentare und Pflegekräfte in Kliniken und Praxen können mit der neuen ICD-Version 2007 einige wichtige Krankheiten für die
Abrechnung künftig differenzierter als
bisher verschlüsseln. Der Kommentar
im Vorspann des Systematischen Verzeichnisses erläutert wichtige Neuerungen in den einzelnen Kapiteln. Die
Neuerungen im Detail sind in der Aktualisierungsliste zusammengestellt.
Die Differenzliste enthält die Veränderungen der endgültigen Fassung gegenüber der Vorabversion. Download
der Dateien Referenzausgaben und Aktualisierungsliste zur ICD-10-GM 2007
finden Sie als kostenfreie PDF-Dateien
im Downloadcenter: www.dimdi.de –
Klassifikationen – Downloadcenter –
ICD-10-GM – Version 2007. Alle anderen Dateifassungen (ASCII-, SGML-,
HTML- und RTF-Datei sowie Metadaten) und die Überleitungstabelle sind
58(2007)1, 4-5
im DIMDI Webshop erhältlich. Nur das
erstmalige Herunterladen der Dateien
einer Jahrgangsversion aus dem
DIMDI Webshop wird berechnet. Jedes
weitere Herunterladen einer einmal
gekauften Datei (z. B. bei Aktualisierungen wegen Fehlerkorrekturen) ist
kostenfrei (im DIMDI Webshop über
„Mein Konto“). Das DIMDI ist Herausgeber der deutschen Versionen von
medizinischen Klassifikationen wie
ICD-10, ICF, Operationenschlüssel
(OPS), ATC, MeSH und UMDNS und
betreut medizinische Ordnungssysteme wie Alpha-ID, LOINC und OID.
Außerdem betreibt das DIMDI Informationssysteme für Arzneimittel, Medizinprodukte und Health Technology
Assessment (HTA) und bietet zusätzliche Informationen zur Telematik im
Gesundheitswesen an.
Buchhandlungen und Neue Medien –
spielsweise ein Lieferservice für die
Kunden nach Hause oder ins Büro
sowie ein ungestörter Sitz- und Lesebereich in der Buchhandlung. Deutlich
macht die Studie, dass die multimedialen Innovationen im Buchsektor auch
für die Kunden wichtiger werden. So
wird beispielsweise die Funktion „Search inside the book“ von beiden Zielgruppen immer stärker angewendet,
insbesondere bei Sach- und Fachbüchern. Auch E-Books werden genutzt,
vor allem von den „Modernen Performern“ auf längeren Reisen im Zug oder
im Flugzeug.
Herausgeber der Studie ist der Börsenverein des Deutschen Buchhandels, Abteilung Kommunikation, PR und Marketing. Die Studie kann bei Dr. Christoph
Kochhan, Referent Marketing und
Marktforschung, [email protected], abgerufen oder aus dem Internet heruntergeladen werden unter: www.boer
senverein.de/de/69181?rubrik=&dl_id
=126960
Studie zu Kundenwünschen
Der „optimale“ Buchhandel soll sich
dem Leben seiner Kunden anpassen,
nicht umgekehrt. Das ergibt die Studie
„Buchhandlungen und Neue Medien“
vom Oktober 2006, die der Börsenverein
des Deutschen Buchhandels beim
Marktforschungsinstitut Sinus Sociovision (Heidelberg) in Auftrag gegeben
hat. Die Studie hat das Ziel, die für den
Buchmarkt strategisch wichtigen Zielgruppen „Postmaterielle“ und „Moderne Performer“ systematisch zu untersuchen, alltagsnah zu beschreiben
und Handlungskonzepte für den stationären Buchhandel anzuregen.
Beide Zielgruppen haben ausgeprägte
Ansprüche an den stationären Buchhandel, die sich teilweise auch unterscheiden. So wünschen die beiden
Kernzielgruppen ausgedehnte Öffnungszeiten, eine eigene Website des
Buchladens mit dem aktuellen Bestand,
Bestellmöglichkeit und individuellen
Accounts, Lieferservice, umfangreiches
und gut sortiertes Sortiment, sinnliche
Atmosphäre, eine Kaffee-Ecke und Recherche-Terminals. Favorisieren die
„Modernen Performer“ allerdings einen
modernen, dynamischen Buchladen, der
als Kommunikationsplattform genutzt
werden kann und auch ästhetisch mit
der Zeit geht, so bevorzugen die „Postmateriellen“ eher einen modernen, entschleunigten Buchladen, der eine entspannte Oase sinnlicher und geistiger
Anregungen bietet und den schnellen
Rhythmus des Alltags unterbricht.
Schlüsselfaktoren, um aktuelle Internetkäufer dieser Milieus für den Buchhandel zu gewinnen, sind neben einer eigenen Internetseite der Buchhandlung mit
dem aktuellen Angebot des Ladens bei-
ZPID-Monitor 2004:
Ausführlicher Ergebnisbericht
Die Internationalisierung der Psychologie aus dem deutschsprachigen Bereich
wird seit 1999 jährlich mit dem ZPIDMonitor dokumentiert. Die Ergebnisse
für das Publikationsjahr 2004 sind Ende
Oktober 2006 erschienen. Der ausführliche Ergebnisbericht kann auf den Webseiten des ZPID heruntergeladen werden.
Die Ergebnisse zeigen, dass der Anteil
englischsprachiger Literatur am gesamten Veröffentlichungsvolumen aus dem
deutschsprachigen Bereich auch im Berichtsjahr 2004 weiter angestiegen ist
und mit knapp 21 Prozent seinen bisherigen Höchststand erreicht hat. Zwischen den einzelnen Teildisziplinen der
Psychologie gibt es nach wie vor Unterschiede im Internationalisierungsgrad,
insbesondere zwischen den Angewandten und den Grundlagendisziplinen. Der
Anteil der Zitationen von Autoren und
Autorinnen aus dem deutschsprachigen
Raum durch englischsprachige Quellen
ist ebenfalls weiter angestiegen und
liegt bei den Promovierten höher als bei
den Habilitierten, was als Hinweis auf
eine steigende internationale Orientierung des wissenschaftlichen Nachwuchses interpretiert werden kann.
Download des ausführlichen Ergebnisberichts unter ftp://ftp.zpid.de/pub/
info/zpid-monitor.pdf
Ansprechpartnerin: Dr. Gabriel Schui,
ZPID – Universität Trier, 54286 Trier, Tel.
+49 (0) 651 201-2910, Fax +49 (0) 651
201-2961, [email protected]
5
I n f o r m at i o n e n
Professionelle Registererstellung
Wie bereits in den Vorjahren hielt das
Deutsche Netzwerk der Indexer (DNI)
auf der Frankfurter Buchmesse 2006
sein Jahrestreffen ab – diesmal im Rahmen der Jahreskonferenz der Deutschen
Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im
Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller
Registererstellung, die sehr gut besucht
war.
Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer
vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA
und Großbritannien.
Jochen Fassbender vom DNI hielt einen
Vortrag über grundsätzliche Thesen zur
Lage des Indexing in Deutschland. Die
im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im
deutschsprachigen Raum wurde durch
vier Bereiche beleuchtet.
1. Registererstellung beschränkt sich
keineswegs nur – wie immer noch weitläufig angenommen – auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu
Registern. Es geht vielmehr darum, das
Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem
Beziehungsgeflecht zu verbinden.
2. Die Erstellung von Registern durch
Autoren, Herausgebern oder gar Hilfskräften – womöglich kurz vor Ende eines
Projektes – hat oft erhebliche Mängel
Gegründet von H.-K. Soeken †
unter dem Titel Nachrichten für
Dokumentation (NfD)
Herausgegeben von der Deutschen
Gesellschaft für Informationswissenschaft und Informationspraxis e.V.
(DGI)
Präsidentin: Prof. Dr. Gabriele Beger
Hanauer Landstraße 151-153
D-60314 Frankfurt am Main
Telefon: (0 69) 43 03 13/14
Telefax: (0 69) 4 90 90 96
[email protected]
www.dgi-info.de
Mitteilungsblatt des Normenausschusses Bibliotheks- und Dokumentationswesen im DIN Deutsches Institut für Normung e.V., der Fachgruppe Dokumentation im
Deutschen Museumsbund und der
Arbeitsgemeinschaft der
Spezialbibliotheken (ASpB)
Das DNI informierte auf der Frankfurter Buchmesse 2006
zur Folge, da aus Fachkreisen immer
wieder bestätigt wird, dass derartige
Personengruppen – im Gegensatz zu
professionellen Indexern – kaum über
adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen.
3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden,
deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der
weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche
die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im
deutschsprachigen Raum eine Plattform
für professionelles Indexing vorhanden
ist, die sowohl hervorragende Kontakte
zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als
auch Indexerinnen und Indexer für die
Registererstellung für Fach- und Sachbücher als auch Periodika und OnlineMedien bereitstellt.
Maureen MacGlashan von der britischen
Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen
MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie
Dr. Dirk Lewandowski, Düsseldorf
(Suchmaschinen, Internet)
Prof. Dr. Wolfgang Ratzek,
Falkensee/Stuttgart (Informationspraxis)
Prof. Dr. Ralph Schmidt, Hamburg
(Newcomer Report, Medien)
deren Website www. theindexer.org, auf
der ein Online-Index zur Verfügung
steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An
dieser Ausgabe hatte auch das DNI als
Gastherausgeber mitgearbeitet.
Ein absolutes Debüt auf der Buchmesse
war der Vortrag von Frances Lennie aus
den USA, die mit CINDEX erstmals eine
Dedicated Indexing Software vorstellte.
Jede Person, die derartige Software kennen gelernt hat, weiß um den großen
Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte,
wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit
CINDEX erstellt werden können. Die mit
dieser Software viel effizienter erstellten
Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten.
Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer,
CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of
Indexers Seminare zum professionellen
Indexing anbieten, rundete die gelungene Veranstaltung ab.
Weitere Informationen zum DNI und zur
Registererstellung finden sich auf der
DNI-Website www.d-indexer.org.
Jochen Fassbender (DNI-Koordinator)
Tel.: (04 21) 2 43 91 36, [email protected]
Objektleitung
Erwin König,
[email protected]
Telefon: (06 11) 9 31 09 41
Anzeigenservice
Ursula Hensel Anzeigenservice
Hermann-Schuster-Straße 39
65510 Hünstetten-Wallbach
Telefon: (0 61 26) 57 08 82
Telefax: (0 61 26) 58 16 47
[email protected]
Rocco Mischok
Verlag Dinges & Frick GmbH
Greifstraße 4
65199 Wiesbaden
Telefon: (06 11) 3 96 99-60
Telefax: (06 11) 3 96 99-30
[email protected]
Hinweis
Die Aufsätze stellen ausschließlich
die Meinung der Autoren dar. Der
Inhalt wurde sorgfältig und nach
bestem Wissen erarbeitet. Dennoch
kann von Verlag und Redaktion eine
Gewähr-leistung auf Richtigkeit und
Vollständigkeit nicht übernommen
werden. Die Beiträge und die grafischen Darstellungen unterliegen dem
Urheberrecht. Nachdruck und Vervielfältigung jeglicher Art bedürfen
der Genehmigung des Verlages und
der Autoren.
IMPRESSUM
Redaktionsbeirat
Klaus-Peter Böttger, Mülheim an der
Ruhr (Berufsfragen Information und
Bibliothek)
Dr. Sabine Graumann, München
(Informationswirtschaft)
Prof. Dr. Hans-Christoph Hobohm,
Potsdam (Management von
Informationseinrichtungen)
Prof. Dr. Rainer Kuhlen, Konstanz
(Informationswissenschaft)
Redaktion
Deutsche Gesellschaft für
Informationswissenschaft und
Informationspraxis e.V.
Marlies Ockenfeld (verantwortlich)
Viktoriaplatz 8
64293 Darmstadt
Telefon: (0 61 51) 86 98 12
Telefax: (0 61 51) 86 97 85
[email protected]
Daniel Ockenfeld
(Redaktionsassistenz)
Verlag
Dinges & Frick GmbH
Greifstraße 4
65199 Wiesbaden
Postfach 1564
65005 Wiesbaden
Telefon: (06 11) 9 31 09 41
Telefax: (06 11) 9 31 09 43
Bankverbindung:
Wiesbadener Volksbank
BLZ 510 900 00, Kto-Nr. 714 22 26
Postbank Frankfurt
BLZ 500 100 60, Kto.-Nr. 267 204-606
Gestaltung
Anne Karg-Brandt, Hohenstein
Druck
Dinges & Frick GmbH
Greifstraße 4
65199 Wiesbaden
Postfach 2009
65010 Wiesbaden
Telefon: (06 11) 3 96 99-0
Telefax: (06 11) 3 96 99-30
Leonardo: (06 11) 93 20 79
Twist: (06 11) 9 10 23 78
[email protected]
Erscheinungsweise/ Bezugspreise
Sieben Hefte jährlich (Doppelausgabe September/Oktober)
Jahresabonnement EUR 179,–
Schüler/Studenten EUR 130,–
Einzelheft EUR 30,–
inkl. Versandkosten/Porto.
Das Abonnement gilt für mindestens
ein Jahr und kann danach bis sechs
Wochen zum Ende des Bezugszeitraums gekündigt werden.
Redaktionsschluss für
Heft 2/2007
26. Januar
Heft 3/2007
5. März
Heft 4/2007
20. April
Hochschule
Kommunikationswege beim E-Learning –
eine empirische Untersuchung an der Hochschule Darmstadt
Gesa Koschinsky und Reginald Ferber, Darmstadt
Mit dem Stichwort E-Learning wird ein breites Spektrum von Lehr- und Lernformen bezeichnet, die in der einen oder anderen Weise durch Rechner unterstützt
werden. In vielen dieser Formen spielt der Austausch zwischen den Beteiligten
eine wichtige Rolle. Daher werden E-Learning-Umgebungen häufig mit Kommunikationskomponenten wie Chats oder Foren versehen. Neben diesen Kommunikationswegen steht den Studierenden im Allgemeinen noch eine Vielzahl anderer
Kommunikationsmittel zur Verfügung. In einer Befragung an der Hochschule
Darmstadt (ehemals Fachhochschule) wurde untersucht, welche Kommunikationswege von den Teilnehmern und Teilnehmerinnen eines E-Learning-Kurses genutzt
und bevorzugt werden. Ausgangspunkt war dabei die Beobachtung, dass die von
der Lernplattform angebotenen Kommunikationsmittel im Vergleich mit anderen
Kommunikationswegen nur wenig genutzt wurden. Die Ergebnisse zeigen, dass
alle zehn untersuchten Kommunikationswege (vom persönlichen Gespräch über EMail oder Voice-over-IP bis zu den Kommunikationsmitteln der Lernumgebung) für
den Austausch zur Online-Lehrveranstaltung genutzt wurden. Die Intensität der
Nutzung variierte allerdings stark: So gaben über 90 Prozent der Befragten an, sich
durch direkte Gespräche oder E-Mails ausgetauscht zu haben, wogegen nur ca.
zehn Prozent die Kommunikationsmittel der E-Learning-Plattform verwendeten.
Der Hauptanteil der Kommunikation fand also nicht über die von der Lernplattform angebotenen Werkzeuge statt. Die Studierenden bevorzugten die Kommunikationswege, die sie auch sonst im Alltag benutzen.
Communication channels in E-Learning –
a survey at the Darmstadt University of Applied Sciences
The term e-learning is used for a wide range of computer supported teaching and
learning methods. Many of them include some kind of interaction between persons
that are involved in the learning process. To support these interactions, many elearning systems provide communication tools like announcements, messaging
systems, discussion boards, or chats. It has been observed, that students often use
other communication channels than the tools provided by the learning platforms.
A survey at the Darmstadt University of Applied Sciences analysed the use of a
number of communication channels (like those provided by a learning platform,
talking face-to-face, phone calls, e-mails, or chats) by the students of an e-learning
course. The results show that students used all the tools listed in the questionnaire. However, the intensity of use varied strongly: 90 percent of all participants
reported to use face-to-face conversation and e-mail but only 10 percent reported
to use the communication tools provided by the e-learning environment. This
means that the majority of students did not use the tools provided by the e-learning platform of the course, but used different communication channels to interact. These channels were basically those that the students used in their everyday
life as well.
Unter E-Learning versteht man im Allgemeinen von Rechnern unterstütztes
Lernen. Die Angebote und Formen reichen vom Angebot digitaler Lehrmaterialien zum Download über selbst gesteuerte Trainingsprogramme (wie ein
Vokabeltrainer), aufgezeichnete oder
live übertragene Vorlesungen bis zu
komplexen Lernumgebungen.
58(2007)1, 7-14
Eine Mischform aus E-Learning und
Präsenzlehre wird als Blended Learning
bezeichnet. Hybrides Lernen oder hybride Lernarrangements bestehen allgemeiner aus einer Kombination verschiedener Lernformen. Dies kann sich
neben dem Mix aus E-Learning und
Präsenzveranstaltungen auch auf die
Kombination verschiedener Technolo-
gien (etwa Lern-CD-ROM und OnlineChat) oder auf die Kombination verschiedener Kommunikationsformen
(etwa E-Mail und Forum) beziehen.
Beim Computer-Supported-Cooperative-Learning (CSCL) arbeitet eine
Gruppe mit Unterstützung von Rechnern an gemeinsamen Aufgaben. Befinden sich die Beteiligten nicht am selben Ort, so müssen geeignete Kommunikationsmittel gewählt werden, um
den Austausch zwischen den Gruppenmitgliedern zu gewährleisten.
Der Einsatz und die Auswahl der Kommunikationsmedien hängen dabei vom
Konzept der Lehrveranstaltung ab. Unterschiedliche Konzepte erfordern unterschiedliche Kommunikationsmittel:
Die Kommunikation kann zeitgleich
(synchron) oder zeitlich versetzt (asynchron) sein, außerdem kann sie zwischen zwei oder zwischen mehreren
Personen stattfinden. Als synchrone
Kommunikationsmittel stehen Telefon,
Voice-over-IP, Videokonferenzen und
Chats (auch Instant-Messaging) zur
Verfügung, als asynchrone Mittel EMail und Diskussionsforen aber auch
Faxe oder Briefe.
Chat, Videokonferenzen sowie Telefonate und Audiokonferenzen über das
Internet (Voice-over-IP) werden hauptsächlich zeitgleich durchgeführt. Telefon, Voice-over-IP und Videokonferenzen ähneln dabei dem direkten Gespräch: Die Beteiligten kommunizieren
und interagieren in Echtzeit über gesprochene Sprache miteinander. Beim
Chat tauschen sich die Teilnehmer und
Teilnehmerinnen über kurze Textnachrichten aus. Dabei senden und empfangen sie ihre Botschaften unmittelbar
nacheinander. Alle vier Kommunikationsformen sind in erster Linie Medien
der synchronen Individualkommunikation, allerdings ermöglichen die modernen Technologien auch den Austausch
in Gruppen oder – durch Mailbox-Funktionen – die Nachrichtenübermittlung
mit zeitlicher Verzögerung.
7
Ko m m u n i k at i o n b e i m E - L e a r n i n g
E-Mail, Brief und Fax dienen dem
schriftlichen, asynchronen Nachrichtenaustausch. Während beim Brief der
Postweg Zeit in Anspruch nimmt, können E-Mail und Fax sofort zugestellt
werden. Sind hierbei Sender und
Adressat gleichzeitig online, so kann
eine rasche Abfolge von Nachrichten
auch den Charakter von synchroner
Kommunikation haben. Werden Nachrichten an mehrere Adressaten verschickt, so spricht man von Rundschreiben oder, bei E-Mail, von Mailinglisten. Mailinglisten werden
zusammen mit webbasierten OnlineForen als Diskussionsforen bezeichnet.
Die Rollen lassen sich allerdings nicht
immer eindeutig trennen. Eine direkt
beantwortete, kurze E-Mail unterscheidet sich nicht sonderlich von einem
längeren Beitrag in einem Chat. Ein
Forum kann sowohl synchron als auch
asynchron verwendet werden.
E-Learning am Fachbereich
Informations- und Wissensmanagement
An der Hochschule Darmstadt bietet
der Fachbereich Informations- und
Wissensmanagement (IuW) die E-Learning-Veranstaltung „Klassifikation“ für
das erste und, darauf aufbauend, „Indexieren und Thesaurus“ für das
zweite Fachsemester an. Die Kurse
werden als hybride Lernarrangements,
also als Mix aus verschiedenen Lernformen, verschiedenen Lernorten und
damit auch verschiedenen Kommunikationsformen durchgeführt. Zum Einsatz kommen Einzelarbeit/Selbststudium, Gruppenarbeit, Übungsaufgaben, Präsenzphasen an der Hochschule
mit direkten Gesprächen sowie verschiedene Formen technisch-vermittelter Kommunikation. Die Lernmaterialien werden auf der Lernplattform
ELAT (Environment for Learning and
Teaching)1 bereitgestellt. ELAT wurde
vom IGDV (damals: Institut für graphische Datenverarbeitung; heute: Zentrum für Advanced Learning) der
Hochschule Darmstadt im Rahmen des
BMBF-geförderten Projektes „2MN –
Module für die multimediale netzbasierte Hochschullehre“ entwickelt. Seit
2004 nutzt der Fachbereich zur Organisation aller Veranstaltungen das hochschulweite elektronische Lern- und
Kursverwaltungssystem Blackboard2.
Als die Veranstaltung „Klassifikation“
im Wintersemester 2002/03 zum ersten
1
2
3
4
8
Informationen zu ELAT unter www.elatnet.de.
Informationen zu Blackboard unter www.
blackboard.com.
Im WWW unter http://fsiuw.sdi.h-da.de/ erreichbar.
Diese Aussage stützt sich auf interne Daten
des IGDV.
Mal als Online-Lehrveranstaltung angeboten wurde, waren die Kommunikationsmodule in ELAT noch nicht fertig.
Als Ersatz wurde ein externes Forum
(das Schwarze Brett) bereitgestellt. Außerdem konnten Fragen an die Betreuer per E-Mail gestellt werden. Auch
die Übungsaufgaben wurden über EMail abgegeben. Es zeigte sich, dass
die meisten Studierenden die angebotenen Kommunikationsmittel – von
einem ersten Ausprobieren abgesehen
– nicht nutzten. Die Teilnehmer und
Teilnehmerinnen des Kurses sahen sich
fast täglich bei anderen Lehrveranstaltungen an der Hochschule und konnten
sich deshalb in persönlichen Gesprächen austauschen. Die Gruppenaufgaben wurden teils in persönlichen Treffen, teils von zu Hause aus bearbeitet.
Wenn an verschiedenen Orten gearbeitet wurde, waren E-Mail, Chats wie
ICQ oder das Telefon die bevorzugten
Kommunikationswege.
In den Veranstaltungen der folgenden
Jahre standen zwei in die Lernumgebung integrierte Kommunikationswerkzeuge zur Verfügung: ELAT: Forum und
ELAT: Message. In ELAT: Forum können zu vorgegebenen Themen Beiträge
eingestellt und beantwortet werden.
Mit ELAT: Message können Nachrichten an Einzelne oder Gruppen verschickt werden. Wenn der Adressat
oder die Adressatin im System angemeldet ist, wird die Nachricht sofort zugestellt, wenn nicht, wird sie beim
nächsten Login angezeigt und in einer
Messagebox gespeichert. Trotz dieser
Möglichkeiten beobachteten die Betreuenden (Tutorin und Professor), dass sich
die Studierenden mehrheitlich per EMail an sie wandten, dass fast alle Einträge im ELAT: Forum von den Betreuenden stammten und dass insgesamt
höchstens zehn Studierende die wöchentlich angebotene Online-Sprechstunde in ELAT besuchten. Für allgemeine Diskussionen und Fragen wurde
häufiger das Forum des Webportals der
studentischen Fachschaft (genannt
IuW-Portal 3) genutzt als das ELAT:
Forum. Das IuW-Portal ist für die Lehrenden im Allgemeinen nicht zugänglich.
Durch die Ergebnisse der bisherigen,
internen Evaluationen der Lernumgebung durch das IGDV wurden diese Beobachtungen bestätigt: Rund die Hälfte
der Studierenden gab an, die in ELAT
bereitgestellten Chats und Foren nicht
genutzt zu haben.4
Der Fokus der ELAT-Evaluationen lag
auf der Nutzung und Bewertung der
Lernplattform. Es wurden nur die in die
Lernplattform integrierten Kommunikationswerkzeuge untersucht. Bei der In-
terpretation der Ergebnisse blieb die
Frage offen, ob sich die Studierenden
gar nicht an der Lehrveranstaltung beteiligten (sich also weder mit den Betreuenden noch untereinander austauschten) oder ob sie dazu andere
Wege benutzten als die von der Lernplattform angebotenen. Da ELAT an
einer Präsenzhochschule parallel zu anderen Veranstaltungen eingesetzt wird,
stehen die Teilnehmer und Teilnehmerinnen der Online-Kurse beispielsweise
auch in persönlichem Kontakt.
Bei der hier vorgestellten Befragung
wurden daher – im Unterschied zu den
ELAT-Evaluationen – nicht nur die von
der Lernplattform bereitgestellten
Kommunikationsmittel berücksichtigt,
sondern auch weitere Kommunikationskanäle, die den Studierenden zur Verfügung standen wie beispielsweise das
IuW-Portal oder das Telefon.
Zielsetzung der Befragung
Mit der aktuellen Untersuchung sollte
also die Frage beantwortet werden:
Auf welchen Wegen und mit welchen
Hilfsmitteln kommunizieren die Teilnehmer und Teilnehmerinnen eines ELearning-Kurses? Ausgangspunkt war
die Annahme, dass die von der Lernplattform angebotenen Kommunikationswerkzeuge im Vergleich mit anderen Kommunikationswegen nur wenig
genutzt werden.
Diese allgemeine Fragestellung wurde
durch folgende Fragen konkretisiert:
■
■
■
■
■
■
■
Welche Kommunikationswege nutzen die Studierenden zur Kommunikation im Rahmen der Online-Lehrveranstaltung?
Wie häufig werden die verschiedenen Kommunikationsformen verwendet?
Falls eine Kommunikationsform
nicht genutzt wird, warum nicht?
Für wie geeignet halten die Studierenden die verschiedenen Kommunikationswege und -mittel für die
Kommunikation in einem E-Learning-Kurs und wieso?
Welche Kommunikationsmittel werden zur Kommunikation mit welchen
Kommunikationspartnern verwendet? Gibt es bevorzugte Kommunikationskanäle zum Austausch mit
den verschiedenen an der Lehrveranstaltung Beteiligten?
Welche Formen werden für welche
Themen verwendet? Gibt es bevorzugte Kommunikationskanäle für unterschiedliche Inhalte?
Welche generellen Nutzungsgewohnheiten haben die Studierenden
hinsichtlich der verschiedenen Kommunikationsformen?
58(2007)1, 7-14
Ko m m u n i k at i o n b e i m E - L e a r n i n g
■ Entspricht die Nutzung der Kommunikationsmittel im Rahmen des Kurses den generellen Nutzungsgewohnheiten
der Studierenden?
■ Entspricht die Nutzung der Kommunikationsmittel im Rahmen des Kurses der Bewertung der Kommunikationsmittel
durch die Studierenden? Werden die Medien am häufigsten genutzt, die als am besten geeignet angesehen werden?
■ Werden die Kommunikationsformen am häufigsten genutzt, bei denen es am wenigsten erfolglose Kommunikationsversuche und so die beste Erreichbarkeit der gewünschten Kommunikationspartner gibt?
Planung und Durchführung der Untersuchung
Um festzustellen, welche Kommunikationsformen die Teilnehmer und Teilnehmerinnen des untersuchten E-LearningKurses verwenden, wurde ein Fragebogen5 mit 13 geschlossenen und sechs offenen Fragen in Papierform entwickelt.
Der Fragebogen bestand aus drei Themenblöcken:
■ Generelle Nutzung der Kommunikationsformen (privat
und/oder für das Studium)
■ Nutzung der Kommunikationsformen für die Online-Lehrveranstaltung
■ Demographische Daten
Weiterhin wurden zehn Kommunikationsformen, die den Kursteilnehmern und -teilnehmerinnen zur Verfügung standen,
ausgewählt und im Fragebogen berücksichtigt. Dies waren:
■ Allgemeine Kommunikationsformen: das direkte Gespräch, Telefon, Voice-over-IP, E-Mail und Chat
■ Kommunikationsmittel des IuW-Portals: die Nachrichtenfunktion IuW-Portal: private Nachricht, mit der persönliche
Nachrichten an andere Mitglieder verschickt werden können und der Forenbereich IuW-Portal: Forum
■ Kommunikationsmodule der Lernplattform – ELAT: Message und ELAT: Forum
■ Die E-Mail-Funktion des Blackboard-Servers (E-Mail über
BB), mit der eine Nachricht, die mit Blackboard erstellt
wurde, als E-Mail an Empfänger aus dem Kurs verschickt
wird
Befragt wurde die Teilnehmer und Teilnehmerinnen des Kurses Indexieren und Thesaurus im Sommersemester 2006. Um
eine hohe Rücklaufquote zu erzielen, wurde die Befragung
innerhalb eines Präsenztermins an der Hochschule Darmstadt durchgeführt. Die Studierenden wurden im Vorfeld mit
einem Ankündigungsschreiben über die Untersuchung informiert und um rege Teilnahme gebeten. Von den 68 Teilnehmern und Teilnehmerinnen des betrachteten Kurses waren
50 Studierende anwesend und beantworteten den ausgeteilten Fragebogen. Davon waren 19 Personen männlich (38 Prozent) und 30 weiblich (60 Prozent). Eine Person machte zum
Geschlecht keine Angabe. Das Alter der Befragten lag zwischen 19 und 43 Jahren, der Mittelwert (arithmetisches Mittel) lag bei rund 23 Jahren.
Ergebnisse der Befragung
Allgemeines Kommunikationsverhalten
Insgesamt gaben die Befragten an, alle untersuchten Kommunikationsformen für den Austausch in der E-Learning-Veranstaltung genutzt zu haben. Allerdings unterschieden sich
die Nutzungsintensitäten der einzelnen Kommunikationsfor5
Den Fragebogen finden Sie unter www.iuw.h-da.de/fb-elearning.pdf.
58(2007)1, 7-14
9
Ko m m u n i k at i o n b e i m E - L e a r n i n g
men stark: Die meistgenutzten Kommunikationsformen waren (ob nach Anteil
der Nutzer oder nach Anzahl der geführten Gespräche beziehungsweise
verfassten Nachrichten): das direkte
Gespräch, E-Mail und Chat. 98 Prozent
der Befragten gaben an, direkte Gespräche geführt zu haben, 92 Prozent
gaben an, E-Mail verschickt zu haben
und 68 Prozent der Befragten tauschten sich im Chat aus. Aus den Angaben
lässt sich schließen, dass in den letzten
14 Tagen vor der Erhebung mindestens
307 direkte Gespräche6 und 160 ChatGesprächen geführt und mindestens
240 E-Mails ausgetauscht wurden.
Dem steht die Menge von höchstens 20
Gesprächen über ELAT: Message7 und
30 Beiträge im ELAT: Forum gegenüber: Hier gaben nur acht Prozent der
befragten Personen an ELAT: Message
genutzt zu haben und 12 Prozent Beiträge in ELAT: Forum geschrieben zu
haben (siehe Abbildung 1).
Die Angaben der Befragten darüber,
wie häufig sie die Kommunikationsmittel ELAT: Forum und IuW-Portal: Forum
in den letzten 14 Tagen vor der Befragung genutzt hatten, wurden mit der
Anzahl der tatsächlichen Einträge verglichen. Dabei zeigt sich, dass sich aus
den Angaben der Befragten deutlich
mehr Einträge ergeben, als tatsächlich
gemacht wurden. Das Verhältnis der
Häufigkeiten zwischen den verschiedenen Kommunikationswegen stimmt
aber bei den Angaben der Befragten
und den Anzahlen in den Foren in etwa
überein.
Die Ergebnisse bestätigen die Grundannahme der Untersuchung: Der größte
Teil des Austausches fand nicht über
die von der Lernplattform angebotenen
Werkzeuge statt. Gerade beim Austausch zwischen Studierenden stand
die Kommunikation über direkte Gespräche, E-Mail, Chat und Telefon im
Plattform immer weniger genutzt zu
haben, weil es oft technische Probleme
gab. 29 Personen gaben als Grund für
die Nichtnutzung der Lernplattform an,
dass das System nicht funktionierte.
Wenn die Lernplattform funktionierte,
wurde sie als langsam, umständlich
und unübersichtlich beschrieben. Als
weiterer Grund wurde genannt, dass
selten jemand angemeldet gewesen
sei. So seien mögliche Kommunikationspartner über die Lernplattform
schlecht zu erreichen. Die Wahrscheinlichkeit, auf Beiträge oder Nachrichten
eine Antwort zu bekommen wurde als
gering eingeschätzt. ELAT als Kommunikationsplattform wurde deshalb als
wenig verlässlich empfunden.
Die Studierenden bevorzugten dagegen
Kommunikationswege, die einen direkten Austausch ermöglichen und sich
durch eine hohe Erreichbarkeit der gewünschten Kommunikationspartner
sowie Einfachheit
und Unkompliziertheit auszeichnen.
Dies äußert sich
auch in der Beurteilung der Kommunikationsformen in
Bezug auf ihre Eignung für die Kommunikation in einem
E-Learning-Kurs: Am
besten bewertet
wurden das direkte
Gespräch, E-Mail
und Chat. Diese
Kommunikationsformen erhielten von
mindestens der Hälfte der Befragten die
Note sehr gut oder
gut. Am schlechtesten wurden IuW-Portal: private Nachr i c h t , E L AT: M e s sage und ELAT:
Forum beur teilt
(siehe Abbildung 2).
Abbildung 1: Die Studierenden wurden gefragt, wie viele Nachrichten beziehungsweise Gespräche sie in den letzten 14 Tagen
im Rahmen der Lehrveranstaltung verfasst bzw. geführt haben. Fast alle Befragten tauschten sich in direkten Gesprächen
aus (98 Prozent) und verfassten E-Mails (92 Prozent). Nur wenige schrieben Beiträge im ELAT: Forum (zwölf Prozent) oder
ELAT: Messages (acht Prozent).
6
7
Zur Ermittlung der Mindestanzahl wurde die
Anzahl der Antworten pro Kategorie mit der
Mindestanzahl an Gesprächen/Nachrichten
der entsprechenden Kategorie multipliziert.
Dann wurden die Produkte für eine Kommunikationsform summiert.
Hier wurde die mögliche Höchstanzahl der
Nachrichten berechnet. Dies war möglich, da
keiner der Befragten die nach oben offene Kategorie „mehr als 10 Gespräche/Beiträge“ gewählt hatte. Zur Berechnung der Höchstanzahl wurde die Anzahl der Antworten pro Kategorie mit der Höchstanzahl an Gesprächen
bzw. Nachrichten der entsprechenden Kategorie multipliziert. Dann wurden die Produkte
für eine Kommunikationsform summiert.
10
Vordergrund. Die Kommunikationsmodule der betrachteten Lernplattform –
ELAT: Message und ELAT: Forum –
wurden am wenigsten frequentiert.
Die Gründe, die die Befragten für die
Nichtnutzung angaben und die Beurteilungen zeigen, dass dies nicht unbedingt daran liegt, dass die Studierenden die Plattform ELAT und ihre Kommunikationswerkzeuge grundsätzlich
ablehnten. Vielmehr scheinen die Befragten im Verlauf der Lehrveranstaltung die Kommunikationsmittel der
Zielgruppen- und
inhaltsspezifisches
Kommunikationsverhalten
Im Fragebogen wurde die Anzahl der
Kommunikationen sowohl nach Kommunikationspartner als auch nach Inhalt der Gespräche beziehungsweise
Nachrichten unterschieden.
Die Antworten zeigen, dass ein deutlicher Schwerpunkt auf dem Austausch
mit anderen Studierenden lag. Die Tatsache, dass die befragten Studierenden
andere Lehrveranstaltungen an der
Hochschule Darmstadt gemeinsam besuchten, könnte dazu geführt haben,
dass Fragen und Probleme erst einmal
untereinander besprochen wurden.
58(2007)1, 7-14
Ko m m u n i k at i o n b e i m E - L e a r n i n g
Abbildung 2: Die Studierenden wurden gefragt, welche Kommunikationswege sie als geeignet für die Kommunikation
innerhalb eines E-Learning-Kurses wie „Indexieren und Thesaurus“ empfinden. Das direkte Gespräch, E-Mail und Chats wie
ICQ wurden von mehr als der Hälfte der Befragten als gut geeignet (Note eins oder zwei) empfunden. ELAT: Message bekam
von 58 Prozent der Befragten eine schlechte Note (Note fünf oder sechs); ELAT: Forum von 50 Prozent. Da viele der
Studierenden keine oder fehlerhafte Wertungen abgaben, werden diese hier auch dargestellt.
Dafür spricht auch, dass das direkte
Gespräch bei der Kommunikation mit
den Kommilitonen den höchsten Stellenwert einnimmt. Während der betrachteten 14 Tage wurde außerdem
eine Gruppenaufgabe bearbeitet. Auch
dies kann ein Grund
für den intensiven
Austausch zwischen
den Studierenden
sein.
Auffallend ist auch
der hohe Anteil an
Studierenden, die in
den letzten 14 Tagen
E-Mail-Kontakt mit
den Tutoren hatten
(86 Prozent). Er lässt
sich auch auf die Abgabe der Gruppenübungen zurückführen, die per E-Mail
an die Tutoren gesch i c k t
we r d en
mussten. Trotzdem
liegt die Vermutung
nahe, dass auch Fragen an die Tutoren
am häufigsten per EMail gestellt wurden. Durch ihre
Funktion als Betreuende der Lehrveranstaltung nutzten die
Tutoren die Kommunikationswerkzeuge
von ELAT: So hielten
sie zum Beispiel die wöchentliche Online-Sprechstunde über ELAT: Message
ab. Deshalb kommunizierten deutlich
mehr Studierende über ELAT: Message
mit ihren Tutoren (14 Prozent) als mit
ihren Kommilitonen (vier Prozent).
Dies ist auch bei der
Nutzung der Kommunikationsformen
zum Austausch mit
den Professoren zu
beobachten. Hier gaben 16 Prozent der
Befragten an, mit
ihren Professoren
über ELAT: Forum in
Kontakt gestanden
zu haben; acht Prozent tauschten mit
ih r e m P rof es s or
Messages in ELAT
aus. Dabei muss angemerkt werden,
dass nur einer der
Professoren ELAT
intensiver nutzte.
Tr o t z d e m s t a n d
auch bei der Kommunikation mit den
Professoren der EMail-Kontakt deutlich im Vordergrund
(siehe Abbildung 3).
Als Gründe für die
Kommunikation wurden meist inhaltliche
Fragen oder Organisatorisches angegeben. Das ist nicht
überraschend, da in den 14 Tagen vor
der Befragung eine Gruppenaufgabe
bearbeitet wurde, wozu eher inhaltliche oder organisatorische Fragen geklärt werden mussten als technische.
Abbildung 3: Bei der Frage, welche Kommunikationsmittel die Studierenden in den letzten 14 Tagen zur Kommunikation mit
den verschiedenen Beteiligten der Lehrveranstaltung nutzten, stellte sich heraus, dass ein Schwerpunkt auf dem Austausch
zwischen Studierenden lag. Die am meisten frequentierten Kommunikationsmittel sind in allen Fällen E-Mail und das
direkte Gespräch. Dargestellt ist der Anteil der Antworten „oft“,„mittel“ und „wenig“. Die übrigen Befragten haben die
vierte mögliche Antwort „nie“ angekreuzt.
58(2007)1, 7-14
11
Ko m m u n i k at i o n b e i m E - L e a r n i n g
Weiter ist anzunehmen, dass technische Schwierigkeiten mit der Lernumgebung eher zu Beginn der Lehrveranstaltung gelöst wurden oder dass sich
die Studierenden zum Zeitpunkt der
Befragung damit abgefunden hatten,
dass sie sich nicht lösen ließen.
Zusammenhänge
zwischen Einzelergebnissen
Neben den Einzelergebnissen wurden
die Zusammenhänge zwischen den Ergebnissen einiger Fragen untersucht.
Der Zusammenhang zwischen der allgemeinen Nutzung eines Kommunikationswegs und seiner Nutzung für die
Online-Lehrveranstaltung zeigt sich vor
allem bei den Kommunikationsmitteln,
die wenig genutzt wurden: Kommunikationsformen, die generell selten genutzt wurden, wurden in 98 Prozent
der Fälle auch für den Austausch zur
Veranstaltung „Indexieren und Thesaurus“ wenig verwendet. Umgekehrt bedeutet eine häufige generelle Nutzung
noch nicht, dass der entsprechende
Kommunikationsweg auch für die Online-Lehrveranstaltung häufig genutzt
wird.
überwog die seltene Nutzung (68 Prozent der Fälle) im Rahmen der Veranstaltung “Indexieren und Thesaurus“.
Eine positive Beurteilung eines Kommunikationsmittels scheint also eine
Voraussetzung für seine Nutzung zu
sein – sie bedeutet aber nicht zwingend, dass es auch tatsächlich genutzt
wird.
Zwischen der Anzahl der verfassten
Nachrichten beziehungsweise der geführten Gespräche und der Erreichbarkeit und Antwortwahrscheinlichkeit
der anderen Beteiligten an der Lehrveranstaltung über die Kommunikationsformen gibt es dagegen einen Zusammenhang. Allerdings ist der Zusammenhang auch hier auf der
negative Seite stärker ausgeprägt: Sind
die Kommunikationspartner über eine
Kommunikationsform schlecht zu erreichen, wird sie in 91 Prozent der Fälle
nur selten genutzt. Sind die Kommunikationspartner über eine Kommunikationsform gut zu erreichen, wird sie in
59 Prozent der Fälle häufig genutzt
(siehe Abbildung 4).
aber nicht über die von der Lernplattform bereitgestellten Werkzeuge –
ELAT: Message und ELAT: Forum – ablief. Die hauptsächlich benutzten Kommunikationswege waren solche, die
von den Befragten positiv eingeschätzt
und auch außerhalb der Veranstaltung
häufig genutzt wurden.
Es gibt grundsätzlich zwei Möglichkeiten, auf diese Ergebnisse zu reagieren:
■ Konzentration der Kommunikation
auf die Lernplattform: Dazu muss
der Austausch von den anderen
Kommunikationswegen weg und auf
die Lernplattform gelenkt werden.
■ Orientierung an den Gewohnheiten
der Studierenden: Die am weitesten
verbreiteten Kommunikationsformen
werden für die Kommunikation im
Kurs gewählt.
In beiden Fällen sollte die Anzahl der
genutzten Kommunikationsmittel reduziert und vereinheitlicht werden, damit
sich die Studierenden von der Vielzahl
Als Gründe für eine
geringe
Nutzung
kommen nach dem
Modell der Medienwahl von Scholl,
Pelz & Rade (1996) 8
die Einstellung zu
einem Kommunikationsmedium sowie
die Erreichbarkeit
und Antwortbereitschaft der Kommunikationspartner und partnerinnen über
einen Kommunikationsweg in Frage.
Ein Zusammenhang
zwischen der Nutzung zur Kommunikation im Rahmen
des betrachteten
Kurses und der Medieneinstellung der
Befragten konnte in
der Untersuchung
Abbildung 4: Diese Grafik zeigt an drei Beispielen, wie sich die Nutzungsintensitäten der Kommunikationsmittel für die unnicht bestätigt wertersuchte Veranstaltung verteilen, wenn sie mit anderen Angaben in Beziehung gesetzt werden. Dazu wurden die Angaben,
für die es mehr als zwei Antwortmöglichkeiten gab, zusammengefasst. Der Doppelbalken ganz links zeigt zum Beispiel, dass
den: Schlecht beur57 Prozent der Kommunikationsformen, die generell häufig genutzt wurden, auch für die E-Learning-Veranstaltung häufig
teilte Kommunikativerwendet wurden, der Rest (43 Prozent) wurde selten für die Veranstaltung genutzt. Der zweite Doppelbalken von links
onsformen wurden
gibt an, dass nur zwei Prozent der Kommunikationsmittel, die generell selten benutzt wurden, in der Veranstaltung häufig
zwar in 98 Prozent
genutzt wurden, während alle anderen (98 Prozent) auch in der Veranstaltung selten zum Einsatz kamen.
der Fälle auch nur
selten für den Ausan Kommunikationskanälen nicht übertausch in der Lehrveranstaltung verfordert fühlen (Anmerkung aus einem
wendet, aber auch für die als geeignet
der Fragebögen: „Man verliert den
beurteilten Kommunikationsformen
Die Befragung zeigt, dass zwar reger
Überblick, wenn zu viele KommunikatiAustausch zwischen den Beteiligten
onsmöglichkeiten vorhanden sind, man
8 Scholl, W., Pelz, J. & Rade J. (1996): Compuder E-Learning-Veranstaltung stattsollte sich auf wenige konzentrieren“).
tervermittelte Kommunikation in der Wissenfand, der Großteil der Kommunikation
schaft. – Münster: Waxmann.
Diskussion und Folgerungen
12
58(2007)1, 7-14
Ko m m u n i k at i o n b e i m E - L e a r n i n g
Außerdem sollten klare Absprachen
über die Nutzung der Kommunikationswege bestehen, etwa, dass kurzfristige
Terminänderungen immer per E-Mail
mitgeteilt werden. Im untersuchten
Kurs gab es solche Absprachen nicht
oder sie wurden nicht immer eingehalten, was zum Teil für Verunsicherung
und Unmut unter den Studierenden
sorgte.
Angaben zu den offenen Fragen und
Anmerkungen der Befragten lassen
vermuten, dass die Studierenden nicht
grundsätzlich abgeneigt waren, die
Kommunikationsmodule der Lernplattform zu benutzen. Sie scheinen eher
von der Lernplattform enttäuscht zu
sein, da sie zu oft nicht erreichbar war
und als nicht „intuitiv bedienbar“ angesehen wurde.
ELAT verwendet einen nicht browserbasierten Java-Client, der auch nicht im
„browserüblichen“ Look-and-Feel erscheint. Neben Schwächen wie zu langen Reaktionszeiten und teilweise umständlicher Bedienung, dürften auch
das ungewohnte Erscheinungsbild und
die ungewohnten Bedienelemente zu
der schlechten Bewertung durch die
Befragten beigetragen haben. Die Studierenden erwarten (zu Recht), dass
eine Plattform hohe Standards an Verfügbarkeit, Funktionsumfang, Nutzbarkeit und Übersichtlichkeit erfüllt. Sie erwarten vermutlich auch, dass sie dem
üblichen Look-and-Feel browserbasierter Anwendungen folgt.
Wenn man die Kommunikation auf die
Lernplattform konzentrieren will, muss
sie diese Erwartungen erfüllen. Wie die
Befragung gezeigt hat, garantiert eine
gute Bewertung eines Kommunikationskanals aber noch nicht, dass er auch
häufig genutzt wird. Verbesserungen
der Verfügbarkeit und Bedienung sind
also eine notwendige aber nicht unbedingt eine hinreichende Bedingung für
die Nutzung der Kommunikationswerkzeuge der Lernumgebung.
Um die Kommunikation auf die Werkzeuge der Plattform zu konzentrieren,
müssten die Betreuenden sie konsequent darüber abwickeln. Im vorgestellten Fall „Indexieren und Thesaurus“ müsste vor allem der E-Mail-Kontakt vermieden werden. Das hieße
auch, dass Fragen oder Probleme, die
per E-Mail an die Betreuer herangetragen werden, ausschließlich über die
Lernplattform beantwortet werden
sollten. Fragen und Antworten zum Inhalt oder zur Organisation sollten für
alle Studierenden zugänglich gemacht
und private oder persönliche Anliegen
könnten über ELAT: Message beantwortet werden. Auch „offizielle“ An-
14
kündigungen sollten nur über die Lernplattform veröffentlicht werden.
Die Untersuchung hat auch gezeigt,
dass die Befragten vor allem die Kommunikationswege nutzen, die sie auch
sonst verwenden. Das ist nachvollziehbar, da eine Vielzahl unterschiedlicher
Kommunikationsmittel für unterschiedliche Veranstaltungen oder Zwecke
einen erhöhten Aufwand bedeuten und
tendenziell die Zeiten, in denen man
auf einem der Kanäle ansprechbar ist,
verringern. Wenn also die Kommunikation auf die Mittel der Lernumgebung
konzentriert werden soll, sollte die Anzahl der Lernumgebungen, die die Studierenden nutzen, möglichst klein gehalten werden. Eine Möglichkeit ist die
Nutzung eines Systems für alle Belange
des Studiums. Für den Fachbereich
IuW käme hierfür das Blackboard-System in Frage, das zurzeit auch zur Verwaltung reiner Präsenzveranstaltungen
genutzt wird.
Die zweite oben genannte mögliche Reaktion auf die Ergebnisse der Befragung besteht darin, sich an den Gewohnheiten der Studierenden zu orientieren. Sie geht davon aus, dass die
Studierenden über die notwendigen
Kommunikationsmittel verfügen und
diese ihren Vorlieben und Bedürfnissen
angepasst haben. Eine Lernplattform
sollte dann keine eigene Kommunikationskomponente anbieten, sondern
dafür sorgen, dass die vorhandenen
Kommunikationsmittel im Rahmen des
Kurses effektiv genutzt werden können. Das hieße zum Beispiel, dass die
Lernumgebung kein eigenes System
zum Verschicken von Nachrichten anbietet, sondern die E-Mail-Adressen
der Teilnehmenden in geeigneter Weise
zur Verfügung stellt. Eigene Kommunikationsmittel wären dann nur noch für
klar umrissene und sehr spezifische
Aufgaben sinnvoll, die nicht mit vorhandenen Mitteln gelöst werden können. Eine solche Kombination von Standardlösungen für allgemeine Aufgaben
und spezifischen eigenen Lösungen für
Aufgaben, die nicht mit Standardanwendungen gelöst werden können, sichert zum einen, dass Standardlösungen auf dem Stand der Technik eingesetzt werden können, zum anderen
setzt sie Kapazitäten für die Entwicklung spezifischer Lösungen frei.
E-Learning, Hochschulausbildung,
Empirische Untersuchung, Hochschule Darmstadt, Kommunikationssystem, Lernen, Benutzerforschung
D i e A u to r e n
Gesa Koschinsky
betreute als Tutorin
verschiedene ELearning-Veranstaltungen an der Hochschule Darmstadt.
Sie schloss im August 2006 mit ihrer
hier vorgestellten
Diplomarbeit zum Thema „Kommunikationswege im E-Learning – Erhebung zur Nutzung durch Studierende an der Hochschule Darmstadt“ ihr Studium des Informationsund Wissensmanagements ab. Die
Untersuchung wurde von Prof. Reginald Ferber und Prof. Gerhard Knorz
betreut und durch das IGDV unterstützt.
E-Mail: [email protected]
Reginald Ferber
schloss an der Uni
Marburg ein Mathematikstudium mit
Diplom und Promotion über zellulare
Automaten ab. Nach
fünfjähriger Tätigkeit am Fachgebiet
kognitive Psychologie der Uni Paderborn arbeitete er von 1994-1999 am
Institut für Integrierte Publikationsund Informationssysteme der GMD
in Darmstadt zu den Themen Information Retrieval, Knowledge Discovery und digitale Bibliotheken und
hielt Vorlesungen dazu an der TUDarmstadt. Nach einer zweieinhalbjährigen Beschäftigung als Projektmanager eines E-Learning EU-Projekts an der FernUni Hagen ist er seit
2004 Professor mit dem Lehrgebiet
Wissensrepräsentation am Fachbereich Informations- und Wissensmanagement der Hochschule Darmstadt. Er ist Autor des Buchs „Information Retrieval -Suchmodelle und
Data-Mining-Verfahren für Textsammlungen und das Web“, das
2003 im dpunkt-Verlag erschienen
ist.
Mehr unter:
http://information-retrieval.de/ferber
Hochschule Darmstadt
Campus Dieburg
Fachbereich Informationsund Wissensmanagement
Max-Planck-Straße 2
64807 Dieburg
[email protected]
58(2007)1, 7-14
Der neue Studiengang „Information Science and Engineering/
Informationswissenschaft“
Berthold Meier und Christian Otto, Darmstadt
Ausgelöst durch den Bologna-Prozess
ist nun auch an der Hochschule Darmstadt, nach über 21 Jahren Diplomausbildung von Informationswirten, mit
Beginn des Wintersemesters 2006/07
eine neue Ära der Hochschulausbildung im Informationsbereich eingeläutet worden. In einer gut zwei Jahre
andauernden Planungsphase – verbunden mit intensiven Curriculumsdiskussionen – ist es dem Fachbereich Informations- und Wissensmanagement
(IuW) gelungen, die bewährte „Darmstädter Tradition“ einer starken ingenieurwissenschaftlichen Ausrichtung
von Informationsspezialisten mit den
neuen Bachelor- und Master-Studienangeboten noch stärker zu profilieren. Die
konsekutiven Studiengänge wurden im
September 2006 erfolgreich akkreditiert.
Auch in organisatorischer Hinsicht wird
der bisherige Fachbereich IuW in den
kommenden Monaten tief greifende
Veränderungen erfahren: Zum 1. Januar 2007 sind die beiden am Campus
Dieburg bisher vom Fachbereich Sozialund Kulturwissenschaften (SuK) angebotenen Studiengänge Onlinejournalismus sowie Wissenschaftsjournalismus
als zusätzliche Studienangebote in den
Fachbereich IuW integriert worden.
Zum 1. September 2007 wird der Fachbereich IuW mit dem bisherigen Fachbereich Media zu einem neuen gemeinsamen Fachbereich fusionieren. Studierende der Hochschule Darmstadt
können dann am Campus Dieburg ein
wohl einmaliges und sehr breit gefächertes Studienangebot „unter einem
Dach“ wahrnehmen, das sich von Journalistik und Publizistik über Mediengestaltung, Medientechnik und Medienproduktion bis hin zu Informationswissenschaft und Wissensmanagement
erstreckt. Gegenseitige Synergien und
die Konzeption neuer Kursangebote
sind da natürlich in Zukunft nicht ausgeschlossen!
58(2007)1, 15-20
Studieren im Grünen – Blick auf den Eingangsbereich des großzügig angelegten Campus
Dieburg der Hochschule Darmstadt, links:
Bibliotheksgebäude, rechts: Aula
Interdisziplinär angelegtes
Studienprogramm mit Fokus auf
informationstechnischer Kompetenz
Das Studienprogramm des Bachelorund Masterstudiengangs bildet Spezialisten aus, die für den professionellen
und kompetenten Umgang mit Information und Wissen sowohl in der Privatwirtschaft als auch in staatlichen
wie auch nicht-staatlichen Organisationen verantwortlich sind. Das Studium
vermittelt die klassischen und aktuellen Modelle, Verfahren und Systeme,
mit denen Wissen strukturiert, organisiert, gespeichert, wieder gefunden
und weiterverwendet werden kann.
Dabei wird ein deutlicher Schwerpunkt
auf die Planung, Gestaltung, Entwicklung, Einführung und Pflege von Informationssystemen und Informationsdiensten gelegt.
Das neue informationswissenschaftliche Studienangebot stellt sich im Kurzüberblick wie folgt dar:
■ Bachelor-Studiengang Information
Science and Engineering/Informationswissenschaft mit dem Abschluss
Bachelor of Engineering. Dreijähriger
Studiengang mit den Studienrichtungen Bibliotheksmanagement, Medieninformation, Wirtschaftsinformation oder einem individuell zusam-
mengestellten Studienprofil. Beginn
jeweils zum Wintersemester möglich, erstmals zum WS 2006/07. Kapazität: 80 Studienplätze
■ Master-Studiengang Information
Science and Engineering/Informationswissenschaft mit dem Abschluss
Master of Engineering. Zweijähriger
konsekutiver Studiengang, der einen
entsprechenden grundständigen informationswissenschaftlichen Abschluss voraussetzt. Es können individuelle Qualifikationsprofile aus
einem inhaltlich breiten Angebot
zusammengestellt werden. Beginn
jeweils im Sommer- oder Wintersemester, erstmals zum Sommersemester 2007. Kapazität: 40 Studienplätze
Qualifizierter Umgang mit Wissen erfordert gute Allgemein- und Grundkenntnisse in dem Fachgebiet, in dem aktiv
gearbeitet wird. Das interdisziplinäre
Studienprogramm verknüpft daher Inhalte aus den verschiedensten Fachgebieten zu einem breiten berufsfeldorientierten Kompetenzspektrum, wie es
heute in Unternehmen, Institutionen,
Verwaltungen und Bibliotheken gefordert wird:
■ Informations- und Bibliothekswissenschaft
■ Informatik und Informationstechnologien
■ Medien, Öffentlichkeitsarbeit und
Publizistik
■ Betriebswirtschaft und Management
■ Bibliotheksorganisation
Das Konzept sieht eine starke ingenieurwissenschaftliche bzw. informationstechnische Ausrichtung vor, entsprechend ist der Abschluss Bachelor
bzw. Master of Engineering (B.Eng./
M.Eng.) vorgesehen. Mit dieser Kennzeichnung und der Fokussierung auf informationstechnische Kompetenz hebt
sich der Studiengang Information
Science and Engineering/Informations-
15
Hochschule
Informationsspezialisten made in Darmstadt:
Informationswissenschaft in Darmstadt
wissenschaft gegenüber den weiteren
in Deutschland angebotenen meist sozialwissenschaftlich geprägten und mit
B.A./M.A. abschließenden Studiengängen zur Informationswissenschaft ab.
Das Bachelorstudium
Grundlagen
Im ersten Studienjahr wird solides informationswissenschaftliches (Information Broking und Wissensrepräsentation) und informationstechnisches
(Grundlagen der Informatik und Programmieren) Basiswissen aufgebaut,
welches durch allgemeine und wirtschaftswissenschaftliche Grundlagen
ergänzt wird. Für alle Studierenden
sind hierbei die folgenden Grundlagenfächer vorgesehen:
Grundlagen und Methoden
■ Informationswissenschaft und Praxis
■ Statistik und Empirische Sozialforschung
■ Informationsrecht
■ Projektmanagement
■ Wissenschaftliches Arbeiten und Publizieren
■ Betriebliches Informationsmanagement
Informatik und Programmieren
■ Grundlagen der Informatik
■ Grundlagen der Programmierung
■ Multimedia-Technologie
Wissensrepräsentation
■ Relationenmodell und SQL
■ Datenbankentwurf
■ Non-Standard-Datenbanken
Information Retrieval
■ Grundlagen des Information Retrieval
■ Anwendungen des Information Retrieval
Information Broking
■ Grundlagen der Informationsvermittlung
■ Methodik der Informationsrecherche
Inhaltserschließung
■ Klassifikation und Metadaten
■ Indexieren und Abstracting
■ Thesauren und Ontologien
Wirtschaftswissenschaftliche Grundlagen
■ Einführung in die Volkswirtschaftslehre
■ Betriebswirtschaftliche Methodenlehre
Die Studieninhalte im
quantitativen Überblick
Das folgende Diagramm gibt eine Übersicht über die Verteilung der Studienin-
16
halte aus allen drei Studienjahren. Ein
gutes Viertel des Curriculums (28%) ist
jeweils der gewählten Studienrichtung
vorbehalten. Wahlpflichtfächer und Projekte ermöglichen eine Profilierung in
den Bereichen Informationsmanagement, Informationswissenschaft sowie
Informationsarchitektur als auch eine
Vertiefung der gewählten Studienrichtung.
Studienrichtungen
oder individuelles Profil
Im zweiten Studienjahr erfolgt eine methodische Vertiefung durch ein weiteres Grundlagenmodul sowie das Modul
Information Retrieval. Parallel dazu
kann hier eine der drei Studienrichtungen
■ Bibliotheksmanagement
■ Medieninformation
■ Wirtschaftsinformation
gewählt oder alternativ ein individuelles Qualifikationsprofil verfolgt werden. Nachfolgend werden die Inhalte
der drei Studienrichtungen näher vorgestellt:
Studienrichtung
Bibliotheksmanagement
Absolventen der Studienrichtung Bibliotheksmanagement sind spezialisiert
auf den Umgang mit Medien und Informationen aller Art und werden u.a. in
Bereichen und Institutionen wie öffentlichen bzw. wissenschaftlichen Bibliotheken, Informationszentren in Einrichtungen z.B. der Forschung, der
Privatwirtschaft, von Verbänden und
Behörden oder in bibliothekarischen
Service- und Infrastruktureinrichtungen
beschäftigt und eingesetzt. Der Bachelorabschluss in der gewählten Studienrichtung Bibliotheksmanagement befähigt zum „gehobenen“ öffentlichen
Dienst.
Bibliotheken sind heutzutage moderne
Informations- und Servicezentren, die
ihre gedruckten Informationen durch
ein breites Spektrum an elektronischen
Informationen und Dienstleistungen ergänzt haben. Bibliotheken sind aber
nach wie vor auch Orte des Lernens,
der Begegnung und Kommunikation,
der sozialen und kulturellen Integration. Öffentliche Bibliotheken legen
einen deutlichen Schwerpunkt auf die
Bereitstellung und Vermittlung eines
Medienbestandes;
hierbei spielen die service-orientierte Informationsvermittlung,
die individuelle Beratung der Kunden, die
Auswahl der bereitzustellenden Medien sowie vielfältige Formen
von Öffentlichkeitsarbeit eine große Rolle.
Wissenschaftliche Bibliotheken dienen in erster Linie dem
Studium bzw. der Forschung. In diesem
Berufsfeld stehen vor allem Aktivitäten
auf dem Gebiet der gezielten und kundenorientierten Informationsdienstleistungen, insbesondere der effizienten Bereitstellung von Medien in digitaler oder konventioneller Form im
Vordergrund.
In den Lehrveranstaltungen der Studienrichtung Bibliotheksmanagement
wird – ausgehend von Einführungsveranstaltungen zu den Bibliotheksstrukturen in Deutschland sowie zu den
allgemeinen Grundlagen des Bibliotheksmanagements – eine fundierte bibliothekarische Ausbildung vermittelt,
die dem Anforderungsprofil eines modernen Bibliothekars entspricht: Vom
Erwerbungsmanagement, Medienerschließung, Informationsvermittlung
und bibliothekarischen Informationsdienstleistungen bis hin zu virtuellen
Bibliotheken reicht die Bandbreite der
in den Lehrveranstaltungen behandelten Themen. Damit eröffnen sich Bibliotheksmanagern vielfältige berufliche
Möglichkeiten.
Lehrveranstaltungen Bibliotheksmanagement
■ Bibliotheksstrukturen
■ Bibliothekarische Informationsvermittlung
■ Erwerbungsprofile und -management
■ Grundlagen des Bibliotheksmanagements
■ Standards der Medienerschließung
■ Medienerschließung in der Praxis
■ Bibliothekarische Informationsressourcen
■ Virtuelle Bibliotheken
Studienrichtung Medieninformation
In Rundfunk- und Fernsehanstalten,
Nachrichtenagenturen, Verlagen und
anderen Unternehmen der Medienbranche finden sich die unterschiedlichsten Betätigungsfelder. Rundfunkund Fernsehanstalten bieten z.B. Tätigkeiten bei der Unterstützung von
Redaktionen, im Bereich der Öffentlichkeitsarbeit oder im Archiv an. Nachrichtenagenturen legen Wert auf professionelle, qualitative und schnelle
Recherche, um zeitnah ihre Meldungen
58(2007)1, 15-20
Informationswissenschaft in Darmstadt
verbreiten zu können. Verlage bieten
beispielsweise die Möglichkeit, sich
mit dem Marketing von Verlagsprodukten, zum Teil auch mit deren Produktion (z.B. CD-Rom) zu beschäftigen. Die
Bereiche Öffentlichkeitsarbeit und Online-Publishing sind hier weitere Tätigkeitsgebiete.
In den Veranstaltungen der Studienrichtung Medieninformation werden sowohl Grundlagen für die inhaltsnahen
Tätigkeiten von Mediendokumentaren
und Rechercheredakteuren gelegt, als
auch für die ingenieurmäßig orientierten Aufgaben der Gestaltung und
Schaffung technischer Systeme als Arbeitsplattform für die erstgenannten
Tätigkeiten.
Dazu gehören einerseits die professionelle und qualitätsgesicherte Recherche in medienrelevanten Quellen, vor
allem Datenbanken (professionelle
Hosts), Suchmaschinen sowie weitere
journalistische Informationsquellen,
um qualitativ hochwertige Informationen zu erarbeiten, z.B. zu einem Dossier, oder bis zur Veröffentlichungsreife
zu entwickeln. Im Vordergrund stehen
hierbei medientypische Strukturen
(Thesauri und Taxonomien), Quellenbewertung sowie Recherchestrategien.
58(2007)1, 15-20
Auf der anderen Seite werden die Trägersysteme medialer Informationen im
Sinne von Storage- und Retrieval-Systemen oder auch Produktions- und Verbreitungssystemen genauer betrachtet.
Hierbei spielen u.a. AV-Formate, Datenbanken und -modelle sowie redaktionelle Produktions- und Logistiksysteme
eine Hauptrolle.
Lehrveranstaltungen Medieninformation
■ Grundlagen der Massenkommunikation
■ Journalismus
■ Unternehmenskommunikation
■ Methodik der Medienrecherche
■ Arbeitsmethodik Medienarchive
■ Technologie von Mediendatenbanken
■ Redaktionssysteme
■ Studiosysteme
Studienrichtung
Wirtschaftsinformation
Ein großes Aufgabenspektrum steht
den Absolventen im Bereich der Wirtschaft offen. So können sie in den
unterschiedlichsten Branchen Einsatzmöglichkeiten finden: Große Unternehmen, aber auch immer mehr mittelständische Unternehmen haben zum Teil
eigene Abteilungen, die sich mit Wis-
sensmanagement und/oder Research
beschäftigen. Hier liegen die Aufgaben
vor allem darin, Informationen zu recherchieren, aufzubereiten (z.B. in Datenbanken) und zu vernetzen. Aber
auch die Bereiche Öffentlichkeitsarbeit
und Marketing sind typische Tätigkeitsbereiche.
In Unternehmensberatungen, Banken
und Versicherungen finden sich ebenfalls Einsatzmöglichkeiten, beispielsweise in den Research-Abteilungen
oder den Informations- und Dokumentationsabteilungen. Softwareunternehmen und Datenbankhersteller nutzen
die technischen Fähigkeiten und die
bereits in den verschiedenen Studienrichtungen erarbeiteten Kenntnisse bestimmter Anwendungsgebiete.
Die Studienrichtung Wirtschaftsinformation bildet durch Vermittlung der
wirtschafts- und informationswissenschaftlichen sowie informationstechnischen Fach- und Methodenkompetenz
für Tätigkeiten in der Informationswirtschaft, im betrieblichen Informationsmanagement und für informationswirtschaftliche Tätigkeiten, insbesondere
Marketing oder Controlling, in Unternehmen, Verwaltung und anderen NonProfit-Organisationen aus.
17
Informationswissenschaft in Darmstadt
Lehrveranstaltungen Wirtschaftsinformation
■ Wirtschafts- und Finanzdatenbanken
■ Rechnungswesen
■ Statistische und Faktendatenbanken
■ Finanzmanagement
■ Fortgeschrittene Volkswirtschaftslehre
■ Fortgeschrittene Betriebswirtschaftslehre
■ Marketing
■ Marktforschung
Individuelles Studienprofil
Wer seine Interessen nicht in den angebotenen Studienrichtungen wiederfindet, kann alternativ ein individuelles
Qualifikationsprofil verfolgen. Für Studierende mit individuellem Studienprofil
entfällt daher auch der Pflichtanteil in
einer festgelegten Studienrichtung.
Dafür stehen ihnen die Pflichtveranstaltungen sowie die Wahlpflichtangebote aus den einzelnen Studienrichtungen zum Aufbau eines methodischen
Kompetenzprofils als Wahlpflichtprogramm zur Verfügung. Weitere Wahlpflichtfächer erlauben Profilbildungen in
den Bereichen
■ Informationsmanagement
■ Informationswissenschaft sowie
■ Informationsarchitektur.
Diese Studierenden werden – wie alle
anderen auch – in die Beratung im Rahmen eines Mentorenprogramms einbezogen, das ihnen entsprechend ihren
beruflichen Vorstellungen gezielt Hilfestellung und Unterstützung zur berufsqualifizierenden Zusammenstellung geeigneter Lehrveranstaltungen gibt.
Projekte, Praxisphasen
und Bachelorarbeit
Im dritten Studienjahr werden berufsfeldorientierte bzw. schwerpunktbezogene Projekte absolviert. Hier wird
auch der Übergang in die Praxis vorbereitet; das fünfte Semester umfasst die
berufspraktische Phase sowie Vertiefungsmodule der Studienrichtungen
bzw. des individuellen Programms. Die
Bachelorarbeit mit Kolloquium schließt
sich im sechsten Semester an die berufspraktische Phase an. In diesem wie
in vielen anderen ähnlichen Studiengängen zeigt sich auch hier, dass es im
Rahmen der neuen 6-semestrigen Bachelorausbildung nicht einfach ist, die
für anwendungsorientierte Studiengänge so wichtige Praxisphase im Studienprogramm zeitlich zu positionieren.
Unter Berücksichtigung der geforderten Berufspraxis bereitet der Studiengang darüber hinaus auf die Zertifizierung zur zweithöchsten Stufe (3) für
Informationsfachleute nach dem Euro-
18
guide (Europäisches Zertifizierungshandbuch für Informationsfachleute
des European Council of Information
Associations) vor.
Das Masterstudium
Informationsexperten
mit Führungsaufgaben
Der anwendungsorientierte und konsekutive Masterstudiengang Information
Science and Engineering/Informationswissenschaft bildet Informationsexperten für Gestaltungs- und Leitungsfunktionen in verschiedenen Branchen der
Informations- und Internet-Wirtschaft,
Bibliotheken und Verwaltungen aus.
Das Studienprogramm vermittelt dazu
Inhalte aus den Gebieten:
■ Informationswissenschaft und Informationstechnologie
■ Medienwissenschaft und Bibliothekswesen
■ Informationswirtschaft und Betriebswirtschaftslehre
Durch diese Fachkenntnisse und weitere fachübergreifende Kompetenzen
(Methoden- und Führungskompetenz)
werden die Absolventen auf ihre Arbeit
in Wirtschaftsunternehmen, Institutionen, Medienunternehmen, der öffentlichen Verwaltung und in Bibliotheken
vorbereitet. Hierzu stellen sich die Studierenden ein eigenes Qualifikationsprofil zusammen, das sich am betrieblichen Informationsmanagement, an der
Konzeption von Informationsarchitekturen, an den organisatorischen und
technischen Anforderungen des Mediensektors oder an Führungs- und
informationstechnischen Aufgaben im
Bibliothekswesen orientieren kann.
Unter Berücksichtigung der geforderten Berufspraxis bereitet der Studiengang auf die Zertifizierung zur höchsten Stufe (4) für Informationsfachleute
nach dem Euroguide vor.
Der konsekutive Master-Studiengang
baut auf dem gleichnamigen Bachelorstudiengang an der Hochschule Darmstadt auf. Absolventen anderer Hochschulen werden zugelassen, wenn sie
vergleichbare informationswissenschaftliche Studiengänge mit einem Bachelor oder einem Diplom abgeschlossen haben. Absolventen des Masterstudiengangs erhalten die Zulassung zum
Höheren Dienst der öffentlichen Verwaltung in Deutschland. Der Masterabschluss berechtigt zugleich zum Promotionsstudium.
Berufsfelder und Arbeitsgebiete
Das Masterstudium befähigt die Absolventen, in den nachfolgend exemplarisch dargestellten Bereichen zu arbeiten, in denen sie höhere fachliche,
technische und organisatorische Verantwortungsbereiche wahrnehmen:
■ Bereich Informationsmanagement:
den Informationsfluss im Unternehmen organisatorisch und technisch
gestalten und verbessern
■ Bereich Informationsarchitektur: Planung, Entwurf und Einführung von
Informationssystemen im Internet
oder Intranet; Entwurf elektronischer Archivierungs- und DMS-Systeme, E-Shop-Lösungen
■ Bereich Informations- und Wissensmanagement von Banken und Unternehmensberatungen: Komplexe Recherchen durchführen, BestPractice-Informationssysteme und
Datenbanken für die Konkurrenzanalyse betreiben
■ Bereich Unternehmenskommunikation, Öffentlichkeitsarbeit und
Mitarbeiterinformation: Systeme für
Online-Research, Medienauswertung und elektronische Newsletters
entwerfen und betreiben; komplexe
Informationsprodukte wie z.B. multimediale Datenbanken erstellen
■ Technische oder organisatorische
Leitung von Bibliotheken oder Bibliotheksabteilungen
■ Technische oder organisatorische
Leitung von Medienarchiven
■ Gestaltung interaktiver Medien bei
Fernseh-, Hörfunk- und Verlagsredaktionen
■ Im öffentlichen Bereich: Gestaltung
von E-Government-Anwendungen,
elektronischen Bürgerservices, kommunalen Portalen
Aufbau und Verlauf des Studiums
Im ersten Studienjahr wird fachlich
breites Wissen aufgebaut, das auf dem
Bachelorniveau aufsetzt und dessen
Kerninhalte vertieft. Die Studierenden
erarbeiten dabei ein individuelles Spezialisierungsprofil, indem sie Schwerpunkte in den folgenden fünf Fachgebieten wählen:
■ Information Architecture
■ Wissensrepräsentation
■ Business Information Engineering
■ Library Science (Bibliothekswissenschaft)
■ Redaktionswesen
Die Module der Fachgebiete und fachübergreifenden Angebote sind in Fachkatalogen zusammengestellt. In den
ersten beiden Semestern müssen sechs
Fachmodule und vier Projektmodule
aus mindestens drei verschiedenen
Fachkatalogen belegt werden.
Für die Arbeit an Bibliotheken wird
eine Studienrichtung Library Science/
Bibliothekswissenschaft angeboten, für
die zwei Fach- und zwei Projektmodule
aus dem gleichnamigen Fachgebiet belegt werden müssen. Weiter wird emp-
58(2007)1, 15-20
Informationswissenschaft in Darmstadt
Tabelle 1: Masterstudiengang Information Science & Engineering / Informationswissenschaft
fohlen, zwei Module aus dem Katalog
Information Architecture zu belegen,
um den aktuellen Anforderungen an
Bibliothekare und Bibliothekarinnen im
Hinblick auf Digitale Bibliotheken und
rechnergestützten Systeme Rechnung
zu tragen. Darüber hinaus behandeln
die bibliothekarischen Fachmodule
insbesondere die Themen Personalführung, Arbeitsrecht und neue Organisationsmodelle in Bibliotheken. Der Masterabschluss mit der Spezialisierung
„Library Science“ ist deutschlandweit
die erste Qualifikation, die konsequent
für die neuen Anforderungen des Engineering in Bibliotheken qualifiziert. In
dieser neu entwickelten Studienrichtung steht demnach auch nicht das bisherige Bild des sog. Fachreferenten im
Vordergrund, sondern die Weiterqualifikation von innovativen und IT-kompetenten Bibliotheksmanagern.
Das zweite Studienjahr gibt mit der
Praxis- bzw. Forschungsphase von mindestens 18 Wochen die Gelegenheit,
die erworbenen Kenntnisse im Rahmen
der praktischen Tätigkeit in einer anspruchsvollen Aufgabenstellung umzusetzen. Den Abschluss des Studiums
bildet die viermonatige Masterarbeit
mit begleitender wissenschaftlicher
Lehrveranstaltung sowie abschließendem öffentlichem Kolloquium.
In Tabelle 1 werden der Gesamtverlauf
des Studiums und die Kombinationsmöglichkeiten insbesondere der einzelnen Fachkataloge dokumentiert
Zulassungsvoraussetzungen
Zulassungsvoraussetzung ist ein qualifizierter Bachelor- oder Diplom-Abschluss auf dem Gebiet der Informati-
20
onswissenschaft oder aus verwandten
Gebieten. Die Bewerber müssen adäquate Kenntnisse auf Bachelorniveau in
Wissensrepräsentation und Information
Broking nachweisen. Für Bewerber, die
Absolventen der an der Hochschule
Darmstadt früher oder aktuell angebotenen Diplomstudiengänge IuD und
IuW oder des Bachelorstudiengangs Information Science & Engineering/Informationswissenschaft bzw. unmittelbar
vergleichbarer Studiengänge anderer
anerkannter Hochschulen sind (FH:
Hamburg, Hannover, Köln, Leipzig,
Potsdam, Stuttgart; Uni: Berlin, Düsseldorf, Konstanz, Saarbrücken), wird dieser Nachweis als gegeben angesehen.
Interessenten finden auf www.iuw.
h-da.de ausführliche Informationen
zum Studiengang und zur Bewerbung.
Für das im Sommersemester 2007 beginnende Masterprogramm können
sich Studieninteressierte derzeit noch
bewerben.
Quellen
Kind J., Weigend A. (2001): Informationsspezialisten Darmstädter Prägung. Ergebnisse der
Absolventenbefragung 2000. nfd 53(1) 2001.
Otto C., Buck H. (2002): Informations- und Wissensmanagement an der FH Darmstadt.
nfd 54(1) 2002.
Lüstorff J. et al (2007): Informationswirtinnen
und Informationswirte im Beruf. Eine Verbleibstudie Darmstädter Alumni und Absolventen.
In publication.
Euroguide – europäisches Zertifizierungshandbuch für Informationsfachleute. Handbuch zur
Charakterisierung von Kompetenzprofilen für
Informationsfachleute in Europa. Hrsg.: DGI,
Projektleitung u. Bearb.: Sabine Graumann.
Bearb. u. Mitarb.: Marc Rittberger u. Bärbel
Köhne. Frankfurt am Main 2001
Info:
Hochschule Darmstadt
Fachbereich Informations- und Wissensmanagement
Campus Dieburg
Max-Planck-Str. 2, 64807 Dieburg
Telefon: (0 61 51) 16-94 11
Telefax: (0 61 51) 16-94 13
[email protected], www.iuw.h-da.de
Hochschulausbildung, Lehrplan, Design,
Hochschule Darmstadt, Informationswissenschaft, Wissensmanagement,
Bachelor, Master
D i e A u to r e n
Prof. Dr. Berthold Meier
Seit 2003 zuständig für
das Lehrgebiet Bibliotheksmanagement (insbesondere Bibliotheksstrukturen
sowie bibliothekarische
Informationsvermittlung),
derzeit zugleich PR- und
Bibliotheksbeauftragter
am Fachbereich.
[email protected],
www.berthold-meier.de.tf
Prof. Dr. Christian Otto
Seit 1997 am Fachbereich
zuständig für das Lehrgebiet Informationsmanagement; Ex-Dekan und derzeit Prodekan des Fachbereichs.
[email protected]
58(2007)1, 15-20
Hochschule
Evaluation informationswissenschaftlicher
Lehrveranstaltungen: Eine Längsschnittuntersuchung
Gerhard Reichmann, Graz (Österreich)
Am Beispiel von vier ausgewählten
informationswissenschaftlichen Lehrveranstaltungen des Autors dieser Arbeit wird demonstriert, wie man
Lehrveranstaltungen permanent in
Eigeninitiative evaluieren kann und
welche Schlussfolgerungen sich aus
den Ergebnissen einer solchen Evaluation im Zeitverlauf ableiten lassen.
Die Untersuchung dient insbesondere
der Überprüfung der Vermutung,
dass die Qualität einer Lehrveranstaltung mit steigender Zahl an Abhaltungen zunimmt. Diese Qualitätszunahme müsste sich in den Evaluationsergebnissen widerspiegeln. Zudem
wird untersucht, inwieweit die Ergebnisse einer Evaluation von Lehrveranstaltungen in Eigeninitiative
von jenen der zentralen, von der Universitätsleitung veranlassten Lehrveranstaltungsevaluation abweichen.
Longitudinal evaluation of courses in information science
In this case study we analyse the correlation between the quality of university courses and the frequency
with which these courses are given
using the results of longitudinal evaluations. The study is based on evaluating four different courses in the
field of information science given by
the author. In addition, the evaluation results are compared with the
findings of a university-wide standardized evaluation of the same courses to learn about potential advantages of more custom-tailored surveys.
1 Einleitung
Mit Inkrafttreten des UG 2002 1 blieb
die gesetzliche Verankerung der Evaluation von Lehrveranstaltungen in Österreich zwar bestehen, detaillierte Regelungen fallen aber in den autonomen
Gestaltungsbereich der einzelnen Uni-
58(2007)1, 21-27
versitäten. So sieht die Satzung der
Karl-Franzens-Universität Graz vor,
dass Pflichtlehrveranstaltungen mindestens alle sechs Semester einer Lehrveranstaltungsbewertung durch Lehrveranstaltungsteilnehmer zu unterziehen sind. Unter dem Begriff
„Lehrveranstaltungsevaluation“ wird
demnach – wie auch in den nachfolgenden Ausführungen – die Ermittlung der
subjektiven Qualität von Lehrveranstaltungen aus der Sicht von Studierenden
verstanden.2 Aus diesem Blickwinkel
lässt sich die Evaluation von Lehrveranstaltungen als Maßnahme des Qualitätsmanagements einordnen, wobei sie
hier auf der Stufe der Qualitätskontrolle
anzusiedeln ist. Vorgelagert ist dieser
Kontrolle die Qualitätsplanung, also die
Planung der Aufgabenerfüllung in entsprechender Qualität. Im Zusammenhang mit Lehrveranstaltungen geht es
dabei vor allem um die optimale Erfüllung der vier Aufgaben „Vermittlung
interessanter und relevanter Inhalte“,
„Erweckung von Interesse für die behandelten Themen“, „Vermittlung des
Lehrstoffes in möglichst kompetenter
und verständlicher Form“ sowie „gute
organisatorische Abwicklung“. 3 Im
Rahmen der Qualitätskontrolle wird
dann die tatsächliche Qualität der Aufgabenerfüllung überprüft. Werden
dabei Differenzen zwischen geplanter
und tatsächlicher Qualität festgestellt,
wird zur nächsten Phase des Qualitätsmanagements, der Qualitätsverbesserung, übergegangen. Hier werden konkrete Maßnahmen getroffen, um die
ermittelten Mängel einer Lehrveranstaltung zu beseitigen.
Von der Universitätsleitung veranlasste Evaluationen von Lehrveranstaltungen im Sinne der Satzung werden
an der Universität Graz bereits seit einigen Jahren durchgeführt.4 Für diese
Evaluationen wird ein weitgehend einheitlicher Fragebogen eingesetzt. Die
Auswertung der Fragebögen erfolgt
zentral und in standardisierter Form,
den evaluierten Lehrveranstaltungslei-
tern werden die Ergebnisse in komprimierter Form zugesandt. 5 Im Falle
deutlich unterdurchschnittlicher Evaluationsergebnisse wird versucht, gemeinsam mit den Betroffenen die
Gründe für das schlechte Abschneiden
zu ermitteln und Verbesserungsmaßnahmen zu generieren. Weitergehende
Konsequenzen sind bisher unterblieben.6 Schon lange vor der Einführung
dieser zentralen Evaluation haben
viele Universitätslehrer ihre Lehrveranstaltungen regelmäßig in Eigeninitiative evaluiert. Derartige individuelle
Lehrveranstaltungsevaluationen werden vielfach auch heute noch parallel
zur zentralen Evaluation durchgeführt,
weil sie den großen Vorteil bieten,
maßgeschneidert eingesetzt werden
1
2
3
4
5
6
Bundesgesetz über die Organisation der Universitäten und ihre Studien (Universitätsgesetz 2002).
Zur (Messung der) Qualität von Lehre (bzw.
Lehrveranstaltungen): vgl. Ellis (1993), Hansen/Hennig-Thurau/Wochnowski (1997),
Krempkow (1998), Kromrey (1996) und Thom/
Levin (2003).
Vgl. § 6 der Verordnung des Bundesministers
für Wissenschaft und Verkehr über Grundsätze für die Durchführung von Evaluierungen in Forschung und Lehre der Universitäten (EvalVO).
Zur (zentralen) Evaluation von Lehrveranstaltungen: vgl. z.B. Baxter (1991), Bedggood/Pollard (1999), Burney (1989), Jirovec/Ramanathan/Rosegrant-Alvarez (1998), Lin/Watkins/
Meng (1995), Marsh/Hau/Chung/Siu (1997),
Miller/Dzindolet/Weinstein/Xie/Stones
(2001), Schnell/Kopp (2001) und Ting (2000).
Vgl. Strohmeier/Carstensen (2001); insgesamt
wird dabei großer Wert auf Transparenz der
Evaluation gelegt; vgl. dazu auch Henninger/
Balk (2003).
Ein wesentlicher Aspekt für die Einstellung
der Universitätslehrer zu Evaluationsmaßnahmen bezüglich ihrer Lehrveranstaltungen ist
sicherlich die Art der Verwendung der Ergebnisse. Solange diese ausschließlich als Feedback für die Lehrenden dienen, wird kaum
ein Betroffener Abneigung oder gar Widerstand zeigen. Sobald die Ergebnisse jedoch
auch als Hilfsmittel für Personalentscheidungen herangezogen würden, wäre mit Opposition seitens mancher Universitätslehrer zu
rechnen; vgl. dazu auch Tinnefeld (2001). Im
angloamerikanischen Raum werden die Ergebnisse von Lehrveranstaltungsevaluationen dagegen bereits seit längerer Zeit für
Personalentscheidungen herangezogen: vgl.
Kriszio (1992) und Neath (1996).
21
E va luat i o n d e r L e h r e
zu können. Sie können darüber hinaus
auch nach eigenen Vorstellungen ausgewertet werden.
Obwohl laut gesetzlicher Vorgabe 7
Lehrveranstaltungen nur (mindestens)
alle sechs Semester zu evaluieren sind,
erscheint eine permanente Evaluation
äußerst sinnvoll.8 Nur so lässt sich feststellen, wie sich eine Lehrveranstaltung „entwickelt“. Erfahrungsgemäß
nimmt die Qualität einer Lehrveranstaltung nach mehrmaliger Abhaltung tendenziell zu. Vor allem bei neu konzipierten Lehrveranstaltungen ergibt sich
nach erstmaliger Durchführung oftmals
ein gewisser Überarbeitungsbedarf.
Festgestellt wird dieser Bedarf idealerweise anhand einer Evaluation der
Lehrveranstaltung.9 Ob die vorgenommenen Anpassungen den erwünschten
Erfolg bringen, lässt sich wiederum am
besten anhand einer Folgeevaluation
feststellen.
Gruppengröße ist in erster Linie vom
Umfang des zu bearbeitenden Projektes
abhängig und schwankt zwischen drei
und sieben Studierenden. Bisher wurden u.a. Projekte zu den Themen „Die
geheimen Wünsche der Bibliotheksbenutzer“, „Die Nutzung der elektronischen Zeitschriften an der UB Graz“,
„Analyse des neuen BWL-Studienplanes an der Universität Graz“, „Die Zufriedenheit der Studierenden mit den Institutssekretariaten der Universität
Graz“ und „Analyse der Webseiten von
Universitätsbibliotheken“ durchgeführt.
Die Benotung der Studierenden erfolgt
auf Basis eines Projektberichts sowie
einer Projektpräsentation; grundsätzlich 10 erhalten alle Mitglieder einer
Gruppe dieselbe Note.
und Banken untersucht. Basis für die
Benotung sind eine Klausur, in der die
vermittelten Grundlagen geprüft werden, sowie die gruppenweise erarbeiteten und anschließend eingesetzten
neuen Möglichkeiten zur Bewertung
von Webseiten.
Lehrveranstaltung D weicht insofern
von den übrigen drei ausgewählten ab,
als sie – nicht zuletzt infolge relativ
schlechter Evaluationsergebnisse – aktuell nicht mehr angeboten wird. Ziel
dieser Lehrveranstaltung war es, verschiedene Aspekte des Informationsmanagements vorzustellen. Dabei handelte es sich in erster Linie um die
Inhalte unterschiedlicher Informationsmanagementkonzepte, die zum Teil
Tabelle 1: Vorstellung der evaluierten Lehrveranstaltungen
Nachfolgend wird am Beispiel von Lehrveranstaltungen des Autors dieser Arbeit demonstriert, wie derartige permanente Evaluationen in Eigeninitiative
mit vertretbarem Aufwand durchgeführt werden können. Zunächst werden
die betrachteten Lehrveranstaltungen
kurz vorgestellt. Es folgt eine Beschreibung der Vorgehensweise bei der Evaluation. Anschließend werden die Untersuchungsergebnisse präsentiert und
interpretiert. Ergänzend werden im
Falle parallel durchgeführter zentraler
Evaluationen die dabei gewonnenen Ergebnisse mit den hier erzielten Resultaten verglichen.
2 Vorgehensweise
2.1 Auswahl der Lehrveranstaltungen
Für die Untersuchung wurden alle jene
Lehrveranstaltungen ausgewählt, die
bis einschließlich Sommersemester 2004
zumindest dreimal vom Autor abgehalten worden waren. Tabelle 1 gibt einen
Überblick über diese vier Lehrveranstaltungen. Lehrveranstaltung A ist ein
praxisorientierter Kurs, in dem die Studierenden gruppenweise jeweils ein
vom Lehrveranstaltungsleiter vorgegebenes Projekt zu bearbeiten haben. Die
7
In diesem Fall die Satzung der Universität
Graz.
8 Anderer Ansicht wären hier vermutlich Personen, die der Evaluation von Lehrveranstaltungen eher skeptisch gegenüberstehen; vgl.
etwa Esser (1997).
9 Daneben spielt für die Überarbeitung sicherlich auch die eigene Wahrnehmung des Lehrveranstaltungsleiters eine wesentliche Rolle.
10 Es sei denn, es besteht der Wunsch nach
einer individuellen Beurteilung. In diesem Fall
haben die einzelnen Gruppenmitglieder ihren
Beitrag exakt zu dokumentieren.
11 Zur Beurteilung der Lehrveranstaltungsleiter:
vgl. auch Gramlich/Greenlee (1993) und Hativa/Raviv (1993).
22
Bei Lehrveranstaltung B handelt es
sich um ein regelmäßig (wöchentlich)
abgehaltenes Proseminar, in dem der
Umgang mit Rechtsfragen aus dem Bereich der Informationswissenschaft erlernt werden soll. Es werden hier u.a.
die Grundlagen des Datenschutzrechts,
des Urheberrechts sowie des E-Commerce-Rechts vorgetragen und laufend
um Fallbeispiele ergänzt. Um die Lehrveranstaltung positiv zu absolvieren,
haben die Studierenden eine Klausur zu
bestehen, eine Hausarbeit zu einem datenschutzrechtlichen Thema abzugeben sowie ein kurzes Referat über persönliche Erfahrungen mit dem Datenschutz zu halten.
Lehrveranstaltung C ist wiederum
stark praxisorientiert. Im Rahmen dieser Lehrveranstaltung werden zunächst erprobte Möglichkeiten zur Beurteilung des Internetauftritts von Unternehmen vorgestellt. Anschließend
sollen von den Studierenden neue Möglichkeiten zur Bewertung von Webseiten erarbeitet und in der Folge praktisch eingesetzt werden. Bisher wurden vor allem die Internetauftritte von
Universitäten, Universitätsinstituten
vom Lehrveranstaltungsleiter und zum
anderen von den Studierenden präsentiert wurden. Grundlage der Benotung
waren eine Klausur über den gesamten
Lehrveranstaltungsinhalt sowie Referate der Studierenden.
2.2 Evaluation der
Lehrveranstaltungen
Zur Evaluation der ausgewählten Lehrveranstaltungen wurde stets der in
Abbildung 1 dargestellte Fragebogen
eingesetzt. Bei der Erstellung dieses
Fragebogens wurde vor allem auf Eindeutigkeit der Fragestellung, leichte
Auswertbarkeit der Antworten und geringen Aufwand bei der Beantwortung
geachtet. Die Fragen 1 und 2 dienen
der Beurteilung der organisatorischen
Abwicklung (z.B. Ablauf der Anmeldung, Einhaltung von Terminen) sowie
der Form (des Ablaufes) der Lehrveranstaltung. Die Fragen 3, 4 und 5 haben
die Evaluation des Inhaltes zum Gegenstand. Während sich die Fragen 3 und 5
auf die Qualität des Inhalts beziehen,
geht es bei der Frage 4 um die Quantität. Anhand der Fragen 6, 7, 8 und 9
soll die „Qualität“ des Lehrveranstaltungsleiters ermittelt werden.11 Frage 6
58(2007)1, 21-27
E va luat i o n d e r L e h r e
Evaluation: PS „Rechtliche Aspekte der Informationswissenschaft“
1.) Organisatorische Abwicklung der Lehrveranstaltung
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ nicht genügend
2.)Form der Lehrveranstaltung (Vortrag des LV-Leiters + Besprechung von Beispielen)
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ nicht genügend
3.)Inhalt der Lehrveranstaltung
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ nicht genügend
Ich hätte mir noch folgende Themen gewünscht: ______________________________
Ich hätte mir folgende Themen ausführlicher gewünscht: __________________________
Ich hätte mir folgende Themen weniger ausführlich gewünscht: ____________________
Ich würde folgende Themen wegstreichen: ______________________________________
4.)
Stoffumfang
■ viel zu viel
■ zu viel
■ ideal
■ zu wenig
5.)Schwierigkeitsgrad des Stoffes
■ viel zu schwierig ■ zu schwierig ■ ideal
■ viel zu wenig
■ zu leicht
■ viel zu leicht
6.)
Fachliche Kompetenz des LV-Leiters
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ nicht genügend
7.) Erklärungsvermögen des LV-Leiters
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ nicht genügend
8.)Eingehen auf Fragen
■ sehr gut
■ gut
■ mangelhaft
■ nicht genügend
■ durchschnittlich
9.)
Sprechgeschwindigkeit
■ viel zu schnell
■ zu schnell
■ ideal
■ zu langsam
10.) Gesamtbeurteilung der Lehrveranstaltung
■ sehr gut
■ gut
■ durchschnittlich
■ mangelhaft
■ viel zu langsam
■ nicht genügend
Kritik und Verbesserungsvorschläge: __________________________________________
Abbildung 1: Fragebogen
hat die Beurteilung der Fachkenntnisse
des Vortragenden zum Gegenstand,
mit Hilfe von Frage 7 soll festgestellt
werden, inwieweit der Lehrveranstaltungsleiter den Lehrinhalt verständlich
vermitteln kann, Frage 8 dient der Beurteilung des Vortragenden im Hinblick
auf sein Eingehen auf Fragen seitens
der Studierenden, und anhand von
Tabelle 2: Ablauf der Evaluation
Frage 9 soll das Vortragstempo des
Lehrveranstaltungsleiters bewertet
werden. Unter Punkt 10 soll schließlich
ein zusammenfassendes Urteil zur
Lehrveranstaltung abgegeben werden.
Abschließend wird noch Raum für Kritik und Verbesserungsvorschläge gegeben.
Neu zur
Buchmesse 2006
Gerd Beling †, Peter Port, Hildburg
Strohl-Goebel (Redaktion)
Terminologie der Information
und Dokumentation
Komitee Terminologie und Sprachfragen (KTS) der Deutschen Gesellschaft
für Informationswissenschaft und
Informationspraxis
(DGI)
2., neu bearbeitete
Ausgabe
Frankfurt am Main
2006, 124 Seiten mit Sachregistern,
DGI Schrift (Informationswissenschaft - 9)
ISBN 3-925474-58-7, EUR 19,80 (für
DGI-Mitglieder EUR 15,80)
Robert Fugmann
Das Buchregister.
Methodische Grundlagen und
praktische Anwendung
Frankfurt am Main
2006, 136 Seiten mit
Sachregistern,
DGI Schrift
(Informationswissenschaft - 10)
ISBN 3-925474-59-5,
EUR 25,–
(für DGI-Mitglieder
EUR 20,–)
Content
28. Online-Tagung
der DGI/58.
Jahrestagung der
DGI
Frankfurt am Main,
4.-6. Oktober 2006
Proceedings,
hrsg. von
Marlies Ockenfeld
Frankfurt am Main
2006, 288 Seiten,
ISBN 3-925474-57-9
EUR 50,– (für DGI-Mitglieder
EUR 40,–)
Bestellungen an: DGI, Hanauer
Landstr. 151-153, 60314 Frankfurt
am Main, Fax (069) 4 90 90 96,
[email protected]
58(2007)1, 21-27
23
E va luat i o n d e r L e h r e
Für die vorliegende Untersuchung wurde jede der vier betrachteten Lehrveranstaltungen dreimal in Folge evaluiert
(vgl. Tabelle 2). Zeitpunkt der Evaluation war jeweils die letzte Lehrveranstaltungseinheit des Semesters; das
heißt, es wurde immer nach Abhaltung
allfälliger Klausuren evaluiert. Klausurbzw. Gesamtergebnisse der Lehrveranstaltung waren zu diesem Zeitpunkt in
der Regel allerdings noch nicht bekannt. Anhand von Tabelle 2 lässt sich
erkennen, dass jeweils ein Großteil der
Lehrveranstaltungsteilnehmer auch an
der Evaluation teilgenommen hat. Im
Durchschnitt betrug die Teilnahmequote 84 Prozent, wobei zu beachten
ist, dass nicht immer alle Lehrveranstaltungsteilnehmer zum Zeitpunkt der
Evaluation anwesend waren. Wie aus
der letzten Spalte von Tabelle 2 hervorgeht, wurde in acht Fällen parallel zur
Evaluation in Eigeninitiative12 eine zentrale Evaluierung vorgenommen. Dies
geschah in der Regel auf Antrag des
Lehrveranstaltungsleiters. 13 Die zen12 In der Folge auch als individuelle Evaluation
bezeichnet.
13 Ohne derartigen Antrag erfolgt eine zentrale
Evaluation üblicherweise nur alle sechs Semester (laut Vorgabe durch die Satzung).
14 Diese 60 Wochenstunden entsprechen dem
(geschätzten) üblichen Zeitaufwand für die
Absolvierung einer zweistündigen Lehrveranstaltung, die regelmäßig (wöchentlich) abgehalten und mit einer Klausur abgeschlossen
wird. Eine solche Lehrveranstaltung findet
gewöhnlich 15-mal im Semester statt, woraus
sich ein Zeitaufwand von 30 Wochenstunden
ergibt. Für die Klausurvorbereitung ist dann
(zumindest) nochmals derselbe Aufwand zu
kalkulieren.
15 Eine derartige Reduktion war allerdings infolge der relativ exakten Abschätzung des
Aufwandes in keinem Fall nötig, wobei die 60
Wochenstunden andererseits auch kaum unterschritten wurden. Dies ergab sich aus den
verpflichtenden (individuellen) Arbeitsprotokollen der Projektteilnehmer.
16 Aus Sicht des Lehrveranstaltungsleiters ist
der Projektkurs tatsächlich eine regelmäßige
Veranstaltung, da wöchentlich entweder Gesamtbesprechungen (allgemeine Einführung,
Projektvorstellung, Projektvergabe, Zwischenpräsentation, Schlusspräsentation) oder
Besprechungen mit den einzelnen Projektgruppen stattfinden.
17 Bei den angeführten Werten handelt es sich
um Mittelwerte. Die Berechnung dieser
Werte erfolgte unter der Annahme einer kardinalen Skalierung der Variablen. Bedeutung
der Mittelwerte: 1 = viel zu wenig (bzgl. Stoffumfang) bzw. viel zu leicht (bzgl. Schwierigkeitsgrad) bzw. viel zu langsam (bzgl. Sprechgeschwindigkeit) bzw. nicht genügend (bzgl.
der übrigen Merkmale), ..., 3 = ideal (bzgl.
Stoffumfang, Schwierigkeitsgrad und Sprechgeschwindigkeit) bzw. durchschnittlich (bzgl.
der übrigen Merkmale), ..., 5 = viel zu viel
(bzgl. Stoffumfang) bzw. viel zu schwierig
(bzgl. Schwierigkeitsgrad) bzw. viel zu schnell
(bzgl. Sprechgeschwindigkeit) bzw. sehr gut
(bzgl. der übrigen Merkmale). Erläuterungen
zur Spalte „Gesamtveränderung“: die Kürzel
beziehen sich auf die Veränderung der Mittelwerte zwischen erstem und letztem Evaluierungszeitpunkt. Bedeutung der Kürzel: ++ (—
) = positive (negative) Veränderung über 0,50,
+ (-) = positive (negative) Veränderung zwischen 0,26 und 0,50, o = positive oder negative Veränderung bis 0,25.
18 Vgl. Fußnote 17.
24
trale Evaluation wurde immer in der
gleichen Lehrveranstaltungseinheit wie
die Evaluation in Eigeninitiative durchgeführt, um die Ergebnisse – im Falle
vergleichbarer Fragestellungen – vergleichen zu können.
3 Ergebnisse
3.1 Detailbetrachtungen
Bezüglich Lehrveranstaltung A lässt
sich sagen, dass sich die Evaluationsergebnisse im Betrachtungszeitraum
deutlich verbessert haben (vgl. Tabelle
3). Insbesondere trifft dies auf die Beurteilung der organisatorischen Abwicklung der Lehrveranstaltung zu. Dazu ist
anzumerken, dass permanent versucht
wurde, diese zu verbessern. So wurde
im SS 2004 der zeitliche Projektaufwand im vorhinein möglichst exakt abgeschätzt und den Studierenden zur
Orientierung erstmals auch mitgeteilt.
Die Projekte wurden so konzipiert, dass
jeder Projektteilnehmer mit einem maximalen Arbeitsaufwand von 60 Wochenstunden zu rechnen hatte. 14 Für
den Fall einer drohenden gravierenden
Überschreitung dieses Zeitrahmens
wurde eine Reduktion des Projektumfanges in Aussicht gestellt.15 Weiters
wurden alle Besprechungstermine in
jenes Zeitfenster gelegt, das die Lehrveranstaltungsteilnehmer laut Vorlesungsverzeichnis für diese Lehrveranstaltung zu reservieren hatten; der
Projektkurs wurde nämlich als wöchentliche zweistündige Lehrveranstal-
tung angekündigt. Auf diese Weise
konnten Kollisionen mit anderen Lehrveranstaltungen, die bei teilgeblockten
Kursen sonst häufig auftreten, verhindert werden. 16 Auch hinsichtlich der
personellen Komponenten lässt sich
eine erhebliche Verbesserung der Evaluationsergebnisse erkennen. Dies
könnte darauf zurückzuführen sein,
dass – im Gegensatz zum SS 2002 – im
SS 2003 und noch stärker im SS 2004
beinahe jede geplante Aktivität jeder
Projektgruppe vom Lehrveranstaltungsleiter im vorhinein begutachtet,
kommentiert und gegebenenfalls gemeinsam mit der Gruppe adaptiert
wurde. Diese verstärkte Rückmeldung
scheint bei den Studierenden auf ein
positives Echo zu stoßen. Für zukünftige Abhaltungen der Lehrveranstaltung A ergibt sich als Ziel im Wesentlichen eine Wiederholung der positiven
Evaluationsergebnisse. Verbesserungspotential ist am ehesten noch hinsichtlich des Inhalts der Lehrveranstaltung
gegeben. In Frage käme ein breiteres
Angebot an Projekten, aus dem die Studierenden dann je nach Interessenlage
auswählen könnten. Allerdings wäre
eine solche Vorgangsweise mit erheblichem Mehraufwand für den Lehrveranstaltungsleiter verbunden.
Gemäß Tabelle 4 hat es hinsichtlich der
Evaluationsergebnisse zu Lehrveranstaltung B zwischen WS 2001 und WS
2003 kaum Veränderungen gegeben.
Infolge der guten Beurteilung war auch
die Lehrveranstaltung selbst seit WS
Tabelle 3: Detailergebnisse – Lehrveranstaltung A17
Tabelle 4: Detailergebnisse – Lehrveranstaltung B18
58(2007)1, 21-27
E va luat i o n d e r L e h r e
2001 weitgehend unverändert geblieben.19 Eventuell wären für zukünftige
Abhaltungen doch wieder Verbesserungsmaßnahmen zu überlegen, da
dauerhafter Stillstand zu Defiziten im
Hinblick auf thematische und organisatorische Aktualität führen könnte. Derartige Maßnahmen könnten die Einbeziehung weiterer Rechtsbereiche, wie
etwa des Patentrechts, oder auch organisatorische Änderungen, wie etwa die
Vergabe von Fallbeispielen als Hausübung, umfassen.
der Lehrveranstaltung aus Sicht der
Studierenden, erzielt zu haben. Die Bewertung hat sich sogar verschlechtert.
Für die Zukunft werden vom Lehrveranstaltungsleiter derzeit zwei Alternativen in Erwägung gezogen. Einerseits
eine wesentliche Überarbeitung des
Proseminars zu einer Lehrveranstaltung mit einem umfangreicheren Theorieteil, breiter gefächerten, aber exakt
vorgegebenen Gruppenarbeiten und
einer stärkeren Betonung technischer
Aspekte. Andererseits eine gänzliche
Tabelle 5: Detailergebnisse – Lehrveranstaltung C20
Tabelle 6: Detailergebnisse – Lehrveranstaltung D21
raumes dargestellt ist, lässt sich erkennen, dass die eingangs geäußerte Vermutung nicht bestätigt wird; die Qualität von Lehrveranstaltungen – ausgedrückt durch die Evaluationsergebnisse
– nimmt mit steigender Zahl an Abhaltungen nicht automatisch zu. Selbst im
Falle laufender Verbesserungsbemühungen seitens des Lehrveranstaltungsleiters tritt nicht unbedingt eine
Verbesserung der Bewertung ein. Umfangreiche Änderungsmaßnahmen, die
von den Studierenden auch als Qualitätssteigerungen empfunden werden,
führen allerdings sehr wohl zu deutlich
verbesserten Evaluationsergebnissen.
Eine auf die Gesamtbeurteilung beschränkte Gegenüberstellung der Ergebnisse von individueller und zentraler Evaluation zeigt hinsichtlich der
acht doppelt evaluierten Lehrveranstaltungen weitgehende Übereinstimmung
(vgl. Abbildung 3). Dies ist als Indiz sowohl für die Gleichwertigkeit der beiden Vorgangsweisen als auch für die
Zuverlässigkeit der Evaluatoren zu
werten. Man kann also den Ergebnissen einer individuellen Evaluation
durchaus dieselbe Bedeutung beimessen wie jenen einer zentralen Evaluation. Zudem scheinen die evaluierenden Studierenden Evaluationen selbst
im Falle von knapp aufeinander folgenden Wiederholungen äußerst ernst zu
nehmen. Dennoch sollten derartige
Wiederholungen nur in Ausnahmefällen stattfinden.
4 Schlussfolgerungen
Hinsichtlich Lehrveranstaltung C legt
die Evaluation im Zeitverlauf eine leicht
negative Entwicklung der Beurteilungsergebnisse offen (vgl. Tabelle 5).
Nachdem die erste Bewertung der
Lehrveranstaltung im SS 2002 durchaus
akzeptabel war und von den Studierenden kaum (umsetzbare) Verbesserungsvorschläge genannt wurden, hielt sich
die Anzahl der vorgenommenen Änderungen in Grenzen. So wurden etwa
die Gruppenarbeiten auf den Themenbereich „Bewertung des Webauftritts
von Universitätsinstituten der Universität Graz“ beschränkt, um den Studierenden die Analyse von inhaltlich fremden sowie fremdsprachigen Webseiten
zu ersparen. Weiters wurden die Vorgaben für die Entwicklung eines Bewertungsschemas für Webseiten reduziert,
um Raum für kreative Lösungen zu
schaffen. Diese Änderungen scheinen
jedoch nicht den erwünschten Erfolg,
nämlich eine Qualitätsverbesserung
58(2007)1, 21-27
Einstellung dieser Lehrveranstaltung
zugunsten eines vollkommen neuen
Angebots.
Die zweite der eben angesprochenen
Alternativen wurde bereits im Jahr
2000 für die Lehrveranstaltung D gewählt. Hier haben zwar umfangreiche
inhaltliche22, personelle23 und organisatorische24 Umgestaltungsmaßnahmen
zu einer Verbesserung der Evaluationsergebnisse gegenüber dem WS 1998
geführt, jedoch waren diese Ergebnisse
– vor allem in Relation zum Aufwand
der Verbesserungsversuche – aus Sicht
des Lehrveranstaltungsleiters noch
immer nicht zufriedenstellend (vgl. Tabelle 6). Zudem ließ sich auch kein weiteres Verbesserungspotential orten.
3.2 Gesamtbetrachtungen
Anhand von Abbildung 2, in der für
jede untersuchte Lehrveranstaltung die
Gesamtbeurteilung am Beginn und
Ende des jeweiligen Betrachtungszeit-
Es empfiehlt sich, jede durchgeführte
Lehrveranstaltung abschließend von
den Studenten evaluieren zu lassen,
und nicht wie in der Satzung der Uni
Graz vorgesehen, nur alle sechs Semester eine Evaluation vornehmen zu lassen. Ob es sich dabei jeweils um eine
19 Inhaltliche Aktualisierungen aufgrund von
Gesetzesänderungen wurde selbstverständlich vor jeder Abhaltung vorgenommen.
20 Vgl. Fußnote 17.
21 Vgl. Fußnote 17.
22 Die Anzahl der besprochenen Informationsmanagementkonzepte wurde drastisch reduziert, was im Hinblick auf die Evaluationsergebnisse durchaus erfolgreich war: die Maßnahme führte (vermutlich) zu einer deutlich
besseren Bewertung des Inhaltes der Lehrveranstaltung, des Stoffumfanges sowie des
Schwierigkeitsgrades des Stoffes.
23 Zur Verbesserung seiner fachlichen Kompetenz hat sich der Lehrveranstaltungsleiter
nochmals besonders intensiv mit den vorgestellten Konzepten auseinandergesetzt. Diese
Maßnahme dürfte die Evaluierungsergebnisse jedoch kaum positiv beeinflusst haben.
Die Beurteilung des Erklärungsvermögens
hat sich zwar verbessert, jene der fachlichen
Kompetenz aber verschlechtert.
24 Die Abkehr von studentischen Referaten über
Informationsmanagementkonzepte zugunsten von praxisbezogenen Gruppenarbeiten
scheint einen gewissen Erfolg im Hinblick auf
die Evaluationsergebnisse gehabt zu haben.
25
E va luat i o n d e r L e h r e
perten bewertet werden. Derartige
Fremdbeurteilungen wiesen allerdings
den gravierenden Nachteil auf, dass externe Experten die zu bewertenden
Lehrveranstaltungen sicherlich nicht
regelmäßig besuchen würden und deshalb nur punktuelle Qualitätseinschätzungen vornehmen würden. Somit
dürften insgesamt gesehen die Studierenden als Adressaten der Lehrveranstaltungen sehr wohl die geeignetsten
Personen für deren Beurteilung sein.27
Literatur
Baxter, E.: The TEVAL Experience, 1983-88: The
Impact of a Student Evaluation of Teaching
Scheme on University Teachers. In: Studies in
Higher Education, Vol. 16 (1991), Issue 2, 151178
Abbildung 2: Gesamtergebnis25
Abbildung 3: Individuelle – Zentrale Evaluierung26
zentrale Evaluation, die vom Lehrveranstaltungsleiter jederzeit beantragt
werden kann, oder eine individuelle
Evaluation handelt, erscheint hinsichtlich der Qualität der Ergebnisse relativ
unerheblich. Diesbezügliche Vergleiche
haben keine nennenswerten Unterschiede offen gelegt. Die Evaluation
ausgewählter Lehrveranstaltungen des
25 Bei den angeführten Werten handelt es sich
wiederum um Mittelwerte. Bedeutung der
Werte: 1 = nicht genügend, …, 3 = durchschnittlich, …, 5 = sehr gut.
26 Bei den angeführten Werten handelt es sich
bezüglich der individuellen Evaluation um
Mittelwerte (vgl. Fußnote 17), hinsichtlich der
zentralen Evaluation um diesen Mittelwerten
sehr ähnliche Maße der zentralen Tendenz.
Die ursprünglichen Ergebnisse (Ergebniswerte) der zentralen Evaluation mussten
transformiert werden, da dort 1 für „sehr
gut“ und 5 für „nicht genügend“ steht. Bedeutung der Werte in Abbildung 3: 1 = nicht
genügend, …, 3 = durchschnittlich, …, 5 =
sehr gut.
27 Zur Eignung (und zum Einsatz) Studierender
als Evaluatoren: vgl. z.B. Reichmann (1999),
Rindermann (1996) und Scholz (1995).
26
Autors im Zeitverlauf hat gezeigt, dass
eine Lehrveranstaltung nach mehrmaliger Abhaltung nicht unbedingt besser
bewertet werden muss als bei ihrer
Premiere. Vermutlich wird sich zwar
jeder Universitätslehrer bemühen, die
im Rahmen einer Evaluation zutage getretenen Schwächen zu beheben, jedoch sind derartige Bemühungen nicht
immer von Erfolg gekrönt. Nur eine
permanente Evaluation bietet die Möglichkeit, Verbesserungsversuche rasch
als erfolgreich oder gescheitert zu identifizieren.
Abschließend sei noch darauf hingewiesen, dass seitens mancher Universitätslehrer eine gewisse Skepsis hinsichtlich der Eignung von Studierenden
als Evaluatoren von Lehrveranstaltungen besteht. Zum Teil wird überhaupt
die Meinung vertreten, dass Studierende die Lehre nicht angemessen beurteilen könnten. Vielmehr sollten die
Lehrveranstaltungen durch externe Ex-
Bedggood, R.; Pollard, R.: Uses and misuses of
student opinion surveys in eight Australian universities. In: Australian Journal of Education,
Vol. 43 (1999), Issue 2, 129-141
Burney, F.: Students’ Evaluation of Teaching in a
Saudi Arabian University. In: British Journal of
Educational Technology, Vol. 20 (1989), Issue 3,
200-208
Ellis, R.: The Management of Quality in the University of Ulster. In: Higher Education, Vol. 25
(1993), Issue 3, 239-257
Esser, H.: Zweifel an der Evaluation der Lehre.
In: Wirtschaftswissenschaftliches Studium,
1/1997, 45-49
Gramlich, E.; Greenlee, G.: Measuring Teaching
Performance. In: Journal of Economic Education, Vol. 24 (1993), Issue 1, 3-13
Hansen , U.; Hennig-Thurau , T.; Wochnowski , H.:
TEACH-Q: Ein valides und handhabbares Instrument zur Bewertung von Vorlesungen. In:
Die Betriebswirtschaft, 3/1997, 376-396
Hativa , N.; Raviv , A.: Using a Single Score for
Summative Teacher Evaluation by Students. In:
Research in Higher Education, Vol. 34 (1993),
Issue 5, 625-646
Henninger, M.; Balk, M.: Transparenz von Lehrevaluation an der Hochschule – Wie aktiv sollen
Lehrende am Evaluationsprozess beteiligt
sein?. In: Das Hochschulwesen, 1/2003, 2-7
Jirovec, R.; Ramanathan, C.; Rosegrant-Alvarez, A.:
Course-Evaluations: What Are Social Work Students Telling Us About Teaching Effectiveness?. In: Journal of Social Work Education, Vol.
34 (1998), Issue 2, 229-236
Krempkow , R.: Ist „gute Lehre“ meßbar? Die
Verwendbarkeit studentischer Lehrbewertungen zur Darstellung der Lehrqualität und
weiteren Maßnahmen. In: Das Hochschulwesen, 4/1998, 195-199
Kriszio, M.: Studentische Veranstaltungsbeurteilungen und ihre Auswirkungen auf Lehre und
Karriere – Fallstudie an einer amerikanischen
Hochschule. In: Das Hochschulwesen, 5/1992,
217-225
Kromrey , H.: Qualitätsverbesserung in Lehre
und Studium statt sogenannter Lehrevaluation.
Ein Plädoyer für gute Lehre und gegen
schlechte Sozialforschung. In: Zeitschrift für Pädagogische Psychologie, 10. Jg. (1996), Heft 34, 153-166
Lin, W.; Watkins, D.; Meng, Q.: Evaluating the Effectiveness of University Teaching: A Taiwan
Validation-Study. In: Psychologia, Vol. 38
(1995), Issue 2, 77-89
Marsh, H.; Hau , K.; Chung , C.; Siu , T.: Students’
Evaluations of University Teaching: Chinese Version of the Students’ Evaluations of Educational
Quality Instrument. In: Journal of Educational
Psychology, Vol. 89 (1997), Issue 3, 568-572
58(2007)1, 21-27
E va luat i o n d e r L e h r e
Miller, J.; Dzindolet, M.; Weinstein, L.; Xie, X.; Stones, C.: Faculty and Students’ Views of Teaching Effectiveness in the United-States, China, and
South-Africa. In: Teaching of Psychology, Vol. 28 (2001), Issue 2, 138-142
Lehre, Bewertung, Informationswissenschaft, empirische
Untersuchung
Neath, I.: How to Improve Your Teaching Evaluations Without Improving
Your Teaching. In: Psychological Reports, Vol. 78 (1996), Issue 3, 13631372
Reichmann, G.: Einflußfaktoren auf die Qualität von Lehrveranstaltungen.
In: Das Hochschulwesen, 5/1999, 154-156
Rindermann, H.: Zur Qualität studentischer Lehrveranstaltungsevaluationen: Eine Antwort auf Kritik an der Lehrevaluation. In: Zeitschrift für Pädagogische Psychologie, 10. Jg. (1996), Heft 3-4, 129-145
Schnell , R.; Kopp , J.: Zur Evaluation von Lehrveranstaltungen in den
Sozialwissenschaften. In: Soziologie, 3/2001, 32-40
Scholz, O.: Evaluation von Lehrveranstaltungen durch Studenten. Nachlese einer empirischen Erhebung. In: Forschung & Lehre, 9/1995, 497501
Strohmeier, D.; Carstensen, D.: Evaluation der Lehrveranstaltungen im SS
01 – Trends, Ergebnisse und Empfehlungen, Bericht der Stabsstelle für
Lehrentwicklung und Evaluation der Karl-Franzens-Universität Graz
Thom, N.; Levin, A.: Verbesserung der Lehre als Teil eines umfassenden
Qualitätsmanagements – Generelle Überlegungen und Fallbeispiel. In:
Das Hochschulwesen, 4/2003, 160-164
Ting, K.: A Multilevel Perspective on Student Ratings of Instruction: Lessons from the Chinese Experience. In: Research in Higher Education,
Vol. 41 (2000), Issue 5, 637-661
Tinnefeld, M.: Evaluation der Lehrenden – eine Fata-Data Morgana? Zwischen Kontrolle und Persönlichkeitsschutz im „Unternehmen Wissenschaft“. In: Datenschutz und Datensicherheit, 25. Jg. (2001), Heft 1, 2126
D e r A u to r
Gerhard Reichmann
Dr. rer.soc.oec. et Dr. iur., ao. Univ.-Prof.
am Institut für Informationswissenschaft
der Karl-Franzens-Universität Graz; Forschungsschwerpunkte: Universitätsmanagement (Evaluierung von Forschung,
Lehre und Verwaltung), Bibliotheksmanagement (Leistungsmessung und Benutzerforschung), Informationsrecht (Datenschutzrecht).
Institut für Informationswissenschaft
Karl-Franzens-Universität Graz
Universitätsstraße 15 / F3
8010 Graz, Österreich
[email protected]
Telefon: +43/316/380/3563,
Telfax: +43/316/380/9575
www.kfunigraz.ac.at/iwiwww/pers/reich.html
Obwohl mein Sozialpädagogik-Studium
in Bremen mir viel Spaß gemacht hatte,
fiel mir der Berufseinstieg ziemlich
schwer und mein Umzug nach Wismar
in meine Heimat Mecklenburg stellte
sich beruflich nicht als die beste Entscheidung heraus.
Daher beschloss ich im Sommer 2002,
mich beruflich neu zu orientieren und
an der FH Hamburg Bibliotheksmanagement zu studieren. Mein Interesse
für Bibliotheken und Bücher bestand
schon lange. Ich hatte während des
Studiums in meiner Hochschulbibliothek gearbeitet und von Wismar aus
zwei Spezialbibliotheken bei der Einführung der elektronischen Ausleihe
unterstützt.
Während der Wohnungs- und Stellensuche in einer Hamburger Zeitung fiel
mir eine Stellenanzeige für eine
deutschsprachige Nanny (Kindermädchen) bei einer österreichisch-englischen Familie in London auf. England
hatte mich immer gereizt, die nötigen
Qualifikationen und Erfahrung in der
Arbeit mit Kindern hatte ich und mit
dem Studium konnte ich auch noch ein
Jahr warten. So bewarb ich mich auf
die Stelle, hatte ein Bewerbungsgespräch in Hamburg und bekam den
Job. Innerhalb von vier Wochen gab ich
meine Wohnung und mein bisheriges
Leben auf und war auf dem Weg in ein
58(2007)1, 21-27
unbekanntes Abenteuer. Nach einem
Jahr bei dieser Familie war mein Englisch so gut, dass ich beschloss, in London zu bleiben und mir einen englischsprachigen Nanny-Job zu suchen.
Als im Dezember 2003 das Angebot
kam, halbtags im Kundendienst des
Bibliothekslieferanten Starkmann Ltd.
zu arbeiten, war sofort klar: Diese
Chance konnte ich mir nicht entgehen
lassen. Neun Monate lang betreute ich
Universitätsbibliotheken in Deutschland, Österreich und der Schweiz bei
deren Bestellungen von englischen und
amerikanischen Büchern. Meine vorherige Bibliothekserfahrung erwies sich
als hilfreich im Kontakt mit den Kunden
und ich lernte, wie wertvoll die Zweisprachigkeit beruflich ist, weil die Briten selbst sich mit Fremdsprachen eher
schwer tun. Dieser Job gab den Ausschlag für meine Entscheidung zum Berufswechsel.
Eine Rückkehr nach Deutschland
konnte ich mir zu der Zeit nicht vorstellen und so begann ich mich über die
Bibliotheks-Ausbildung in Großbritannien zu informieren. Die Website von
CILIP, dem Chartered Institute of Library and Information Professionals,
bietet eine gute Übersicht über Studienmöglichkeiten in Großbritannien.
Aufgrund meines abgeschlossenen Stu-
diums waren für mich die Master-Studiengänge mit einer postgradualen Qualifikation interessant. Vom britischen Berufsverband für Sozialarbeiter bekam
ich die Anerkennung meines deutschen
Diploms bestätigt. Die meisten Universitäten verlangen zwölf Monate Berufspraxis vor Beginn des Studiums. Viele
Bibliotheken und Informationseinrichtungen bieten Graduate-Trainee-Stellen
an. Diese Stellen werden landesweit
akkreditiert und verbinden Ausbildung
und praktische Arbeit für zukünftige
Bibliothekare und Informationswissenschaftler. Viele dieser Stellen werden
sowohl auf der CILIP-Website als auch
in den allgemeinen Stellenanzeigen der
großen Zeitungen und durch auf das
Bibliotheks- und Informationswesen
spezialisierte Arbeitsvermittlungsagenturen ausgeschrieben. Nach einigen
Bewerbungsgesprächen wurde ich im
September 2004 in der National Art
Library im Victoria-und-Albert-Museum
angenommen. Bereits beim Vorstellungsgespräch beeindruckte mich die
Bibliothek, die sich noch im viktorianischen Originalzustand befindet. Es
handelt sich um eine Präsenzbibliothek,
deren Bestände größtenteils in Magazinen untergebracht sind.
Was mich außerdem ansprach, war die
Tatsache, dass die Bibliothek sechs
Trainees einstellte. Es gab ein struktu-
27
N e w c o m e r Co r n e r
Erfahrungen als LIS-Studentin in London
I n f o r m at i o n e n
riertes Trainingsprogramm, das wir alle
durchliefen. Zu unseren Aufgaben gehörten im Laufe des Jahres neben vielfältigen buchtechnischen Arbeiten das
Anlegen von einfachen Katalogeinträgen und das Bearbeiten von schriftlichen Anfragen (enquiries). Aufgrund
meiner Fremdsprachenkenntnisse unterstützte ich außerdem die für Geschenke und Tausch zuständigen Bibliothekarinnen. Hinzu kamen die Mitarbeit am Lesesaal-Tresen (counter)
und die Beschaffung angeforderter Bücher aus den Magazinen.
Ich bewarb mich um einen Teilzeit-Studienplatz am University College London. Der dortige Fachbereich, School
for Library, Archive and Information
Studies, ist aus der ältesten Bibliotheksschule in Großbritannien hervorgegangen und genießt einen hervorragenden Ruf. Der Studiengang wird von
John Bowman und Vanda Broughton
geleitet, den Autoren der britischen
Standardwerke zu Katalogisierung und
Klassifikation.
Das Studium der Library and Information Studies kann entweder in einem
Jahr Vollzeit oder zwei Jahren Teilzeit
absolviert werden. Ich entschied mich
für ein Teilzeitstudium, da es für mich
unrealistisch war, ein Jahr lang nicht zu
arbeiten und sowohl die Studiengebühren als auch meinen Lebensunterhalt
zu finanzieren.
Die Zusage erhielt ich zum Studienbeginn im September 2005. Nun galt es,
die Finanzierung der 3000 Pfund Studiengebühren sicherzustellen. Meine Ersparnisse waren im Jahr zuvor in die
BAföG-Rückzahlung geflossen und
mein Gehalt erlaubte mir im teuren
London nicht, große Ersparnisse anzuhäufen. Die britische Studienförderung
kam für mich als Ausländerin nicht in
Frage; der DAAD schien nur Auslandsstudien zu finanzieren, wenn der Auslandsaufenthalt aus Studiengründen erfolgte und eine Beziehung zum ersten
Studienabschluss bestand. So entschied ich mich, bei einer Bank einen
speziellen Ausbildungskredit (Career
Development Loan) aufzunehmen, der
erst nach Studienende zurückgezahlt
werden muss. Zunächst bestand Hoffnung, dass ich aus dem FortbildungsBudget des Museums finanzielle Unterstützung erhalten könnte. Leider stellte
sich heraus, dass dies nicht für Mitarbeiter mit befristeten Verträgen galt.
Nachdem mein Arbeitsvertrag im September um ein Jahr verlängert wurde,
erhielt ich zumindest einen Teil meiner
Studientage in der Uni bezahlt. Den
Rest muss ich mit Urlaubstagen oder
Samstagsdiensten ausgleichen.
Das Studienjahr ist in drei Abschnitte
(Terms) von zehn bis zwölf Wochen ge-
28
gliedert. Im ersten Term hatten wir alle
Lehrveranstaltungen gemeinsam mit
den Vollzeitstudierenden, insgesamt
etwa 80 Leute. Dadurch fehlte anfangs
der Überblick, wer Vollzeit und wer
Teilzeit studierte. Dies änderte sich in
den darauf folgenden Terms und so
entwickelte sich mit der Zeit ein Gruppengefühl unter den 18 Teilzeitstudierenden. Gemeinsam ist uns, dass es
nicht immer einfach ist, Arbeit und Studium zeitlich unter einen Hut zu bringen. Viele Studierende kommen zudem
von außerhalb. Ich empfinde es aber als
Vorteil, die kontinuierliche Praxiserfahrung zu haben und in das Studium einbeziehen zu können.
Alle Studienleistungen werden in
schriftlicher Form erbracht, es gibt lediglich eine mündliche Prüfung in
einem Kurs im zweiten Jahr. Mit dem
Schreiben meines ersten Essays tat ich
mich sehr schwer. Ich hatte seit Jahren
keine schriftlichen Arbeiten mehr angefertigt und die Hausarbeiten in meinem
ersten Studium waren sehr praxisorientiert. Außerdem musste ich mich erst
an akademisches Englisch gewöhnen
und mein Zeitmanagement war anfangs auch nicht optimal. Ich hatte vor
Studienbeginn eine Woche Urlaub mitten im Term gebucht, die mir nun für
den Essay fehlte. So blieb mir keine
Zeit, den Essay vor der Abgabe von irgendjemandem Korrektur lesen zu lassen. Nach der Abgabe hatte ich einen
Termin mit einem Studienberater, der
mir ein sehr positives Feedback zu meinem Essay gab. Ein regelmäßiger
Sprachkurs in akademischem Englisch
war zeitlich unmöglich und so half ich
mir mit Ratgebern zum wissenschaftlichen Arbeiten aus der Unibibliothek.
Inzwischen sind diese Anfangsschwierigkeiten überwunden. Über die Website der Unibibliothek habe ich von zu
Hause aus Zugang zu den meisten Ressourcen und zu allen Programmen des
Rechenzentrums. In der British Library
befindet sich zudem ein Freihandbereich zum Bibliotheks- und Informationswesen, der auch abends und am
Wochenende zugänglich ist.
In den Lehrveranstaltungen wird großer Wert auf Praxisbezug gelegt. Jede
Vorlesung wird mit Übungen oder Seminaren kombiniert und zwischendurch gibt es Gastdozenten oder auch
Besuche in Bibliotheken und Informationseinrichtungen. Wir waren u.a. vor
einiger Zeit im Idea Store Whitechapel
im East End von London, einer hochgelobten neugebauten öffentlichen Bibliothek, die gleichzeitig als eine Art Nachbarschaftszentrum fungiert.
Nach Abschluss des Studiums im
nächsten Jahr möchte ich mindestens
noch zwei Jahre in Großbritannien Berufserfahrung sammeln und meinen
Kredit zurückzahlen. Danach kann ich
mir eine Rückkehr nach Deutschland
durchaus vorstellen.
Ich denke, in Deutschland wäre mir ein
so radikaler Berufswechsel deutlich
schwerer gefallen. Hier zählen Eigeninitiative und Erfahrung mehr als reine
Qualifikationen. Ich hatte viel Glück,
dass ich aus meinem Nanny-Job zu
Starkmann wechseln konnte, obwohl
meine relevante Berufserfahrung schon
einige Zeit zurück lag.
Die Berufsaussichten im Bibliotheksund Informationswesen in Großbritannien sind derzeit sehr gut, weil in den
nächsten Jahren viele Mitarbeiter aus
dem Berufsleben ausscheiden und
Nachwuchs gebraucht wird. Zudem
werden Fremdsprachenkenntnisse sehr
geschätzt.
Links
Starkmann Ltd.
www.starkmann.co.uk
National Art Library
www.vam.ac.uk/nal/index.html
siehe auch:
G. U. Gabel: Die „National Art Library“ in
London. Bibliotheksdienst 40(2006) 7-10
University College London (UCL) School of Library,
Archive and Information Studies
www.slais.ucl.ac.uk/
Career Development Loan
www.direct.gov.uk/EducationAndLearning/Ad
ultLearning/CareerDevelopmentLoans/fs/en
CILIP
Übersicht Studienmöglichkeiten in Großbritannien
www.cilip.org.uk/qualificationschartership/
Wheretostudy
Idea Store
www.ideastore.co.uk
D i e A u to r i n
Antje Schröder
wurde 1977 in Rostock geboren. Nach dem Abitur
studierte sie Sozialarbeit
und Sozialpädagogik an
der Hochschule Bremen,
und war von 1999 bis 2002
als Sozialpädagogin in der
Jugendarbeit in Bremen
und Mecklenburg-Vorpommern tätig. Im
Sommer 2002 nahm sie eine Stelle als
deutschsprachige Nanny (Kindermädchen)
in London an. Seit September 2004 arbeitet
sie zunächst als Graduate Trainee, dann
als Bibliotheksassistentin in der National
Art Library im Victoria-und-Albert-Museum. Im September 2005 begann sie ein
zweijähriges berufsbegleitendes MasterStudium in Library and Information Science
am University College London (UCL).
[email protected]
58(2007)1, 27-28
Hochschule
»Find out what works«
1
Auswahl und Anwendung von Usability-Tests für das Redesign eines Medienportals
Nicole Petrucela, Projektteam amuse, Hamburg
„
The point of web site usability is
do make web sites perform the
function for which they were
In einer Evaluationsstudie der HAW
Hamburg wurden im Rahmen des
Projekts amuse Bedienkomfort, Informationsarchitektur, Content-Qualität und Marketingorientierung des
Medienportals medienhandbuch.de
analysiert sowie die wesentlichen
Merkmale der Website mit denen der
wichtigsten Konkurrenzangebote
verglichen. In dem Beitrag wird dokumentiert, wie Design und Struktur
der Website mit Hilfe einer Kombination aus expertenorientierten und
nutzerorientierten Evaluationsverfahren überprüft werden. Um die
Usability der Website optimieren zu
können, werden als Testmethoden
der Fallschirmspringertest, die heuristische Evaluation, die Bewertung
nach dem Web Usability Index, der
Cognitive Walkthrough sowie ein
Nutzertest im Usability-Labor angewendet und ausgewertet. Aus den
Testergebnissen können wertvolle
Verbesserungsansätze abgeleitet
werden, die schließlich zu detaillierten Optimierungslösungen führen.
Choice and Application of Usability
Test for the Redesign of a Media Portal
In an evaluation study in the context of the project amuse students
of the University of Applied Sciences Hamburg analyzed usability,
information architecture, content
quality and marketing orientation
of the media portal medienhandbuch.de. The study adopted a
whole range of expert-oriented and
user-oriented testing-methods like
the car boot test, heuristic evaluation, comparative evaluation with
the Web Usability index, cognitive
walkthrough as well as user tests in
a usability laboratory. Central characteristics of the portal were compared with those of the most important competitors. From the results
of the tests valuable suggestions for
improvement of the portal could be
derived.
58(2007)1, 29-34
“
Usability, zu Deutsch
formationen und
designed, with the minimal amount
NutzungsfreundlichDaten aus dem geof users frustration, time and effort.
keit, ist eine Aussamten MedienbeMark Pearrow
prägung der Gereich, wie z. B.
brauchstauglichkeit
Pressemeldungen,
eines (Software-)Produkts [1]. Dabei wird
Adresslisten oder Stellenanzeigen.
Gebrauchstauglichkeit definiert als eine
Dabei bietet medienhandbuch.de soFunktion aus Effektivität, Effizienz und
wohl kostenpflichtige als auch unentNutzerzufriedenheit. Es wird davon ausgeltlich zu nutzende Dienste auf seiner
gegangen, dass Nutzer eines InternetanPlattform an.
gebots weitgehend ohne Hinder-nisse,
Ziel des Projektes amuse war es, den
ohne Wartezeiten und ohne EinarbeiBetreibern von medienhandbuch.de in
tungsaufwand eine bestimmte InformaForm einer Usability- und Marketingstution oder Funktion finden, ein Problem
die konkrete Vorschläge und Lösungen
lösen oder etwas kaufen wollen.
sowohl für eine Neukonzeption der InViele Websites sind überladen mit unformationsarchitektur des Frontend, als
strukturierten Informationen und Grafiauch für eine Neuausrichtung der Marken, so dass ein interessierter User aufketingorientierung der Website zu ungrund der Unübersichtlichkeit schnell
terbreiten. Im Zuge der Neupositioniedie Geduld verliert, sich weiter mit dem
rung der Website musste deshalb ein
Angebot auseinanderzusetzen. An dieKonzept zur Reorganisation der Inhaltssem Punkt knüpft die Usability-Forstrukturierung und zur Neustrukturieschung an, die ein breites Spektrum an
rung des Frontend auf der Grundlage
Methoden bereithält, mit denen ermiteiner umfassenden Usability-Evaluation
telt werden kann, ob eine Website nutvorgenommen werden, zum anderen
zerfreundlich gestaltet ist und ob sie allsollten Modelle und Optionen für Margemeinen Usability-Kriterien entspricht.
ketingstrategien ermittelt und entwickelt werden, die es erlauben, die bestehenden netzvermittelten Informationsangebote und Dienstleistungen von
medienhandbuch.de durch neue kunIm Rahmen des Semesterprojekts
dengerechte und dabei kostenpflichtige
amuse der Hochschule für Angewandte
Dienste zu ergänzen.
Wissenschaften Hamburg (HAW) wurDas Projektteam der HAW Hamburg hat
de im Sommer 2005 eine umfassende
die Projektergebnisse in einem Bericht
Usability-Studie für das Internetportal
dokumentiert [3], der unter anderem
www.medienhandbuch.de erstellt, deaus folgenden Teile besteht:
■ Bestandsaufnahme und Konkurrenzren Ziel es war, das Medienportal bei
analyse vergleichbarer Internet-Ander Entwicklung einer nutzerfreundgebote,
licheren Gestaltung zu beraten. Beste■ Resultate und Empfehlungen aus der
hende Usability-Probleme sollten erUsability-Analyse zur Website mekannt und Vorschläge zur Umgestaldienhandbuch.de
tung der gesamten Website erarbeitet
■ Analysen, Konzepte und Prototypen
werden.
für alternative und ergänzende
Das Internetportal medienhandbuch.
Dienste zum bestehenden Servicede, nach eigener Darstellung ein virtuelAngebot von medienhandbuch.de.
ler Medienmarktplatz mit Informationsund Serviceangeboten in den Segmenten Medien, Kultur und Informationstechnologie, stellt unter anderem eine
1 Der Haupttitel des Beitrags ist einem Zitat
Adressdatenbank, eine Jobbörse, ein
von Jakob Nielsen [1] entlehnt: „Usability´s
job is to research user behavior and find out
Bildungsforum und einen PR-Channel
what works. Usability should also defend
zur Verfügung. Gegenstand des Portals
user´s rights and fight to simplicity. Both
medien-handbuch.de ist die Erfassung,
aspects have their place, and it’s important to
Aufbereitung und Verbreitung von Inrecognize the difference.”
medienhandbuch.de auf dem Prüfstand
29
U sa b i l i t y Te st
Der vorliegende Beitrag konzentriert
sich auf die Usability-Analysen zu medienhandbuch.de, deren Ziel es war,
den Auftraggeber bei der nutzerfreundlichen Gestaltung seines Portals zu beraten, indem vorhandene Usability-Fehler erkannt, Nutzungsbarrieren identifiziert und Empfehlungen zu einer
entsprechenden Umgestaltung der
Website gegeben wurden.
Zu den wichtigsten Komponenten der
Usability-Studie zählten:
■ eine umfangreiche heuristische Evaluation der Internetseite;
■ ein so genannter „Fallschirmspringertest“;
■ ein Usability-Test im Labor;
■ ein Web Usability Index der Universität Saarbrücken;
■ die Prüfung der Barrierefreiheit.
Die einzelnen Testmethoden und die
Ergebnisse aus der Usability-Studie
werden vorgestellt und zusammenfassend kritisch beurteilt. Dabei soll auch
beurteilt werden, welche Bedeutung
die angewendeten Usability-Testverfahren für die Evaluation von medienhandbuch.de hatten.
Trunk-Test:Der Fallschirmspringertest
Um einen schnellen Überblick über die
Nutzungsfreundlichkeit einer Internetseite zu bekommen, reicht oft ein wenig
aufwändiges Prüfverfahren, wie es z. B.
im so genannten Fallschirmspringertest
nach Steve Krug zur Verfügung steht
[4]. Dieser Bewertungstest umfasst
sechs Fragen, und es reicht, ihn mit nur
wenigen Versuchspersonen durchführen zu lassen, um zu einem aussagekräftigen Ergebnis zu kommen. Im Original heißt diese Untersuchungsmethode „Trunk Test“ (Kofferraumtest).
Krug fordert den Tester einer Internetseite auf, sich in die Lage eines Menschen zu versetzen, der quasi im Kofferraum eines Autos in die Tiefen des
Internets entführt und auf einer beliebigen, ihm unbekannten Website ausgesetzt wird. Krug geht davon aus, dass
der so Entführte (bzw. der in unbekannter Landschaft gelandete Fallschirmspringer) auf einer nutzungsfreundlichen Internetseite auf Anhieb in der
Lage ist, sechs Fragen zu beantworten:
1. Auf was für einer Seite befinde ich
mich? – Site ID
2. Wie heißt die Seite auf der ich mich
befinde? – Page Name
3. Was sind die Hauptkategorien dieser
Seite? – Sections
4. Welche Möglichkeiten der Navigation habe ich auf dieser Seite? – local
navigation
5. Auf welcher Hierarchieebene befinde
ich mich? – „You are here indicators”
6. Wie kann ich weiter suchen?
30
nach festgelegten Prüfverfahren, den so
genannten Heuristiken, die im Vorfeld
von einem Expertenteam festgelegt
werden.
Bei einer heuristischen Evaluation
untersuchen grundsätzlich mehrere Evaluatoren ein Produkt. Das hat den Vorteil, dass mehr Usability-Probleme aufgedeckt werden können, da unterschiedliche Evaluatoren jeweils andere Verstöße
gegen die Heuristik finden können.
Jeder einzelne Prüfer entdeckt ca. 35%
der Usability-Probleme. Bei drei bis fünf
Prüfern kann die Erkennungsrate auf bis
zu 75% gesteigert werden [6].
Der Ablauf der heuristischen Evaluation
von medienhandbuch.de erfolgte in
mehreren Phasen. Zunächst wurde ein
Kriterienkatalog mit folgenden Hauptkategorien entwickelt:
1. Darstellung der Informationen;
2. Textverständlichkeit;
3. Navigation;
4. Technische Kriterien.
Anhand des Kriterienkatalogs erfolgte die Überprüfung des Medienportals.
Jeweils vier Gutachter untersuchten die Seite
jeweils unabhängig voneinander. Es wurden insgesamt 48 Usability-ProAbbildung 1: Für den Fallschirmspringertest verwendete Inbleme gefunden; von
ternetseite
jedem Prüfer durchschnittDie Auswertung der Protokolle ergab,
lich 27. Bei der anschließenden Kategoridass die Orientierung auf medienhandsierung und Gewichtung der gefundebuch.de für Nutzer, die die Seite zum
nen Probleme wurde berücksichtigt,
ersten Mal besuchen, in der Regel relawelchen Einfluss ein Fehler auf die Aktiv einfach ist. Optimierungspotenzial
zeptanz bei den Nutzern hat. Auch ein
ergab sich jedoch für die Navigation
Mangel, der zunächst nicht schwerwieund die hierarchische Struktur der Intergend erscheint, kann Nutzer irritieren
netseite. Beide sind für erstmalige Nutund dazu führen, dass die Seite verlaszer auf den ersten Blick nicht schlüssig.
sen und nicht mehr besucht wird.
Außerdem wurde festgehalten, bei wie
Ein so genannter Ariadne-Pfad, d. h.
vielen Interaktionssituationen ein Proeine Pfaddarstellung der Seitenhierarblem aufgetreten ist (Problemhäufigchie, könnte hier die nötige Abhilfe
keit), in welchem Ausmaß die Aufgabenschaffen. Darüber hinaus wurde die
bewältigung durch das Problem beeinSuchfunktion nicht auf Anhieb gefunträchtigt wurde (Problemeinfluss) und
den, da sie vom Nutzer erst nach Scrolob sich dass Problem leicht beheben
len sichtbar wird. Hier wurde dazu gelässt (Persistenz). Die registrierten Usaraten, die Suchfunktion im oberen Bebility-Probleme wurden nach den Prüfreich der Seite zu platzieren. Außerdem
kriterien kategorisiert und implizit gesollten sich die Navigationskomponenwichtet. Das Ergebnis ist eine Einteilung
ten noch deutlicher vom redaktionellen
der Usability-Mängel anhand folgender
Inhalt der Seite abheben, da die TestPrioritäten:
personen diese Funktionen erst mit
Priorität 1 – großes Problem; dringend zu
deutlicher Verzögerung identifizieren
bearbeiten
konnten.
In diese Priorität wurden häufig auftretende Mängel aufgenommen, die von
mindestens einem Evaluator als Verstoß
gegen die Usability-Kriterien eingestuft
Heuristiken sind Verfahrensweisen oder
wurden, und/oder Mängel die vom gePrinzipien, die Nutzern dabei helfen,
samten Expertenteam als besonders resystematisch an einer Entdeckung,
levant eingestuft worden waren.
Priorität 2 – kleines Problem; zu bearbeiten
einer Entscheidung oder einer Lösung
Häufig auftretende Schwachstellen
zu arbeiten [5]. Bei einer heuristischen
einer Internetseite, die von mindestens
Evaluation inspizieren Experten eine zu
einem der Evaluatoren als mangelhaft
untersuchende Benutzungsoberfläche
Der Test geht von der Annahme aus,
dass viele User die Homepage eines Online-Angebotes nicht direkt anwählen
und dann einem geraden Pfad folgen.
Die meisten Internetnutzer gelangen
über den Link einer Suchmaschine direkt auf eine untergeordnete Seite und
sind dann ebenso orientierungslos, wie
ein verirrter Fallschirmspringer nach
der Landung.
Für medienhandbuch.de wurde fünf zufällig ausgewählten Testpersonen ein
Screenshot einer Unterseite von medienhandbuch.de, die nicht in der ersten hierarchischen Ebene zu finden ist, als Ausdruck auf Papier vorgelegt (vgl. Abb. 1).
Allen Testpersonen wurden die oben
aufgeführten Fragen gestellt und die
Antworten sowie nonverbale Reaktionen protokolliert.
Experteninspektion – Heuristische Evaluation
58(2007)1, 29-34
U sa b i l i t y Te st
bewertet wurden und/oder die im Vorfeld vom Expertenteam als besonders
beeinträchtigend eingestuft worden
sind, wurden in die Priorität 2 aufgenommen.
Priorität 3 – kosmetisches Problem;
zu bearbeiten, wenn Zeit dafür ist
Seltener auftretenden Mängel, die jedoch von mindestens einem Evaluator
benannt wurden, wurde die Priorität 3
zugeordnet.
Nach Abschluss und Auswertung der
heuristischen Evaluation von medienhandbuch.de konnten keine schwerwiegenden Verstöße gegen die gängigen
Usability-Prinzipien festgestellt werden.
Dennoch wurden einige konkrete Merkmale des Angebots identifiziert, die
eine Überarbeitung nach Usability-Gesichtspunkten erforderlich machen.
Mängel der Prioritätsstufe 1 wurden nur
wenige identifiziert. Dazu gehörten
unter anderem die mangelhafte Aktualität des Adressangebots sowie die
unvorteilhafte Platzierung der Navigationsfunktionen von medienhandbuch.
de. Zu den nicht erfüll-ten Kriterien der
Priorität 2 zählten unter anderem fehlende Orientierungshilfen wie z. B.
Index oder Sitemap und die sehr eingeschränkten Suchmöglichkeiten. Die
meisten der herausgefilterten Mängelbeobachtungen wurde der dritten Priorität zugeordnet. Es wurde empfohlen,
diese eher „kosmetischen Probleme“
wie z. B. fehlende Bildunterschriften,
zu lange Seiten, Verwendung zu vieler
Strukturelemente oder fehlende Informationen zum Newsletter-Versand bei
Gelegenheit zu beheben.
Der Web Usability Index
Mit dem Web Usability, entwickelt an
der Universität Saarbrücken von Ilse
Harms und Werner Schweibenz [7],
steht eine Methode zur Usability Evaluation zur Verfügung, mit der die Nutzerfreundlichkeit eines Online-Angebots schnell und einfach getestet werden und gleichzeitig mit der von
Konkurrenzangeboten verglichen werden kann. Um alle Usablity-Aspekte beurteilen zu können, berücksichtigt der
Index fünf Bewertungskategorien:
1. Navigation und Orientierung
2. Interaktion und Informationsaustausch
3. Aktualität und Qualität
4. Informations- und Textdesign
5. Auffindbarkeit und Zugänglichkeit
Beim Web Usability Index handelt es
sich um eine expertengenerierte Evaluationsmethode, die auf der Grundlage
einer überprüfbaren Berechnungsformel
eine differenzierte Bewertung erlaubt.
Der Web Usability Index versetzt Usabilty-Tester in die Lage, nach den fünf
genannte Bewertungskategorien diffe-
58(2007)1, 29-34
renziert das Vorkommen von UsabilityFehlern und -Defiziten automatisch in
Prozent zu ermitteln. Dabei gilt: Je geringer der Prozentsatz, desto weniger
Mängel enthält eine Internetseite. Der
Web Usability Index kann in Form einer
Excel-Datei2 aus dem Internet geladen
und beliebig verändert werden (vgl.
Abb. 2), damit der Test nach den Bedürfnissen und Anforderungen beliebiger Internetseite je nach Inhalt und Zielgruppe angepasst werden kann.
mit großer Mühe erklärt, dessen Anwendung ihm oder ihr Probleme bereitet oder das nicht realisiert ist, obwohl es dringend notwendig wäre;
6. N/Z (nicht zutreffend) – dieser Eintrag wird gewählt, wenn UsabilityFragen zu einem bestimmten Merkmal nicht beantwortet werden können, weil es auf der Site keine
Verwendung findet.
Nach dem Test mit dem modifizierten
Web Usability Index ergibt sich für das
Abbildung 2: Website-Bewertung nach dem Web Usability Index
Während der Evaluation von medienhandbuch.de wurden einige Fragen für
den Test entfernt, einige andere, die
aus anderen Heuristiken für Webkommunikation stammten, wurden hinzugefügt. Für die Bewertung wurden für
jede der fünf Kategorien jeweils eine
der fünf Schulnoten vergeben oder ein
„nicht zutreffend“. Zur Objektivierung
des Evaluationsprozesses wurde jeder
der fünf Einstufungswerte genauer definiert:
1. Note sehr gut – wird vergeben, wenn
dem User ein Merkmal unmittelbar
positiv aufgefallen ist, dieses in der
Website konsequent angewandt
wird und also kein Änderungsbedarf
besteht;
2. Note gut – als gut wird eine bestimmte Eigenschaft einer Website
bewertet, die den Anforderungen
des Nutzers gerecht wird und somit
ihren Zweck erfüllt;
3. Note befriedigend – damit kann eine
Frage bewertet werden, wenn eine
bestimmte Anforderung zwar grundsätzlich, aber nicht konsequent erfüllt ist;
4. Note ausreichend – wird bei der Bewertung verwendet, wenn ein bestimmtes Kriterium zwar vorhanden,
dem User aber nicht sofort einsichtig
ist;
5. Note mangelhaft – bekommt ein
Merkmal, das sich dem Nutzer nur
Medienportal www.medienhandbuch.
de eine Gesamt-Usability von 34,3 von
100 % auf. Das Ergebnis zeigt, dass medienhandbuch.de zum Zeitpunkt des
Test zwar einige gravierende UsabilityMängel aufwies, die jedoch die Eigenschaften Bedienbarkeit und Nutzerfreundlichkeit der Website nicht grundsätzlich in Frage stellten.
Die mit dem Web Usability Index identifizierten Usability-Probleme ähnelten
stark denen, die auch durch die heuristische Evaluation gefunden wurden. Als
nur ausreichend bis mangelhaft wurden
die fehlenden Hilfefunktionen sowie die
fehlende Orientierung auf den Unterseiten bewertet. Ebenfalls als verbesserungsbedürftig wurde die Suchfunktion
eingestuft. Diese war auf der Seite zu
weit unten platziert und konnte nur
nach einem Scroll-Vorgang erreicht werden. Außerdem befand sich die Suchfunktion auf den jeweiligen Unterseiten
nicht immer am selben Platz oder war
überhaupt nicht verfügbar. Am Testtag
befanden sich auf der Einstiegsseite 27
Teaser für redaktionelle Beiträge; der
Scroll-Aufwand vor Erreichen des Eingabefeldes für die Suchfunktion war
also erheblich.
2
Unter http://usability.is.uni-sb.de//werk
zeuge/wu_index.php abrufbar.
31
U sa b i l i t y Te st
Heuristische Evaluation der Handlungsabläufe und Cognitive Walkthrough
Der Prüfung der Funktionalität aller Aktionen, die von medienhandbuch.de
angeboten werden, sollte auf Wunsch
des Auftraggebers besondere Aufmerksamkeit gewidmet werden. Deshalb
wurde eine gesonderte intensive Prüfung der Funktionalitäten mit Hilfe einer
spezifisch auf die Handlungsabläufe
ausgerichteten heuristischen Evaluation
durchgeführt. Zunächst wurde dazu ein
Kriterienkatalog entwickelt, der folgende Hauptkategorien umfasste:
1. Darstellung der Aktionsformulare
2. Suchfunktionen
3. Newsletter
4. Shop
5. Ergebnisdarstellung
Jeweils vier Gutachter untersuchten jeweils separat die Seiten des Medienportals anhand dieses Kriterienkatalogs.
Die einzelnen Ergebnisse wurden in
einer Tabelle zusammengefasst. Anschließend erfolgte die Kategorisierung
und Gewichtung der identifizierten Probleme.
Die Auswertung der heuristischen Evaluation zeigte, dass das Interface der
Handlungsabläufe sowie der Nutzerdialog nicht allen Usability-Kriterien genügte. Die höchste Prioritätsstufe
wurde unter anderem der ungenügenden Funktionalität des Newsletters zugeordnet, der gerade als „Aushängeschild“ der Website für eine intensive
Kundenbindung sorgen soll. Hier wurde
unter anderem eine klarere Rückmeldung für die Nutzer empfohlen und eine
Möglichkeit, den Newsletter direkt von
der Website aus abzumelden.
Ebenfalls mit Optimierungspriorität 1
wurde die Darstellung einiger Aktionen
belegt, die in ihrer Abfolge für den Nutzer nicht unmittelbar nachzuvollziehen
waren. Darüber hinaus sind einzelne
Eingabeformulare zu lang geraten, so
dass der Nutzer nach einiger Zeit die
Geduld verlieren könnte. Außerdem
waren Begriffsbezeichnungen von Buttons uneinheitlich. Bei mehreren parallelen Handlungsabläufen auf einer
Website ist es unabdingbar, dass alle
Buttons mit derselben Bedeutung konsistente Bezeichnungen tragen, um den
Nutzer nicht zu verwirren.
Neben der Heuristischen Evaluation
wurde auch die Methode des Cognitive
Walkthrough angewendet, bei der mehrere Usability-Experten vorab definierte
Handlungsabläufe einer Website durchspielen. Es wird untersucht und geprüft,
ob und wie die Handlungsabläufe von
den Nutzern verstanden werden; auftretende Probleme werden dokumentiert.
Dabei konzentriert sich der Cognitive
Walkthrough mehr auf die mentalen
32
Prozesse eines hypothetischen Nutzers,
als auf die Beschaffenheit des Interface.
Die Methode geht von der Annahme
aus, dass eine usability-konforme Website den kognitiven und logischen Fähigkeiten des Durchschnittsnutzers entsprechen muss und bei der Bedienung
von Funktionen kein spezielles Handlungswissen voraussetzt.
Der Cognitive Walkthrough durch die
Funktionalitäten von medienhandbuch.
de wurde in zwei Phasen aufgeteilt:
In der Vorbereitungsphase wurden die
Untersuchungsbedingungen und die zu
analysierenden Handlungssequenzen
festgelegt. Dazu wurden alle Interaktionen der zu untersuchenden Website in
einer Excel-Tabelle zusammengefasst,
um dann die wichtigsten und umfangreichsten Interaktionen als Basis für den
Cognitive Walkthrough identifizieren zu
können. Für jede der herausgefilterten
Aktionen wurde anschließend eine Aufgabe bzw. eine Handlungsabfolge mit
speziell zu berücksichtigenden Kriterien
der Heuristik definiert, die den Gutachtern zur Überprüfung vorgelegt wurde.
In der Analysephase bearbeiteten jeweils vier Gutachter die gestellten Aufgaben und protokollierten alle beeinträchtigenden Faktoren, die bei der
Durchführung der Interaktionen auftraten. Die jeweiligen Ergebnisse wurden
nach Abschluss des Cognitive Walkthroughs gemeinsam diskutiert und bewertet.
Die Auswertung ergab, dass die Handhabung der Interaktionen auf medienhandbuch.de für die Nutzer vereinfacht
und transparenter gestaltet werden
kann:
■ So wird beispielsweise bei der Ergebnisdarstellung zur Suchenfunktion die Anzahl der gefundenen Treffer nicht angezeigt.
■ Eine Suchanfrage kann nicht modifiziert werden – zum Abschluss einer
Suche besteht lediglich die Möglichkeit, eine völlig neue Suche zu starten, ohne dass die vorherige Suchformulierung zum Zweck der Veränderung im Suchfeld stehen bleibt.
■ Bei einigen Interaktionen von medienhandbuch.de kann das zugeteilte Passwort nicht frei gewählt
oder geändert werden. Zudem hat
der Nutzer während der Handlungsabläufe der Passwortzuweisung
keine Möglichkeit zurückzugehen
bzw. die Anwendung zu verlassen.
■ Bei vielen Handlungsabläufen auf
den unterschiedlichen Seiten wurden
uneinheitliche Bezeichnungen verwendet.
Deutlichere Strukturen, eindeutigeres
und informativeres Feedback, konsequente Konsistenz der Begrifflichkeiten,
regelmäßigere Aktualisierung der Handlungsabläufe sowie stärkere Fokussie-
rung auf die Bedürfnisse des Nutzers
waren die wesentlichen Kritikpunkte,
die sich aus dem Cognitive Walkthrough durch die Website ergaben.
Reality check:Usability-Test im Labor
Der Usability-Test im Labor unterscheidet sich von den Tests im wesentlichen
dadurch, dass nicht Experten die Website testen, sondern zwischen fünf bis
sieben „unerfahrene“ Testpersonen.
Diese Testnutzer, die in der Regel anders in der Website agieren als Expertennutzer, sollten soweit möglich dem
Durchschnittsprofil der Nutzer der zu
testenden Website entsprechen.
Bei Tests im Usability-Labor hat sich die
„thinking-aloud“-Methode bewährt.
Dabei wird ein Proband aufgefordert,
Gedanken während der Ausführung der
Aufgaben laut auszusprechen. Indem
die Tester verbalisieren, was ihnen
durch den Kopf geht, wenn sie mit dem
Computer bzw. der Website interagieren, kann man feststellen, wo und welche Verständnisprobleme auftreten.
Während des Tests werden Bild und
Ton der Testperson und parallel dazu
der Bildschirm mit je einer Videokamera
aufgezeichnet. Anschließend erfolgt die
Verschriftlichung der gewonnenen
Daten. Die so festgehaltenen Probleme
werden in Problemkategorien eingeteilt,
sortiert und gewichtet. Zusätzlich werden vor und nach dem Test Fragebögen
ausgeteilt, in denen sowohl die Internet- und Computervorkenntnisse der
einzelnen Probanden sowie deren subjektive Meinungen zu der getesteten
Website erfragt werden.
Für den eigentlichen Labortest wurde
den Probanden eine Reihe von Aufgaben vorgegeben, mit denen vor allem
die Struktur von medienhandbuch.de
und die Navigationsmöglichkeiten getestet werden sollten. Alle Aufgaben
waren lösbar und für die Testpersonen
nachzuvollziehen. Zusätzlich wurde ein
detaillierter Testablaufplan erstellt, um
für jede Testperson die gleichen Voraussetzungen und Testbedingungen zu
schaffen. Da im Testlabor nur eine Kamera zur Verfügung stand, wurde bei
jeder Testsitzung der Bildschirm aufgenommen, um die Mausbewegungen dokumentieren zu können. Die mimischen
und gestischen Reaktionen des jeweiligen Probanden wurden von einem
Teammitglied protokolliert (vgl. Abb. 3);
die verbalen Äußerungen der Probanden wurden mit dem zur Kamera gehörendem Mikrofon aufgenommen.
Tatsächlich konnte die anschließende
Analyse der Protokolle und der Videoaufzeichnungen zusätzliche Schwachstellen in der Nutzerfreundlichkeit von
medienhandbuch.de in den Bereichen
Navigation, Suchfunktion, Formularein-
58(2007)1, 29-34
U sa b i l i t y Te st
Abbildung 3: Durchführung des Usability-Tests im Labor
gabe und Darstellung aufdecken. Im
Labor-Test ergab sich unter anderem,
dass die Rubrikentitel der Hauptnavigation eindeutiger und aussagekräftiger
benannt werden müssen und dass die
Möglichkeiten der Subnavigation grafisch präsenter gestaltet werden muss,
da alle Probanden Probleme damit hatten, diese Funktion überhaupt zu finden. Auch mit der Suchfunktion hatten
die Laborprobanden Probleme, da die
Suchfunktion nicht auf allen Unterseiten
von medienhandbuch.de an derselben
Stelle und in derselben Form dargestellt
wurde.
Der Test zeigte auch, dass die Eingabeformulare möglichst kurz gehalten
werden sollten, indem sie sich auf nur
absolut notwendige Datenfelder beschränken. Viele der Formulare empfanden die Probanden als zu lang, und
auch die umständliche Registrierungsprozedur wurde von den Testpersonen
kritisiert, da sich der Nutzer bei jeder
Eintragungsmöglichkeit für die verschiedenen Dienste der Website erneut
anmelden musste. Dem Auftraggeber
wurde deshalb die Einrichtung einer
einheitlichen und seitenübergreifenden
Anmeldeoption empfohlen. Als weiterer
Kritikpunkt wurde von mehreren Probanden die zu kleine Schrift bemängelt,
und es wurde die optisch unzureichende Trennung von Inhalt und Werbung kritisiert.
Barierrefreiheit
Barrierefreies Internet bezeichnet Internet-Angebot, die sowohl von Menschen
mit Behinderung oder altersbedingten
Einschränkungen (z. B. Sehschwächen),
aber auch von nichtbehinderten Nutzern uneingeschränkt genutzt werden
können. Barrierefreiheit bedeutet auch
Plattformunabhängigkeit: ein Internetangebot soll demnach auch mit PDA
und WAP-Handy nutzbar bleiben. Barrierefreie Websites sollen außerdem für
Suchmaschinen leichter zugänglich
sein, da die Webcrawler, mit deren Hilfe
Internet-Seiten indiziert werden, Websites ähnlich wahrnehmen wie sehbehinderte Nutzer. In der Regel kann also nur
58(2007)1, 29-34
der Text ausgewertet werden,
Bilder, Animationen, allgemein
nicht-textuelle Elemente bleiben den Suchmaschinen verborgen. Weiterhin sind barrierefreie Websites auch für
ältere Computer mit alten
Browserversionen bzw. mit
langsamen Internetverbindungen besser zugänglich sowie
für Firmencomputer, die Javascript und Plug-Ins aus Sicherheitsgründen deaktiviert haben.
Bobby ist ein Testbrowser, mit
dem eine Website auf Barrierefreiheit
hin getestet werden kann. Im Internet
wird eine kostenlose Testmöglichkeit
mit Bobby angeboten [8]. Nach Anwendung des Tests wird – je nach Grad der
Barrierefreiheit – ein Prüfsiegel vergeben. Im Projekt amuse wurde der Bobbytest auf das zu überprüfende Medienportal angewandt. Nach Eingabe der
URL der zu testenden Website auf der
Internetseite http://bobby.watchfire.
com testet Bobby die Einhaltung der
Zugänglichkeitsrichtlinien für Web-Inhalte. Dazu wird ein Screenshot der zu
testenden Internetseite im Bobby
Browser dargestellt. Außerdem listet
der Bobby-Report alle automatisch überprüften Mängel der Seiten auf und bietet für nicht indexierbare Fehlerquellen
Hinweise auf betreffende Richtlinien für
barrierefreies Web sowie mögliche Verbesserungsvorschläge. Die Testseite
medienhandbuch.de erfüllte die allermeisten Kriterien für Barrierefreiheit
nicht.
Beurteilung der Testmethoden
Nach Abschluss der unterschiedlichen
Tests wurden die identifizierten Usability-Mängel des Portals tabellarisch
aufgelistet und durch Verbesserungsvorschläge ergänzt (vgl. Abb. 4). Die häufigsten Mängel in der Nutzerfreundlichkeit betrafen die Bereiche Navigation,
Suchfunktion, Formulareingabe, Registrierung, Möglichkeiten für Einträge und
Darstellung von Informationen.
Aufgrund der Erfahrungen aus der
Überprüfung von medienhandbuch.de
mit den unterschiedlichen Testmethoden konnten die einzelnen Verfahren
abschließend verglichen und beurteilt
werden. Der Fallschirmspringertest
(Trunk-Test) nach Steve Krug ist in der
Form, wie er in vorliegender Studie
durchgeführt wurde, durchaus für eine
erste grobe Überprüfung von UsabilitySchwachstellen einer Website geeignet.
Der Test deckt allerdings nur wenige
signifikante Usability-Fehler auf und
reicht daher nicht an die Heuristische
Evaluation bzw. den Usability-Test im
Labor heran.
Die eindeutigsten und verlässlichsten
Ergebnisse liefert die heuristische Evaluation mit der ein Großteil der spezifischen Usability-Probleme herausgefunden werden kann. Bei der heuristischen
Evaluation erkennt ein einzelner Gutachter etwa 35 Prozent aller UsabilityProbleme. Eine Gruppe von drei bis fünf
Gutachtern findet etwa 60 bis 70 Prozent der Usability-Probleme [9].
Der Web Usability Index führt zu ähnlichen Ergebnissen, deckte aber nicht so
viele Mängel auf wie die heuristische
Evaluation. So ergab die heuristische
Evaluation, dass die Navigationsoptionen
sowohl auf der Homepage als auch auf
den Unterseiten von medienhandbuch.de
nicht gut erkennbar sind. Dieser Punkt,
der in die erste Priorität eingeordnet
wurde, konnte durch den Web Usability
Index nicht identifiziert werden. Der Vorteil des Web Usability Index liegt darin,
dass er durch den vorgefertigten erweiterbaren Kriterienkatalog weniger zeitaufwändig ist. Auch können mit dieser
Methode Konkurrenzangebote im Vergleich evaluiert werden. Außerdem kann
der Dienst kostenlos in Anspruch genommen werden und ist durch die Zeitersparnis insgesamt kostengünstiger.
Der Vorteil der heuristischen Evaluation
durch Experten liegt in dem spezifischen Kriterienkatalog, der individuell
für eine zu überprüfende Website erstellt wird. Bei beiden genannten Methoden wird die Auswahl der Bewertungskriterien durch Experten vorgenommen und damit nicht durch die
eigentlichen Nutzer. Die Evaluationsexperten können also die Sicht bzw. das
Informationsverhalten der potenziellen
Endnutzer bestenfalls simulieren. Insbesondere gilt dies hinsichtlich der Bewertung der Navigation in informationsorientierten Websites, da die Experten mit
den Grundlagen von Systemarchitekturen vertraut sind und dieses Erfahrungswissen bei der Bewertung kaum ausblenden können [9].
Die im Projekt amuse angewendeten
und erprobten Usability-Tests zeigten,
dass einige Probleme und Mängel einer
Website nur durch die Beobachtung von
Nutzer bei der Lösung von Aufgaben herausgefunden werden können. Beispielsweise empfand ein Großteil der Probanden im Usability-Testlabor die Schriftgröße der Texte in dem Medienportal als
zu klein: eine Beobachtung, die durch
die Heuristische Evaluation nicht aufgedeckt wurde. Dort wurde die Schriftgröße in medienhandbuch.de lediglich
mit Standardvorgaben verglichen und
nicht als problematisch erkannt. Experten orientieren sich in erster Linie an allgemein akzeptierten bzw. empirischen
Kriterien. Nutzer aus der Zielgruppe
einer Website geben hingegen ihre subjektive Meinung und ihre im Moment
des Tests empfundenen Urteile wieder.
33
U sa b i l i t y Te st
ter ein Relaunch von medienhandbuch.de. Zwei der Projektmitarbeiterinnen wurden mit dieser Aufgabe betraut und so
war es möglich, über 80 Prozent der in der Usability-Studie
empfohlenen Optimierungsoptionen in die Praxis umzusetzen.
Literatur
Abbildung 4: Ausschnitt aus der Tabelle für die Verbesserungsvorschläge
[1] Nielsen, Jakob: Usability : Empiricism or Ideology? [online]. In: useit.com –
Jakob Nielsen’s Website : Alertbox [online]. Fremont, CA (2005-06-27). –
www.useit.com/alertbox/2005 0627.html [geladen 2005-04-23]
[2] Norm DIN EN ISO 9241-11. Anforderungen an die Gebrauchstauglichkeit :
Leitsätze
[3] Projektteam amuse; Schmidt, Ralph (Hrsg.) ; Spree, Ulrike (Hrsg.) : medienhandbuch revisited : Diagnosen und Rezepte zu Usability, Marketing und
eMarket-Strategien eines Medienportals. Hamburg : HAW, SD Information,
2005 (Hamburger Materialien zur Medien-Information ; 32) . 358 S., 7 Anh., 94
Abb., 23 Tab ; Beil.: CD-ROM mit Text der Arbeit [pdf] und den prototypischen Optimierungslösungen [html]. – 55,–
[4] Krug, Steve: Don’t make me think : a common sense approach to Web Usability. Indianapolis, US : Macmillan, 2000
[5] Schweibenz, Werner: Übersetzung der Einführung Introduction to Quicklist
for Web Communication [online]. Society for Technical Communication, 2000.
www.tekom.de/index.jsp?pid= 2112107453 [geladen 2005-04-23]
[6] Nielsen, Jakob: Usability Engineering. Boston, MA : Academic Press,1993
[7] Harms, Ilse; Schweibenz, Werner; Strobel, Johannes: Usability Evaluation von
Web-Angeboten mit dem Web Usability Index. In: Schmidt, Ralph (Hrsg.):
Content in Context : Perspektiven der Informationsdienstleistung (24. Online-Tagung der DGI, Frankfurt/Main 2002). Frankfurt am Main : DGI, 2002
(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; 5), S. 283-292
[8] Bobby Watchfire Software [online]. Waltham, MA. – http://bobby.watch
fire.com [gel. 2005-04-11]
[9] Harms, Ilse; Schweibenz, Werner: Testing Web Usability [online]. In: Information Management & Consulting 15 (2000) 3, S. 81-66. – http://usability.is. unisb.de/ beitrag/testwebu.pdf [gel. 2005-04-23]
Doch auch der Usability-Test im Labor kann aufgrund der zeitlich limitierten Testsitzungen und der begrenzten Auswahl
von Bedienungsaufgaben nicht alle
Details einer Website abdecken. Heuristische Evaluation und der UsabiGebrauchstauglichkeit, empirische Untersuchung, Methode, Projekt, Usability, HAW
lity-Test im Labor sollten deshalb
aufeinander aufbauen bzw. sich gegenseitig ergänzen. Die Erkenntnisse
aus der Heuristischen Evaluation
können in die Entwicklung der Aufgaben für den Usability-Test im
Labor einfließen und so Lücken
Berufserfahrung als Bürokauffrau; danach Studium der Mediendoschließen und Ergebnisse bestätigen.
kumentation an der HAW Hamburg; Praxissemester in der OnlineDer Cognitive Walkthrough ist beproduktion von Sportal.de (IMG Hamburg GmbH); Design und
sonders für Websites mit einem
Produktion von Websites (www.rechtsanwaeltin-hinrichsen.com
hohen Anteil an Interaktionen bzw.
und www.babett-richwien.de); Evaluation für die Website
Funktionen geeignet. Mit dieser
www.lehr-lern-netz.de im Auftrag der INBAS GmbH
Testmethode kann herausgefunden
werden, ob und wie vorgegebene
Fibigerstraße 163, 22419 Hamburg, [email protected]
Handlungsabläufe von einem hypothetischen Nutzer verstanden werden bzw. ob sie überhaupt funktionsZum
Projektteam
fähig sind.
amuse
(analyse
meDie Ziele, Methoden und Ergebnisse
dienhandbuch.de:
der amuse-Studie wurden im einem
usability, structure,
umfassenden Projektbericht zusame-market) im Studienmengefasst, in dem die Schwachstelgang Mediendokulen des Medienportals aufgezeigt,
mentation der Hochentsprechende Verbesserungsvorschule für Angeschläge unterbreitet und Optimiewandte Wissenschafrungsstrategien angeboten wurden
ten Hamburg gehö[3]. Zusätzlich wurden im Rahmen
ren Daniela Baumdes Projekts drei Prototypen in altergart, Julia Feix, Sarah
nativem Webdesign erstellt, die auf
Feuchter,
Felicitas
Herrmann,
Emine
Kaynar,
Gloriya
Kublanova,
Verena Möser, Maja
CD-ROM gebrannt dem AuftraggePaulsen, Nicole Petrucela, Prof. Dr. Ralph Schmidt, Prof. Dr. Ulrike Spree, Katrin Alexanber die Möglichkeiten usability-gedra Wanek und Ulla Wilms.
rechter Informationsarchitektur und -
Da s A u to r e n t e a m
Nicole Petrucela
Projektteam amuse
gestaltung demonstrieren sollten.
Nach Fertigstellung und erfolgreicher
Präsentation der Studie beim Auftraggeber, erfolgte drei Monate spä-
34
Hochschule für Angewandte Wissenschaften Hamburg (HAW)
Fakultät Design, Medien und Information, Studiendepartment Information
Berliner Tor 5, 20099 Hamburg, Telefon: (040) 4 28 75 36 03
58(2007)1, 29-34
Hochschule
Die akademische Weiterbildungslandschaft in Thüringen
Bildungsportal Thüringen – Plattform für akademische Weiterbildung und E-Learning in Thüringen
Sabine Fincke, Jana False, Kerstin Grosch, Heinz-Dietrich Wuttke aus Thüringen
Aktuelle Studien zeugen von einem
hohen Bedarf an akademischen Weiterbildungsangeboten. Das Bildungsportal Thüringen versteht sich als
Forum für wissenschaftliche Weiterbildung und Neue Medien in Thüringen. Als Internetportal aller Thüringer Hochschulen unterstützt es seit
Juni 2002 die Hochschulen und ihre
Serviceeinrichtungen bei der Information über und der Vermittlung von
Weiterbildungsangeboten. Darüber
hinaus informiert das Bildungsportal
über Projekte und Angebote im Bereich des E-Learning.
Education Forum of Thuringia – platform
for further academic education and elearning
Recent studies report a high demand
regarding further academic education. The Bildungsportal Thüringen
(Education Forum of Thuringia) sees
itself as a forum for further academic
education and new media in Thuringia. The online site of the Bildungsportal Thüringen provides information and procurement support for all
higher education institutions of Thuringia and their further education offers since 2002. Additionally the Bildungsportal informs about offers and
projects in e-learning.
Weiterbildungsbedarf in Thüringen
In Thüringen besteht ein hoher Qualifizierungs- und Fachkräftebedarf, wie
die quartalsweisen Befragungen von
Thüringer Unternehmen, deren Ergebnisse durch die Gesellschaft für Arbeits- und Wirtschaftsförderung des
Freistaates Thüringen (GFAW)1 veröffentlicht werden. Im 3. Quartal 2006
waren die Bedarfe der 1086 befragten
Unternehmen in den Branchen Metallerzeugung/-bearbeitung, Elektrotechnik/Optik, Baugewerbe und Maschinenbau am höchsten. Diese Disziplinen
werden an Thüringer Hochschulen verstärkt gelehrt.
58(2007)1, 35-37
Abbildung 1: Startseite des Bildungsportals Thüringen
Die Lernende Region Ilm-Kreis2 führte
im Sommer 2006 in Kooperation mit der
Forschungsgruppe „ManageSME“3 des
Instituts für Rechtswissenschaft an der
TU Ilmenau ebenfalls eine Studie zur
Ermittlung des Weiterbildungsbedarfs
von Führungskräften in kleinen und
mittleren Unternehmen [1] durch. Die
Forscher befragten hierzu 105 Unternehmen in Thüringen.
Als Entscheidungskriterien bei der
Auswahl von Weiterbildungsveranstaltungen wiesen die Befragten der fachlichen Kompetenz der Anbieter einen
sehr hohen Stellenwert zu. Auf dem
zweitem Rang lag die Praxisorientierung der Angebote. Danach folgten die
Aktualität und der Preis. Damit zeigt
sich, dass Bildungsangebote, die eine
nachweislich hohe Fachkompetenz der
Anbieter mit praxisorientierten Lernund Lehrformen verbinden, dem Weiterbildungsbedarf auf ideale Weise entgegenkommen. Die Studie zeigt weiter,
dass den Universitäten und Fachhochschulen eine solche Kompetenz zugeschrieben wird. Befragt nach ihren favorisierten Anbietern für Weiterbildungsveranstaltungen, nannten die
Thüringer Führungskräfte die Universi-
täten und Fachhochschulen an erster
Stelle, gefolgt von privaten Bildungseinrichtungen sowie den Industrie- und
Handelskammern bzw. den Handwerkskammern.
Das Internet war für die befragten Führungskräfte das mit Abstand wichtigste Informationsmedium, um sich
über Weiterbildungsangebote zu informieren. Zeitungen und Zeitschriften
waren die zweitwichtigste Informationsbasis, die Nutzung von Werbematerialien nahm lediglich Rang drei bei der
Informationssuche nach Weiterbildungsangeboten ein.
Idee des Bildungsportals Thüringen
Das Bildungsportal Thüringen4 bietet
als einziges Internetportal einen transparenten Überblick über akademische
Weiterbildungsangebote und E-Lear-
1
2
3
4
vgl. Kurzdarstellung der Ergebnisse des
durch alle Thüringer Qualifizierungsberater
festgestellten Qualifizierungs- und Fachkräftebedarfs im 3. Quartal 2006, www.qualifizierte-fachkraefte.de
www.lernregion.net
www.manage-sme.de
www.bildungsportal-thueringen.de
35
We i t e r b i l d u n g s p o r ta l Th ü r i n g e n
Weiterbildungsberater
an den Hochschulen.
Darüber hinaus zählen
externe
Weiterbildungsberater, Partnerorganisationen und unternehmen, Betreiber von Fachportalen
und regional und überregional orientierten Internetpräsenzen
zu
den Zielgruppen. Aus
dieser Vielfalt von Anspruchsgruppen ergeben sich sehr unterschiedliche Anforderungen an die Inhalte
Abbildung 2: Internes und Externes Netzwerk des Bildungsportals
und die Organisation
Thüringen 2001-2006 [3]
des Bildungsportals.
ning-Dienste der Hochschulen in ThüDie unterschiedlichen Angebotssparringen. Damit leistet es einen wichtiten verlangen zunächst eine klare
gen Beitrag zur Bereitstellung und
Struktur des Bildungsportals, die die
Pflege einer zuverlässigen Datenbasis,
Navigation durch die Inhalte erleichdie den in den Studien aufgezeigten
tert. Da die Zahl der WeiterbildungsanBedürfnissen der Thüringer Unternehgebote, die derzeit bei ca. 250 liegt,
men entgegenkommt.
ständig wächst, sind systematische
Suchmöglichkeiten von zentraler BeDas Angebot des Bildungsportals wird
deutung (siehe Abbildung 3). Zur Verergänzt durch Informationen über die
fügung stehen die Volltextsuche, die
Hochschulen und ihre Serviceeinrich(erweiterte) Filtersuche nach Angetungen im Weiterbildungsbereich. Dabotsart, Anbieter, Angebotszeitraum
rüber hinaus informiert das Bildungsund weiteren Kriterien sowie die Kataportal über relevante Veranstaltungen
logsuche, die zu vorstrukturierten Ander Hochschulen sowie über aktuelle
gebotsübersichten führt. Als Reaktion
Entwicklungen im Weiterbildungsbeauf Bedarfsmeldungen von Interessenreich, wie dem Bologna-Prozess oder
ten und Kooperationspartnern stehen
dem dualen Studium. Eine umfangreiinzwischen auch zielgruppenspezifiche Linksammlung zu Branchennetzsche Angebotsübersichten zur Verfüwerken, Partnern sowie Job- und Kargung.
riereportalen rundet das Online-Angebot des Bildungsportals ab.
Über die Plattform des Bildungsportals
Thüringen hinaus sind die Mitarbeiter
des Portals in ein weit verzweigtes Bildungsnetzwerk in Thüringen und der
gesamten Bundesrepublik Deutschland
eingebunden. Weiterbildungsvermittler
und E-Learning- Dienste, Unternehmen, Städte und Gemeinden, lokale
und branchenbezogene Wirtschaftsnetzwerke und Initiativen im Bereich
der Neuen Medien zählen zu den Netzwerkpartnern. Zur Information dieser
Partner über Neuigkeiten des Bildungsportals und des akademischen Weiterbildungsbereiches der Thüringer Hochschulen erscheint ein vierteljährlicher
elektronischer Newsletter.
Anforderungen an das Bildungsportal
Das Bildungsportal richtet sich auf Interessentenseite an individuelle Weiterbildungsinteressenten und Personalentwickler in Unternehmen, auf Anbieterseite an Hochschullehrer und
5
www.siteforum.com
36
Engine sowie der Portalsoftware SITEFORUM Interactive Business Portal 5
mit spezifischen Erweiterungen für das
Bildungsportal Thüringen. Diese Erweiterungen ermöglichen einerseits eine
nutzergerechte dezentrale Datenpflege
und andererseits die zielgerichtete Weiterleitung der Daten an die Netzwerkpartner des Bildungsportals. Dadurch
ist es möglich, einmal eingegebene
Daten in zahlreichen unterschiedlichen
Internetportalen anzuzeigen und auf
einem aktuellen Stand zu halten, ohne
manuelle Eingriffe vorzunehmen. Für
die Anbieter ergibt sich daraus ein
enormer Synergieeffekt, da sie nur
einen Ansprechpartner für die Datenpflege haben, trotzdem aber in vielen
Netzwerken mit Ihren Angeboten vertreten sein können.
Die durch das Bildungsportal genutzten Technologien orientieren sich ausschließlich an nationalen und internationalen Standards, wobei Vertreter des
Portals bereits aktiv an der Erarbeitung
solcher Standards mitwirkten (DIN PAS
1032-1 und DIN PAS 1045). Die Nutzung von Standards unterstützt das
Schaffen von Datenschnittstellen zur
vereinfachten Datenpflege und zur Einbindung in innovative Lösungen bei der
Vernetzung von Informationsportalen.
Auch das Angebot von Web-Services
wird hierüber erleichtert, so sind bereits einfach implementierbare Suchfenster mit flexibel anpassbarem Design und Filter für Partnerseiten verfügbar. Weitere Services befinden sich
derzeit in der Erprobungsphase.
Abbildung 3: Einfache und erweiterte Filtersuche im Bildungsportal Thüringen
Technologie
Nicht nur inhaltlich, sondern auch von
Seiten der Technologie verfolgt das Bildungsportal ein Konzept höchstmöglicher Vernetzbarkeit und Kompatibilität.
Der Internetauftritt des Bildungsportals
ist auf einem Standard-Web-Server realisiert, der im Rechenzentrum der TU Ilmenau gehostet wird. Seine SoftwareImplementierung beruht auf Linux,
MySQL, Apache inklusive einer Servlet-
Informationseinheiten und
Datenaustausch
Derzeit sind auf das Portal über 400.000
Zugriffe auf Storys (=Informationseinheiten) pro Jahr zu verzeichnen. Die
Zahlen weisen eine steigende Tendenz
auf, wie Abbildung 4 zeigt.
Die Metadaten, mit denen jede Informationseinheit im Bildungsportal versehen ist, sind kompatibel zur DIN PAS
58(2007)1, 35-37
We i t e r b i l d u n g s p o r ta l Th ü r i n g e n
Abbildung 4: Gesamtzugriffe auf Stories im
Bildungsportal Thüringen
10456 und orientieren sich an CanCore
sowie dem LOM-Standard zur Beschreibung von Lernobjekten. Die Metadaten für die Bildungsangebote werden ebenfalls von den Educational
Content Editoren – in Abstimmung mit
den Verantwortlichen der beschriebenen Angebote – selbst vergeben. Hierfür stehen angepasste Erfassungsmasken mit Kopier- und Suchmöglichkeiten
zur Vereinfachung der Datenpflege zur
Verfügung. Die Metadaten dienen der
Unterstützung von spezifischen Serviceleistungen wie dem Erstellen zielgruppenspezifischer Übersichten, dem
DataMining oder dem Matching von
Angeboten für kundenspezifische
Suchanfragen. Sie lassen sich in unterschiedlichen Datenformaten, unter anderem xml und csv, importieren und
exportieren7.
Organisation der Contenteingabe
und -aktualisierung
Ein Leitfaden bei der Entwicklung des
Portals war und ist der Netzwerkgedanke. Die Koordinierung des laufenden Betriebs und die Weiterentwicklung der Services des Bildungsportals
erfolgen durch ein zentrales Projektbüro in Erfurt. Von dort aus werden außerdem die Anbieter, Interessenten
und Partner des Portals betreut. Die
Bereitstellung und Pflege der Angebotsbeschreibungen erfolgt durch mittlerweile mehr als 50 Educational Content Editoren (Projektvertreter und
Experten), die direkt an den Fachbereichen der jeweiligen Hochschulen und
Partnerinstitutionen tätig sind. Für die
Pflege der Portalinhalte stehen ihnen
dezentral nutzbare webbasierte Werkzeuge zur Verfügung. Weiter unterstützen flexible Rollenkonzepte und die Integration unterschiedlicher Workflows
das kooperative Zusammentragen und
Bearbeiten von Informationen. Die Informationen werden somit direkt am
Ort ihrer Entstehung durch ein Netzwerk von Einzelanbietern aktualisiert.
Dies schafft Voraussetzungen für
höchste Aktualität und Verlässlichkeit
der angebotenen Informationen [2].
58(2007)1, 35-37
Die Publikation der Inhalte auf den Webseiten erfolgt nach deren Überprüfung
durch das Projektbüro in Erfurt. Eingegangene Aktualisierungen werden mindestens zwei Mal in der Woche eingearbeitet. Die Anbieter werden mindestens
zwei Mal jährlich um die Überprüfung
der Aktualität der Beschreibungen der
Bildungsinhalte gebeten, wobei jede Informationseinheit im Portal mindestens
einmal jährlich geprüft wird. Darüber hinaus findet die Netzwerkarbeit mit den
Experten vor Ort bei der Erstellung regelmäßiger Publikationen, wie dem jährlich erscheinenden Weiterbildungsheft
der Hochschulen, statt [3].
D i e A u to r e n
Sabine Fincke
Geboren 1964, Diplom-Ingenieur für
Informationsverarbeitung (TU Dresden), seit 2004 im
Bildungsportal Thüringen tätig als Information Broker.
Schwerpunkte: Informationstechnologie, Contentstrukturierung und aufbereitung, Weiterbildung.
[email protected]
[email protected]
Erfolgskontrolle und Qualitätssicherung
Jana False
Neben Logfile-Analysen stehen dem
Projektteam des Bildungsportals weitere Instrumente der Erfolgskontrolle
zur Verfügung. So erfolgt eine regelmäßige Auswertung von Anfragen und
Anregungen, aber auch von Fehlermeldungen der Nutzer und Partner. Diese
fließen insbesondere in die Weiterentwicklung des Systems und der Services
ein. Darüber hinaus finden regelmäßige
Befragungen statt, in den Jahren 2004
und 2005 waren dies unter anderem
Anbieterbefragungen zu den Auswirkungen der Angebotsbewerbungen im
Bildungsportal auf die Buchung von
Angeboten. Auch regelmäßige Gesprächsrunden und Veranstaltungen
mit Projektpartnern dienen der Erfolgskontrolle und Verbesserung der Services des Bildungsportals.
(Jahrgang 1971) hat
Wirtschaftsinformatik sowie Wirtschafts- und Fachinformation an der TU
Ilmenau studiert. Sie
ist mit ihrer Firma
infonic als selbständige Informationsbrokerin tätig. Seit
2002 ist sie Kooperationspartner im
Netzwerk Lernende Region IlmKreis.
[email protected]
Kerstin Grosch
Geboren 1980, Dipl.Medienwissenschaftlerin (TU Ilmenau), seit 2005
Unterstützung der
Presse- und Öffentlichkeitsarbeit des
Bildungsportals
Literatur
[1] Bielig , Andreas; Dauner , Jörg; False , Jana;
Haase, Heiko; Weyand, Joachim: Weiterbildung in
kleinen und mittleren Unternehmen: Eine europäische Studie im Rahmen des Projekts „ManageSME“. In: Weyand, J.; Haase, H. (Hrsg.): Research Papers in Economics and Law (RPEL) 5
(2006). Ilmenau 2006, ISSN 1861-1966
[2] Wuttke , Heinz-Dietrich; Schmidt , Karsten;
Fincke, Sabine; von Pappritz, Julien: 4 Jahre Bildungsportal Thüringen auf der Basis innovativer Technologien und eines tragfähigen Netzwerkes. In: 17. Internationale Wissenschaftliche Konferenz Mittweida (Tagungsband).
Mittweida 2005, S.10-17, ISSN 1437-7624
[3] Fincke , Sabine; Wuttke , Heinz-Dietrich;
Schmidt, Karsten; Grosch, Kerstin: Transparenz
zu Weiterbildungsangeboten und den Einsatz
von E-Learning an den Thüringer Hochschulen.
In: 10. Workshop „Multimedia in Bildung und
Wirtschaft“ (Tagungsband). Ilmenau 2006,
S.141-144; ISSN 1436-4492
[4] Wuttke , Heinz- Dietrich; Schmidt, Karsten:
The Bildungsportal Thüringen – A contribution
to the transparency of eLearning, Grindelwald,
February 21-23, 2005 Proccedings of the WBE
2005, IASTED, Editor: V. Uskov, ISBN (Hardcopy): 0-88986-480-2.pp 195-200
Thüringen.
[email protected]
Heinz-Dietrich Wuttke
Geboren 1953, Dr.Ing., ist wiss. Mitarbeiter im Fachgebiet
Integrierte Hardware- und Softwaresysteme an der TU
Ilmenau, leitet das
Bildungsportal Thüringen von Beginn an. Weitere Arbeitsschwerpunkte: Wiederverwendbare Lernobjekte, Entwurf und Test
digitaler Systeme.
[email protected]
6
7
Weiterbildung, Portal, Benutzerforschung
http://beuth.de und http://projekt.iwwb.de
www.bildungsportal-thueringen.de/themen
und www.bildungsportal-thueringen.de/erwi
con2006 und www.bildungsportal-thuerin
gen.de/technologietag-hwk2006, thematisch
sortierte Angebotsübersichten
37
Ta g u n g s b e r i c h t e
Hype und Wirklichkeit an der Universität
„eUniversity - Update Bologna“:Tagung zur Zukunft der Universitäten – Bonn, November 2006
Michael Huter, Wien
In den Gebäuden des ehemaligen Deutschen Bundestages in Bonn fand am
8. und 9. November 2006 die Tagung
„eUniversity – Update Bologna“ statt.
Veranstalter waren das Multimedia
Kontor Hamburg GmbH (MMKH, www.
mmkh.de) und das Centrum für eCompetence in Hochschulen NRW (CeC,
www.cec.nrw.de), in Hagen. Die Tagung vereinte die ansonsten getrennt
stattfindenden Veranstaltungen „Campus Innovation“ (www.campus-innova
tion.de) und „Education Quality Forum“
(www.education-quality.de) zu einer
Großveranstaltung. Näheres zum Programm sowie weiterführende Informationen unter: www.education-quality.de
In acht Plenarvorträgen und etwa 30
weiteren Referaten in parallelen Foren
behandelte die Tagung den globalen
Systemwandel in Bildung und Wissenschaft. Der Einsatz der Informationsund Kommunikationstechnologien, so
die allgemeine Meinung, ist in diesem
Prozess nicht etwa die Folge, sondern
die Voraussetzung und treibende Kraft.
Die Veränderungen betreffen sowohl die
Kernbereiche der Lehre und Forschung
als auch die Infrastrukturen in Administration und Service, und zwar beides auf
institutioneller, regionaler, nationaler
und internationaler Ebene. Nachdem
der Wandel nicht nur technisch induziert, sondern auch politisch gewollt ist,
bot die Tagung einen aktuellen Überblick über den Stand der Universitätsreform in Deutschland und Europa.
E-Learning:Zwischen Hype und Wirklichkeit
Angeblich werden derzeit ungefähr
fünf bis zehn Prozent der Lehre als ELearning angeboten. Selbst wenn die
Schätzung vorsichtig ist, muss beim
derzeitigen Stand davon noch ein Teil
des Volumens abgezogen werden.
Nach wie vor gilt der up- bzw. download von PDF- oder Powerpoint-Dateien
als E-Learning, obwohl es sich dabei
schlicht um traditionelle, statische Formate handelt. (pdf entspricht meistens
38
gedrucktem Text und ppt heißt im Prinzip nicht anderes „Folien“-Sammlungen, also zum Zweck der Projektion eingerichtete Texte und Grafiken.) Wenn
man noch dazu die Schwächen von ppt
einkalkuliert, so ist Vieles, was derzeit
als E-Learning kursiert, schlechtere
Lehre als Frontalunterricht und Präsenzlehre, oder – liebevoller ausgedrückt – die gute alte Methode von
„chalk & talk“. (Der Informationsdesigner Edward R. Tufte aus Yale hat gezeigt, dass die kognitive Beschränktheit der üblichen ppt-Verwendung,
nicht nur mit Informationsverlust, sondern wie beim Challenger-Absturz
auch mit dramatischer Fehlinformation
verbunden sein kann. Vgl. www.ed
wardtufte.com)
Dass der aktuelle Status recht bescheiden ist, gibt den Skeptikern noch nicht
Recht. Die nächste, spätestens übernächste Generation von Lehrenden
werden als „digital natives“ in der Informations- und Kommunikationstechnologie zu Hause sein und keine Anpassungsprobleme mehr kennen wie
die digitalen Immigranten vor ihnen.
Der wirtschaftliche Druck, die Zuteilung von Ressourcen und die Selbsterfüllung des Hypes werden die Dynamik
noch zusätzlich erhöhen. Dazu kommt,
dass sich auch die Wissenschaft selbst
nicht nur ökonomische Vorteile verspricht. Wissenschaftler, die sich einem
humanistischen Ethos von Wissensproduktion verpflichtet fühlen, setzen auf
die positiven Effekte alternativer Formen von Information und Kommunikation. Man hofft, dass sich die Zwänge
zu Normierung und Homogenisierung
durch ein neues Lernen in sozialen Praxisgemeinschaften ausgleichen und positiv umlenken lassen. „Web 2.0“ und
„Social Software“ heißen die Schlagwörter, mit denen man den Primat, besser gesagt, das Diktat des Ökonomischen zu kompensieren hofft. Die Kommunikation unter usern und die dabei
erzeugten Inhalte sollen die Alternative
zu den regulierten Fachstudien bilden.
Auf die Frage, ob Bologna und web 2.0
zusammengehen, versuchte die Me-
dienpädagogin Gabi Reinmann (Augsburg) in Ihrem Referat eine vorsichtig
optimistische Antwort.
E-Learning wird häufig als die Lösung
aller Probleme gepriesen. Damit ließen
sich nämlich Kapazitäten erhöhen und
zugleich Ressourcen schonen. Der
hochrangige UNESCO-Vertreter Abdul
Waheed Khan überraschte das Auditorium mit der Mitteilung, dass es in Indien 14 Open Universities mit jeweils
mehr als einer Million (!) Studierenden
gäbe. Mit dem Einsatz der neuen Medien verband er folgerichtig die Hoffnung auf bessere Chancen für weniger
entwickelte Länder.
Der unkritischen Begeisterung für ELearning hatte Rolf Schulmeister (Hamburg), ein erklärter Befürworter technischer und didaktischer Innovation,
schon einmal die Frage entgegengestellt, ob nicht E-Learning womöglich
nicht anderes sei als die „Reparatur
des Bolognaprozesses“.
Die Wirklichkeit hinkt weit hinter dem
Hype her, ist aber wesentlich weiter
fortgeschritten, als es Kulturkritiker
wahrhaben wollen. Am praktischen
Beispiel eines linguistischen Kurses demonstrierte der Anglist Jürgen Handke
(Marburg), wie man mit dem intelligenten Einsatz von E-Learning nicht nur
erheblich Zeit und Geld sparen, sondern zugleich wissenschaftliche Produktivität erhöhen kann. Ein interaktiver E-Learning-Kurs lässt sich mit speziell zugeschnittenen Präsenzeinheiten
zu Kursen mit unterschiedlichen Niveaus und Zielsetzungen kombinieren.
Bei Überbuchung einer Lehrveranstaltung können die Präsenzphasen an
einer Partneruniversität oder der Kurs
überhaupt on-line absolviert werden.
Open Access als Utopie und Modell
Wem gehört Wissen in elektronischen
Räumen, fragte sich Rainer Kuhlen
(Konstanz) und ließ erst gar keinen
Zweifel über die richtige Antwort aufkommen. Wissen ist grundsätzlich frei
58(2007)1, 38-40
H o c h s c h u l e n i m Wa n d e l
und Gemeingut. Kuhlen stellt dem ökonomischen Prinzip Knappheit die ökologischen Prinzipien Freizügigkeit und
Nachhaltigkeit gegenüber. Über das Urheberrecht hätten sich Verlage ein Verfügungsrecht über geistiges Eigentum
gesichert. Indem sie den Zugriff auch
technisch weiter einschränken, sorgen
Medienunternehmen für künstliche Verknappung und hohe Preise ihrer Informationsprodukte. Das Gleichgewicht
aus sozialen, politischen, kulturellen
Interessen habe sich einseitig zum ökonomischen verschoben, die wirtschaftliche Verwertung sei zum entscheidenden Faktor bei Entwicklung und Verbreitung von Wissen geworden. Dem
düsteren Szenario Wissen hortender
Konzerne wird das Konzept einer freien
und nachhaltigen Wissensökologie gegenübergestellt. Wissen soll möglichst
weit verbreitet und durch Teilen mit anderen vergrößert werde. Es gelte, die informationelle Autonomie individuell und
institutionell zurückzugewinnen. Dies
und – auf der Basis der so genannten
Göttinger Erklärung – neue Geschäftmodelle zu entwickeln, seien die erklärten Ziele des Aktionsbündnis „Urheberrecht für Bildung und Wissenschaft“
(www.urheberrechtsbuendnis.de).
Interessanterweise kam die Metapher
der Ökologie in ganz anderem Zusammenhang noch einmal zur Sprache. Joel
M. Smith, CIO an der Carnegie Mellon
University, sprach von dem komplexen
IT-Ökosystem, in dem Forschung, Lehre
und Verwaltung in Formen eines „adaptiven“ Managements geplant und gesteuert werden müssten. Für die Anforderungen seien hierarchisch-zentralistische Modelle schlicht überfordert.
M. E. wird auch in der Frage Open Access die Praxis über die Ideologie den
Sieg davontragen. Einerseits zeigt sich
nämlich, dass OA-Modelle in der Realität (noch?) keineswegs so reibungslos
funktionieren wie unter idealen Bedingungen angenommen. Eine Studie der
Association of Learned and Professional Society Publishers (ALPSP), einer
britischen not-for-profit-Organisation,
aus dem Jahr 2005 zeigt ein recht klares Bild (www.alpsp.org/publications
/pub11.htm). Wissenschaftler sehen
ihre Publikationen weiterhin lieber bei
renommierten Verlagen als auf akademischen Plattformen jeder Art. Im Gegenzug zum Generalverdacht gegen
Verlage entsteht langsam auch wieder
ein Bewusstsein dafür, was diese für
ihre Kunden, d. h. die Produzenten und
Konsumenten von Informationsprodukten, leisten. M. E. wurden diese – nur
scheinbar paradoxerweise – mit der
Ankunft des Internet erst wirklich
sichtbar. Je leichter es nämlich ist,
selbst aus Daten Information herzustel-
58(2007)1, 38-40
len und zu verbreiten, desto deutlicher
zeigen sich auch die Unterschiede in
der Qualität. Verlage garantieren nicht
nur für die Authentizität, Qualität, Zirkulation und Sicherung der Inhalte. Sie
sind es auch, die Wissenschaftler für
Projekte der unterschiedlichsten Art
gewinnen, Ideen und Initiative liefern
und Projekte vorfinanzieren. Ich behaupte, dass gerade die erfolgreichsten
Publikationsformen die Erfindung von
Verlegern sind. Anderseits sind auch
große Verlage bereits dazu übergegangen, OA in ihre Strategien zu integrieren.
Umgekehrt wird niemand behaupten,
dass Wissenschaftler nicht in der Lage
wären, die Verbreitung, Begutachtung,
Archivierung von Forschungsergebnissen selbst zu organisieren. Warum sollten intellektuelle Eliten ausgerechnet
diese Probleme nicht regeln können,
und es soll ja auch geschäftstüchtige
Wissenschaftler geben. Die Frage ist,
ob sie das neben der Produktion von
Wissen auch tun wollen. Der Mathematiker Martin Grötschel (Berlin) bekannte sich hier ausdrücklich zur Arbeitsteilung zwischen Wissenschaft
und ihren internen und externen
Dienstleistern.
Je kleiner eine besondere community
hoch spezialisierter Wissenschaftler ist,
desto weniger bedarf sie bei der Forschung der Vermittlung Dritter. Solange
es sich also um informelle Kommunikation zwischen einer kleinen Gruppe von
peers handelt, ist die Eigenpublikation
das Mittel der Wahl. Schließlich beanspruchten die Verlage ja auch vor der
digitalen Wende nie die Herrschaft
über die interne Kommunikation unter
Wissenschaftlern. Vorträge, Gespräche,
Briefe und Gerüchte waren immer
schon frei. Überschreitet die Größe
39
H o c h s c h u l e n i m Wa n d e l
einer Gemeinschaft aber ein kritisches
Maß oder müssen Inhalte für bestimmte Zielgruppen speziell aufbereitet werden, ist die Arbeit von Verlagen
schlechthin unverzichtbar. Sie objektivieren und optimieren die Prozesse bei
der Auswahl und Aufbereitung von Inhalten, so dass aus Daten Informationen und aus Informationen Wissen
werden kann. (Für die Frage, wie man
aus Wissen Weisheit oder sogar Wahrheit macht, sind leider auch die Verlage
nicht zuständig.) Dass sich die Arbeitsteilung zwischen Wissenschaft und
Verlagen nicht auch anders und neu
regeln lässt, darüber besteht auch innerhalb der Verlagsbranche gar kein
Zweifel. Auch nicht darüber, dass es im
Zeichen der Globalisierung zu krisenhaften Erscheinungen gekommen war,
von denen nicht zuletzt auch kleinere
und mittlere Verlagsunternehmen, vor
allem bei Human- und Sozialwissenschaften, selbst betroffen waren und
sind. Die Lösung kann aber nicht darin
bestehen, dass man sich mit Kategorien wie „Enteignung“ und „Privatisierung“ wechselseitig verdächtigt. Nicht
wem Wissen gehört, ist m. E. die Frage,
sondern wer für welche Leistung angemessen bezahlt wird. Im Grunde geht
es darum, ob die Steuerzahler als „ideelle“ Auftraggeber der Forschung auch
noch die aufwändige Publikation der
Ergebnisse bezahlen sollen oder man
das nicht besser dem Markt überlässt.
Im Hintergrund – Bologna
Die Veränderungen in Bildung und Wissenschaft lassen sich im großen und
ganzen mit den Schlagworten Ökonomisierung, Mobilisierung und Digitalisierung charakterisieren. Seit 1999 ist in
Europa bekanntlich der so genannte Bologna-Prozess im Gange. Damit werden
akademische Abschlüsse europaweit
vereinheitlicht und vergleichbar gemacht. Indem gleichzeitig die Mobilität
von Wissenschaftlern bzw. Studierenden und die Zusammenarbeit in internationalen Forschungsprojekten gefördert werden, soll bis 2010 ein homogener europäischer Hochschulraum
entstehen. Ziel dieses Prozesses ist es,
Europa für den globalen wissenschaftlichen und wirtschaftlichen Wettbewerb nachhaltig konkurrenzfähig zu
machen.
In allen Hochschuldebatten ist der Primat des Ökonomischen inzwischen so
selbstverständlich geworden, dass sich
die Politik nur mehr auf dessen rituelle
Beschwörung beschränken kann. Die
Erhaltung von Wettbewerbsfähigkeit,
die Sicherung von Standorten und Arbeitsplätzen und die Steigerung und
Beschleunigung von Wachstum genü-
40
gen als Rechtfertigung für sämtliche
Veränderungen. Zum globalen Wettbewerb kommt auch noch der demographische Wandel, der die „Wissensgesellschaft“ – unter dem Vorzeichen „Lebenslanges Lernen“ – bei verlängerter
Lebensarbeitszeit herausfordert.
Um diese Ziele zu erreichen, sollen
sämtliche Kernprozesse in Forschung
und Lehre digital durchgeführt bzw. unterstützt werden. Bei der Verwaltung
und den internen Dienstleistungen stellen Informations- und Kommunikationstechnologie die dementsprechende Infrastruktur zu Verfügung. Die großen
Trends der Ökonomisierung und Digitalisierung verlaufen somit nicht nur parallel oder konvergent, – sie sind die
beiden Seiten derselben Medaille.
Beim Einsatz von IT in der Wissenschaft lassen sich bis jetzt drei Phasen
unterscheiden. In den Kernprozessen
der Produktion und des Transfers von
Wissen erfolgte der Einsatz zuerst lokal
und auf individuelle Initiative. Bei Service und Administration herrschten Insellösungen vor. In einer zweiten Phase
wurden nicht nur die Prozesse bei
Lehre und Forschung über so genannte
Lernplattformen, sondern auch die unterstützenden Prozesse in Managementsystemen auf der institutionellen
Ebene digital integriert. Ziel der aktuellen dritten Phase ist die Verbindung
sämtlicher Prozesse in flexiblen und dezentralen Systemen, die sowohl auf lokaler und regionaler Ebene integriert
als auch international vernetzt sein sollen. Lehrende und Studierende bewegen sich ungehindert in barrierefreien
Wissensräumen, können auf die vielfältigsten Ressourcen und Informationen
zugreifen und in verschiedensten Konstellationen, clusters und grids zusammenarbeiten.
Einige der entscheidenden Veränderungen lassen sich unter dem Begriff Differenzierung subsumieren. Nach Ansicht
des Erziehungswissenschaftlers Dieter
Lenzen (Berlin) ist das System Universität auf allen Ebenen und Segmenten
dazu gezwungen. Genauso wie horizontal in Projekte und Themen wird sich
das System vertikal in verschiedene
Qualitäts- und Anforderungsniveaus
gliedern. Die Exzellenz-Zentren entsprechen dabei den amerikanischen „research universities“. (Dass der Vergleich zwischen der amerikanischen Ivy
Leage und den europäischen Universitäten schlicht unzulässig und, man
könnte sogar sagen, auch nicht immer
wünschenswert ist, zeigte das Referat
des Bibliotheksdirektors und CIO aus
Stanford Michael Keller.) Darunter folgen „normale“ Universitäten, die neben
der Forschung vor allem Lehre anbie-
ten, sowie – noch eine Stufe „tiefer“,
aber über den „Bachelor“ kompatibel –
die Ebene der Fachhochschulen mit
stark berufs- und praxisbezogenen Programmen. Über Kooperation und Konkurrenz werden sich Zentren mit ausgeprägten Schwerpunkten herausbilden
und die Arbeitsteilung in Forschung,
Lehre und Management intern weiter
entfalten. Unter dem Motto „Wettbewerb ist nicht das Gegenteil von Gemeinschaft“ werden die Universitäten
Profile bilden und – so wie ihre Absolventen um Arbeitsplätze – um Mittel
und Kunden konkurrieren müssen.
Das wissenschaftliche Verlagswesen
ist von den Auswirkungen der Universitätsreform vor allem durch E-Learning
und Web-basierte Lehre sowie durch
neue Publikationsmodelle („open access“) unmittelbar betroffen und herausgefordert. Der Systemwandel in
Wissenschaft und Bildung bildet den
Hintergrund für die Veränderungen.
Tagung, Hochschule, Hochschulausbildung, Forschung, E-Learning,
Entwicklungstendenz, Europa
D e r A u to r
Dr. Michael Huter
geb. 1954 in Innsbruck / Österreich;
Studium der Germanistik und Anglistik
in Innsbruck und
Wien; Lehr- und Publikationstätigkeit,
Medienarbeit. 1990
bis 2005 Verlagsleiter bei Facultas
Verlag- und Buchhandels AG Wien;
seit 2000 Mitglied des Vorstandes
des Österreichischen Verlegerverbandes; von 1998 bis 2004 Präsident
der International Association of
Scholarly Publishers; 2002 bis 2005
Mitglied der Geschäftsführung UniTaschenbücher GmbH (UTB) Stuttgart; 2006 Gründung des Verlages
Huter & Roth, Wien; Lehr- und Beratungstätigkeit.
Huter & Roth
Thimiggasse 19 / 7
A-1180 Wien, Österreich
Telefon: +43 1 9571818
[email protected]
www.huterundroth.at
58(2007)1, 38-40
I n f o r m at i o n s d i e n st e
Themenentdeckung und -verfolgung und
ihr Einsatz bei Informationsdiensten für Nachrichten
Wolfgang G. Stock, Düsseldorf
Themenentdeckung und -verfolgung (topic detection and tracking;
TDT) fasst unterschiedliche Dokumente zu einem Thema zusammen
und bietet dem Nutzer zunächst
das Thema und erst in einem zweiten Schritt die einzelnen Dokumente zur Anzeige an. TDT ist
nützlich bei Nachrichten sowie bei
Blog-Einträgen. Ein bekanntes Beispiel ist Google News. Der Artikel
bespricht den Forschungsstand zu
TDT und diskutiert den Einsatz
von TDT bei News-Informationsdiensten wie z.B. Factiva oder LexisNexis. Dort ist TDT zweifach
wichtig: Erstens ist es (analog zu
Google News) bei Profildiensten
einsetzbar, zweitens ist es möglich,
Dokumente zum gleichen Thema in
einen Ordner zu klassieren, um bei
einer retrospektiven Recherche die
Treffermenge geordnet nach unterschiedlichen Themen anzubieten
(und dies ohne Nutzung einer Dokumentationssprache).
Topic Detection & Tracking and
its Application in
News Information Services.
Topic detection and tracking (TDT)
integrates different documents on
the same topic. First it offers the
topic to the users and in a second
step the specific documents. TDT is
useful for presenting news articles
and blog postings. A well known
example is Google News. The article summarizes the research on
TDT and discusses the application
of TDT in news information providers (e.g., Factiva or LexisNexis). For
these services TDT is important for
two reasons: (1) analogous to
Google News, TDT works within
alerting services; (2) TDT allows for
classifying sets of records according to topics (without using a
documentation language).
58(2007)1, 41-46
Thematisches Klassieren von
Nachrichtendokumenten
Im World Wide Web, im Deep Web
(etwa bei Informationsdiensten von
Nachrichtenagenturen) sowie in anderen Medien (z.B. Hörfunk oder Fernsehen) liegen Dokumente vor, die einen
aktuellen Bezug haben und deren Inhalt sich häufig (ggf. leicht abgewandelt) in unterschiedlichen Quellen findet. Dies trifft vor allem für Nachrichten, aber auch für gewisse Einträge in
Weblogs zu (Peters & Stock 2006). Im
Gegensatz zum „normalen“ Information Retrieval startet hier die Recherche
nicht mit einem erkannten Informationsbedarf eines Nutzers, sondern mit
einem neuen Ereignis, das es zu erkennen und darzustellen gilt. Dem Nutzer
als Pushdienst angeboten werden die
Informationen zu den Ereignissen über
spezialisierte Nachrichtensysteme wie
beispielsweise Google News. Es ist so,
als ob ein Nutzer ein SDI in Auftrag gegeben hätte, ihn laufend über alle
neuen Ereignisse zu informieren. Dabei
ist es durchaus möglich, die Neuigkeiten thematisch auszuwählen. Auch im
Nachhinein stehen die erkannten Themen für Recherchen oder informetrische Analysen bereit. Yang, Shi und
Wie (2006) können die Bedeutung analytischer Methoden am Beispiel der Ereignisse und Themen terroristischer
Anschläge herausstellen.
James Allan, der das Forschungsgebiet
maßgeblich geprägt hat (Allan 2002a;
Allan 2002b; Allan 2003; Allan, Carbonell, Doddington, Yamron, & Yang 1998;
Allan, Feng, & Bolivar 2003; Allan, Harding, Fisher, Bolivar, Guzman-Lara, &
Amstutz 2005; Allan, Lavrenko, & Connell 2003; Allan, Lavrenko, & Jin 2000;
Allan, Lavrenko, & Swan 2002; Allan,
Papka, & Lavrenko 1998; Allan, Wade,
& Bolivar 2003; Feng & Allan 2005;
Frey, Gupta, Khandelwal, Lavrenko,
Leuski, & Allan 2001; Kumaran & Allan
2005; Lavrenko, Allan, DeGuzman, LaFlamme, Pollard, & Thomas 2002;
Leuski & Allan 2002; Manmatha, Feng,
& Allan 2002; Papka & Allan 2000),
nennt diesen Teilbereich des Information Retrieval „topic detection and tracking“ (TDT), was wir mit „Themenentdeckung und -verfolgung“ übersetzen wollen (Stock 2007, 425-436). Allan
definiert den Forschungsbereich:
„Topic Detection and Tracking (TDT)
is a body of research and an evaluation paradigm that addresses eventbased organization of broadcast
news. The TDT evaluation tasks of
tracking, cluster detection, and first
story detection are each information
filtering technology in the sense that
they require that ‘yes or no’ decisions
be made on a stream of news stories
before additional stories have arrived” (Allan 2002b, 139).
Google News beschränkt sein Angebot
auf im WWW vorliegende Dokumente,
die Nachrichtenagenturen oder OnlineRedaktionen von Zeitungen unentgeltlich bereitstellen. Nicht berücksichtigt
werden kommerzielle Angebote der
News Wires, die meisten Artikel der
Druckausgaben der Zeitungen und
Zeitschriften (und dies ist die überwältigende Mehrzahl aller Nachrichten)
sowie alle nicht-digital (über Rundfunk)
verteilten Informationen. Google News
richtet seinen Fokus auf neue Artikel
(der Beobachtungszeitraum beträgt
wenige Tage) und solche, die von allgemeinem Interesse sind. Krishna Bharat
berichtet:
„Specifically, freshness – measurable
from the age of articles, and global
editorial interest – measurable from
the number of original articles published worldwide on the subject, are
used to infer the importance of the
story at a given time. If a story is
fresh and has caused considerable original reporting to be generated it is
considered important. The final layout is determined based on additional
factors such as (i) the fit between the
story and the section being populated, (ii) the novelty of the story relative
to other stories in the news, and (iii)
the interest within the country, when
a country specific edition is being
generated” (Bharat 2003, 9).
41
Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g
schen“ dokumentarischen Bezugseinheiten (die Dokumente), die Liste aus
Abbildung 1 führt thematisch verwandte dokumentarische Bezugseinheiten zu einer Meta-Bezugseinheit
(das Thema) zusammen. Es ist möglich,
die Anzeigeseite zu „personalisieren“,
indem vom Nutzer selbst gewählte
Themenkomplexe (z.B. „Informationswissenschaft“ oder „Heinrich-Heine
Universität“) mit jeweils neuesten Themen bestückt werden (Abbildung 3).
Abbildung 1: Themenentdeckung und -verfolgung am Beispiel von Google News: Anzeige der
aktuellen Themen.
Quelle: news.google.de
Abbildung 2: Themenentdeckung und -verfolgung am Beispiel von Google News: Anzeige der
Dokumente zu einem Thema.
Quelle: news.google.de
Themenentdeckung und -verfolgung
dürfte nicht nur bei kostenlosen Nachrichtensuchmaschinen von Vorteil sein,
sondern auch bei solchen kommerziellen Informationsanbietern, die Nachrichten vertreiben, also beispielsweise
ASV Infopool (M.Stock 2002b), GBI-GENIOS (Stock & Stock 2003a; 2003d), Dialog NewsEdge (Stock & Stock 2003c),
Factiva (M.Stock 2002a; Stock & Stock
2003b) oder LexisNexis (Stock & Stock
2005). Wir wollen dies (unter Fortführung unseres dba-Beispiels) bei LexisNexis Wirtschaft demonstrieren! Die
erste Anwendung von Themenentdeckung und -verfolgung, quasi die Normalvariante, arbeitet bei Profildiensten
und damit analog zu Google News in
der personalisierten Anwendung. Der
Unterschied zu Google liegt einzig in
den elaborierten Optionen der Kreation
eines Informationsprofils bei den kommerziellen Informationsanbietern. Angezeigt wird das Thema (die Meta-Dokumentationseinheit), und erst im
zweiten Schritt die Liste der Dokumente zum Thema.
LexisNexis verfügt über eine Option,
Treffermengen zu gruppieren, in Abbil-
Abbildung 3: Themenentdeckung und
-verfolgung am Beispiel von Google News:
Personalisierung.
Quelle: news.google.de
Auf der Einstiegsseite von Google
News werden ausschließlich die Themen aufgelistet (Abbildung 1), z.B. der
Topic „dba wird als Marke verschwinden“ (rechts oben). Wir erfahren hier
zusätzlich, dass etwa 320 Dokumente
42
Abbildung 4: Trefferliste bei LexisNexis Wirtschaft mit der Option, die Dokumente zu gruppieren.
Quelle: LexisNexis
unter dieses Thema fallen. Erst der
Klick auf „und 320 ähnliche Artikel“
führt zur kompletten Liste aller Dokumente zum Thema (Abbildung 2). Die
Liste aus Abbildung 2 zeigt die „klassi-
dung 4 haben wir etwa nach Quellen
gruppiert. Hiermit hat der Nutzer die
Möglichkeit, große Trefferlisten kontextspezifisch einzuschränken. Derzeit
bietet LexisNexis keine Gruppierung
58(2007)1, 41-46
Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g
nach Themen an. Hier liegt die zweite
Möglichkeit für Themenentdeckung
und -verfolgung, eine Klassierungsoption nach Topics. Solch eine Gruppierung fasst alle Dokumente der Trefferliste zu gleichen Themen zusammen.
Unsere 19 Dokumente aus Abbildung 4
würden so zu einem einzigen Topic verschmelzen. Insbesondere bei großen
Treffermengen, die bei News-Recherchen nicht unüblich sind, ist dies eine
brauchbare Option, Dokumente thematisch zu klassieren (und dies ohne Klassifikationssystem oder Thesaurus – einzig mittels TDT).
Aufgaben der Themenentdeckung
und -verfolgung
Vier grundlegende Begriffe sind im
Kontext von TDT wichtig:
■ Eine „Story“ ist eine abgrenzbare
Textstelle (oder ein ganzes Dokument), in der (oder in dem) ein Ereignis besprochen wird.
■ Ein „Thema“ (topic) ist die Beschreibung eines Ereignisses in den jeweiligen Stories, gemäß Allan „a set of
news stories that are strongly related by some seminal real-world
event“ (Allan 2002a, 2). Für James
Allan ist ein „Topic“ demnach nur
die Beschreibung eines spezifischen
Ereignisses (wie etwa die Übernahme von dba durch Air Berlin im
August 2006), nicht aber ein Thema
ohne Orts- und Zeitbezug (wie beispielsweise das Wachsen von Blumen an schattigen Standorten). M.E.
lässt sich TDT jedoch auf alle Arten
von Themen anwenden.
■ Das Gruppieren aktueller Stories zu
einem neuen Thema ist die „Themenentdeckung“ (topic detection).
■ Das Hinzufügen von Stories zu
einem bekannten Thema ist die
„Themenverfolgung“ (topic tracking).
Die Themenentdeckung und -verfolgung besteht aus mehreren Einzelaufgaben (die ersten fünf folgen Allan
2002a):
■ Textstellenzerlegung (story segmentation): Isolation derjenigen Textstellen (Stories), die das jeweilige
Thema beinhalten (bei Dokumenten,
die mehrere Ereignisse besprechen),
■ Themenentdeckung bzw. Erkennung eines neuen Ereignisses (new
event detection): Identifikation der
ersten Story, die ein neues Ereignis
thematisiert,
■ Cluster-Erkennung (cluster detection): Zusammenfassung aller Stories,
die dasselbe Thema beinhalten,
■ Themenverfolgung (topic tracking):
Analyse des laufenden Nachrichten-
58(2007)1, 41-46
stroms auf bereits bekannte Themen,
■ Link-Erkennung (link detection):
Analysewerkzeug zur Bestimmung
der thematischen Ähnlichkeit zweier
Stories,
■ Zuordnung eines Titels zu einem
Cluster: entweder Titel der ersten
Story oder Zuordnung der ersten n
nach Gewichtung geordneten Terme
aus allen Stories, die dem Cluster
angehören,
■ Abstract: Verfassen einer kurzen Zusammenfassung des Themas (als
Form automatischen Abstracting)
oder – weitaus einfacher – Übernahme des ersten Abschnittes der
ersten Story,
■ Rangordnung der Stories: sofern ein
Cluster mehrere Stories umfasst, Sortierung der Texte nach Wichtigkeit.
Einen Überblick zu den Arbeitsschritten vermittelt Abbildung 5.
Abbildung 5: Arbeitsschritte der Themenentdeckung und -verfolgung.
Quelle: Stock 2007, 427.
Themenentdeckung
Bei Nachrichten aus Hörfunk und Fernsehen muss zunächst eine Übertragung
der Audio-Signale in (geschriebenen)
Text vorgenommen werden. Dies geschieht entweder durch intellektuelle
Transkription oder unter Nutzung von
Spracherkennungssystemen (Allan
2003; zu Problemen vgl. McCarley &
Franz 2000). In einer Nachrichtensendung (z.B. einer „Tagesschau“ mit
einer Länge von 15 Minuten) werden
mehrere singuläre Stories gebracht, die
durch eine Segmentierung des Gesamttextes als jeweils einzelne Einheiten
gezählt werden (Allan, Carbonell, Doddington, Yamron, & Yang 1998, 196 ff.).
Analog wird mit dem Nachrichtenstrom
einer Agentur umgegangen. Zur Vereinfachung kann man in diesem Fall annehmen, dass jedes Nachrichtendokument genau eine Story beinhaltet.
Die entscheidende Frage bei der Analyse des Nachrichtenstromes ist: Behandelt die gerade angekommene
Story ein neues Thema oder thematisiert sie etwas, was bereits als Thema
bekannt ist (Allan, Lavrenko, & Jin
2000)? Ein (erkanntes) Thema wird
durch den Durchschnittsvektor (Zentroid) seiner Stories ausgedrückt. Bei
der Themenentdeckung errechnen wir
die Ähnlichkeit bzw. Unähnlichkeit zwischen der aktuellen Story und allen anderen aus der Datenbank. Lässt sich
keine Ähnlichkeit feststellen (liegt also
ein neues Thema vor), so gilt diese
erste Story als Repräsentant des neuen
Themas. Lassen sich demgegenüber
Ähnlichkeiten zwischen aktueller Story
und alten Stories ausmachen, so ist der
Fall der Themenverfolgung gegeben.
Es folgt ein Vergleich zwischen der aktuellen Story und allen bereits erkannten Themen. Eine zentrale Rolle bei der
Themenentdeckung bzw. -verfolgung
spielt die „story link detection“, deren
Algorithmus feststellt, ob es sich bei
der aktuellen Story um ein neues oder
um ein bekanntes Thema handelt.
Allan, Harding, Fisher, Bolivar, Guzman-Lara, & Amstutz (2005) setzen an
dieser Stelle das Vektorraummodell und
eine Variante von TF*IDF (Termhäufigkeit * inverse Dokumenthäufigkeit) zur
Bestimmung der Termgewichtung ein.
Für jede Story aus dem Nachrichtenstrom wird für jeden Term ein Gewichtungswert errechnet. tft,s ist die (absolute) Auftretenshäufigkeit eines Terms
t in der Story s, dft zählt alle Stories in
der Datenbank, die den Term t enthalten, und N ist die Anzahl der Stories in
der Datenbank. Das Termgewicht w
von t in s errechnet sich wie folgt:
wt,s = [tft,s * log((0,5 + N) / dft)] / [log(N + 1)].
Allan et al. schlagen vor, die ersten
1000 nach Gewichtung sortierten
Terme in einem Story-Vektor zu berücksichtigen. Mit der Ausnahme weniger
langer Nachrichtentexte sollten dabei
alle Worte einer Story Berücksichtigung
finden. Anhand der Berechnung des
Cosinus wird die Ähnlichkeit des StoryVektors mit allen anderen Story-Vektoren der Datenbank analysiert. Die Autoren haben empirisch einen Wert von
Sim(s1,s2) = 0,21 bestimmt, der neue von
alten Stories trennt. Liegt die höchste
Ähnlichkeit zwischen der neuen und
einer beliebigen alten Story unter 0,21,
so wird die aktuelle Story als neues
Thema aufgefasst; liegt sie darüber,
wird eruiert, zu welchem bekannten
Thema die neue Story gehört.
43
Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g
Es zeigt sich in der Praxis, dass dieser
allgemeine Ansatz nicht ausreicht, um
genügend zuverlässig neue von alten
Stories zu trennen. Mittels zusätzlicher
Faktoren wird die Leistung von TDTSystemen besser.
Eigennamen und weitere Themen
Bei der Identifizierung eines Themas
spielen Eigennamen („named entities“)
auf der einen Seite und die weiteren
Worte („topic terms“) auf der anderen
Seite eine wichtige Rolle. Zwei Stories
behandeln dann das gleiche Thema,
wenn in ihnen sowohl dieselben
„named entities“ als auch dieselben
restlichen Worte übereinstimmen. Giridhar Kumaran und James Allan begründen diesen Ansatz so:
„The intuition behind using this features is that we believe every event is
characterized by a set of people, places, organizations, etc. (named entities), and a set of terms that describe
the event. While the former can be
described as the who, where and
when aspects of an event, the latter
relates to the what aspect. If two stories were on the same topic, they
would share both named entities as
well as topic terms. If they were on
different, but similar, topics, then
either named entities or topic terms
will match but not both” (Kumaran
& Allan 2005, 123).
Ein anschauliches Beispiel eines „Fehlläufers“ zeigt Abbildung 6. Das System
hat hierbei keinen Gebrauch von der
Unterscheidung „named entities“ –
„topic terms“ gemacht. Durch den
hohen WDF-Wert von „Turkey“ bzw.
„Turkish“ sowie den sehr hohen IDFWert von „Ismet Sezgin“ behauptet die
Vektorraummaschine, dass die obere
Story ähnlich zur unteren und damit
keineswegs neu sei. Tatsächlich ist der
obere Text jedoch neu. Kein einziger
„topic term“ kommt in beiden Meldun-
Abbildung 6: Die Rolle von „named entities“ und
„topic terms“ bei der Identifikation eines neuen
Themas.
Quelle: Kumaran & Allan 2005, 124.
44
gen gemeinsam vor, so dass Kumaran
und Allan schlussfolgern:
„Determining that the topic terms
didn’t match would have helped the
system to avoid this mistake” (Kumaran & Allan 2005, 124).
Es scheint demnach sinnvoll, die Ähnlichkeit (Cosinus) zwischen zwei Stories getrennt für „named entities“ und
„topic terms“ zu berechnen. Nur wenn
beide Ähnlichkeitswerte einen Schwellenwert überschreiten, wird eine Story
als einem „alten“ Thema zugehörig
eingestuft.
Zeit- und Ortsbezug von Nachrichten
Ein sehr wichtiger Aspekt von Nachrichten ist deren Zeit- und Ortsbezug.
Makkonen, Ahonen-Myka und Salmenkivi (2004, 354 ff.; vgl. auch Makkonen,
Ahonen-Myka, & Salmenkivi 2003) arbeiten zusätzlich zur „allgemeinen
Ähnlichkeit“ mit „zeitlicher“ und
„räumlicher Ähnlichkeit“. Zur Bestimmung des Zeitbezugs ist zunächst erforderlich, aus den Angaben im Text
exakte Daten abzuleiten (Makkonen &
Ahonen-Myka 2003; Kim & Myaeng
2004; Li, Li, & Lu 2006). Nehmen wir
an, eine Nachricht trägt das Datum des
27. Mai 2003 (Abbildung 7). Im Text
vorkommende Formulierungen wie
Dem Ortsbezug (Jin, Myaeng, Lee, Oh,
& Jang 2005) wird mit Hilfe eines geographischen Begriffssystems nachgegangen (für ein einfaches Beispiel siehe
Abbildung 8). Die Ähnlichkeit zwischen
unterschiedlichen Ortsangaben in zwei
Stories kann durch die Pfadlänge ausgedrückt werden (Makkonen, AhonenMyka, & Salmenkivi 2004, 357 f.). Redet
eine Quelle etwa von Puchheim und
eine andere, thematisch verwandte,
vom Landkreis Fürstenfeldbruck (FFB),
so werden beide Stories anhand der
Pfadlänge von 1 als ähnlich eingestuft.
Ein anderes Paar von Nachrichten behandelt ebenfalls ähnliche Themen,
wobei die eine Nachricht wiederum
über Puchheim spricht und die andere
über Venlo. Da die Pfadlänge nun aber
8 beträgt, spricht nichts dafür, dass es
wirklich um dasselbe Ereignis geht.
Themenverfolgung
Bei der Themenverfolgung gehen wir
von einer Menge bekannter Themen
aus. Die Ähnlichkeitsberechnung erfolgt
nunmehr durch den Abgleich zwischen
den Themenvektoren, also dem jeweiligen Namen- und Topic-Zentroiden des
Themas, und den jeweils in die Datenbank aufgenommenen neuen Stories.
Abbildung 7: Auflösung von zeitlichen Ausdrücken.
Quelle: Makkonen, Ahonen-Myka, & Salmenkivi 2004, 355.
„letzte Woche“, „letzter
Mittwoch“, „am nächsten Donnerstag“ usw.
verlangen nach einer
Auflösung in Datumsangaben, also in „2003-0519: 2003-05-26“, „200305-21“ bzw. „2003-0529“.
Stories,
die
ansonsten ähnlich sind,
sich aber im Datum nicht
überschneiden,
sind
wahrscheinlich unterschiedlichen Themen zuzuordnen. Berichte über
Karnevalszüge in Köln
aus den Jahren 2005 und
2006 unterscheiden sich
kaum in ihren Termen
(„Millionen Zuschauer“,
„Prinzenwagen“, „Kamelle“), aber durch das
Datum.
Abbildung 8: Geographische Begriffsordnung als Hilfsmittel der
Themenentdeckung und -verfolgung.
Quelle: Stock 2007, 432.
58(2007)1, 41-46
Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g
Hinzutreten müssen Vergleiche von
Raum- und Zeitbezug, sofern gegeben.
Bei der ersten Story ist der Zentroid
identisch mit dem Vektor dieser Story.
Ab einer zweiten Story können wir erst
sinnvoll von einem „Durchschnittsvektor“ reden. Der Zentroid ändert sich solange, wie noch weitere Stories zum
Thema identifiziert werden. Benutzt
man den Zentroiden zur Bestimmung
des Titels, indem man beispielsweise
die ersten zehn nach Gewichtung sortierten Terme des Zentroiden als
„Titel“ auszeichnet, so kann sich der
Titel durchaus ändern, insofern neue
Stories dem Thema zugeordnet werden. Ebenfalls über den Zentroiden
lässt sich das Abstract zum Topic herstellen (Radev, Jing, Stys, & Tam 2004).
Die Berichterstattung über Ereignisse
erfolgt – je nach internationalem Interesse – in mehreren Sprachen. Möchte
man über Sprachgrenzen hinweg erkannte Themen verfolgen, so ist dies
eine Aufgabe für die multilinguale Themenverfolgung (Levow & Oard 2002;
Schultz & Liberman 2002; Ma, Yang, &
Rogati 2005). Larkey, Feng, Connell und
Lavrenko (2003) arbeiten mit automatischer Übersetzung, die jedoch nicht zu
zufriedenstellenden Resultaten führt.
Für den einsprachigen Fall liegt ein
breites Wissens des TDT-Einsatzes in
der englischen Sprache vor. Über andere Sprachen wird mit Ausnahmen zu
experimentellen Ansätzen in Chinesisch (Wayne 2000; Chen & Ku 2002;
Cieri, Strassel, Graff, Martey, Rennert,
& Liberman 2002), Hindi (Allan, Lavrenko, & Connell 2003) und Spanisch
(Yang, Carbonell, Brown, Lafferty,
Pierce, & Ault 2002) kaum etwas berichtet.
Verfügt ein Thema über mehrere Stories, so müssen diese in eine Rangfolge
gebracht werden. Curtiss, Bharat und
Schmitt verfolgen in einer Patentanmeldung von Google den Weg, Qualitätskriterien für die jeweiligen Quellen zu
entwickeln:
„(T)he group of metrics may include
the number of articles produced by
the news source during a given time
period, an average length of an article from the news source, the importance of coverage from the news
source, a breaking news score, usage
patterns, human opinions, circulation
statistics, the size of the staff associated with the news source, the number of news bureaus associated with
the news source, the number of original named entities the source news
produces within a cluster of articles,
the breath of coverage, international
diversity, writing style, and the like”
(Cutiss, Bharat, & Schmitt 2003, 3).
Umfasst ein TDT-System alle einschlägigen Quellen, so liegt es nahe, der ersten Story die „Ehre“ zu erweisen, pro-
58(2007)1, 41-46
minent an der Top-Stelle genannt zu
werden. Die übrigen Stories können
dann durchaus den Google News-Kriterien gemäß geordnet werden.
Verfügt eine Story über mehrere Themen, kann sie also unterschiedlichen
Topics zugeordnet werden, so steht
TDT vor einer Herausforderung (Chali
2005). Eine sinnvolle Lösung ist, die
Story allen erkannten Topics einzuordnen, wobei das „Erkennen“ eine Frage
der Einstellung der Grenzwerte bei der
Ähnlichkeit sowie dem Zeit- und Raumbezug ist. Hängen Themen hierarchisch
zusammen, insofern ein Topic einen
oder mehrere Sub-Topic(s) hat, so liegt
es nahe, die Themen auch hierarchisch
anzuzeigen (Pons-Porrata, BerlangaLlavori, & Ruiz-Shulcloper 2003).
Fazit
■
■
■
■
■
Bei der Themenentdeckung und -verfolgung analysiert man den Strom an
Nachrichten aus WWW, Deep Web
(vor allem Datenbanken der Nachrichtenagenturen und Zeitungen)
sowie Rundfunk (Hörfunk wie Fernsehen). Analog kann mit Beiträgen in
Weblogs vorgegangen werden. Ziele
sind, (1) neue Ereignisse zu identifizieren und (2) Stories zu bereits erkannten Themen zuzuordnen.
Themenentdeckung und -verfolgung
wird bereits (bezogen auf kostenlose
Webseiten) als Profildienst für Neues
von Nachrichtensuchmaschinen (z.B.
Google News) angeboten.
Bei der Entdeckung eines neuen
Themas errechnet man die Ähnlichkeit zwischen einer aktuellen Story
und allen bereits gespeicherten Stories in der Datenbank. Ergibt sich
keine Übereinstimmung, so wird die
Story als erster Repräsentant eines
neuen Themas eingeführt. Ergeben
sich Ähnlichkeiten mit gespeicherten Stories, so wird die Ähnlichkeit
der aktuellen Story mit bekannten
Themen errechnet und die Story
einem Thema zugeordnet.
Zur konkreten Berechnung von Ähnlichkeiten zwischen Stories sowie
zwischen Story und Thema bieten
sich TF*IDF sowie das Vektorraummodell an. Ein Thema wird durch
den Zentroiden aller Stories, die das
jeweilige Ereignis besprechen, dargestellt.
In Nachrichten spielen „named entities“ eine große Rolle. Es erweist
sich als sinnvoll, pro Dokument zwei
Vektoren zu bestimmen, einen für
Eigennamen und einen für die „topic
terms“. Nur wenn bei beiden Vektoren Ähnlichkeiten mit anderen Stories festzustellen sind, dürfte die aktuelle Story zu einem bekannten
Thema gehören. Zusätzlich ist es
nötig, konkrete Zeit- und Raumbezüge in Stories als diskriminierende
Merkmale heranzuziehen.
■ Titel wie Abstract des Topic lassen
sich aus dem Term- bzw. Satzmaterial des Zentroiden, dem Durchschnittsvektor aller Stories des
Topic, automatisch erstellen. Alternativ kann man mit Titel und erstem
Abschnitt der ersten Story arbeiten.
■ Liegen zu einem Thema mehrere
Stories vor, so werden diese in eine
Rangfolge gebracht. An erster Stelle
sollte diejenige Story gelistet werden, die als erstes über das Ereignis
berichtet hat. Danach kann das Ranking anhand von Qualitätskriterien
der Quellen gebildet werden.
■ Kommerzielle Informationsanbieter
für Nachrichten (wie ASV Infopool,
GBI-GENIOS, Dialog NewsEdge,
Factiva oder LexisNexis) können von
Methoden der Themenentdeckung
und -verfolgung profitieren. Hier
werden erstens personalisierte
Pushdienste zu neuen Themen, die
das Informationsprofil eines Nutzers
befriedigen, sowie zweitens Klassierungsoptionen für Dokumente in
einer Trefferliste nach Themen (unabhängig von Dokumentationssprachen) möglich.
Literatur
Allan, J. (2002a): Introduction to topic detection
and tracking. – In: Allan, J., Hrsg.: Topic Detection and Tracking: Event-based Information
Organization. – Boston: Kluwer, S. 1-16.
Allan, J. (2002b): Detection as multi-topic tracking. – In: Information Retrieval 5, S. 139-157.
Allan, J. (2003): Robust techniques for organizing
and retrieving spoken documents. – In: EURASIP
Journal of Applied Signal Processing Nr. 2, S. 103114.
Allan, J.; Carbonell, J.; Doddington, G.; Yamron, J.;
Yang, Y. (1998): Topic detection and tracking pilot
study. Final report. – In: Proceedings of the
DARPA Broadcast News Transcription and Understanding Workshop, S. 194-218.
Allan, J.; Feng, A.; Bolivar, A. (2003): Flexible intrinsic evaluation of hierarchical clustering for TDT. –
In: Proceedings of the 12th International Conference on Information and Knowledge Management. – New York: ACM, S. 263-270.
Allan, J.; Harding, S.; Fisher, D.; Bolivar, A.; GuzmanLara, S.; Amstutz, P. (2005): Taking topic detection
from evaluation to practice. – In: Proceedings of
the 38th Annual Hawaii International Conference
on System Sciences.
Allan, J.; Lavrenko, V.; Connell, M.E. (2003): A
month of topic detection and tracking in Hindi. –
In: ACM Transactions on Asian Language Information Processing 2(2), S. 85-100.
Allan, J.; Lavrenko, V.; Jin, H. (2000): First story detection in TDT is hard. – In: Proceedings of the
9th International Conference on Information and
Knowledge Management. – New York: ACM, S.
374-381.
Allan, J.; Larvenko, V.; Swan R. (2002): Explorations
within topic tracking and detection. – In: Allan,
J., Hrsg.: Topic Detection and Tracking: Eventbased Information Organization. – Boston:
Kluwer, S. 197-224.
Allan, J.; Papka, R.; Lavrenko, V. (1998): On-line new
event detection and tracking. – In: Proceedings of
the 21th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 37-45.
45
Th e m e n e n t d e c ku n g u n d - v e r f o l g u n g
Allan, J.; Wade, C.; Bolivar, A. (2003): Retrieval and
novelty detection at the sentence level. – In: Proceedings of the 26 th International ACM SIGIR
Conference on Research and Development in Information Retrieval. – New York: ACM, S. 314-321.
Bharat, K. (2003): Patterns on the Web. – In: Lecture
Notes in Computer Science 2857, S. 1-15.
Brants, T.; Chen, F. (2003): A system for new event
detection. – In: Proceedings of the 26 th International ACM SIGIR Conference on Research and
Development in Information Retrieval. – New
York: ACM, S. 330-337.
Chali, Y. (2005): Topic detection of unrestricted
texts: Approaches and evaluations. – In: Applied
Artificial Intelligence 19(2), S. 119-136.
Chen, H.H.; Ku, L.W. (2002): An NLP and IR approach to topic detection. – In: Allan, J., Hrsg.:
Topic Detection and Tracking: Event-based Information Organization. – Boston: Kluwer, S. 243-264.
Cieri, C.; Strassel, S.; Graff, D.; Martey, N.; Rennert, K.;
Liberman, M. (2002): Corpora for topic detection and
tracking. – In: Allan, J., Hrsg.: Topic Detection and
Tracking: Event-based Information Organization. –
Boston: Kluwer, S. 33-66.
Curtiss, M.; Bharat, K.; Schmitt, M. (2003): Systems
and methods for improving the ranking of news
articles. Patentanmeldung Nr. US 2005/0060312
A1. – (Eingereicht am: 16.9.2003).
Del Vorso, G.M.; Gullí, A.; Romani, F. (2005): Ranking a stream of news. – In: Proceedings of the
14th International World Wide Web Conference. –
New York: ACM, S. 97-106.
Feng, A.; Allan, J. (2005): Hierarchical topic detection in TDT-2004. Technical Report. – Center
for Intelligent Information Retrieval. University of
Massachusetts, Amherst.
Fiscus, J.G.; Doddington, G.R. (2002): Topic detection and tracking evaluation overview. – In:
Allan, J., Hrsg.: Topic Detection and Tracking:
Event-based Information Organization. – Boston:
Kluwer, S. 17-31.
Flynn, C.; Dunnion, J. (2004): Event clustering in
the news domain. – In: Lecture Notes in Computer Science 3206, S. 65-72.
Franz, M.; Ward, T.; McCarley, J.S.; Zhu, W.J. (2001):
Unsupervised and supervised clustering for topic
tracking. – In: Proceedings of the 24th Annual International ACM SIGIR Conference on Research
and Development in Information Retrieval. – New
York: ACM, S. 310-317.
Frey, D.; Gupta, R.; Khandelwal, V.; Lavrenko, V.; Leuski,
A.; Allan, J. (2001): Monitoring the news: A TDT demonstration system. – In: Proceedings of the 1st International Conference on Human Language Technology Research. – Morristown, NJ: Association for
Computational Linguistics, S. 1-5.
Fukumoto, F.; Suzuki, Y. (2000): Extracting key paragraph based on topic and event detection: towards summarization. – In: NAACL-ANLP 2000
Workshop on Automatic Summarization – Vol. 4.
– Morristown, NJ: Association for Computational
Linguistics, S. 31-39.
Jin, Y.; Myaeng, S.H.; Lee, M.H.; Oh, H.J.; Jang,
M.G. (2005): Effective use of place information for
event tracking. – In: Lecture Notes in Computer
Science 3689, S. 410-422.
Jones, G.J.F.; Gabb, S.M. (2002): A visualization
tool for topic tracking analysis and development.
– In: Proceedings of the 25th Annual International ACM SIGIR Conference on Research and
Development in Information Retrieval. – New
York: ACM, S. 389-390.
Kim, P.; Myaeng, S.H. (2004): Usefulness of
temporal information automatically extracted
from news articles for topic tracking. – In: ACM
Transactions on Asian Language Information
Processing 3(4), S. 227-242.
Kumaran, G.; Allan, J. (2005): Using names and
topics for new event detection. – In: Proceedings of
Human Language Technology Conference/ Conference on Empirical Methods in Natural Language
Processing, Vancouver, S. 121-128.
Kurtz, A.J.; Mostafa, J. (2003): Topic detection and interest tracking in a dynamic online news source. –
In: Proceedings of the 3rd ACM/IEEE-CS Joint
Conference on Digital Libraries. – Washington, DC:
IEEE Computer Society, S. 122-124.
Larkey, L.S.; Feng, F.; Connell, M.; Lavrenko, V.
(2004): Language-specific models in multilingual
topic tracking. – In: Proceedings of the 27 th
46
Annual International ACM SIGIR Conference on
Research and Development in Information
Retrieval. – New York: ACM, S. 402-409.
Lavrenko, V.; Allan, J.; DeGuzman, E.; LaFlamme, D.;
Pollard, V.; Thomas, S. (2002): Relevance models
for topic detection and tracking. – In: HTL San
Diego, S. 104-110.
Leek, T.; Schwartz, R.; Sista, S. (2002): Probabilistic
approaches to topic detection and tracking. – In:
Allan, J., Hrsg.: Topic Detection and Tracking:
Event-based Information Organization. – Boston:
Kluwer, S. 67-83.
Leuski, A.; Allan, J. (2002): Improving realism of
topic tracking evaluation. – In: Proceedings of the
25th Annual International ACM SIGIR Conference
on Research and Development on Information
Retrieval. – New York: ACM, S. 89-96.
Levow, G.A.; Oard, D.W. (2002): Signal boosting for
translingual topic tracking. – In: Allan, J., Hrsg.:
Topic Detection and Tracking: Event-based
Information Organization. – Boston: Kluwer, S.
175-194.
Li, B.; Li, W; Lu, Q. (2006): Enhancing topic tracking with temporal information. – In: Proceedings
of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. – New York: ACM, S. 667-668.
Ma, N.; Yang, Y.; Rogati, M. (2005): Applying CLIR
techniques to event tracking. – In: Lecture Notes
in Computer Science 3411, S. 24-35.
Makkonen, J. (2003): Investigations on event evolution in TDT. – In: Proceedings of the 2003 Conference of the North American Chapter of the
Association for Computational Linguistics on
Human Language Technology. Proceedings of
the HLT-NAACL 2003 Student Research Workshop – Vol. 3. – Morristown, NJ: Association for
Computational Linguistics, S. 43-48.
Makkonen, J.; Ahonen-Myka, H. (2003): Utilizing
temporal information in topic detection and
tracking. – In: Lecture Notes in Computer Science
2769, S. 393-404.
Makkonen, J.; Ahonen-Myka, H.; Salmenkivi, M.
(2004): Simple semantics in topic detection and
tracking. – In: Information Retrieval 7, S. 347-368.
Makkonen, J.; Ahonen-Myka, H.; Salmenkivi, M.
(2003): Topic detection and tracking with spatiotemporal evidence. – In: Lecture Notes in Computer Science 2633, S. 251-265.
Manmatha, R.; Feng, A.; Allan, J. (2002): A critical
examination of TDT’s cost function. – In: Proceedings of the 25th Annual International ACM SIGIR
Conference on Research and Development on Information Retrieval. – New York: ACM, S. 403-404.
Mayer, Y. (2004): System and method for improved searching on the Internet or similar networks
and especially improved metanews and/or improved automatically generated newspapers. Patentanmeldung US 2005/ 0114324 A1. – (Eingereicht am: 14.9.2004).
McCarley, J.S.; Franz, M. (2000): Influence of
speech recognition errors on topic detection. – In:
Proceedings of the 23 rd Annual International
ACM SIGIR Conference on Research and Development in Information Retrieval. – New York:
ACM, S. 342-344.
Nallapati, R. (2003): Semantic language models for
topic detection and tracking. – In: Proceedings of
the 2003 Conference of the North American
Chapter of the Association for Computational
Linguistics on Human Language Technology. Proceedings of the HLT-NAACL 2003 Student Research Workshop – Vol. 3. – Morristown, NJ: Association for Computational Linguistics, S. 1-6.
Otterbacher, J.; Radev, D. (2006): Fact-focused novelty detection: A feasibility study. – In: Proceedings of the 29th Annual International ACM SIGIR
Conference on Research and Development in Information Retrieval. – New York: ACM, S. 687-688.
Papka, R.; Allan, J. (2000): Topic detection and tracking: Event clustering as a basis for first story
detection. – In: Croft, W.B. (Hrsg.): Advances in
Information Retrieval. Recent Research from the
Center for Intelligent Information Retrieval. –
Boston: Kluwer, S. 97-126.
Peters, I.; Stock, W.G. (2006): Corporate Blogs im
Wissensmanagement. – In: Wissensmanagement
Nr. 6, S. 40-41
Pons-Porrata, A.; Berlanga-Llavori, R.; Ruiz-Shulcloper,
J. (2003): Building a hierarchy of events and
topics for newspaper digital libraries. – In: Lecture Notes in Computer Science 2633, S. 588-596.
Radev, D.; Jing, H.; Stys, M; Tam, D. (2004): Centroid-based summarization of multiple documents.
– In: Information Processing & Management 40,
S. 919-938.
Schultz, J.M.; Liberman, M.Y. (2002): Towards a
„Universal Dictionary“ for multi-language information retrieval applications. – In: Allan, J.,
Hrsg.: Topic Detection and Tracking: Event-based
Information Organization. – Boston: Kluwer, S.
225-241.
Stock, M. (2002a): Factiva.com: Neuigkeiten auf
der Spur. Searches, Tracks und News Pages bei
Factiva. – In: Password Nr. 5, S. 31-40.
Stock, M. (2002b): ASV Infopool. Boulevard online.
– In: Password Nr. 10, 22-27.
Stock, M; Stock, W.G. (2003a): GBI – the contentmachine: Wirtschaftsinformationen für Hochschulen, Unternehmen und Internetsurfer. – In:
Password Nr. 2, 8-17.
Stock, M.; Stock, W.G. (2003b): Von Factiva.com zu
Factiva Fusion: Globalität und Einheitlichkeit mit
Integrationslösungen – auf dem Weg zum Wissensmanagement. – In: Password Nr. 3, S. 19-28.
Stock, M; Stock, W.G. (2003c): Dialog Profound /
NewsEdge: Dialogs Spezialmärkte für Marktforschung und News. – In: Password Nr. 5, 42-49.
Stock, M; Stock, W.G. (2003d): GENIOS Wirtschaftsdatenbanken: Bündelung deutscher und
internationaler Informationen als Wettbewerbsvorteil. – In: Password Nr. 6, 14-22.
Stock, M; Stock, W.G. (2005): Digitale Rechts- und
Wirtschaftsinformationen bei LexisNexis. – In:
JurPC. Zeitschrift für Rechtsinformatik, Web-Dok.
82/2005, Abs. 1-105.
Stock, W.G. (2007): Information Retrieval. – München; Wien: Oldenbourg.
Wayne, C.L. (2000): Topic detection and tracking
in English and Chinese. – In: Proceedings of the
5 th International Workshop on Information
Retrieval with Asian Languages. – New York:
ACM, S. 165-172.
Yang, C.C.; Shi, X.; Wei, C.P. (2006): Tracing the
event evolution on terror attacks from on-line
news. – In: Lecture Notes in Computer Science
3975, S. 343-354.
Yang, Y.; Carbonell, J.; Brown, R.; Lafferty, J.; Pierce, T.;
Ault, T. (2002): Multi-strategy learning for topic
detection and tracking. – In: Allan, J., Hrsg.: Topic
Detection and Tracking: Event-based Information
Organization. – Boston: Kluwer, S.85-114.
Themenentdeckung und -verfolgung, TDT, Google News, Nachrichten, Themenentdeckung, Themenverfolgung, elektronischer Informationsdienst, LexisNexis, Profildienst
D e r A u to r
Prof. Dr.Wolfgang G. Stock
ist Leiter der Abteilung für Informationswissenschaft der
Heinrich-Heine-Universität Düsseldorf.
Der Artikel ist eine
erweiterte Fassung
von Kapitel 25 seiner
aktuellen Publikation „Information
Retrieval“ (Oldenbourg Verlag).
[email protected]
www.phil-fak.uni-duesseldorf.de/
infowiss
58(2007)1, 41-46
Diskussionsbeitrag
Dr. phil. Eberhardt Gering, Wildau
Etwas überraschend erschien im Herbst
2006 die zweite Ausgabe des Fachwörterbuches „Terminologie der Information und Dokumentation“. Überraschend, weil der Autor des vorliegenden Beitrags die Hoffnung auf eine
Neufassung der Erstausgabe von 1975
schon fast aufgegeben hatte, nachdem
eine von ihm vor ungefähr zehn Jahren
dem Komitee Terminologie und Sprachfragen der DGD auf Anforderung übergebene ausführliche Zuarbeit unbeantwortet geblieben war. Der Grund des
Schweigens wird nun etwas klarer: von
der genannten Zuarbeit findet sich in
der jetzt vorliegenden, laut Impressum
„neu bearbeiteten Ausgabe“ nicht die
kleinste Spur. Die damit zur Blindleistung mutierten wissenschaftlich begründeten Vorschläge von damals sollen an dieser Stelle nicht nochmals im
Original wiedergegeben werden – ihr
Inhalt deckt sich weitestgehend mit
dem, was in der am Ende dieses Textes
angegebenen Literaturstelle steht. Hier
soll nur versucht werden, dasjenige in
die mit der Neuausgabe hoffentlich wieder entfachte Terminologiedebatte einzubringen, was unverzichtbar scheint.
Dem eiligen oder misstrauischen Leser
sei empfohlen, jetzt gleich die weiter
unten stehende „Soll-Liste der IuD-Basistermini“ zur Kenntnis zu nehmen.
Er möge dann selbst entscheiden, ob er
den Rest auch noch lesen will.
Gegenstand der Informations- und Dokumentationstätigkeit sind in erster
Linie die in Informationsquellen (insbesondere in schriftlichen und audiovisuellen Dokumenten) enthaltenen wissenschaftlich relevanten Begriffe und
Aussagen über Objekte, Sachverhalte
und Sachverhaltskomplexe in den verschiedenen Bereichen des Seins (Natur,
Gesellschaft und Denken; Technik inbegriffen). Diese in Wort oder Bild festgehaltenen Begriffe und Aussagen sind
die Basis für alle Arten von sozialen Informationen (naturwissenschaftliche,
technikwissenschaftliche, geisteswissenschaftliche und sozialwissenschaftliche Informationen) einschließlich ihrer
sämtlichen Mischformen.
58(2007)1, 47-50
Die Begriffe und Aussagen entstehen
im Erkenntnisprozess, der sich im
menschlichen Denken vollzieht und
stets auf bestimmte Elemente von Ausschnitten aus den verschiedenen Seinsbereichen gerichtet ist. In abstrahierter
und verallgemeinerter Sichtweise gehören zu diesen Elementen die jeweiligen Objekte, Objekteigenschaften, Objektrelationen, Sachverhalte und Sachverhaltskomplexe.
■ Der Begriff des Objekts schließt
sämtliche Objekte (synonym Dinge,
Gegenstände) aller Seinsbereiche
(Natur, Gesellschaft und Denken
ein). Der Begriffsumfang ist mehrschichtig. Er kann sich beziehen
auf: a) ein einzelnes Objekt (z.B. ein
Proton); b) eine Objektklasse (z.B.
die Objektklasse der Atombausteine
mit den Objekten Proton, Neutron
und Elektron); c) eine Klasse von Objektklassen (z.B. die Klasse der Elementarteilchen mit den Objektklassen Atombausteine, Feldquanten
u.a.).
■ Eine Objekteigenschaft ist ein wesensbestimmendes Merkmal des
Objektes (z.B. das Atomgewicht des
betreffenden Atoms). Eine Objektrelation ist eine Wechselwirkung des
betrachteten Objekts mit anderen
Objekten (z.B. die Massenanziehung
zwischen dem betrachteten und
einem weiteren Atom). Objekteigenschaften und Objektrelationen können selbst wieder eigenständiges
Erkenntnisobjekt sein.
■ Ein Sachverhalt bezeichnet die Gesamtheit und Ganzheit eines Objekts mit seinen Objekteigenschaften und Objektrelationen. Das Gewinnen und Vermitteln von Wissen
um konkrete Sachverhalte bzw.
Sachverhaltskomplexe des Seins ist
das eigentliche Ziel des Erkenntnisprozesses und damit die Aufgabe
entsprechender wissenschaftlicher
Informationen. Wir bezeichnen diese
Informationen daher als Sachverhaltsinformationen.
Die beiden Termini „Objekt“ und
„Sachverhalt“ sind Grundkategorien
der Informationswissenschaft. Ihre kon-
sequente Berücksichtigung in der theoretischen und praktischen Arbeit führt
zu größerer, besser begründbarer Klarheit im Begriffsgefüge und in der Terminologie der IuD. 1, 2
Wegen seiner übergreifenden Bedeutung für Theorie und Praxis der IuD,
insbesondere im Zusammenhang mit
der Rolle der Sachverhaltsinformationen, muss dem Terminus „Sachverhalt“
in der IuD-Terminologie ein zentraler
Platz eingeräumt werden. Ein Sachverhalt ist nicht schlechthin ein statischer
Zustand. Die allgemeinen Charakteristika eines Sachverhalts – das Zukommen von Eigenschaften zu einem Objekt und von Beziehungen zu anderen
Objekten – gelten unabhängig davon,
ob sich das Objekt im Zustand der
Ruhe oder der Veränderung befindet,
ob es als aktiver oder passiver Teil in
größere Zusammenhänge eingebunden
ist usw. Damit lassen sich auch komplexe Erscheinungen wie „System“
oder Veränderungen ausdrückende Erscheinungen wie „Ereignis“ oder „Vorgang“ als Einzelsachverhalte bzw. als
Komplexe von beliebig vielen nachgeordneten Sachverhalten einordnen.
Ein in der Wirklichkeit existierender
Sachverhalt wird Tatsache oder Fakt
genannt. Auch die aus der Wirklichkeit
widerspruchsfrei abgeleiteten und nur
im Denken gegebenen Sachverhalte
sind Fakten. Dem wird durch den Terminus „ideeller Fakt“ Rechnung getragen. Das auf der Basis von Naturgesetzen im Bewusstsein entworfene Atommodell eines bestimmten chemischen
Elements ist ein ideeller Fakt. Ein willkürlich im Bewusstsein konstruierter,
mit der Wirklichkeit nicht widerspruchsfrei in Einklang zu bringender
Sachverhalt ist hingegen eine Fiktion
bzw. ein fiktiver Sachverhalt. Beispiel
für eine Fiktion ist der Sachverhalt von
einem funktionierenden Perpetuum mobile.
1
2
Eberhardt Gering: Terminologie der Softwaretechnik (Diskussionsbeitrag). – In: InformatikSpektrum 17 (1994) 3, S. 187
IuD – Information und Dokumentation
47
Te r m i n o l o g i e u n d S p r a c h f r a g e n
Zur Terminologie der Information und Dokumentation
Te r m i n o l o g i e d e r I u D
Ein Objekt, das zum Gegenstand der
Erkenntnis geworden ist, führt im
menschlichen Bewusstsein zur Bildung
eines adäquaten Begriffs, der sprachlich als Einzelwort oder abgegrenzte
Wortgruppe zum Ausdruck kommt. Ein
zum Erkenntnisgegenstand gewordener Sachverhalt (immer in Einheit von
Objekt, Objekteigenschaften und Objektrelationen zu sehen) führt im Bewusstsein zu einer adäquaten Aussage, die ihren sprachlichen Ausdruck
im Aussagesatz findet.
Der menschliche Erkenntnisprozess
kann prinzipiell zu drei unterschiedlichen Arten von Resultaten führen:
■ Resultat 1: Die gebildete Aussage
über den betrachteten Sachverhalt
erweist sich als richtig bzw. wahr.
Sie steht weder zur Praxis, zu den
Gesetzen der formalen Logik noch
zu den Naturgesetzen und Naturkonstanten im Widerspruch. Eine
Aussage dieser Art ist Grundlage für
eine Fakteninformation.
■ Resultat 2: Die gebildete Aussage
steht im Widerspruch zu mindestens
einem der oben genannten Kriterien.
Eine Aussage dieser Art ist unrichtig
bzw. falsch und führt zu einer Fiktionsinformation oder zu einer bewussten Falschinformation. Die Beschreibung eines funktionierenden
Perpetuum mobile ist eine Fiktionsinformation.
Zu den auf Fiktionen beruhenden Aussagen gehören wissenschaftliche Idealisierungen, Utopien, Irrtümer, Phantastereien usw., aber auch bewusste Verfälschungen, Halbwahrheiten und
Lügen.
■ Resultat 3: Die gebildete Aussage
beruht auf einer Annahme bzw. Vermutung. Eine Entscheidung darüber,
ob der betrachtete Sachverhalt richtig oder falsch erkannt wurde, ist
nicht oder noch nicht möglich. Eine
Aussage dieser Art ist Grundlage für
eine Vermutungsinformation (Information über einen vermuteten Sachverhalt). Die Behauptung, dass es
auf dem Planeten Mars Wasser gibt,
liefert eine Vermutungsinformation.
Zu den wissenschaftlich begründeten
Vermutungen gehören Aussageformen
wie Behauptung, Hypothese, Prognose
und andere Formen der Erkenntnis,
deren Übereinstimmung mit der Wirklichkeit möglich, aber noch nicht hinreichend bewiesen ist.
Daten sind keine eigenständige Kategorie im Gefüge der Sachverhaltsinformationen. Es handelt sich bei Daten
immer um verkürzte Formen adäquater
Aussagesätze, wobei Daten nur dann
als gesichert gelten, wenn sie nachweislich auf Faktenaussagen beruhen.
Daten bezeichnen bestimmte, oft in numerischen Angaben dargestellte Merkmale von Erkenntnisobjekten. Ein Bei-
48
spiel sind die Daten der Schmelzpunkte
von Metallen. Die Aussage: „Eisen hat
einen Schmelzpunkt von 1540 Grad Celsius“ lässt sich in einer Tabelle der
Schmelzpunkte in der Form „Eisen
1540 °C“ wiedergeben. (Weiteres zum
Begriff Daten siehe unten)
Die Informationsquellen, in denen die
Objekte und Sachverhalte bestimmter
Seinsbereiche in sprachlicher oder bildhafter Form dargestellt sind, werden in
der Fachsprache der IuD als Dokumente bezeichnet. Zum Begriffsumfang
des Dokuments gehören neben den
schriftlichen Quellen noch andere Darstellungsformen von Gegenständen der
Erkenntnis. Das betrifft vor allem die
audio-visuellen Informationsquellen.
Die bibliographischen und anderen Formen der Beschreibung von Dokumenten bilden die Dokumenteninformationen.
Sachverhaltsinformationen und Dokumenteninformationen sind die beiden
sich gegenseitig ausschließenden
Grundtypen von wissenschaftlichen Informationen. Es gibt keinen dritten
Grundtyp. Die beiden Grundtypen können als Mischform gemeinsam auftreten (das ist beispielsweise bei Referateblättern der Fall), sie verlieren dabei
jedoch nicht ihren jeweiligen spezifischen Charakter.
Gegenstand der Sachverhaltsinformationen sind die in den Dokumenten behandelten oder in der Praxis (z.B. Laborarbeiten oder archäologische Ausgrabungen) unmittelbar beobachteten
Objekte und Sachverhalte. Unter dem
erkenntnistheoretischen Aspekt sind
objektSachverhaltsinformationen
sprachlich formulierte Informationen
(sie beziehen sich direkt auf die Objekte
der wissenschaftlichen Erkenntnis).
Tabelle 1: Soll-Liste der IuD-Basistermini
Soll-Liste der IuD-Basistermini
Objekt
Objekteigenschaft
Objektrelation
Begriff
Begriffsumfang
Begriffsinhalt
Sachverhalt
Erkenntnisobjekt unter Ausklammerung seiner Eigenschaften und
Relationen.
Eigenschaft oder Merkmal eines Objektes.
Beziehung eines Objektes zu anderen Objekten.
Spiegelung eines Objektes im Bewusstsein.
Gesamtheit der mit dem Begriff abgedeckten verschiedenen
Arten des betrachteten Objekts.
Gesamtheit der Merkmale der mit dem Begriff abgedeckten verschiedenen Arten des betrachteten Objekts.
Fakt
Fiktion
Vermutung
Objekt mit seinen Eigenschaften und seinen Relationen zu anderen Objekten.
synonym Tatsache. Wirklich existierender Sachverhalt.
nicht wirklich existierender Sachverhalt.
Annahme über die Existenz oder Nichtexistenz eines Sachverhalts.
Sachverhaltsaussage
Faktenaussage
synonym Aussage. Spiegelung eines Sachverhalts im Bewusstsein.
auf einem Fakt beruhende Sachverhaltsaussage.
Fiktive Aussage
Vermutungsaussage
auf einer Fiktion beruhende Sachverhaltsaussage.
auf einer Vermutung beruhende Sachverhaltsaussage.
Sprache
Begriffswort
Aussagesatz
Objektsprache
Metasprache
Dokumentationssprache
Sachverhaltsinformation
Wort, das für sich allein genommen einen Begriff ausdrückt. Synonyme: Vollwort; Autosemantikum.
sprachliche Form einer Sachverhaltsaussage.
sprachliche Form für das Beschreiben von Objekten und Sachverhalten.
sprachliche Form für das Beschreiben von Dokumenten als Ganzes.
künstliche od. quasinatürliche Sprache zum Erschließen von Dokumenteninhalten.
Fakteninformation
Fiktive Information
Vermutungsinformation
Grundtyp wissenschaftlicher Information. Pendant zur Dokumenteninformation.
auf Fakten beruhende Sachverhaltsinformation.
auf Fiktionen beruhende Sachverhaltsinformation.
auf Vermutungen beruhende Sachverhaltsinformation.
Daten
sprachlich verkürzte Formen von Sachverhaltsaussagen.
Dokumenteninformation
Grundtyp wissenschaftlicher Information. Pendant zur Sachverhaltsinformation.
synonym Informationsquelle.
Dokument
58(2007)1, 47-50
Te r m i n o l o g i e d e r I u D
Gegenstand der Dokumenteninformationen sind dagegen die Dokumente als
Ganzes. Aus erkenntnistheoretischer
Sicht besitzen Dokumenteninformationen metasprachlichen Charakter (sie
beziehen sich auf die Quellen, in denen
die Erkenntnisobjekte betrachtet werden und nicht direkt auf die Erkenntnisobjekte selbst).
Eine Terminologie der IuD muss, unter
Berücksichtigung der obigen Darlegungen, die in Tabelle 1 aufgeführten Termini und deren Definitionen zu ihrer
Grundlage machen. Diese Termini sollen IuD-Basistermini genannt werden.
Unterstrichene Wörter sind übergeordnete Termini (Oberbegriffe) in bezug
auf darunter stehende Wortgruppe.
Tabelle 2: Vergleich der Soll-Liste mit den Registern der IuD-Terminologien
IuD-Basistermini
Terminologie 2006
Terminologie 1975
Handbuch 1977
Objekt
Objekteigenschaft
Objektrelation
Objekt 1/
Merkmal
Relation
Dokumentationsobjekt
Merkmal
Relation
———-
Begriff
Begriffsinhalt
Begriffsumfang
Begriff
Begriffsinhalt
Begriffsumfang
Begriff
Begriffsinhalt
Begriffsumfang
Begriff
——-
Sachverhalt
Fakt
—Fakten
——-
Sachverhalt
Fakt
Fiktion
Vermutung
——-
——-
——-
Sachverhaltsaussage
Faktenaussage
Fiktive Aussage
Vermutungsaussage
Aussage
———-
Aussage
———-
Sachverhaltsaussage
———-
In einer „Terminologie der IuD“ müssen durch Hinweise in den Definitionen
die Zusammenhänge zwischen den
oben aufgelisteten Basistermini noch
vollständiger verdeutlicht werden.
Sprache
Wort
Aussagesatz
Objektsprache
Metasprache
Dokumentationssprache
Sprache
Wort
Satz
——Dokumentationssprache
Sprache
Wort
Satz
——Dokumentationssprache
Sprache
Wort; Sachwort
———Informationsrecherchesprache
Ein Vergleich der Soll-Liste von Basistermini mit den Registern der IuD-Terminologien von 2006 und 1975 sowie
mit dem Register des DDR-Handbuches
der IuD von 1977 zeigt das in Tabelle 2
wiedergegebene Bild:
Sachverhaltsinformation
Fakteninformation
Fiktive Information
Vermutungsinformation
—Faktendokumentation
——-
Sachverhaltsauskunft
Faktendokumentation
——-
Sachinformation
Fakteninformation
——-
Daten
Daten
Daten
Daten
Dokument
Dokumentbeschreibung
Dokument
Dokumenteninformation
1/ Objekt siehe auch dokumentarische Bezugseinheit
58(2007)1, 47-50
Dokument
Dokument
Dokumenteninformation Dokumentbeschreibung
49
Te r m i n o l o g i e d e r I u D
Ein gesperrtes Feld bedeutet, dass es
im betreffenden Register zu diesem
Terminus keinen Eintrag gibt. Das Vorhandensein eines Eintrages in einem
Register sagt noch nichts darüber aus,
ob dieses Wort auch auf dem gleichen
Begriffsinhalt und -umfang beruht wie
der betreffende Terminus in der SollListe der Basistermini.
Wie Tabelle 2 zeigt, klaffen mächtige
Lücken in der gegenwärtigen IuD-Terminologie. Mit Sachverhalten und Sachverhaltsinformationen weiß man in der
IuD offenbar nichts anzufangen, außer
dass in der Fachliteratur immer wieder
das ebenso stereotype wie inhaltlich
völlig falsche Wortkonstrukt „Fakten,
Daten und andere Sachverhalte“ auftaucht. Hierbei werden verschiedene
Ebenen durcheinander gewürfelt denn
Fakten existieren nur auf der Objektebene, Daten hingegen nur auf der
Ebene der Aussagen über Objekte. Und
was heißt in der zu beanstandenten
Wortgruppe eigentlich „andere Sachverhalte“?
Vermutungen bleiben in der IuD-Terminologie ebenfalls unberücksichtigt.
Doch unsere Welt wimmelt von Sachverhaltsaussagen, welche den Charakter von Vermutungen haben, denken
wir nur an die vielen wissenschaftlichen und weniger wissenschaftlichen
Behauptungen, Hypothesen, Prognosen usw. Was machen wir damit in der
IuD? Packen wir alle diese Arten von
Vermutungen mit in die „Kiste der Faktenaussagen“, weil die Existenz einer
bestimmten Vermutung ja auch ein
„Fakt“ ist? Damit träfe man eine Aussage über eine Aussage, was natürlich
zulässig ist, aber die Frage nach der
Behandlung von Vermutungen nicht
beantwortet. Vermutungen müssen als
solche gekennzeichnet sein und müssen von den Faktenaussagen deutlich
unterschieden werden.
Auch Fiktionen scheint es der gegenwärtigen IuD-Terminologie zufolge
nicht zu geben. Interessieren die uns
als IuD-Fachleute überhaupt? Die Antwort muss auf jeden Fall lauten: Ja!
Um einmal in die Geschichte zu gehen:
Was würden wir beispielsweise mit
dem Sachverhalt des geozentrischen
Weltsystem des Ptolemäus anfangen,
welches den Menschen mindestens anderthalb Jahrtausende lang als Fakt
vorgeführt wurde und das doch eine
einzige, riesige Fiktion ist? Manche
meinen, das sei nicht mehr dokumentationswürdig. Abgesehen davon, dass
diese Meinung nicht vertretbar ist –
gibt es nicht in unserer Gegenwart
auch immer wieder wissenschaftliche
Erkenntnisse, die scheinbar auf Fakten
beruhen und sich dann doch als falsch
herausstellen, weil sie von fiktiven Vorstellungen ausgehen? Wie gehen wir
mit entsprechenden Fachinformationen
50
um? Darf man sich damit herausreden,
dass keiner die Wahrheit kennt, weil
sie angeblich gar nicht zu erkennen sei
oder weil es immer „mehrere Wahrheiten“ gäbe?
Und wie behandeln wir wissenschaftlich unanfechtbare Aussagen, die ganz
bewusst aus fiktiven Sachverhalten der
Natur abgeleitet wurden (Beispiel die
„idealen Gase“)? Wir können sie nicht
einfach den Faktenaussagen zuordnen
und die Informationen darüber zu Fakteninformationen erklären.
Berücksichtigen müssen wir in der IuD
auch die unablässig von neuen Erkenntnissen diktierten Wandlungen
des Wahrheitscharakters von Aussagen. Die Wandlung von einer scheinbaren Faktenaussage zu einer fiktiven
Aussage wurde schon am Beispiel des
ptolemäischen geozentrischen Weltsystems gezeigt. Den umgekehrten Weg
ging die nach damaliger Meinung der
Kirche falsche Aussage über die Existenz des kopernikanischen heliozentrischen Weltsystems. Mit fortschreitender wissenschaftlicher Erkenntnis
musste diese auf unumstößlichen Fakten beruhende Aussage schließlich als
wahr anerkannt werden. Auch die
Wege der Wandlung von Vermutungen
in Faktenaussagen in der einen oder in
fiktive Aussagen in der anderen Richtung müssen berücksichtigt werden.
Bleibt noch etwas zu sagen zum Terminus „Daten“, der nun schon jahrzehntelang nach einer brauchbaren Definition ruft. Dabei ist die Lösung nicht
schwer, was ein Beispiel zeigen soll.
Nehmen wir den einfachen Aussagesatz „Der Eiffelturm in Paris ist 300
Meter hoch und hat eine Masse von
9000 Tonnen.“ In diesem Satz stecken
zwei getrennte Aussagen: a) Die Höhe
des Eiffelturms beträgt 300 Meter; b)
Die Masse des Eiffelturms beträgt 9000
Tonnen. Höhe und Masse sind Merkmale des Objektes Eiffelturm. Diese beiden Aussagen (genauer Aussagesätze)
lassen sich weiter verkürzen, indem der
Objektname Eiffelturm als gemeinsames Bezugsobjekt vorangestellt und die
beiden Teilaussagen auf die Merkmalsnamen (Höhe und Masse) und die Merkmalsausprägungen (300 Meter und
9000 Tonnen) beschränkt werden.
Wählt man für die Dimensionen Höhe
und Masse dann noch die gängigen
Abkürzungen m (für Meter) und t (für
Tonne), so erhält man unter der gemeinsamen Objektbezeichnung „Eiffelturm“ die zwei knappen Datenangaben: Höhe 300 m; Masse 9000 t.
Verallgemeinernd lässt sich aus dem
obigen Beispiel folgende Definition
ableiten: Daten sind nach dem Schema
„Objektbezeichnung-MerkmalsnameMerkmalsausprägung“ verkürzte Aus-
sagesätze, wobei häufig die Merkmalsausprägung numerisch ist (bei bestimmten Daten ist die Merkmalsausprägung nichtnumerisch).
Es sei noch darauf aufmerksam gemacht, dass in eine Terminologie der
IuD auch die Termini „Wissenschaftliche Information“ und „Fachinformation“ gehören. Trennen sollte man sich
hingegen von dem Terminus „Beschlagwortung“ (siehe S. 15), er ist,
ebenso wie das andernorts zu lesende
Wort „Verschlagwortung“, eine Verschlimmerung der deutschen Sprache.
Die vom Verfasser dieses Beitrags eingeführten Termini „Vermutungsaussage“ und „Vermutungsinformation“
betrachtet er selbst als vorläufig, bis
etwas Besseres vorgeschlagen wird.
Leider geht durch die Aufnahme unverhältnismäßig großer Teile der Bibliotheksterminologie der Charakter einer
eigenständigen IuD-Terminologie weitgehend verloren. Besser wären zwei
getrennte Terminologien mit einem gemeinsamen Überlappungsteil.
Literatur
Eberhardt Gering: Sachverhaltsinformationen im
Fachinformationsprozess – Begriffe und Termini. – In: nfd Information – Wissenschaft und
Praxis 52(2001)3, S. 133-142
Wildau bei Berlin, den 27. November
2006
D e r A u to r
Dr. Eberhardt Gering
(Jg. 1936). Promovierter Informationswissenschaftler. Langjährige Tätigkeit auf dem
Gebiet des Aufbaus
und der Nutzung computergestützter Fachinformationssysteme
in Industrie und Wissenschaft. An der
Universität Potsdam ab 1991 tätig als
Dozent für die Ausbildung wissenschaftlicher Dokumentare (STN-Schulungszentrum für Online-Datenbanken,
bis 1994) sowie für die Aus- und Weiterbildung von wissenschaftlichem Personal und Studenten (bis 2001). Forschungsschwerpunkte: Gestaltung
effektiver automatisierter Informationssysteme; Anwendungsmöglichkeit von
natürlichsprachigen Informationssystemen; wissenschaftsmetrische Analysen
großer Online-Datenbanken, Grundlagen der Sachverhaltsinformation.
Asternring 29
15745 Wildau
[email protected]
www.dataleum.de
58(2007)1, 47-50
Chemieinformation gestern, heute, morgen
Gregor Fels, Paderborn
gen mit der Royal Society in London im
Jahr 1660. So war die Philosophical
Transactions 1667 die erste wissenschaftliche Zeitschrift, die in der westlichen Welt erschienen ist.
Auch heute noch sind es die Wissenschaftsorganisationen, für die Chemie
z.B. die GDCh oder die ACS, die die
wissenschaftliche Kommunikation mitbestimmen, auch wenn der Einfluss der
Verlage dabei nicht unbedeutend ist.
Es ist beispielsweise der GDCh zu verdanken, dass wir heute an den HochElectronic media in chemistry – the development of chemical information
schulen Literatur- und FaktendatenElectronic media are communication tools, which are coded and transmitted as
banken wie selbstverständlich nutzen.
digital data. In chemistry these are chemical publications, hand books, data seDabei ist es erst knapp zehn Jahre her,
ries, spectral data, reactions, repositories for online learning and much more. In
dass das „Endnutzerprojekt Datenbanthe framework of the presentation of the new information and knowledge platken“ in den Jahren 1995-97 – vom
1
form chem.de during ACHEMA 2006, the author gave an overview on the revoBMBF gefördert und von der GDCh orlutionary development of chemical information from yesterday to tomorrow. This
ganisiert – für die Einführung und Nutarticle focuses on the text of the presentation, the transparencies are available
zung der chemiebezogenen Datenban2
online on the platform chem.de (Forschungsführer/Fels, Gregor/Publikationen).
ken an deutschen Hochschulen gesorgt
hat.
Gerade in den letzten Jahren hat die
Während man im ZeitChemieinformation einen Wandel vollalter der Erfindung des
zogen, bei dem wir – technisch und
Buchdrucks noch ausmental – den Übergang von den konschließlich mechaniventionellen Bibliotheken mit ihren Resche Hilfsmittel wie
galreihen voller Bücher und Journale
Ramellis Bücherrad 4
zur Informationsaufzum elektronischen Arbeitsplatz im
nahme zur Verfügung
Büro, zu Hause oder eben in der Bibliohatte, gibt es seit etwa
thek bewältigt haben. Mit der histori170 Jahren auch eine
schen Rolle der Bibliotheken als „GateWissenschaft der Komkeeper“ der wissenschaftlichen Literamunikation, die uns die
tur sind sie – im Zeitalter der Elektronik
Kommunikation der
– die Portale für die digitale InformaWissenschaft mittels
tion, die von innerhalb und außerhalb
elektronischer Medien
der Hochschule zu erreichen sind, und
erleichtert.
die nicht zu den Regalpositionen der
Sie hat ihren Ursprung
katalogisierten Bücher, sondern – viel
wohl in der Erfindung
bedeutender – zu den verschiedensten
Abbildung 1: Web-Portal zur elektronischen Bibliothek der
Universität Paderborn
des Telegraphen, 1837
Dienstleistungen der Fachinformatiodurch Samuel Morse,
nen führen, wie z.B. den Datenbanken
sie seit etwa 50 Jahren in steigendem
geht weiter über das Telefon und
oder den „downloadbaren“ PDF-DateiMaße auch – oder vielleicht irgendkommt mit der drahtlosen Kommunikaen von Zeitschriftenartikeln.3
wann nur noch – elektronisch verfügtion zum ersten Mal von der „one-tobar. Es waren die Chemical Titles und
one“ Verkabelung zu einer Informatidie ersten online Journals der ACS, die
onsvermittlung „one-to-many“. Heute
das elektronische Zeitalter der Chemiesind wir mit dem Internet und z.B. den
Die Kommunikation der Wissenschaft
informationen eingeläutet haben.
1 www.chem.de
Neben dem Vorhandensein der wissenist heute mehr oder weniger synonym
2 www.chem.de, siehe: Forschungsführer/
mit elektronischer Kommunikation: Inschaftlichen Information ist aber eine
Fels, Gregor/Publikationen.
3 www.ub.uni-paderborn.de/ebibliothek/
ternet, Telefon, Radio und Fernsehen.
soziale Infrastruktur notwendig, um die
4 www.hrz.uni-dortmund.de/docs/Medien/
Wissenschaft zu kommunizieren. Das
Jahrhunderte lang waren Bücher und
Lesemaschine.html
Zeitschriften die Träger der Informahaben früher die gesellschaftlichen
Alle im Text angegebenen Webadressen wurden
tion. Das gilt auch heute noch, nur sind
Gruppierungen übernommen, angefanam 11. Dezember 2006 überprüft.
Elektronische Medien sind definitionsgemäß Kommunikationsmittel, die auf elektronischem Wege, digital kodiert, übermittelt werden. Bezogen auf die Chemieinformation handelt es sich dabei um chemische Publikationen, Handbücher, Datenreihen, Spektren, Reaktionen, Repositorien für Online-Learning und vieles
mehr. Im Rahmen der Vorstellung der neuen Informations- und Wissensplattform
„chem.de“1 während der ACHEMA 2006 hat der Autor den Versuch unternommen, die revolutionäre Entwicklung der Chemieinformation zwischen „gestern
und morgen“ zu beschreiben. Der Vortragstext ist hier im wesentlichen unbebildert wiedergegeben, die Vortragsfolien sind auf eben dieser „chem.de“-Plattform
abzurufen (Forschungsführer/Fels, Gregor/Publikationen).2
(Chemie)Information gestern
58(2007)1, 51-56
51
I n f o r m at i o n s p r a x i s
Elektronische Medien in der Chemie
E n t w i c k lu n g C h e m i e i n f o m at i o n
Wissenschaft der Kommunikation
■
■
■
■
■
■
■
■
Telegraph, Samuel Morse (1837)
Telefon, Alexander Graham Bell,
(1874)
Radiosendung, James Clark Maxwell
(1901)
Integrierte Schaltkreise, Jack Kilby,
Texas Instruments (1958)
ARPAnet (1969)
TCP/IP, Robert Kahn and Vinton Cerf
(1973)
WWW, Tim Berners-Lee (1989)
Fachinformationsprogramme des
BMBF (1985-98 und 1990-4)
• Beilstein, Gmelin
• Cheminnform RX
• Detherm
• SpecInfo
Wikis bei der „many-to-many“ Kommunikation angelangt, die manchmal vielleicht auch schon „much-to-much“ ist.
Die technologische Wiege des elektronischen Informationszeitalters liegt in
der Zeit nach dem Zweiten Weltkrieg,
zu Zeiten also, als der Transistor die
Vakuumröhren der Computer ersetzte
und als Jack Kilby den ersten integrierten Schaltkreis in den Labors von Texas
Instruments (1958) hergestellt hat, und
in deren Folge dann nach und nach die
Taschenrechner Chips, die Mikroprozessoren und die Personalcomputer
entstanden sind.
Die Grundlagen für das World Wide
Web wurden in den 60er Jahren des
letzten Jahrhunderts gelegt, als das
U.S. Defense Department 1969 das ARPAnet eingeführt hat. Das Internet-Protokoll, das TCI/IP, wurde 1973 von Robert Kahn und Vinton Cerf geschrieben.
Das ist noch heute gültig. Es ist vielleicht kein Zufall, dass das Web in
einem Physiklabor entstand, dem
CERN, wo Tim Berners-Lee 1989 die
grundlegende Pionierarbeit geleistet
hat. Später wurde der erste Browser,
Mosaic, am National Center for Supercomputing Applications (NCSA) an der
University of Illinois bereitgestellt, gefolgt von den kommerziellen Entwicklungen von Browsern und Suchmaschinen in Stanford, Berkeley und Carnegie
Mellon.
Als besonderer Meilenstein der Chemieinformation in Deutschland sind in
dieser Chronologie die Fachinformationsprogramme der Bundesregierung zu
nennen, die 1985-88 mit insg. 50 Millionen DM und noch einmal 1990-94 mit
jeweils 20 Mio DM pro Jahr den Aufbau
der deutschen Datenbanken gefördert
5
6
7
8
www.cas.org/
www.cas.org/cgi-bin/regreport.pl
Marx, W., Schier, H., CAS contra Google.
Nachr. aus der Chemie 2006, 53, 1228-1232.
www.nih.gov/about/director/pubmedcentral/
ebiomedarch.htm
52
haben, d.h. Beilstein, Gmelin, ChemInform RX, Detherm und Specinfo. Heute
müssen wir für den Zugang zu diesem
mit deutschen Steuergeldern geförderten Produkten beim Verlag Elsevier in
Holland bezahlen.
1995 gab es dann einen Paradigmenwechsel in der deutschen Forschungspolitik:
■ Der klassische Datenbankaufbau
und das Angebot wissenschaftlichtechnischer Informationen wurde in
weiten Bereichen der Privatwirtschaft überlassen; marktwirtschaftliche Aspekte wurden also dominierend.
■ Die Krise der öffentlichen Haushalte,
z.B. der rückläufige Erwerbungsetat
der Bibliotheken, zwang dazu, zunehmend auch Originalinformationen elektronisch zu erstellen, zu verteilen und vorzuhalten; elektronisches Publizieren bekam ein
stärkeres Gewicht.
■ Multimediale Kommunikationsformen sollten für Wissenschaft, Forschung und Ausbildung gefördert
werden; Förderprogramme wie
„neue Medien für die Bildung“ oder
die „Notebook University“ wurden
initiiert.
Wie sieht es nun damit heute aus, also
zehn Jahre später?
Vermutlich wäre die heutige Informationsflut mit gedruckten Suchhilfen aber
gar nicht mehr zu bewältigen. Im Laufe
des 20. Jahrhunderts hat sich der jährliche Output der chemischen Forschung
nahezu verhundertfacht und insgesamt
einen Umfang von 30 Millionen Artikeln
und Patenten erreicht. Es gibt heute,
im Mai 2006, mehr als 28 Millionen reguläre Verbindungen und knapp 58 Millionen Biosequenzen. Die gegenwärtig
gültigen Zahlen sind tagesaktuell beim
Chemical Abstract Service abzurufen.6
Im Jahr 2004 erschienen fast 1,4 Millionen chemierelevante Arbeiten (inkl. Patente); darin wurden mehr als zwei Millionen neue Verbindungen und rund 15
Millionen Biosequenzen beschrieben
(siehe Grafik). 7 Der Informationsberg
wächst und es ist notwendig, diese
wichtigen Fachinformationen zu strukturieren und zu verarbeiten. Schlagworte dabei sind
■ online Journals inkl. Preprint Archive.
■ Retrieval Tools für die Informationsbeschaffung.
■ digitale Bibliotheken mit ihren Literatur- und Faktendatenbanken.
Unabhängig davon, ob die Inhalte frei
verfügbar oder kostenpflichtig abzurufen sind, man muss sie finden, und da
ist viel passiert in den letzten Jahren.
Entwicklung der Chemieinformation
in den letzten fünf Jahren
Vier Aspekte sollen hierzu näher beleuchtet werden
■ die Explosion der Informationsflut.
■ die Methoden zur Beherrschung dieser Informationsflut.
■ der e-commerce market-place Gedanke.
■ die Web-Portale wie z.B. chem.de.
Das mit der (Chemie)Information sicher
eng verbundene „open access“-Thema
soll dagegen an dieser Stelle ganz bewusst ausgelassen werden.
Informationsflut
Internet und Web stellen heute die Infrastruktur für die Chemieinformation
dar. Man kann sich kaum noch vorstellen, wie mühsam es war, sich mit Hilfe
der Chemical Abstract Bände5 über z.B.
die Synthese einer organischen Verbindung zu informieren, angefangen von
den aktuellen, losen Heften, bis zurück
zu den – zum Glück – vorhandenen 5Jahre-Sammelbänden. Die jüngere Generation weiß sicher gar nicht mehr,
wovon die Rede ist und bestaunt vielleicht nur verständnislos die immer
noch vorhandenen meterlangen Reihen
der CAS-Bände.
Abbildung 2: Zeitlicher Verlauf der CASPublikationen (grün = Patente, blau = Artikel, rot
= gesamt)
Literaturdatenbanken und -retrival
Einige der entwickelten Dienste und
Leistungen zum Auffinden der Literatur haben weit verbreitete Anerkennung gefunden, andere haben eher aktiven Widerstand hervorgerufen. Nehmen wir beispielsweise das E-biomed
Modell,8 das ursprünglich als frei verfügbares, zentrales Repositorium für
Reprints und Artikel gedacht war, die
dort unmittelbar nach der Annahme bei
einem Journal abgelegt werden sollten.
Aus der Sicht der Wissenschaftler natürlich eine geniale Idee, aber man
kann sich leicht vorstellen, dass die
wissenschaftlichen Verlage da nicht
mitgemacht haben. Der E-biomedSponsor, das National Institutes of Health (NIH), hat daher die Bedingungen
gelockert und den Fokus verringert,
58(2007)1, 51-56
E n t w i c k lu n g C h e m i e i n f o m at i o n
woraus der PubMed Central Service
entstanden ist.
Etwa ein halbes Dutzend Verlage sind
an diesem PubMed Cenral Service beteiligt, der hier beispielhaft für digitale
Repositorien stehen soll, die Journalinhalte mehrerer Verlage zentral verwalten. Im chem.de-Portal hat das Teilprojekt ViFaChem 9 ähnliche Aufgaben,
indem es einen zentralen Zugang zu
chemierelevanten Informationen bereitstellen wird. Die DFG-Förderung dieses
Teilprojektes läuft aber noch bis September 2007, so dass erst danach die
volle Funktionalität dieses Bereiches zu
erwarten ist.
CAS und PubChem in ihrem Informationsangebot ganz gut.
Diese Art von Konkurrenz, also freier
Service statt kommerziellem Angebot,
bringt zurzeit wohl die größte Bewegung – oder auch Unruhe – in die Chemieinformation. So kann man sich leicht
vorstellen, dass beispielsweise das
NMR-Shift Projekt, 12 eine Datenbank
mit NMR-Daten, einem etablierten Programm wie Specinfo13 bzw. dem dahinter stehenden Verlag Wiley-VCH, Anlass genug gibt, technisch und inhaltlich nicht zu verweilen.
In weit größerem Maße kommt es aber
zu einer solchen Konkurrenz bei den
Abbildung 3: Web-Portal der Literaturdatenbank im Web of Science
Literaturdatenbanken werden in der
Tat in vielfältigen Variationen angeboten, wobei auch die chemischen Gesellschaften, allen voran die ACS, nicht
außen vor bleiben. So hat die ACS Ihre
Zeitschriften über eine eigene Webseite
zugänglich gemacht, dem ChemPort,10
bei dem wohl der CAS-Datenbank, also
dem Chemical Abstract Services, die
größte Bedeutung zukommt. CAS ist
ein Musterbeispiel für eine Datenbank
mit weitergehender interlektueller Bearbeitung, was sie vermutlich auch so
teuer macht. Sie ist eine der größten Literaturdatenbanken überhaupt und
reicht inzwischen mit ihren Inhalten
über 100 Jahre zurück. Dabei wird die
Primärliteratur aus über 10.000 Zeitschriften sowie alle chemierelevanten
Patente, Bücher und Forschungsberichte berücksichtigt.
Inzwischen gibt es mit PubChem11 eine
weitere verbindungsbezogene Datenquelle, die das NIH im Rahmen seiner
„open access Initiative“ „NIH-Roadmap
for Medical Research“ zur kostenfreien
Nutzung bereitstellt. PubChem deckt
zwar derzeit nur einen kleinen Teil der
von CAS erfassten Verbindungen und
Literaturstellen ab, verzeichnet aber
einen enormen Zuwachs. Da es in PubChem vorwiegend um biologisch aktive
Verbindungen geht, ergänzen sich aber
58(2007)1, 51-56
großen Anbietern der Literaturdatenbanken,
■ dem Web of Science,14 das kommerziell von Thomson Scientific betrieben wird,
■ dem Scopus,15 das als direkte Konkurrenz von Elsevier im Herbst 2004
auf dem Markt gebracht wurde und
■ dem im Gegensatz dazu frei verfügbaren Google Scholar,16 das es seit
seinem „Launch“ im November 2004
immer noch als Beta-Version gibt.
Diese drei haben die Besonderheit,
dass sie nicht nur alle Arbeiten der erfassten Zeitschriften, sondern auch alle
darin enthaltenen Literaturverweise
liefern. Wurden diese Zitierindexe früher noch ausschließlich benutzt, um
Fachinformation zu suchen – in zurückliegenden wie auch in späteren Jahren
–, werden sie heute auch dazu verwendet, Resonanz und Wirkung (Impact)
als Maß für die Qualität eines Wissenschaftlers zu messen bzw. Wissenschaftler darüber zu bewerten.
Das Web of Science ist aus dem guten
alten Science Citation Index hervorgegangen, den Ältere noch als kleine
„zerfledderte“ Heftchen kennen. Es
gibt einen informativen Artikel von
Peter Jacso in Current Science17, in dem
er die drei großen Player gegenüber
stellt, wobei aber schon eindeutig zu
erkennen ist, dass er kein Freund des
Google Scholar ist. Danach hat der Scopus zwar insgesamt mehr anzubieten
(17.000 Zeitschriften gegenüber 9300
beim Web of Science), aber aus naturwissenschaftlich-technischer Sicht ist
Scopus – zur Zeit noch – eindeutig
schlechter als das Web of Science, da
es nur 5500 gegenüber den 6400 Zeitschriften auswertet. Auf der Basis der
Artikel ist das Verhältnis noch stärker
zu Gunsten des Web of Science.
Bei Google Scolar findet man zu all diesen Fragen keine Angaben, wie man
überhaupt den Eindruck gewinnt, dass
man sich bei Google nicht gern in die
Karten schauen lassen möchte. Grund
dafür ist sicher auch, dass noch nicht
alles rund läuft und man also den beiden „Großen“ nicht nur inhaltlich, sondern auch funktionell hinterher hinkt.
So findet Google Scholar z.B. bei der
Abfrage nach
■ Protein: 10,5 Mio Treffer.
■ Proteins: nur 5,3 Mio Treffer.
■ Protein „OR“ Proteins sogar nur
noch 2,1 Mio Treffer.
Das Beispiel ist aus dem Jacsos-Artikel,
kann aber auch heute noch – 11/2 Jahre
später – genauso nachvollzogen werden. Man kann bei all den kleinen Spitzen von Jacso gegenüber Google Scholar geteilter Meinung sein, aber er beklagt zu Recht, dass Verlage ihre
digitalen Inhalte kostenlos dem Google
Scholar Projekt zur Verfügung stellen.
Wenn Thomson oder Elsevier ebenso
einen freien Zugang zu den Archiven
der anderen Verlage gehabt hätten, hätten sie ihren Service vielleicht auch kostenfrei oder zumindest zu weit geringeren Kosten anbieten können. Der Aufbau einer Datenbank mit Multi-Millionen
Einträgen erfordert Multi-Millionen Dollar, die sich durch den technischen Aufwand, aber zum Teil auch durch Lizenzgebühr zum Exzerpieren der etwa eine
Million Paper pro Jahr, inklusive dem
Hinzufügen von 20-22 Millionen Zitaten
ergeben. Bezeichnenderweise schreibt
Google Scholar auf der Startseite der
Suchmaske die Phrase „Auf den Schultern von Giganten“, was man in mehrfacher Hinsicht deuten kann.
9
www.tib.uni-hannover.de/ueber_uns/pro
jekte/vifachem/
10 www.chemport.org
11 http://pubchem.ncbi.nlm.nih.gov/
12 http://nmrshiftdb.pharmazie.uni-marburg.
de/nmrshiftdb/pane0/Home
13 http://specinfo.wiley.com/specsurf/welcome.html
14 http://portal.isiknowledge.com/portal.cgi.
15 www.scopus.com/scopus/home.url
16 http://scholar.google.de/
17. Jacso, P., As we may search – Comparison of
major features of the Web of Science, Scopus,
and Google Scholar citation-based and citation-enhanced databases. Current Science
2005, 89, (9), 1537-1547.
53
E n t w i c k lu n g C h e m i e i n f o m at i o n
Abbildung 4: Google-Zugang zur
wissenschaftlichen online Literatur
Google geht aber noch einen Schritt
weiter, indem sie seit Dezember 2004
Millionen Bücher von fünf bedeutenden
Bibliotheken digitalisieren, d.h. einzuscannen und im Internet verfügbar machen (wollen), und zwar aus den Universitätsbibliotheken von Oxford, Harvard, Stanford und Michigan sowie aus
der New York Public Library.
Suchbarkeit ist die Triebkraft solcher
Projekte und – bei den kommerziellen
Anbietern wie Amazon – natürlich das
Geschäft. So bietet Amazon auch von
Copyright-geschützten Büchern einige
Seiten zum Download an – als Leseprobe – und hat mit seiner „search inside the book“-Offerte offensichtlich
eine Umsatzsteigerung von knapp zehn
Prozent erreicht. Es gibt eine deutsche
Initiative, in der 100 Verleger 100.000
neu veröffentlichte Bücher im Jahr 2006
digitalisieren wollen, mit einem Zugang
zu den Büchern gegen Gebühr. Um
dem Leser ein Maß für diese Anzahl an
Büchern zu geben: In Deutschland wurden im Jahr 2004 insgesamt 86.543
Buchtitel produziert; im übrigen in
China im Vergleich dazu 208.294 Bücher,18 nur das 2,4-fache.
Faktendatenbanken
Die bisher erwähnten Literaturdatenbanken arbeiten die Primärliteratur im
18 Rautenberg, U., Buchzeichen und das Image
des Buches. Forschung und Lehre 2006, 13,
134-136.
19 www.mdl.com/products/knowledge/cross
fire_beilstein/
20 www.mdl.com/products/knowledge/cross
fire_gmelin/
21 www.expasy.org/sprot/
22 www.rcsb.org/pdb/
23 www.sciencedirect.com/preprintarchive
24 www.facultyof1000.com/
25 www.psigate.ac.uk
26 www.vs-c.de
27 http://www3.interscience.wiley.com/
28 http://chemistry.about.com/od/chemicalsup
pliers/
29 www.chemindustry.com/.
30 www.chem.com/
31 www.chemie.de.
32 www.chemistry.org
33 www.chemweb.com/
34 www.chemsitry.de/
35 www.zim.mpg.de/openaccess-berlin/berlindeclaration.html
36 www.doaj.org/
37 www.heise.de/newsticker/meldung/73198,
Open Access: Mit Hochschul-PublikationsServern aus der Zeitschriftenkrise
54
Hinblick auf effektive Suchmöglichkeiten auf, nehmen aber keine inhaltliche
Bewertung vor. Anders die Faktendatenbanken wie Beilstein 19 und Gmelin20, die unter der Oberfläche CrossFire
von Elsevier’s MDL Information Systems angeboten werden. Sie enthalten
neben Abstracts auch Strukturen, Reaktionen und Eigenschaften von Verbindungen. Auch hier kann man aber
über die LitLink-Schnittstelle direkt
zum Volltext gelangen.
Es ist vielleicht bezeichnend, dass
diese älteren Faktendatenbanken kostenpflichtig sind, während viele der
jüngeren – die im übrigen überwiegend
aus den Biowissenschaften kommen –
frei zugänglich sind. Musterbeispiele
dafür sind der SwissProt Server21 und
die Protein Data Datenbank mit 3DStrukturen.22
Preprintserver und Lernmaterial
Alle bislang genannten Literaturdienste
haben gemein, dass sie sich auf Artikel
beschränken, die bereits publiziert oder
zur Publikation angenommen sind. Dem
steht eine Reihe von Preprint-Servern
gegenüber, auf denen Veröffentlichungen – in der Regel frei zugänglich – aufliegen, die bislang nicht konventionell
publiziert worden sind und damit in der
Regel auch keinen Peer-Review Prozess
durchlaufen haben. Im Gegensatz zu
Physikern sind die Chemiker im Umgang mit Preprint-Servern etwas reservierter, was zur Folge hatte, dass der
Chemistry Preprint Server23 – der im übrigen im Jahr 2000 von Elsevier aus der
Taufe gehoben worden war – am 24.
Mai 2004 seinen Dienst wieder eingestellt hat, d.h. seit dem Datum nimmt er
keine Beiträge mehr an.
Was all diese Services nicht leisten können, ist eine Bewertung der Inhalte
und das Herausfiltern des besten Materials für eine gegebene Fragestellung.
Aber auch hier gibt es Abhilfe. So hat
beispielsweise BioMed Central den
„Faculty of 1000 subscription service”24
bereits 2002 ins Leben gerufen, wo führende Wissenschaftler ihre Meinung zu
den wichtigsten Veröffentlichung aus
Biologie und Medizin abgeben. Für 90
Euro pro Jahr kann man sich hier beraten lassen, welche Veröffentlichungen
in diesen beiden Disziplinen für wichtig
gehalten werden. Auf derselben Linie
liegen die so genannten „subject-based
information gateways“, die gesichtetes
Material zur Verfügung stellen. Ein Beispiel ist das PSIgate, das „Physical
Sciences Information Gateway“,25 ein
freier Internet Service aus England, der
gleichermaßen der Lehre und der Wissenschaft dient. Beim PSIgate findet
man einen online Katalog von InternetAngeboten, die von Experten ausgesucht und kurz beschrieben werden.
Während vom PSIgate nur wenig zusammenhängende Einzelthemen abge-
rufen werden können, gibt es in
Deutschland das wohl größte zusammenhängende Repositorium mit Lehrmaterial für die Bachelor-Ausbildung in
Chemie.26 Die Inhalte sind – vom BMBF
gefördert – zwischen 1999 und 2004
von 16 Hochschullehrern unter der Federführung des FIZ Chemie in dem Projekt „Vernetztes Studium – Chemie“ erstellt worden und werden nun seit dem
1. April 2006 vom FIZ Chemie unter
einem anderen Namen – als Chemgapedia – angeboten.
E-commerce market-place
Eindeutig kommerziellen Hintergrund
haben die elektronischen Medien in der
Chemie, wenn man zu dem wachsenden Bereich des „e-commerce market
place“ kommt. E-Commerce fängt natürlich bereits dort an, wo die Verlage
Dienste auf ihren Web-Seiten anbieten,
wie z.B. Wiley auf seiner „Interscience“-Seite.27 Das Internet als „market
place“ ist aber generell für alle Anbieter eine riesige Möglichkeit, und so
tummeln sich nicht nur wissenschaftliche Verlage sondern beispielsweise
auch Chemikalienfirmen im Netz. 28-30
Web-Portale (Wissensportale)
Um der vielfältigen und verteilten Information im Web Herr zu werden, bedient man sich – zumindest heute noch
– der Web-Portale, d.h. einzelner Webseiten, auf denen Material zu bestimmten Inhalten oder Service-Angeboten
zusammengefasst ist. Die Vielzahl ist
schon fast unübersichtlich und ich
möchte hier nur stellvertretend das
deutsche Chemie.de,31 das ACS-Portal
„chemistry .Org“ 32, das „Chemweb.
com“33 und das „chemistry.de“ Portal34
des FIZ Chemie aufführen, wobei das
FIZ-Chemie-Portal für sich allein steht,
aber mit einer Reihe seiner Funktionen
auch in das neue chem.de-Portal1 eingebettet ist.
Sucht man nach Chemie-Portalen im Internet, findet man auch eine Web-Seite
des Anbieters „match.com“ ein Partnerschaftsanbahnungsinstitut, bei dem
die Chemie dadurch ins Spiel kommt,
dass es dort heißt „Better loving
through chemistry“, was auch immer
damit gemeint ist.
Open access
Das „open access“ Thema ist natürlich
ganz direkt mit den elektronischen Medien in der Chemie verbunden. Trotzdem soll hier nicht darauf eingegangen
werden, weil die Thematik hier nicht
ausreichend und daher nicht fair diskutiert werden kann. Vielmehr verweise
ich auf die „Berlin Declaration on Open
Access to Knowledge in the Sciences
and Humanities” 35 und auf das „Directory of Open Access Journals”. 36
Dass diese Diskussion noch lange nicht
abgeschlossen ist, sieht man jüngsten
Äußerungen der Hochschulrektorenkonferenz.37
58(2007)1, 51-56
E n t w i c k lu n g C h e m i e i n f o m at i o n
Was haben wir von der (Chemie)
Information morgen zu erwarten
Die Entwicklung des WWW war weder
prophezeit worden, noch war sie vorherzusehen, auch wenn in der Retroperspektive alles so logisch und
konsequent aussieht. Die zugrunde liegenden Technik-Trends – wie beispielsweise das exponentielle Wachstum der Computerleistung oder die
Bandbreite – erlauben zwar eine Zukunftsvision, aber die Anwendungen
erlauben das nicht.
Technologisch zielen wir auf Zeiten hin,
in denen Bandbreite und Datenverarbeitung grenzenlos und frei sein werden, mit einer Service-Qualität mindestens so gut wie bei dem traditionellen
Telefon-Netz und mit garantierter Sicherheit und Privatsphäre. Letztlich
zielt auch das E-Science-Projekt der
Bundesregierung darauf ab. In dem
Projekt werden vom BMBF Entwicklungsaktivitäten mit dem Ziel gefördert,
eine neue Service-Infrastruktur für die
wissenschaftliche Kommunikation und
Publikation, Informationsbeschaffung
und Teamarbeit in virtuellen Organisationen zu schaffen. Es ist zu erwarten,
dass auch die Chemieinformation
davon profitiert. Vergleichbare „eScience“-Programme gibt es z.B. auch
in den USA, dort ist von „Cyberinfrastructure“ die Rede.
Unser Zugang zum Netz wird sich also
verändern, denn
■ wir werden nicht mehr mit dem
Kabel am Hub hängen, sondern uns
im Wireless Lan aufhalten, ohne
Restriktion auf Ort und Zeit,
■ wir werden die benötigten Daten
weniger von einem lokalen Server,
als via Internet aus mehreren Quellen von irgendwoher beziehen,
■ wir werden Geräte fernbedienen
und Daten auf entfernten Rechnern
auswerten,
■ aber es werden – außer bei z.B. der
Sprachkommunikation über das Internet die meisten Kommunikationen weiterhin asynchron sein, abrufbar immer dann, wenn man sie benötigt.
casting“ kommt eigentlich aus der
Musikbranche, wo man Audiodateien
(Musik) herunterladen kann, gleichzeitig aber seinen Rechner für das Hochladen eigener Dateien frei gibt. Man kann
dem Namen schon fast entnehmen, wo
er herkommt, weil das Pod in Podcasting etwas mit dem iPod zu tun hat.
Was hat das mit Chemie zu tun? Bisher
noch nicht viel, weil Podcasting bzw.
die dabei verwendeten Podcatcher erst
sporadisch auf Chemie angesetzt werden. Diese Podcatcher sind die eigentlichen „Content Aggregator“, also Websites oder Programme, die Inhalte verschiedener Quellen durchsuchen und
diese übersichtlich aufbereitet zur Verfügung stellen.
Bislang gibt es solche Content Aggregator, wie z.B. den „newsgator“38 oder
das deutsche Podcast-Verzeichnis 39
eher für Nachrichten, für Informationen
aus Kultur oder Gesundheit und für Bildungsaspekte. Man kann sie so einstellen, dass sie in regelmäßigen Abständen bestimmte Websites nach „Neuigkeiten“ durchsuchen und so als
„persönliche Zeitung“ bzw. als persönliche Informationsquelle dienen. In diesem Fall zieht man sich also die Information, die man haben will, statt dass
man bombardiert wird mit Information,
die einem irgendjemand zusendet; also
durchaus ein sinnvoller Prozess. Wir
werden sicher in allernächster Zeit solche „aggregators“ in den gängigen
Browsern eingebaut haben, z.B. ist er
in der Internet Explorer Version 7 enthalten, die es derzeit in einer Beta-Version gibt; und wir werden solche Podcatcher auch in der Chemie haben.
Eine Website, die dem nahe kommt ist
„Triple Point“,40 die englische Übersetzung eines portugiesischen „aggrega-
man z.B. verschiedenen Vorlesungen
der organischen Chemie inklusive dem
Entwickeln des Tafelbildes audiovisuell
folgen.
Wikis und Weblogs
Als Tim Berners-Lee 1989 das World
Wide Web erfunden hat, wollte er
damit eine Kommunikations-Plattform
für sich und seine Kollegen am CERN
(in Genf) und anderswo in der Welt bereitstellen. Aber das ursprüngliche
Konzept, dass die Nutzer in Echtzeit
miteinander kommunizieren können,
wurde von der Entwicklung überrannt,
das Netz als flexible Methode zum Auffinden von Informationen zu nutzen.
Heute, gut 15 Jahre später, scheinen
wir wieder zu den Wurzeln des Web
zurückzukommen, mit einer Entwicklung hin zu einem „sozialen Web“, das
als Web 2.0 bezeichnet wird, auch
wenn Naturwissenschaftler eher zögerlich diese Technik anzunehmen scheinen. Im Web 2.0 gewinnen die Grundgedanken des Web wieder an Bedeutung: Offenheit, Standardisierung und
Freiheit. Nicht mehr die Programme auf
dem PC zählen, das Internet selbst
wird die Anwendung. Die Zeiten der lokalen Datenhaltung gehen zu Ende.
Mobilität ist das Stichwort, und die Inhalte liegen im Netz, wobei es nicht
mehr wichtig ist, wo man ist, man benötigt lediglich Zugang zum Internet.
Egal ob per Kabel oder Funk, Daten
und Content sind immer und überall
verfügbar.
Man spricht von „Social Bookmarking“,
„Social Web“ oder „Social Software“,
denn es geht um die Vernetzung von
Inhalten und von Menschen. Typische
Beispiele hierfür sind die so genannten
Wikis, wie etwa die Online- Enzyklopä-
Auf drei Entwicklungen soll hier mit
Blick in die Zukunft eingegangen werden:
■ Content aggregator und podcasting,
■ Web 2.0 und Wikis und
■ E-Learning.
Abbildung 5: Startseite zur Wikipedia-Enzyklopädie Chemie
Content Aggregators
Eine der spannenden Entwicklungen
sind die „Content Aggregator“ und das
„Podcasting“, d.h. automatische Informationsdienste, die man auf sich selber
zuschneiden kann. Der Ausdruck „Pod-
tors“ mit Chemieinformationen. Ein imponierendes Beispiel für ein Podcasting
– gleichzeitig verbunden mit „screencasting“ – sind die E-Learning-Aktivitäten des Drexel College of Arts and
Science in Philadelphia. 41 Hier kann
58(2007)1, 51-56
38 www.newsgator.com/Home.aspx
39 www.podcastzentrale.de/
40 www.pontotriplo.org/triplepoint/2005/03/
quick_picks_fro.html
41 http://drexel-coas-elearning.wikispaces.com/
55
E n t w i c k lu n g C h e m i e i n f o m at i o n
view-Prozesses.
Mit Blogs wäre
eine
echte,
weltweite Diskussion der Ergebnisse nach
der Veröffentlichung möglich.
Abbildung 6: Das neue Chemie-Portal Chem.de
die Wikipedia42 oder die BildersharingAngebote wie Flickr43 oder die SocialBookmarking-Plattform del.icio.us. 44
Allen dreien ist gemeinsam, dass sie
mehr sind als nur reine Online-Lagerstätten für Content. Auch Chemieinformation bekommt man in einem Wiki,
dem Chemie-Wiki, sowohl in englischer45 wie in deutscher Sprache.46
Wikis basieren auf zwei Grundgedanken: Der eine ist „Zusammen sind wir
stark“ und der zweite „Das Ergebnis
ist eine Potenz und nicht nur die
Summe des Ursprünglichen“. Viele
Menschen leisten für sich genommen
kleine Beiträge und heraus kommt –
hoffentlich – ein großes, gutes und lebendiges Lexikon.
Die großen Internetkonzerne haben natürlich das Potential des neuen Web
entdeckt und greifen längst zu. Flickr
beispielsweise wurde schon vor geraumer Zeit von Yahoo gekauft, der führende Blog-Anbieter Blogger gehört zu
Google, und eBay hat sich den innovativen Internet-Telefonie- und MessagingDienst Skype einverleibt.
Blogs geistern schon seit über zehn
Jahren durchs Internet, beginnen aber
erst jetzt richtig populär zu werden. Ein
Blog, oder besser ein Weblog, ist eine
Webseite, die periodisch neue Einträge
enthält, also so etwas wie ein Tagebuch. Bloggen ist in den letzten Jahren
sehr populär geworden. Firmen machen das in großem Maße, um z.B. die
Chronologie von Vorgängen festzuhalten. Wissenschaftler dagegen halten
bislang eher an dem etablierten Publikationswesen fest, als einem feststehenden, archivierten Dokument, das
einen bestimmten Meilenstein innerhalb einer Forschungsarbeit fixiert.
Aber das ist statisch und daher begrenzt. Wer bekommt schon einen
Kommentar zu seinem Paper außer von
den Gutachtern im Zuge des Peer-Re42
43
44
45
46
http://de.wikipedia.org/
www.flickr.com/
http://del.icio.us/
http://en.wikipedia.org/wiki/Chemistry
http://de.wikipedia.org/wiki/Chemie
56
E-Learning
Schließlich ist
noch zu erwähnen, dass das
Web mehr und
mehr
Bedeutung gewinnt
für die Ausbildung und für
ein lebenslanges Lernen. Kurse in allen
möglichen Disziplinen und Schwierigkeitsgraden werden von akademischen
und nichtakademischen Anbietern für
ein distant Learning verfügbar gemacht. Doch die E-Learning- oder ETeaching-Euphorie geistert immer noch
als unklare Definition durch die Hochschullandschaft. Es hat sicher nichts
mit E-Learning zu tun, wenn man vom
Tafelbild auf Power-Point-Folien überwechselt, auch wenn diese dann mit
Hilfe elektronischer Medien verbreitet
werden. Da ist das elektronische Buch
schon eher auf der richtigen Linie. Seit
Jahren wird davon gesprochen und sicher wird es kommen, aber es wird
wohl so bald nicht die Hardcopy ersetzen, sondern eher komplettieren.
Unter E-Learning verstehe ich aber z.B.
ein Projekt, das ich gerade mit Wiley
ausprobiere, bei dem die Hörer der organischen Grundvorlesung ein komplettes Lehrbuch im online Zugriff
haben, einschließlich der multimedialen
Unterstützung durch Moleküldarstellung, Animationen und online Tutorien
aber auch inklusive der automatisierten
Erstellung, Beantwortung und Bewertung von Übungsaufgaben.
vorstellbar und mit Sicherheit teurer
wäre, als ein gesunder Medienmix.
Eine Komplementarität von Medien ist
sicher sinnvoller als eine Medienkonkurrenz bzw. eine Mediensubstitution.
Wünschenswert ist dagegen die stärkere Einbindung elektronischer Zugänge zur Chemieinformation im Rahmen der Chemieausbildung an den
Hochschulen. Dieser Aufgabe widmen
sich gerade die Fachgruppe Chemie –
Information – Computer der GDCh (die
CIC) zusammen mit der amerikanischen Schwesterorganisation CINF der
ACS, indem sie beispielsweise zurzeit
gemeinsam ein Repositorium für Chemieinformation erarbeiten und zukünftig gemeinsame Symposien zu Entwicklungen der Chemieinformation abhalten, von denen das erste im Rahmen
der 232. ACS Tagung im September
2006 in San Francisco stattfand und
den Titel „Cyberinfrastructure in Chemistry, Information and Education:
New Emerging Technologies“ trug.
Danksagung
Für die Unterstützung bei meiner Recherche für dieses Manuskript danke
ich ganz besonders Frau Dr. Irina Sens
und Herrn Dr. Oliver Koepler von der
Technischen Informationsbibliothek
Hannover, Frau Dr. Ulrike Hesse von
der Bibliothek der Universität Paderborn und Herrn Dr. Axel Schunk von
der GDCh.
Chemie, Informationsdienst, Veröffentlichungswesen, Volltext, Geschichte, Entwicklungstendenz, Rechnerunterstütztes Lernen
D e r A u to r
Prof. Dr. Gregor Fels
Schlussbetrachtung
Wenn nun mit dem neuen Chemie-Portal „chem.de“1 ein weiteres elektronisches Medium der Chemieinformation
zur Verfügung steht, wird uns das noch
mehr an den Bildschirm fesseln. Es
bleibt aber zu hoffen, dass wir damit
nicht zum Aussterben des Buches beitragen. Auch wenn wirklich einmal alle
(sinnvollen) Bücher elektronisch verfügbar sein würden, sollten immer noch
ein paar Belegexemplare in realen Bibliotheken vorhanden sein. Aber soweit
wird es sicher gar nicht erst kommen,
allein schon aus kommerzieller Erwägung. Es müssten gigantische Datenbestände in einer unüberschaubaren
Kontinuität gepflegt werden, was technisch und organisatorisch schwierig
ist Professor für Organische Chemie an der Universität Paderborn. Einer
der Schwerpunkte seiner
Tätigkeit ist der Einsatz
neuer Medien in der Lehre. Dafür erstellt seine Arbeitsgruppe Web-basierte
Lehr- und Lerninhalte, in denen die Organische Chemie multimedial und interaktiv
aufbereitet wird.
Universität Paderborn
Fakultät für Naturwissenschaften
Department Chemie
Warburger Str. 100, 33098 Paderborn
Telefon: (0 52 51) 602181
Telefax: (0 52 51) 603245
[email protected]
http://chemie.upb.de/fels
58(2007)1, 51-56
Ta h u n g s b e r i c h t
Workshop „Semantische Lösungen für die
Informationsintegration und Informationssuche –
Praxisbeispiele aus Industrie und Hochschule“
Caroline Pförtner, Darmstadt
Am 27.Oktober 2006 lud das Fraunhofer Institut für Integrierte Publikationsund Informationssysteme (IPSI) zusammen mit dem Fachbereich Informations- und Wissensmanagement (IuW)
der Hochschule Darmstadt zu einem
Tages-Workshop über „Semantische
Lösungen für die Informationsintegration und Informationssuche“ ein. Der
Einladung folgten mehr als 30 Unternehmensvertreter, Absolventen sowie
einige Studenten des Fachbereiches.
Dr. Thomas Kamps, Bereichsleiter des
IPSI, und Prof. Dr. Martin Michelson,
Dekan des Fachbereiches IuW eröffneten den Workshop.
Nach der Begrüßung begann Dr. Kamps
mit dem Thema „Semantische Techno-
logien für die Informationsintegration
und Informationssuche in Unternehmen“ als Einführung in diese umfangreiche Thematik.
Dr. Kamps stellte die Nachteile der gegenwärtigen Suchmöglichkeiten den
Vorteilen der semantischen Suche gegenüber. Momentan erfolgt in vielen
Fällen eine Recherche über eine isolierte Abfrage in einzelnen Datenbanken, die oft keine zufrieden stellenden
Ergebnisse liefern. Der Grund: Suchende müssen sowohl über den Aufbau und die speziellen Suchmöglichkeiten jeder Datenbank Bescheid wissen
als auch – ohne Systemunterstützung –
die isoliert gewonnenen Ergebnisse
miteinander in Beziehung setzen.
Eine Suche, die die Datenbanken semantisch verknüpft, bietet dagegen
eine Effizienzsteigerung beim Wissensaustausch durch zügiger gefundene relevante Treffer. Voraussetzung für die
semantische Integration ist eine automatische Erstellung von Begriffsnetzen
aus vorhandenen Unternehmensinhalten, denn die manuelle Erstellung von
Begriffsnetzen zum Zwecke der Datenintegration und Suche hat sich in der
Praxis als zu kostspielig erwiesen. Zum
Abschluss seines Vortrages erläuterte
Dr. Kamps anhand eines Beispiels, wie
schrittweise ein Wissensnetz aufgebaut wird. Dabei erklärte er wichtige
Fachbegriffe, wie z.B. Topikalität, als
Vergleich eines Textkorpus mit der Gesamtsprache.
Abbildung 1:
Prof. Dr.
Michelson
(rechts) und Dr.
Kamps bei der
Eröffnung des
Workshops.
58(2007)1, 57-58
57
Wo r ks h o p
Als nächster Referent stellte Prof. Dr.
Gerhard Knorz, Vizepräsident der Hochschule Darmstadt, das Thema „Die
Hochschulwelt als Ontologie – Prototyp
eines ontologiebasierten Hochschulportals“ vor. Prof. Knorz erläuterte den Begriff Ontologie als eine formale, explizite Spezifikation einer gemeinsamen
Begrifflichkeit. Von der Ontologie
grenzte er die Klassifikationssysteme
und Thesauri ab. Danach zeigte er anhand eines Beispiels in K-Infinity, einer
Knowledge-Management-Software, wie
die Ontologie seine Arbeit in der Hochschulleitung unterstützt.
Nach dem Vortrag konnten die Teilnehmer mit Unterstützung von Mitarbeitern des Fachbereiches das Gehörte
ausprobieren und Aufgaben bearbeiten. Dazu hatten die Mitarbeiter Computer mit der K-Infinity-Software vorbereitet.
In der Mittagspause stärkten sich die
Teilnehmer am reichhaltigen Buffet.
Diese Zeit wurde auch für den Austausch mit anderen Teilnehmern und
für das Knüpfen von Kontakten genutzt.
steller intelligent-views sehr kooperativ
und engagiert arbeitet und die Software sehr stabil und leistungsstark ist
– abgeschlossen. EADS sieht aber auch,
dass semantische Netze über ein großes Potential verfügen, das noch nicht
umfassend genutzt wird.
Der folgende Referent Richard Stenzel,
wissenschaftlicher Mitarbeiter am IPSI,
stellte die Lösung „ConWeaver“: semantische Informationsintegration und
Suche – automatisch, individuell, multilingual“ vor. Die im Titel genannten Attribute charakterisieren für Herrn Stenzel die Herausforderungen bei der Integration von Unternehmensdaten und
semantischer Suche. Dabei griff Herr
Stenzel, wie auch schon Dr. Kamps, in
seinem Vortrag noch einmal die Notwendigkeit des automatischen Aufbaus
von Wissensnetzen als Voraussetzung
für semantische Datenintegration und
Suche auf. Mit Hilfe der „ConWeaverTechnologie illustrierte er den automatischen Aufbauprozess beispielhaft und
zeigte insbesondere wie aus mulilingualen Textquellen automatisch Fachterminologie extrahiert, übersetzt und
diger gefunden werden. Der Pflegeaufwand sollte so gering wie möglich gehalten werden. Zur Ausgangssituation:
Die Dokumente lagen auf unterschiedlichen Fileservern; es gab Dokumente in
Internetarchiven und weiteren Ablagen, die weder indexiert noch verschlagwortet waren. Eine Suche war
nur möglich, wenn der Nutzer über
Kenntnisse der Ordnerstruktur auf den
Fileservern verfügte und die Dateinamen treffend benannt waren. Um das
genannte Informationsportal aufzubauen, führte die VAG-Armaturen
GmbH ein Projekt mit dem IPSI und der
intelligent views GmbH durch. Das Ergebnis des Projektes ist eine webbasierte semantische Suchoberfläche für
Unternehmensdaten der VAG-Armaturen GmbH, die von Herrn Dr. Kamps erläutert wurde.
in das Wissensnetz eingespeist werden
kann. Herr Stenzel präsentierte zudem
wie die „ConWeaver-Technologie“ die
auch Automatisierung des Wissensaufbaus mit der individuellen Analyse kundenspezifischer Daten kombinieren
kann Im Ergebnis erhalten Kunden – im
Gegensatz zu handelsüblichen Suchmaschinen – auf ihre Daten optimierte semantische Suchlösungen.
Schließlich stellte José Manuel Ibañez
von der VAG-Armaturen GmbH zusammen mit Dr. Kamps das gemeinsame
Projekt „Informationsintegration mit
einem Wissensnetz bei der VAG-Armaturen GmbH“ vor. Mit dem Einsatz von
„ConWeaver“ sollte ein Informationsportal geschaffen werden, das eine
zentrale Ablage für alle Informationen
und Dokumente darstellt. Die Dokumente sollen so einfacher und vollstän-
Der Workshop endete mit dem Dank
von Dr. Kamps an die Teilnehmer und
Referenten für Ihr Interesse und Engagement.
Zum Abschluss fassten die Referenten
ihre Eindrücke zum momentanen Stand
der „Semantischen Lösungen“ zusammen und beantworteten im Rahmen
einer lebhaften Podiumsdiskussion Fragen der Teilnehmer.
Die Referenten
José Manuel
Ibañez, Klaus
Reichenberger,
Prof. Dr. Knorz
und Richard
Stenzel (v. l.) bei
der Podiumsund Fragerunde.
Nach der Mittagspause stellte Ravi Nirankari von dem Unternehmen EADS
N.V. Military Air Systems (MAS) zusammen mit Klaus Reichenberger von der
intelligent views GmbH ein fiktives
EADS-Projekt zum Aufbau eines semantischen Netzes vor. EADS Military
Air Systems verwendet semantische
Netze zur Unterstützung der Arbeit in
den virtuellen Teams, so dass sich die
Suche nach Informationen und Dokumenten zielgerichteter und erfolgreicher durchführen lässt. Eine weitere
Möglichkeit sieht EADS darin, Wissen
innerhalb des Unternehmens effizienter
und transparenter mit semantischen
Netzen auszutauschen. Herr Reichenberger stellte die Projektarbeit bei
EADS MAS vor. Das Referat wurde mit
einer Zusammenfassung der bisherigen
Erfahrungen – wie z.B., dass der Her-
58
D i e A u to r i n
Caroline Pförtner
Dipl.-Kauffrau (FH)
Aufbaustudium Informations- und Wissensmanagement
seit dem Sommersemester 2005 an der
Hochschule Darmstadt
[email protected]
58(2007)1, 57-58
3. Auflage – Alice Redmond-Neal und
Marjorie M. K. Hlava (Hrsg.), Medford,
New Jersey: Information Today, 2005.
XIII, 255 Seiten. Regulärer Preis: $ 49,95
(ASIS&T-Mitglieder: $ 39,95), mit CDROM: $ 79,95 (ASIS&T-Mitglieder:
$ 63,95). ISBN 1-57387-243-1 und
ISBN 1-57387-244-X.
Der Thesaurus-Hauptteil ist alphabetisch angeordnet. Mit 139 Seiten umfasst er etwas mehr als die Hälfte des
Gesamtwerkes. Das zweispaltige Layout
ist sehr übersichtlich. Jeder Eintrag wird
mit seinen Relationen und ggf. vorhandener Scope Note aufgeführt, jeweils getrennt durch eine Leerzeile zum nächsten Eintrag. Einträge mit Spaltenumbruch werden in der nächsten Spalte
wiederholt und mit „(cont.)“ gekennzeichnet. Deskriptoren sind fett ausgezeichnet, Nicht-Deskriptoren in Normalschrift. Die Relationen werden mit den
international üblichen Abkürzungen dargestellt. Beispiele für typische Einträge:
Google
USE search engines
Der von der American Society for Information Science & Technology (ASIS&T)
in der dritten Auflage herausgebrachte
Thesaurus umfasst die Bereiche Informationswissenschaft, Informationstechnologie und Bibliothekswesen. Die
Herausgeberinnen haben die ersten
beiden, 1994 und 1996 von Jessica
Milstead erarbeiteten Auflagen des
Thesaurus erheblich erweitert (die Gesamtzahl aller Terme liegt nun bei
1970) und dabei auch die Publikationen
der ASIS&T Digital Library berücksichtigt (die diesen Thesaurus fortan für die
Indexierung benutzt). Es wurde sich
hauptsächlich an der Norm ANSI/NISO
Z39.19 orientiert.
Die von Milstead eingebaute facettierte
Konstruktion des Thesaurus blieb erhalten. 18 Top-Terme, die als FacettenIndikatoren dienen, bilden das Grundgerüst des ASIS&T-Thesaurus. Dabei
sind solch allgemeine Aspekte wie Organisationen, Ereignisse, theoretische
Konzepte, Forschungsmethoden, Kommunikationsmedien etc. berücksichtigt.
Die Top-Terme selbst stehen nicht als
Deskriptor zur Verfügung.
Nur eine geringere Zahl von Deskriptoren ist präkoordiniert, insbesondere
Terme, die in der Fachliteratur üblich
sind. Für komplexere Sachverhalte müssen ggf. mehrere Deskriptoren benutzt
werden, wie anhand von Beispielen in
den Benutzungshinweisen ausgeführt.
Erfreulich ist, dass offensichtlich durch
die Auswertung der ASIS&T Digital
Library auch relativ neue Terme als De-
58(2007)1, 59-60
search engines
SN Software which performs searches of
queries submitted to it; it may analyze the query and/or rank the results.
UF Google
BT information retrieval software
NT Internet search systems
hybrid search engines
meta search engines
RT full text searching
Alle Top-Terme und nicht für die Indexierung zugelassene und in Klammern
eingeschlossene Terme sind an den Anfang sortiert. Dies ist etwas irritierend,
wenn man an einer bestimmten alphabetischen Stelle den jeweiligen Eintrag
nicht vorfindet. So gibt es z. B. mehrere
Deskriptoren, die mit „research“ beginnen; vergeblich findet man dort aber
den Top-Term „(research and analytic
methods)“. Dass diese Sortierung ein
offensichtlicher Fehler ist, wird durch
eine Bemerkung in den Benutzungshinweisen deutlich, wonach der alphabetische Hauptteil die Klammern eigentlich
ignorieren sollte.
Laut Benutzungshinweisen sollte es
auch eine hierarchische Relation TT
(Top Term) geben, die aber im Thesaurus selbst nicht vorkommt. Außerdem
war vorgesehen, Nicht-Deskriptoren
kursiv auszuzeichnen, was im Hauptteil
jedoch nicht geschehen ist. Für die Benutzungsfreundlichkeit sind dies aber
keine gravierenden Fehler.
Den Thesaurus-Hauptteil ergänzen
zwei Teile. Zum einen gibt es einen
hierarchischen Index der Deskriptoren
(Hierarchical Index of Preferred Terms)
mit 19 Seiten Umfang. Die 18 oben erwähnten Top-Terme bilden die Ausgangspunkte der Haupthierarchien, die
sich zum Teil über mehrere Seiten erstrecken. Die Orientierung wird dabei
durch die fett gesetzten Top-Terme gewahrt, die am Anfang jeder neuen
Spalte wiederholt werden – auch hier
mit „(cont.)“ ergänzt. Die eigentlichen
hierarchischen Ebenen werden mittels
Einrückungen dargestellt – hervorgehoben durch Punkte. Beispiel:
(activities and operations)
. information operations
. . information attribution
. . information discovery
. . . information retrieval
Einzelne Hierarchien reichen bis zu
neun Ebenen tief und werden ggf. polyhierarchisch unter all ihren Oberbegriffen aufgeführt. Auch werden Oberbegriffe – zusätzlich zum Top-Term – in
einer neuen Spalte mit „(cont.)“ wiederholt, so dass das Auge sofort den
hierarchischen Zusammenhang erkennt.
Eine Verbesserungsmöglichkeit im hierarchischen Index könnte eventuell
eine thematisch zusammengehörige
Anordnung der Top-Terme sein, die
statt dessen alphabetisch sortiert sind.
Bei insgesamt 18 Top-Termen ist das
aber kein besonderer Nachteil.
Der zweite Ergänzungsteil ist eine
KWIC-Anordnung (Permuted Display of
Terms) mit 95 Seiten. Dieser beinhaltet
Top-Terme, Deskriptoren und Nicht-Deskriptoren, wobei letztere kursiv gesetzt und jeweils durch den Zusatz
(Nonpreferred) gekennzeichnet sind.
Der einspaltige Satz mit viel „white
space“ ermöglicht eine schnelle Suche
auch beliebiger Bestandteile von Komposita.
Ein klar gekennzeichneter Seitenkopf
im gesamten Werk ermöglicht das sofortige Erkennen, in welchem der drei
Teile des Thesaurus man sich befindet.
Neben dem Hauptzweck des ASIS&TThesaurus, dem Indexieren mittels Vokabularkontrolle, eignet er sich auch
recht gut, um einen Überblick über die
Disziplin zu bekommen. Abgesehen
von der nicht-kursiven Darstellung von
Nicht-Deskriptoren im Hauptteil sowie
dem dortigen Lapsus der falschen Sortierung von Top-Termen sind Aufbau
und Präsentation des Thesaurus gut
gelungen und oft auch selbsterklärend.
Dies mag auch der Grund für die nur
wenige Seiten umfassenden Benutzungshinweise sein, die dennoch auch
59
Buchbesprechungen
ASIS&T Thesaurus of Information Science,
Technology, and Librarianship
skriptor aufgenommen wurden (z. B. information architecture oder webliographies), andererseits scheinen aber auch
noch manche Terme zu fehlen (z. B.
accessibility). Redmond-Neal und Hlava
betonen jedoch, dass sich auch dieser
Thesaurus in ständiger Entwicklung
befindet; Benutzer sind eingeladen,
Verbesserungsvorschläge einzureichen.
Buchbesprechungen
kannt; so konnte z. B. ein Term, der bereits als RT angelegt war, auch als NT
eingefügt werden (umgekehrt aber
nicht, daher handelt es sich wahrscheinlich um einen Bug).
Etwas enttäuschend für ein Java-basiertes Programm ist die nicht vorhandene Möglichkeit, mit Drag & Drop zu
arbeiten. Leider ist auch keine Navigation in den verschiedenen ThesaurusAnsichten mit den Pfeil-Tasten möglich, und Rechts-Klick-Optionen gibt es
auch keine. Eine Navigation in den Termen ist daher entweder nur mit der
Maus bzw. über das Edit-Menü per
Suche oder durch Auswahl eines anderen Terms aus den vorhandenen Relationen im rechten Bereich möglich.
Oberfläche von Thesaurus Master mit hierarchischer Ansicht und ausgewähltem Deskriptor „search
engines“ (links) und dessen Details (rechts)
für den Thesaurus-Einsteiger verständlich sind.
Bei der Buchausgabe mit CD findet sich
auf dieser eine elektronische Version
des ASIS&T-Thesaurus, zusammen mit
der Software Thesaurus Master der
Firma Data Harmony. Mit dieser unter
Windows laufenden Software wurde
der Thesaurus für die dritte Auflage erstellt. Thesaurus Master lässt sich jedoch nur installieren, wenn sich Java
Runtime Environment (JRE) auf dem
Computer befindet; diese Software befindet sich auch auf der CD und muss,
wenn noch nicht auf dem Rechner vorhanden, vor Thesaurus Master installiert werden. Die Installation unter
Windows XP verlief reibungslos.
Die Oberfläche von Thesaurus Master
ist mit nur vier Menü-Punkten (File,
Edit, View, Help) recht einfach gehalten
und in zwei in der Breite veränderbare
Bereiche unterteilt. Auf der linken Seite
60
befinden sich alle Terme, die in verschiedenen Ansichten dargestellt werden können, wie z. B. alphabetisch (mit
allen Relationen zu einem Term), hierarchisch (mit aufklappbaren Unterbegriffsebenen) oder permutiert. Diese
drei Ansichten entsprechen auch den
drei Teilen im Buch, wobei in der elektronischen Version Nicht-Deskriptoren
stets kursiv ausgezeichnet sind, die
nicht vorgesehene Sortierung der in
Klammern eingeschlossenen Top-Terme
aber auch hier gegeben ist.
Im rechten Bereich sind die Details des
im linken Bereich ausgewählten Terms
zu sehen: Relationen, Term-Status,
Scope Note, History, etc. Hier lassen
sich auch Relationen hinzufügen und
löschen und die anderen Term-Angaben editieren. Eine neu angelegte Relation wird automatisch um ihre entsprechende Gegenrichtung ergänzt. Unlogische Relationen werden vom System
weitgehend, aber nicht vollständig, er-
Unter den Output-Optionen befinden
sich sowohl verschiedene ThesaurusAnsichten (alphabetisch, hierarchisch,
permutiert) als auch verschiedene
Datei-Formate (einfacher Text, HTML,
XML). Leider lassen sich diese nicht beliebig kombinieren. So erfolgt ein
HTML-Output stets in hierarchischer
Ansicht.
Das Help-Menü zeigt lediglich eine
nicht so übersichtliche Hilfe-Datei an.
Ausführlicher ist dagegen ein User
Guide als PDF-Datei. Ein unverzeihlicher Fehler dabei ist allerdings der
nicht vorhandene Index.
Das Programm bietet noch einige weitere Feinheiten (z. B. Import-Möglichkeiten), auf die im Rahmen dieser Rezension nicht eingegangen werden
kann. Insgesamt gesehen ist Thesaurus
Master relativ einfach, aber übersichtlich gehalten. Manche Features (Navigation, Output) könnten sicherlich
etwas großzügiger sein. Für die Darstellung und Benutzung des ASIS&TThesaurus ist das Programm aber vollkommen ausreichend.
Jochen Fassbender, Bremen
58(2007)1, 59-60
Monographien-Zugänge der Monate Juli bis
November 2006, zusammengestellt von
Annette Bassenge vom Informationszentrum
für Informationswissenschaft und -praxis. Die
Bücher können unter Angabe der Signatur
ausgeliehen werden, sofern es sich nicht um
Präsenzbestände handelt. Die Monografien
sind gemäß der Kategorien in Infodata angeordnet und innerhalb der Kategorien alphabetisch sortiert.
Fachhochschule Potsdam
Informationszentrum für Informationswissenschaft und -praxis, Friedrich-Ebert-Str. 4,
14406 Potsdam, Tel. (03 31) 580 22 30, Fax
(03 31) 580 22 29, [email protected]
1. Allgemeines
Neubau von Behördenbibliotheken : Beiträge zum
94. Deutschen Bibliothekartag Düsseldorf 2005
Wiesbaden, DE, 2005. - VI,38 S.
(Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. 56)
ISBN 3-925779-16-7 / ISSN 0518-2220
Öffentliche Verwaltung / Bibliothek / Gebäude /
Ausstattung / Architektur
Sign.: 11 UJ1 139
Parlaments- und Behördenbibliotheken international : Der Weltkongress Bibliothek und Information
in Berlin 2003. Beiträge aus den IFLA-Sektionen „Bibliotheken und wissenschaftliche Fachdienste von
Parlamenten" und „Behördenbibliotheken"
Wiesbaden, DE, 2004. - XII, 76 S.
(Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. 55)
ISBN 3-925779-17-5 / ISSN 0518-2220
Öffentliche Verwaltung / Regierungsstelle / Bibliothek / Bibliotheksorganisation / Bibliotheksdienst
Sign.: 11 UC1 178
Dewe, M.
Planning public library buildings : Concepts and issues for the librarian
Aldershot, GB: Ashgate, 2006. - XII, 354 S.
ISBN 0-7546-3388-8
Öffentliche Bibliothek / Gebäude / Ausstattung /
Architektur / Bauwesen / Planung
Sign.: 11 UJ1 141
Eichhorn, M.
Konflikt- und Gefahrensituationen in Bibliotheken :
Ein Leitfaden für die Praxis
Bad Honnef, DE: Bock u. Herchen, 2006. - 127 S.
ISBN 3-88347-246-8
Bibliothek / Arbeitsablauf / Personal / Sicherheitsfragen / Benutzer / Kontrolle
Sign.: 11 UN8 172
Orey, M. (Hrsg.); Fitzgerald, M. A. (Hrsg.); Branch, R. M.
(Hrsg.)
Educational media and technology yearbook : Volume 29, Westport, CT, US: Libraries unlimited, 2004.
- XI, 424 S., ISBN 1-59158-068-4
Rechnerunterstütztes Lernen / Ausbildungsmethode / Fernstudium / Schule / Zusammenarbeit /
Bibliotheksautomation / Informationstechnologie
Sign.: 11 UT4 196-04
Orey, M. (Hrsg.); MacClendon, J. (Hrsg.); Branch, R. M.
(Hrsg.)
Educational media and technology yearbook : Volume 30
Westport, CT, US: Libraries unlimited, 2005. - XI, 452
S., ISBN 1-59158-207-5
Ausbildungsmethode / Rechnerunterstütztes Lernen / Informationstechnologie / Schule / Lehrplan /
Bibliotheksautomation/ e-learning / Informationskompetenz
Sign.: 11 UT4 196-05
Plassmann, E.; Rösch, H.; Seefeldt, J.; Umlauf, K.
Bibliotheken und Informationsgesellschaft in
Deutschland : Eine Einführung
Wiesbaden, DE: Harrassowitz, 2006. - 333 S.
ISBN 3-447-05230-9
Bibliothek / Information / Informationsgesellschaft
/ Infrastruktur / Bibliotheksnetz / Bibliotheksdienst
/ Informationsdienst / Bibliotheksorganisation /
Marketing / Ausbildung
Sign.: 11 UB1 155
58(2007)1, 61-62
Rosa, C. de (Mitarb.); Cantrell, J. (Mitarb.); Cellentani,
D. (Mitarb.); Hawk, J. (Mitarb.); Jenkins, L. (Mitarb.);
Wilson, A. (Mitarb.)
Perceptions of libraries and information resources :
A report to the OCLC membership
Dublin, OH, US: OCLC Online Computer Library Center, 2005. - 286 S., ISBN 1-55653-364-0
Bibliotheksstatistik / Bibliotheksdienst / Informationsdienst / Elektronischer Dienst / International
Sign.: 10 HA1 105 [Nicht ausleihbar]
Wilson, A. (Hrsg.); Rosa, C. de (Mitarb.); Dempsey, L.
(Mitarb.)
Pattern recognition : The 2003 OCLC environmental
scan. A report to the OCLC membership
Dublin, OH, US: OCLC Online Computer Library Center, 2004. - X, 150 S., ISBN 1-55653-351-9
Bibliotheksorganisation / Bibliotheksautomation /
Bibliotheksdienst / Elektronischer Dienst / Netzarchitektur / Zugriff / Maschinelle Katalogisierung
Sign.: 11 UF1a 121
2. Formale Erfassung und inhaltliche
Erschließung
Chan, L. M.; Mitchell, J. S.
Dewey Dezimalklassifikation : Theorie und Praxis.
Lehrbuch zur DDC 22
München, DE: Saur, 2006. - 262 S., ISBN 3-598-11748-5
Klassifikationssystem / Universalklassifikation / DK /
Benutzung / Buchaufstellung / Entwicklungstendenz
Sign.: 11 UN3b 115
Neitmann, K. (Hrsg.)
Aus der brandenburgischen Archivalienkunde : Festschrift zum 50jährigen Jubiläum des Brandenburgischen Landeshauptarchivs
Berlin, DE: Berliner Wissenschafts-Verl., 2003. - 499
S., (Veröffentlichungen des Brandenburgischen Landeshauptarchivs. 40), ISBN 3-8305-0161-7
Archiv / Schriftgut / Öffentliche Verwaltung / Landeskunde / Archivgut / Landkarte / Bestand / Konservierung / Archivierung / Inhaltliche Erschließung
Sign.: 11 UA1c 118
3. Informationsvermittlung
Battelle, J.
Die Suche : Geschäftsleben und Kultur im Banne von
Google und Co
Kulmbach, DE: Börsenmedien, 2006. - 360 S.
ISBN 3-938350-11-3
Information / Information Retrieval / Rechnernetz /
Informationsverhalten / Recherche / Recherchestrategie / Suchmaschine; Sign.: 11 UN7a 148
Berkman, R.
The skeptical business searcher : The information
advisor’s guide to evaluating Web data, sites, and
sources
Medford, NJ, US: Information Today, 2004. - XXIII,
281 S., ISBN 0-910965-66-8
Informationsbedarf / Informationsvermittlung /
Elektronisches Dokument / Rechnernetz / Recherche
/ Recherchestrategie / Suchmaschine / Informationswert / Rechercheergebnis / Qualität / Precision;
Sign.: 11 UN7a 147
Enser, P. (Hrsg.); Kompatsiaris, Y. (Hrsg.); O’Connor, N.
E. (Hrsg.); Smeaton, A. F. (Hrsg.); Smeulders, A. W. M.
(Hrsg.)
Image and video retrieval : Proceedings, Berlin, DE:
Springer, 2004. - XVII, 679 S. (Lecture notes in computer science. 3115), ISBN 3-540-22539-0/ISSN 0302-9743
Bildverarbeitung / Bilddatenbank / Videoband / Indexierungsverfahren / Information Retrieval /
Recherchestrategie; Sign.: 11 ZI3 337-04
Morville, P.
Ambient findability
Sebastopol, CA, US: O'Reilly, 2005. - XIV,188 S.
ISBN 0-596-00765-5
Elektronischer Dienst / Elektronisches Dokument /
Informationsflut / Information Retrieval / Recherchestrategie / Effektivität / Informationskompetenz
Sign.: 11 UN7a 146
Stuckenschmidt, H.; van Harmelen, F.
Information sharing on the semantic Web
Berlin, DE: Springer, 2005. - XIX, 276 S.
(Advanced information and knowledge processing)
ISBN 3-540-20594-2
Informationswissenschaft / Informationstheorie /
Informationsquelle / Elektronischer Dienst / Metadaten / Semantisches Netz / Information Retrieval /
Ontologie; Sign.: 11 UN3a 136
Vise, D. A.; Malseed, M.
Die Google-Story
Hamburg, DE: Murmann, 2006. - 300 S.
ISBN 3-938017-56-2
Information Retrieval / Rechnernetz / Suchmaschine
/ Informationswirtschaft / Geschichte / Entwicklungstendenz; Sign.: 11 ZK1 265
4. Informationsmanagement
Neues für Bibliotheken, Neues in Bibliotheken
Enth.: Blanck, S.: Wert- und Wirkungsmessung in
Bibliotheken; Klingenberg, A.: Unterrichtsmodell zur
Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe
Wiesbaden, DE: Dinges + Frick, 2006. - 178 S.
(B.I.T. online-innovativ. 12)
ISBN 3-934997-14-7 / ISSN 1615-1577
Bibliothek / Bibliotheksorganisation / Bewertung /
Effektivität / Benutzung / Benutzerausbildung
Sign.: 11 UG1 302
Finger, H.
Arbeitsabläufe in One-Person Libraries : Besonderheiten, Probleme, Möglichkeiten
Halle, DE: Universitäts- u. Landesbibliothek SachsenAnhalt, 2002. - 64 S.
(Schriften zum Bibliotheks- und Büchereiwesen in
Sachsen-Anhalt. 83), ISBN 3-86010-644-9
Bibliothek / Bibliotheksorganisation / Arbeitsablauf
/ Bestandsaufbau / Katalogisierung / Inhaltliche Erschließung / Benutzung / Benutzerausbildung
Sign.: 11 UG1 300
Hauke, P. (Hrsg.); Busch, R. (Hrsg.)
„With a little help from my friends" : Freundeskreis
und Fördervereine für Bibliotheken. Ein Handbuch
Bad Honnef, DE: Bock u. Herchen, 2005. - 336 S.
(Bibliothek und Gesellschaft), ISBN 3-88347-244-1
Bibliothek / Marketing / Öffentlichkeitsarbeit / Förderung / Finanzierung / Fundraising; Sponsoring
Sign.: 11 UG2 148
Mühlenkamp, H.; Simonji, M. (Mitarb.)
Zur Ermittlung der Qualität von Bibliotheksdienstleistungen : Konzept und Ergebnisse einer 2003
durchgeführten Benutzerumfrage
Wiesbaden, DE: Dinges + Frick, 2004. - 111 S.
(B.I.T. online – innovativ. 8)
ISBN 3-934997-09-0 / ISSN 1615-1577
Bibliothek / Bibliotheksdienst / Bibliotheksorganisation / Dienstleistung / Bewertung / Kostenbewertung / Benutzung / Befragung / Datenanalyse / Qualität / Management; Sign.: 11 UG1 301
Schmitz-Justen, F. J.
Knowledge factors : How to animate members of
online communications to create knowledge-relevant content
Frankfurt am Main, DE: Lang, 2006. - 231 S.
ISBN 3-631-55466-4
Wissen / Management / Informationsprozess / Informationswert / Qualität / Rechnerunterstütztes Lernen / Mensch-Maschine-Kommunikation / Empirische Untersuchung; Sign.: 11 UN3a 138
Shepherd, E.; Yeo, G.
Managing records : A handbook of principles and
practice
London, GB: Facet Publ., 2003. - XIV, 318 S.
ISBN 1-85604-370-3
Schriftgutverwaltung / Management / Informationssystem / Normung / Norm
Sign.: 11 US2 482
5. Informationssysteme und Anwendungen
Dokumenten-Management : Vom Archiv zum Enterprise-Content-Management
Bonn, DE: VOI, 2005. - XIV, 642 S.
(Schriftenreihe des VOI) ISBN 3-932898-11-7
Dokumentenmanagement / Geschäftsprozess / Arbeitsablauf / Textverarbeitung / Datenübertragung /
Rechnernetz / Electronic mail / Rechtsfragen / Sicherheitsfragen; Sign.: 11 US5 250
Bussler, C. (Hrsg.); Fensel, D. (Hrsg.); Orlowska, M. E.
Hrsg.); Yang, J. (Hrsg.)
Web services, e-business, and the semantic Web :
Revised selected papers
Berlin, DE: Springer, 2004. - X, 145 S.
(Lecture notes in computer science. 3095)
ISBN 3-540-22396-7 / ISSN 0302-9743
Elektronischer Dienst / Electronic Commerce / Informationssystem / Semantisches Netz / Marktforschung; Sign.: 11 ZC7 206-03
61
L i t e r at u r au s l e s e
Literaturauslese
L i t e r at u r au s l e s e
Katsikas, S. (Hrsg.); Lopez, J. (Hrsg.); Pernul, G. (Hrsg.)
Trust and privacy in digital business : Proceedings
Berlin, DE: Springer, 2004. - XI, 298 S.
(Lecture notes in computer science. 3184)
ISBN 3-540-22919-1 / ISSN 0302-9743
Öffentliche Verwaltung / Elektronischer Dienst /
Mehrwertdienst / Ethik / Electronic Commerce /
Management / Verteiltes System / Rechtsfragen /
Urheberrecht / Vertrauen / e-business
Sign.: 11 ZC7 207-04
Kling, R.; Rosenbaum, H.; Sawyer, S.
Understanding and communicating social informatics : A framework for studying and teaching the
human contexts of information and communication
technologies
Medford, NJ, US: Information Today, 2005. - XX, 216 S.
ISBN 1-57387-228-8
Informationstechnologie / Telekommunikation / Informatik / Humanfaktor / Sozialwesen
Sign.: 11 UT1 178
6. Digitale Bibliothek
Ball , R. (Hrsg.); Röpke , C. (Hrsg.); Vanderpijpen , W.
(Hrsg.)
Virus: sicher im Netz? : 2. Internationale Konferenz
zur Virtuellen Bibliothek des Goethe-Instituts Brüssel, Jülich, DE, 2005. - 137 S.
(Schriften des Forschungszentrums Jülich : Reihe
Bibliothek. 13), ISBN 3-89336-377-7 / ISSN 1433-5557
Bibliothek / Rechnernetz / Elektronisches Publizieren / Entwicklungstendenz / Sicherheitsfragen /
Speicherung / Elektronisches Dokument / Informationstechnologie / Rechtsfragen
Sign.: 11 UI1 175
Heery, R. (Hrsg.); Lyon, L. (Hrsg.)
Research and advanced technology for digital libraries : Proceedings
Berlin, DE: Springer, 2004. - XV, 528 S.
(Lecture notes in computer science. 3232)
ISBN 3-540-23013-0 / ISSN 0302-9743
Bibliotheksautomation / Bibliotheksdienst / Elektronischer Dienst / Benutzerschnittstelle / Indexierungsverfahren / Information Retrieval
Sign.: 11 UC1 176-04
Weßling, U.
Das digitale Dienstleistungsangebot der Spezialbibliothek und Dokumentation des Bundesamtes für
Naturschutz : Mit besonderer Beachtung des Arbeitsbereiches „Aufbau, Pflege und Bereitstellung
eines elektronischen Bestandes“
Diplomarbeit an der Fachhochschule Köln, Studiengang Bibliothekswesen, 2005
Wiesbaden, DE, 2006. - VI, 97 S.
(Arbeitsgemeinschaft der Parlaments- und Behördenbibliotheken: Arbeitshefte. #57)
ISBN 3-925779-20-5 / ISSN 0518-2220
Fachinformation / Naturwissenschaften / Umwelt /
Bibliothek / Bibliotheksdienst / Informationsdienst
/ Bestand / Dokumentation / Referenzdatenbank /
Elektronischer Dienst / Elektronische Dokumentlieferung / Elektronisches Dokument / Zugriff / Rechnernetz / Speicherung / Digital
Sign.: 11 UT2 135
7. Datenkommunikation /
Netze / Dienste
Bruns, A. (Hrsg.); Jacobs, J. (Hrsg.)
Uses of blogs
New York, NY, US: Lang, 2006. - 267 S.
(Digital formations. 38)
ISBN 0-8204-8124-6 / ISSN 1526-3169
Elektronische Medien / Elektronisches Publizieren /
Elektronisches Dokument / Netzarchitektur / Humanfaktor / Industrie / Gesellschaft
Sign.: 11 ZI4 162
Flaig, G.; Hoffmann, M.; Langauf, S.
Internet-Telefonie : VoIP mit Asterisk und SER
München, DE: Open Source Press, 2006. - 400 S.
ISBN 3-937514-16-3
Telekommunikation / Fernsprechen / Informationstechnologie / Software / Datenübertragung / Rechnernetz
Sign.: 11 ZK3g 193
Gallegos, F.; Senft, S.; Manson, D. P.; Gonzales, C.
Information technology control and audit
Boca Raton, FL, US: Auerbach Publ., 2004. - XXXV,
849 S., ISBN 0-8493-2032-1
Informationstechnologie / Kontrolle / Sicherheitsfragen / Management / Client-Server-Architektur /
Elektronischer Dienst / Electronic Commerce
Sign.: 11 ZK6 248(2)
Ohlbach, H. J. (Hrsg.); Schaffert, S. (Hrsg.)
Principles and practice of semantic Web reasoning :
Proceedings
Berlin, DE: Springer, 2004. - VI, 163 S.
(Lecture notes in computer science. 3208)
ISBN 3-540-22961-2 / ISSN 0302-9743
Elektronischer Dienst / Datenstruktur / Information
Retrieval / Semantisches Netz / Reasoning / Fuzzy /
Logik / Ontologie
Sign.: 11 UN3a 137-04
Nirenburg, S. (Hrsg.); Somers, H. (Hrsg.); Wilks, Y. (Hrsg.)
Readings in machine translation
Cambridge, MA, US: MIT Press, 2003. - XV,413 S.
ISBN 0-262-14074-8
Computerlinguistik / Maschinelle Übersetzung /
Mehrsprachig
Sign.: 11 ZB2 194
Rasmussen, C. E. (Hrsg.); Bülthoff, H. H. (Hrsg.); Giese,
M. A. (Hrsg.); Schölkopf, B. (Hrsg.)
Pattern recognition : 26th DAGM symposium, Tübingen, Germany, August 30-September 1, 2004. Proceedings
Berlin, DE: Springer, 2004. - XVIII,581 S.
(Lecture notes in computer science. 3175)
ISBN 3-540-22945-0 / ISSN 0302-9743
Künstliche Intelligenz / Mustererkennung / Bildverarbeitung
Sign.: 11 ZB1 600-04
9. Rechtsfragen
Kiel, D.
Urheberrechtsschutz im Zeitalter der Digitalisierung
Diplomarbeit an der Fachhochschule Potsdam, FB
Architektur und Städteplanung, 2006
Potsdam, DE, 2006. - V,79,47 S.
Urheberrecht / Rechtsfragen / Rechnernetz / Musik /
Zugriff / Kopierrecht / Vervielfältigung / Vermarktung
Sign.: 10 D02 592 [Nicht ausleihbar]
Linde, F.
Ökonomie der Information
Göttingen, DE: Univ.-Verl., 2005. - IX, 153 S.
(Göttinger Schriften zur Internetforschung)
ISBN 3-938616-09-1
Information / Informationswirtschaft / Anbieter /
Benutzer / Netzarchitektur / Benutzung / Vervielfältigung / Kopierrecht / Verwertungsrecht
Sign.: 11 UA1a 151
Hendley, T.; Broadhurst, R.
Electronic document, records and content management : A comprehensive guide to electronic document, records and content management and a directory of products and services
Hertfotdshire, GB: Cimtech, 2004. - III, 229 S.
ISBN 0-9537954-7-0 / ISSN 1475-7443
Elektronisches Dokument / Inhaltliche Erschließung
/ Informationswert / Management / Informationsmanagement / Elektronischer Dienst / Zusammenarbeit
Sign.: 10 CD1 227(15) [Nicht ausleihbar]
Hewitt, H.
Blog: understanding the information reformation
that’s changing your world
Nashville, TN, US: Nelson Books, 2005. - XXIV, 225 S.
ISBN 0-7852-1187-X
Elektronischer Dienst / Scheduling / Management /
Informationsmanagement / Zeitfaktor / Tagebuch
Sign.: 11 ZC6 296
Stempfhuber, M. (Hrsg.)
In die Zukunft publizieren : Herausforderungen an
das Publizieren und die Informationsversorgung in
den Wissenschaften. Proceedings
Bonn, DE, 2006. - 297 S. (Tagungsberichte. 11)
ISBN 3-8206-0150-3
Informationsbedarf / Informationsvermittlung / Informationsversorgung / Entwicklungstendenz /
Elektronisches Publizieren / Urheberrecht / Informationssystem / Suchmaschine
Sign.: 11 UI1 121-05
Scoble, R.; Israel, S.
Naked conversations : How blogs are changing the
way businesses talk with customers
Hoboken, NJ, US: Wiley, 2006. - 251 S.
ISBN 0-471-74719-X
Kommunikation / Elektronischer Dienst / Kommunikationsprozess / Geschäftsprozess / Humanfaktor /
Scheduling / Management / Electronic Commerce /
Konversation
Sign.: 11 US5 254
Stielow, F.
Building digital archives, descriptions, and displays :
A how-to-do-it manual for archivists and librarians
New York, NY, US: Neal-Schuman, 2003. - XII, 229 S.
(How-to-do-it manuals for librarians. 116)
ISBN 1-55570-463-8
Schriftgut / Museum / Archivierung / Digital / Projekt / Metadaten / Auszeichnungssprache
Sign.: 11 UI1 176
Sieck, J. (Hrsg.); Herzog, M. A. (Hrsg.)
Wireless communication and information
Aachen, DE: Shaker, 2006. - 248 S.
(Berichte aus der Informatik)
ISBN 3-8322-5230-4 / ISSN 0945-0807
Mobilkommunikation / Telekommunikation / Breitbandkommunikation / Informationssystem / Geschäftsprozess / Informatik / Wirtschaftsinformatik
Sign.: 11 ZC5 268
Syré, L. (Hrsg.); Wiesenmüller, H. (Hrsg.)
Die Regionalbibliographie im digitalen Zeitalter :
Deutschland und seine Nachbarländer
Frankfurt am Main, DE: Klostermann, 2006. - 426 S.
(Zeitschrift für Bibliothekswesen und Bibliographie .
Sonderband. 90)
ISBN 3-465-03461-9 / ISSN 0514-6364
Bibliographie / Geschichte / Regional / Land / Gedruckter Dienst / Entwicklungstendenz / Zugriff /
Digital / Rechnernetz
Sign.: 11 UN6 137
8. Künstliche Intelligenz
Sieck, J. (Hrsg.); Herzog, M. A. (Hrsg.)
Kultur und Informatik : Entwickler, Architekten und
Gestalter der Informationsgesellschaft
Frankfurt am Main, DE: Lang, 2006. - 201 S.
ISBN 3-631-55417-6
Informationsgesellschaft / Kultur / Informatik / Entwicklungstendenz / Kunst / Virtuelle Realität / Multimedial / Informationsverhalten
Sign.: 11 UA1a 150
Bishop, C. M.
Pattern recognition and machine learning
New York, NY, US: Springer Science u. Business
Media, 2006. - XX, 738 S. (Information science and
statistics). ISBN 0-387-31073-8
Maschinelles Lernen / Mustererkennung / Informationstheorie / Neuronales Netz / Wahrscheinlichkeitsrechnung
Sign.: 11 ZB1 709
Spitzer, M.
Vorsicht Bildschirm : Elektronische Medien, Gehirnentwicklung, Gesundheit und Gesellschaft
Stuttgart, DE: Klett, 2005. - XVI, 303 S.
(Transfer ins Leben. 1) ISBN 3-12-010170-2
Bildschirm / Sicherheitsfragen / Humanfaktor /
Elektronische Medien / Wirkungsforschung / Kinder
/ Gesundheit
Sign.: 11 HRC 146
62
10. Audiovisuelle DV
Buurman, G. M. (Hrsg.)
Total interaction : Theory and practice of a new paradigm for the design disciplines
Basel, CH: Birkhäuser, 2005. - 367 S.
ISBN 3-7643-7076-9
Design / Graphische Datenverarbeitung / MenschMaschine-Kommunikation / Dialogsystem / Benutzerschnittstelle / Virtuelle Realität
Sign.: 11 ZI3 380
Groh, R.
Das Interaktions-Bild : Theorie und Methodik der
Interfacegestaltung
Dresden, DE: TUDpress, 2005. - 223 S.
ISBN 3-938863-05-6
Benutzerschnittstelle / Gestaltung / Mensch-Maschine-Kommunikation / Dialogsystem / Rechnernetz
Sign.: 11 ZI4 166
58(2007)1, 61-62
Journal of Chemical Information and
Modeling
New York, Vol.46, No.4, July 2006
EDITORIAL
Maggiora, Gerald M.: On Outliers and Activity CliffsWhy QSAR Often Disappoints, pp.1535
ARTICLES
CHEMICAL INFORMATION
Truchon, Jean-François; Bayly, Christopher I.: GLARE:
A New Approach for Filtering Large Reagent Lists in
Combinatorial Designn Using Product Properties,
pp. 1536
Klekota, Justin; Brauner, Erik; Roth, Frederick P.; Schreiber , Stuart L.: Using High-Throughput Screening
Data To Discriminate Compounds with Single-Target
Effects from Those with Side Effects, pp.1549
Balaban, Alexandru T.; Schmalz, Thomas G.: StrainFree Sextet-Resonant Benzenoids and Their Antisextet Dualists, pp.1563
Korff, Modest von; Hilpert, Kurt: Assessing the Predictive Power of Unsupervised Visualization Techniques to Improve the Identification of GPCR-Focused
Compound Libraries, pp.1580
Fitzgerald, Sara H.; Sabat, Michal; Geysen, H. Mario:
Diversity Space and Its Application to Library Selection and Design, pp.1588
Sedykh, Aleksandr Y.; Klopman, Gilles: A Structural
Analogue Approach to the Prediction of the Octanol-Water Partition Coefficient, pp.1598
Lin, Thy-Hou; Chiu, Shih-Hau; Tsai, Keng-Chang: Supervised Feature Ranking Using a Genetic Algorithm
Optimitzed Artificial Neural Network, pp.1604
Gregori-Puigjané, Elisabet; Mestres, Jordi: SHED: Shannon Entropy Descriptors from Topological Feature
Distributions, pp.1615
Eckert, Hanna; Vogt, Ingo; Bajorath, Jürgen: Mapping
Algorithms for Molecular Similarity Analysis and
Lingand-Based Virtual Screening: Design of DynaMAD and Comparison with MAD and DMC, pp.1623
COMPUTATIONAL CHEMISTRY
Kerzmann, Andreas; Neumann, Dirk; Kohlbacher, Oliver: SLICK – Scoring and Energy Functions for Protein-Carbohhydrate Interactions, pp.1635
Elyashberg, Mikhail E.; Blinov, Kirill A.; Williams, Anthony J.; Molodtsov, S.G.; Martin, Gary E.: Are Deterministic Expert Systems for Computer-Assisted
Structure Elucidation Obsolete?, pp.1643
Chaves, J.; Barroso, J.M.; Bultnick, P.; Carbó-Dorca, R.:
Toward an Alternative Hardness Kernel Matrix
Structure in the Electronegativity Equalization Method (EEM), pp.1657
Soriano, Elena; Marco-Contelles, José; Tomassi, Cyrille;
Van Nhien, Albert Nguyen; Postel, Denis: Computational Analysis of Aza Analogues of [2’, 5’ –Bis-O(tert-butyldimethylsilyl)-‚-D-ribofuranose]-3’-spiro5’ 4’- (44’ ’ –amino-1’ ? –oxathiole-2’ ‘, 2’ ’-dioxide)
(TSAO) as HIV-1 Reverse Transcriptase Inhibitors: Relevance of Conformational Prperties in the Inhibitory Activity, pp.1666
Cuadrado, Manuel Urbano; Ruiz, Irene Luque; G´mezNieto , Miguel Ángel: A Steroids QSAR Approach
Based on Approximate Similarity Measurements,
pp.1678
Remko , Milan; von der Lieth , Claus-Wilhelm: GasPhase and Solution Conformations of Selected Dimeric Structural Units of Heparin, pp.1687
Steffen, Andreas; Kämper, Andreas; Lengauer, Thomas: Flexible Docking of Ligands into Synthetic Receptors Using a Two-Sided Incremental Construction Algorithm, pp.1695
Betzi, Stéphane; Sure, Karsten; Chétrit, Bernard; Guerlesquin, Françoise; Morelli, Xavier: GFscore: A General
Nonlinear Consensus Scoring Function for HighThrouighput Docking, pp.1704
Guha, Rajarshi; Dutta, Debojyoti; Jurs, Peter C.; Chen,
Ting: R-NN Curves: An Intuitive Approach to Outlier
Detection Using a Distance Based Method, pp.1713
Laffort, Paul; Héricourt, Pierre: Solvation Parameters.
2. A Simplified Molecular Topology to Generate Easily Optimized Values, pp.1723
Abraham, Michael H.; Ibrahim, Adam: Gas to Olive Oil
Partition Coefficients: A Linear Free Energy Analyis,
pp.1735
58(2007)1, 63-64
COMPUTATIONAL BIOCHEMISTRY
Li, Yan: Bayesian Model Based Clustering Analysis:
Application to a Molecular Dynamics Trajectory of
the HIV-1 Integrase Catalytic Core, pp.1742
Ferro, Noel; Gallegos, Ana; Bultinck, Patrick; Jacobsen,
Hans-Jörg; Carbó-Dorca, Ramón; Reinard, Thomas:
Coulomb and Overlap Self-Similarities: A Comparative Selectivity Analysis of Structure-Function Relationships for Auxin-like Molecules, pp.1751
Sharma, Pooja; Ghoshal, Nanda: Exploration of a Binding Mode of Benzothiazol-2-yl Acetonitrile Pyrimidine Core Based Derivatives as Potent c-Jun N-Terminal Kinase-3 Inhibitors and 3D-QSAR Analyses,
pp.1763
Amin, Elizabeth; Welsh, William J.: Highly Predictive
CoMFA and CoMSIA Models for Two Series of Stromelysin-1 (MMP-3) Inhibitors Elucidate S1’ and S1-S2’
Binding Modes, pp.1775
PHARMACEUTICAL MODELING
Ram, K.V.V.M. Sai; Rambabu, G.; Sarma, J.A.R.P.; Desiraju, G.R.: Ligand Coordinate Analysis of SC-558 from
the Active Site to the Surface of COX-2: A Molecular
Dynamics Study, pp.1784
Polgár, T›mea; Keserü, György M.: Ensemble Docking
into Flexible Active Sites. Critical Evaluation of FlexE
against JNK-3 and ‚-Secretase, pp.1795
Maniyar , Dharmesh M.; Nabney , Ian T.; Williams ,
Bruce S.; Sewing, Andreas: Data Visualization during
the Early Stages of Drug Discovery, pp.1806
Zhu, Xiao-Lei; Zhang, Li; Chen, Qiong; Wan, Jian; Yang,
Guang-Fu: Interactions of Aryloxyphenoxypropionic
Acids with Sensitive and Resistant Acetyl-Coenzyme
A Carboxylase by Homology Modeling and Molecular Dynamic Simulations, pp.1819
Liang, Hong; Wu, Xing; Guziec, Lynn J.; Guziec, Frank
S., Jr.; Larson, Kimberly K.; Lang, Jennifer; Yalowich,
Jack C.; Hasinoff , Brian B.: A Structure-Based 3DQSAR Study of Anthrapyrazole Analogues of the Anticancer Agents Losoxantrone and Piroxantrone,
pp.1827
Guha, Rajarshi; Dutta, Debojyoti; Jurs, Peter C.; Chen,
Ting: Local Lazy Regression: Making Use of the
Neighborhood to Improve QSAR Predictions, pp.1836
Kirchmair, Johannes; Wolber, Gerhard; Laggner, Christian; Langer, Thierry: Comparative Performance Assessment of the Conformational Model Generators
Omega and Catalyst: A Large-Scale Survey on the
Retrieval of Protein-Bound Ligand Conformations,
pp.1848
SOFTWARE DESCRIPTION
Strizhev, Alex; Abrahamian, Edmond J.; Choi, Sun; Leonard, Joseph M.; Wolohan, Philippa R.N.; Clark, Robert
D.: The Effects of Biasing Torsional Mutations in a
Conformational GA, pp.1862
BIOINFORMATICS
Palmer, Brian; Danzer, Joseph; Hambly, Kevin; Debe,
Derek A.: StructSorter: A Method for Continuously
Updating a Comprehensive Protein Structure
Alignment Database, pp.1871
BOOK REVIEWS
Warr, Wendy A.: Cheminformatics Developments
Edited by J. H. Noordik. IOS Press: Amsterdam, 2004.
232 pp. ISBN 1-58603-450. Hardcover U.S. $ 175, Euro
145, £ 96, pp.1877
Journal of Documentation
London, Vol.62, No.4, August 2006
ARTICLES
Cross, Cate; Oppenheim, Charles: A genre analysis of
scientific abstracts, pp.428
Zins, Chaim: Redefining information science: from
“information science” to “knowledge science”,
pp.447
Coleman, Anita S.: William Stetson Merill and bricolage for information studies, pp.462
Nicholas, David; Huntington, Paul; Jamali, Hamid R.;
Tenopir, Carol: What deep log analysis tells us about
the impact of big deals: case study OhioLINK, pp.482
Tudhope, Douglas, Binding, Ceri; Blocks, Dorothee;
Cunliffe, Daniel: Query expansion via conceptual distance in thesaurus indexed collections, pp.509
BOOK REVIEW
Urquhart, Christine: Management Information Systems
Pors, Niels Ole: Managing Information Services
Urquhart, Christine: Managing Electronic Records
McLeod, Julie: Corporate Memory: Records and Information Management in the Knowledge Age (2nd
ed.)
Hannabuss, Stuart: Information Politics on the Web
Haider, Jutta: Media, Technology and Every Day Life in
Europe: From Information to Communication
London, Vol.62, No.5, October 2006
ARTICLES
Morris, Anne; Ayre, Catherine; Jones, Amy: Audiovisual materials in UK libraries: economic sense?,
pp.555
Lloyd, Annemaree: Information literacy landscapes:
an emerging picture, pp.570
Ford, Nigel; Mansopurian, Yazdan: The invisible web:
an empirical stuffy of “cognitive invisibility”, pp.584
East, John W.: Subject retrieval of scholarly monographs via electronic databases, pp.597
Arsenault, Clément: Aggregation consistency and
frequency of Chinese words and characters, pp.606
BOOK REVIEW
Bawden , David: Annual Review of Information
Science and Technology, Volume 40
Warner, Julian: Leonardo’s Laptop: Human Needs
and the New Computing
Glosiene, Audrone: Social Capital and Information
Technology
Hannabuss, Stuart: Internet Guide to Anti-Aging and
Longvity
Bawden, David: Memory Practices in the Sciences
EDITORIAL
Bawden, David: Great lives and information behaviour
EMERALD LITERATI NETWORK
2006 Awards for Excellence
Journal of Information Science
East Grinstead, Vol.32, No.4, August 2006
Huntington, Paul; Nicholas, David; Jamali, Hamid R.;
Watkinson, Anthony: Obtaining subject data from
log files using deep log analysis: case study OhioLINK, pp.299
Ding, Shifei; Shi, Zhongzhi: Supervised feature extraction algorithm based on improved polynomial
entropy, pp.309
Shi, Y.F.; Jin, F.X.; Li, M.Y.: A total entropy model of spatial data uncertainty, pp.316
Vechtomova, Olga; Wang, Ying: A study of the effect
of term proximity on query expansion, pp.324
Joinson , Adam N.; Paine , Carina; Buchanan , Tom;
Reips, Ulf-Dietrich: Watching me, watching you: privacy attitudes and reactions to identity card implementation scenarios in the United Kingdom, pp.334
Ortega, José Luis; Aguillo, Isidro; Prieto, José Antonio:
Longitudinal study of content and elements in the
scientific web environment, pp.344
Hider, Philip: Search goal revision in models of information retrieval, pp.352
Alwis, Gina de; Majid, Shaheen; Chaudhry, Abdus Sattar: Transformation in manager’s information seeking behaviour: a review of the literature, pp.362
Garcia-Zorita, Carlos; Martin-Moreno, Carmen; Lascurain-Sánchez, M. Luisa; Sanz-Casado, El›as: Institutional addresses in the Web of Science: the effects on
scientific evaluation, pp.378
Knowledge Organization
Würzburg, Vol.32, No.4, September 2006
EDITORIAL
Smiraglia, Richard P.: About Knowledge Organization: An Editorial, pp.139
FEATURE
Drolshagen , Jo Ann: Pictorial Representation of
Quilts from the Underground Railroad, pp.141
ARTICLES
Tsai, Chin-Chung; Chou, Yu-Ju: The Role of “Core” and
“Anchored” Concepts in Knowledge Recall: A Study
of Knowledge Organization of Learning Thermal
Physics, pp.143
BOOK REVIEWS
Redmond-Neal, Alice; Hlava, Marjorie M.K. (eds.): ASIS
& T thesaurus of information science, technology,
and librarianship. 3rd ed. Medforf, N.J.: Information
Today, c2005. xiii,255 p. ISBN 1-57387-2143-1 (pb),
pp.159
Mulvany, Nancy C.: Indexing Books, 2nd ed. Chicago:
Univ. of Chicago Press, c2005. xiv,315 p. ISBN 0-22655276-4, pp.160
Williamson, Nancy: Classification Issues: Report. IFLA
General Conference, Oslo, Norway 2005 and Universal Decimal Classification, pp.163
63
MediaInfo
Media Info
MediaInfo
Online
Weston, Vol.30, No.5, September/October 2006
FEATURES
Klopper, Susan: The Journey from Corporate to Academic Librarian, pp.14
Huwe, Terence K.: From Librarian to0 Digital Communicator, pp.21
Berkien, Ton: Transforming Information Specialists
into Intelligence Professionals, pp.27
Hammond , Richard: From Data Management to
Data Analysis and Visualization, pp.32
Dames, K. Matthew: The Copyright Landscape, pp.35
Robinson, Brad; Marlatt, Greta E.: Libraries in the
War on Terrorism, pp.39
Banks, Michael A.: Amazon’s on the Right Page with
New Online Reader, pp.43
COLUMNS
Fichter, Darlene: Intranet Librarian. Using Contextual
Inquiry to Build a Better Intranet, pp.46
Guenter, Kim: Web Site Management. Developing
Personas to Understand User Needs, pp.49
Ojala, Marydee: The Dollar Sign. Uncoveruing Cover
Stories, pp.52
Plosker George R.: Information Strategist. The Complete New Yorker: A New Model for Electronic Access, pp.54
Jacsó, Péter: Péter’s Picks & Pans. JST’s J-STAGE and journal@archive, SciELO, Microsoft Academic Live, pp.57
Wiley, Deborah Lynne: Hardcopy. The Librarian’s Internet Survival Guide: Strategies for the High-Tech
Reference Desk / Prioritizing Web Usability / Ambient Findability / Licensing in Libraries: Practical
and Ethical Aspects, pp.51
Bates, Mary Ellen: Online Spotlight. Getting Past the
Online Bouncer, pp.64
DEPARTMENTS
Ojala, Marydee: The HomePage. Journeys and Transformations, pp.5
Sabroski, Suzanne: Industry News, pp.6
Notess, Greg R.: Search Engine Update: New Search
Features, Developments, and Content, pp.12
Index to Advertisers, pp.63
B.I.T. online – Bibliothek, Information,
Technologie, Bibliotheksmanagement
Wiesbaden, Jg.9, H.3, September 2006
EDITORIAL
Fuhlrott, Rolf:„Man spricht Deutsch!“, S.185
FACHBEITRÄGE
Ruppelt, Georg: Demographische Veränderungen
und die Zukunft der Bibliotheken, S.192
Seefeldt, Jürgen: Qualitätsmanagement, Standards
und Bewertungskriterien in deutschen Bibliotheken,
S.201
Sühl-Strohmenger, Wilfried: Das Netzwerk Informationskompetenz der baden-württembergischen
Hochschul- und Landesbibliothek, S.205
NACHRICHTEN
Ratzek, Wolfgang: Ehrenamtliche Kräfte und Bibliothekare in der Bibliotheksarbeit – Ein Problem der
Wertschätzung, S.213
Reichmann , Gerhard: Die Untersuchung der Nutzungsintensität von Universitätsbibliotheken anhand der Arbeitsplatzauslastung, S.219
Ball, Rafael; Goebelbecker, Jürgen: NUCLiB – Die virtuelle Bibliothek Kerntechnik im Internet, S.225
Großgarten, Astrid: Die Archivalie Kirchenbuch zwischen Bestandserhalt, Bestandssicherung und
neuen Nutzungsformen, S.230
REPORTAGEN
Franke, Michael: Das Raum-Informationssystem der
Philologischen Bibliothek der Freien Universität Berlin, S.233
Ratzek, Wolfgang: Singapur – Eine „Schatzinsel“ in
der Welt der Bibliotheken, S.238
Syré, Ludger; Seefeldt, Jürgen: Russischer Bibliothekartag 2066 – Eindrücke von einer Reise nach Ekaterinburg, S.243
Reinitzer, Sigrid: Gutenbergs Erbe: Das Elektronische
Buch – Fachtagung im April 2006 in Graz, S.251
Deider, Clemens: PostPrint 2006 - Eindrücke von der
Fachmesse für Druck und Weiterverarbeitung in
Berlin, S.255
Fellermann, Wibke; Bräutigam, David; Auras, Stefanie:
Teaching Library. Eine Kernaufgabe für Bibliothekare. Bericht über das 9. Hamburger Kolloquium des
Bibliotheks- und Informationsmanagements, S.257
Haaßengier, Ralf M.: Bibliotheken rüsten für die digitale Zukunft, S.259
64
DIGIT@L NEWS
Zusatzfunktion für SISIS-SunRise Erwerbungs-Client,
S.261
Direkter Draht zur Finanzbuchhaltung mit SISISSunRise FIBU-Interface, S.261
Literaturnachweise des GBV für WorldCat, S.261
Online-Archiv „DigiZeitschriften“ jetzt in SFX Knowledge-Base integriert, S.261
KURZ NOTIERT
BOBCATSSS-Symposium 2007 – Marketing of Information Services – 29.-31. Januar 2007/Prag, S.263
BookData secures new contract with Essex, S.263
DGI-Tagung – Themenschwerpunkt CONTENT 4.-6.
Oktober 2006/Frankfurt am Main, S.263
DMS 2006: Neue Generation der Bookeye Aufsichtsscanner, S.264
BOND besteht ISO-Zertifizierung mit Bravour, S.264
Bibliotheks-Lehrgang mit starker Managementorientierung – Informationsabend am 28.9.2006 /
Donau-Universität Krems, S.264
IKMZ-Universitätsbibliothek Cottbus ist „Bibliothek
des Jahres 2006“, S.265
LEARNTEC 2007 in der Messe Karlsruhe – 13.-15. Februar 2007, S.265
Zweiter Deutscher Bibliotheksleitertag – 4. Oktober
2006 / Frankfurt am Main, S.266
Ein neuer Lesesaal der Staatsbibliothek zu Berlin
Unter den Linden, S.266
Bücher in der U-Bahn von Madrid, S.267
Libroplan startete mit Plaungsteam für Bibliothekstechnik, S.267
Andreas Ptack jetzt bei der ekz, S.268
Jürgen Jedek neuer Vertriebsleiter der Bibliotheca
RFID AG, S.268
Swets und Ex Libris kooperieren im Bereich EDI Serial Claiming, S.268
Swets ist Global Sales Partner für eBooks Collection
von Springer, S.268
ALPSP Learned Journal Collection erweitert Sektrum
bei den Titelpaketen, S.268
REZENSIONEN
Bibliotheken, Bücher und andere Medien in der Zeit
des Kalten Krieges. Rez.: Dieter Schmidmaier, S.271
Buch-Stätte: Geschichte und Perspektiven der Leipziger Buchwissenschaft. Rez.: Dieter Schmidmaier,
S.272
Jüdischer Buchbesitz als Raubgut. Rez.: Dieter
Schmidmaier, S.274
Duden. Die deutsche Rechtschreibung. 24. Auflage
2006. Rez.: Rolf Fulrott, S.275
Eichhorn, Martin: Konflikt- und Gefahrensituationen
in Bibliotheken. Rez.: Jürgen Plieninger, S.275
Tugenden der Medienkultur. Zu Sinn und Sinnverlust tugendhaften Handelns in der medialen Kommunikation. Rez.: Wolfgang Ratzek, S.276
Just, Peter: E-Books für Bibliotheken. Rez.: Sigrid Reinitzer, S.277
mdi Forum der Medizin_Dokumentation
und Medizin_Informatik
Mannheim, Jg.8, H.3, September 2006
FACHBEITRÄGE
Seidel, Christoph; Lowes, Doris; Haux, : IT-Strategie
des Klinikums Braunschweig – Aspekte des IT-Rahmenkonzeptes, S.100
Wirth, Ulrich: Macht Wissen Ah? – Wissensmanagement in der MDA-Ausbildung. Ein Plädoyer für Social Computing, S.106
Waegemann, C. Peter; Engelbrecht, Rolf; Klein, Frieder: CCR: Eine neue Lösung für Kontinuität der Information im Gesundheitswesen, S.112
Vosseler, Cornelia; Rübel, Hans-Werner: Erfolgsfaktoren für die Migration eines Informationssystems
(IS) im Krankenhaus, S.114
VERANSTALTUNGEN
Pretschner, D. P.; Bott, Oliver: 35 Jahre Medizinische
Informatik, Neue Perspektiven, Kontinuitäten – Das
Braunschweiger Symposium, S.118
eHealth auf der SYSTEMS 2006, S.124
BVMI
Methods of Information und Yearbook of Medical
Informatics für Mitglieder online verfügbar – Service für
Assay zur Zertifizierung von ePAs, S.125
DVMD
Noetzel, Jörg; Baller, Sascha: Die Deutsche Gesellschaft für Medizincontrolling e.V. (DGfM) stellt sich
vor, S.126
Schmid, Sybille: Integrierte Versorgung: Neue Wege
in der Gesundheitsversorgung – Neue Wege in der
medizinischen Dokumentation?, S.127
Ein Verband macht mobil – Neue Strukturen innerhalb der Verbandsarbeit des DVMD ermöglichen
mehr Einflussnahme der Mitglieder, S.130
Kooperatives Lehren und Lernen in typischen Lernsituationen (KOLLT) – Der sächsische MDA-Lehrplan
und der Bund-Länder-Kommission-Modellversuch,
S.131
Fankhänel, Anja: Medizinische Dokumentation in
Europa – Schweiz, S.134
Gießler, Günther: Projektantrag im Leonardo-daVinci-Programm der EU durch die Berufsfachschule
für medizinische Dokumentation in der Privaten
Schule IBB gGmbH Dresden, S.136
Jonas, Markus: Neuer Service: Beratung in Arbeitsrechtfragen für DVMD-Mitglieder, S.137
PROJEKTBERICHTE
Ingenerf, Josef; Schopen, Michael: Die Referenzterminologie SNOMED CT – Hinweise auf das Positionspapier der GMDS-Projektgruppe Standardisierte
Terminologien in der Medizin (STM), S.138
Wissensmanagement
Reutlingen, Jg. 9, H.5, Juli 2006
EDITORIAL
Lehnert, Oliver: Wissensmanagement mit System,
S.3
PRAXIS WISSENSMANAGEMENT
Schütt , Peter: Der zweite Mann oder die Doppelspitze, S.10
Cress, Ulrike; Kimmerle, Joachim: Social Software im
Unternehmen – (k)ein Strohfeuer?, S.14
Wilke, Martin: Erfahrungswissen lebendig halten,
S.18
TITELTHEMA
Seegmüller, Kirsten: Die Qual der Wahl: Das geeignete Wissensmanagement-System finden, S.20
Seegmüller, Kirsten: Zum Greifen nah, S.26
Raber, Peter: META-DOK – das webbasierte Dokumenten- und Wissensmanagement-System, S.27
Moser, Florian: So einfach wie Telefonieren – Collaboration-Lösungen bieten viel Potential für Prozessoptimierungen, S.28
DOKUMENTATION + KOMMUNIKATION
Finke, Ina; Kohl, Holger: Verbandsinteressen statt
Unternehmensziele, S.30
Lembke , Gerald; Vyborny , Michael: Soziale Netzwerkanalyse, S.32
Hein, Frank Martin: Elektronische Medien effizient
nutzen, S.34
HUMAN RESOURCES
Gálvez, Cristián: Humor ist, wenn man besser arbeitet, S.36
Keindl, Klemens; Rudlof, Matthias: Emotional statt
rational, S.39
Wachs, Uwe: Wertschöpfung und Kommunikation –
ein erfolgreiches Team?, S.42
TRENDS
Reihlen, Markus; Schlapfner, Jan-Florian: Elektronischer Wissenstransfer: Königsweg für die Beratungspraxis, S.44
Schomisch, Michael; Wildhirt, Klaus: Gewusst wie:
Beratungserfolg steigern, S.46
Springer, Alexander: Sortmunder Stadtwerke setzen
auf Business Intelligence, S.48
Yilmaz, Yücel: Die Funktionen von Business Intelligence im Rahmen des Wissensmanagement, S.50
WISSENSWERTES
Vollmar, Gabriele: Die Qual der Wahl, oder warum
Esel sterben, S.57
Cahiers de la documentation –
Bladen voor documentatie
Bruxelles, Vol.60, No.3, September 2006
Éditorial – Woord vooraf, pp.3
Fort, Stéphanie: La gestion d’une bibliothèque avec
un logiciel libre: Exemple concret et implications,
pp.4
Lejeune, Christophe: Ce que l’annuaire fait à Internet: Sociologie des épreuves documentaries, pp.12
Jacobs, Stefaan: Federale Bibliotheken slaan de handen in mekaar, pp.23
Notes de lecture – Boekbesprekingen, pp.33
Nouvelles parutions – Nieuwe publicaties, pp.34
Regards sur la Presse – Een blik op de pers, pp.36
58(2007)1, 63-64
23. bis 24. Januar
Berlin
APE 2007 Academic Publishing in Europe
Innovation & Publishing
Arnoud de Kemp, [email protected], www.ape2007.eu
29. bis 31. Januar
Prag, Tschechoslowakei
BOBCATSSS 2007
Marketing of Information Services
HdM – Fakultät Information und Kommunikation, BOBCATSSS, Wolframstraße
32, 70191 Stuttgart, Tel.: +49 (0)711 257 061 73, Fax: +49 (0)711 257 063 00,
[email protected], www.bobcatsss.org
13. bis 15. Februar
Karlsruhe
LEARNTEC – 15. Internationaler Kongress
und Fachmesse für Bildungsund Informationstechnologie
KMK – Karlsruher Messe- und Kongress-GmbH, Festplatz 9, 76137 Karlsruhe,
Tel.: (07 21) 3720-5357, Fax: (07 21) 3720-99-5357, [email protected],
www.kmkg.de
21. bis 23. Februar
Bangalore, Indien
International Conference on Semantic Web
and Digital Libraries (ICSD 2007)
Dr. A.R.D. Prasad, Documentation Research and Training Centre, Indian
Statistical Institute, 8th Mile, Mysore Road, Bangalore – 560 059 Karnataka,
Indien, Tel.: (91-80-28483002) /3/4 extn no. 496 or 490, Fax: (91-80)28484265,
[email protected], http://drtc.isibang.ac.in/icsd
11. bis 13. März
Roskilde, Dänemark
EUSIDIC Annual Conference 2007
What will be the impact of Web2.0 and Library2.0 applications on user services in library and information services management
Johan van Halm, Executive Director, EUSIDIC c/o P.O.Box 688,
3800 AR Amersfoort, The Netherlands, Tel.: +31 (0)33 4701123,
[email protected], www.eusidic.net
15. bis 17. März
Melbourne, Australien
The Indexing Life
ANZSI Conference
Margaret Findlay, Conference Convenor, Australian and New Zealand Society
of Indexers, Victorian Branch, PO Box 4022, Auburn South VIC 3122 Australia,
Tel./Fax: + 61 3 9818 1760, [email protected]
15. bis 21. März
Hannover
Info|telligence CeBIT 2007
Markus Beauchamp, Klingler GmbH, Crellestr. 21, 10827 Berlin, Tel.:
(030) 397413 13, Fax (030) 397413 79, [email protected]
19. bis 22. März
Leipzig
3. Leipziger Kongress für Information
und Bibliothek
Information und Ethik
Deutsche Nationalbibliothek, Deutscher Platz 1, 04103 Leipzig,
[email protected], www.bid-kongress2007.de
22. bis 25. März
Leipzig
Leipziger Buchmesse
Leipziger Messe GmbH, Projektteam Buchmesse, Messe-Allee 1,
04356 Leipzig, www.leipziger-messe.de
14. bis 16. Mai
Stuttgart
Frühjahrstagung der Fachgruppe 7 im VdA
Einschnitte, Ziele und Durchbrüche in der
Dokumentation von Medien
VdA – Verband deutscher Archivarinnen und Archivare e.V., Geschäftsstelle,
Wörthstr. 3, 36037 Fulda, Tel.: (06 61) 29 109 72, Fax: (06 61) 29 109 74,
[email protected]
20. bis 23. Mai
Schwechat, Österreich
REAL CORP 007
12. internationale Konferenz zu Stadtplanung, Regionalentwicklung und Informationsgesellschaft, und 2. Internationale
Wiener Immobilienkonferenz und
GeoMultimedia 2007
CEIT ALANOVA, Institut für Stadt, Verkehr, Umwelt und Informationsgesellschaft, concorde technology center schwechat (concorde.tcs), Am Concorde
Park 2, Gebäude F, A-2320 Schwechat, Österreich, Tel.: +43 1 90360 1241,
Fax: +43 1 90360 1299, [email protected], www.ceit.at
23. bis 27. Mai
Philadelphia, PA, USA
ASI Conference 2007
Liberating the Index
Carolyn Weaver, Program Coordinator, E-Mail: [email protected]
30. Mai bis 1. Juni
Köln
10. Internationale Symposium für
Informationswissenschaft
Open Innovation – neue Perspektiven im
Kontext von Information und Wissen?
Prof. Dr. Achim Oßwald, Fachhochschule Köln, Fakultät für Informations- und
Kommunikationswissenschaft, Institut für Informationswissenschaft,
Claudiusstraße 1, 50678 Köln, [email protected], www.isi2007.de
30. Mai bis 1. Juni
Köln
13. Jahrestagung der IuK-Initiative
Informationszentrum Sozialwissenschaften, Lennéstr. 30, 53113 Bonn,
Tel.: (0228) 22 81-147, [email protected], www.iuk-initiative.org
30. Mai bis 1. Juni
Ottawa, Kanada
ISC/SCI Conference 2007
The Indexing Society of Canada/Société canadienne d’indexation,
www.indexers.ca/
13. bis 16. Juli
London, England
The Society of Indexers
50th Anniversary Conference 2007
E-Mail: [email protected]
19. bis 23. August
Durban, Südafrika
World Library & Information Congress –
73rd IFLA General Conference & Council
Libraries for the future.
Progress, Development & Partnership
WLIC Conference Secretariat, Congrex Holland BV, Tel. +31 20 5040 201,
Fax: +31 20 5040 225, [email protected], www.congrex.com
24. bis 28. September INFORMATIK 2007 – Informatik trifft
Bremen
Logistik
37. Jahrestagung der Gesellschaft
für Informatik e.V. (GI)
Prof. Dr. Rainer Koschke, Universität Bremen, Fachbereich 3 – Mathematik und
Informatik, 28359 Bremen, Tel.: (04 21) 421-218-9671, Fax: (04 21) 218-4322,
[email protected], www.informatik2007.de
25. bis 28. September 77. Deutscher Archivtag
Mannheim
Lebendige Erinnerungskultur für die
Zukunft
Thilo Bauer M.A., VdA – Verband deutscher Archivarinnen und Archivare e. V.,
-Geschäftsstelle-, Wörthstraße 3, 36037 Fulda, Tel.: (06 61) 29 109 72, Fax:
(06 61) 29 109 74, [email protected], www.archivtag.de/at2007/
25. bis 28. September 31. Tagung der Arbeitsgemeinschaft der
Berlin
Spezialbibliotheken (ASpB)
Kooperation versus Eigenprofil?
Arbeitsgemeinschaft der Spezialbibliotheken / Sektion 5 im DBV c/o
Herder-Institut, Bibliothek, Gisonenweg 5-7, 35037 Marburg,
[email protected], www.aspb.de
8. bis 10. Oktober
Berlin
Herbsttagung der Fachgruppe
Dokumentation im Deutschen
Museumsbund
Monika Hagedorn-Sauppe, Institut für Museumskunde, In der Halde 1, 14195
Berlin, Tel.: (030) 8301-460, Fax: (030) 8301-504, [email protected], www.museumsbund.de
10. bis 12. Oktober
Frankfurt am Main
Online-Tagung 2007 und DGI-Jahrestagung
2007
DGI-Geschäftsstelle, Hanauer Landstr. 151-153, 60314 Frankfurt am Main,
Tel.: (069) 43 03 13, Fax: (069) 4 90 90 96, [email protected], www.onlinetagung.de
10. bis 14. Oktober
Frankfurt am Main
Frankfurter Buchmesse
Ehrengast Katalanische Kultur
Dr. Juergen Boos, Ausstellungs- und Messe GmbH, Buchmesse Frankfurt,
Reineckstraße 3, 60313 Frankfurt am Main, Tel.: (069) 2102-0, Fax: (069) 2102227/-277, [email protected]
Te r m i n k a l e n d e r
2007
29560609_vo.qxd
29.09.2006
10:41 Uhr
Seite 5
Auf alle Fälle frisch:
Aktuelle Inhalte – perfekt auf Sie
zugeschnitten
Wiley
InterScience®
Inhalte
Über 1500 Publikationen von Wiley aus allen
Naturwissenschaften, Medizin, Technik,
Wirtschaft und Finanzwesen
Zugriff
Einzelne Kapitel oder vollständige Titel
Abonnement oder Kauf
Leistungsumfang
29564609_vo
Suche auf Kapitelebene
Volltext im PDF-Format
Download von Zitaten
Benutzerstatistiken (COUNTER-kompatibel)
OnlineBooks
Ihre Bibliothek bleibt flexibel mit Wiley InterScience Online
Books. Dahinter stehen maßgeschneiderte, aktuelle Inhalte,
gepaart mit sinnvollen Abonnementsoptionen. Stellen Sie aus
über 2000 Titeln Ihre elektronische Bücherei zusammen.
Nach Bedarf ergänzen oder ändern Sie die Sammlung aus dem
breit gefächerten Angebot bewährter Klassiker und aktueller
Publikationen. Wie Sie zahlen (Kauf oder Abonnement –
Komplette Bücher oder einzelne Kapitel) bestimmen Sie selbst.
Für welches Modell Sie sich auch entscheiden: Unbegrenzt
viele Nutzer können gleichzeitig auf Werke aus allen Naturwissenschaften, Medizin, Technik, Wirtschaft und Finanzwesen
zugreifen.
www.interscience.wiley.com
TM